ИИ может подделывать голос
Voiceprint, служба голосовой идентификации, используемая миллионами жителей Австралии для доступа к государственным учреждениям, имеет серьезную уязвимость в системе безопасности.
Centrelink (портал государственных услуг Австралии) и Австралийское налоговое управление (Australian Taxation Office) предоставляют людям возможность использовать «голосовой отпечаток» вместе с другой информацией для подтверждения своей личности по телефону, что позволяет им получать доступ к личной информации.
Недавно стало известно о том, что сгенерированная имитация голоса может быть использована для доступа к услугам банков. Благодаря ИИ, имея всего четыре минуты аудио, возможно создать клон собственного голоса, а затем использовать его чтобы получить доступ к своей собственной учетной записи самообслуживания.
«Для кого-то очень сложно получить доступ к вашей личной информации. Система может определить, когда кто-то притворяется вами или использует запись вашего голоса. Мы не дадим им доступ к вашим данным» – уверяет служба безопасности портала.
Конечно же в системе используется двухфакторная идентификация, и любой, кто пытается использовать голосовой отпечаток, должен знать ID владельца учетной записи, но этот номер можно узнать из других источников, таких как переписка с госорганами, ответы на заявления и информация о медицинских услугах.
Bank Australia предлагает голосовую идентификацию в качестве опции, чтобы уменьшить потребность в контрольных вопросах. Это может быть более сложным для мошенников, использующих искусственный интеллект, но технологии не стоят на месте и вскоре такие диалоги станут возможными.
Nuance, чьи технологии используются для службы голосовой идентификации, заявляет, что ее новейшая технология может точно обнаруживать использование клонированных голосов в 86%–99% случаев, в зависимости от используемой технологии.
Относительно новая технология клонирования голоса, уже предлагается рядом приложений и веб-сайтов либо бесплатно, либо за небольшую плату, а модель голоса может быть создана с использованием всего нескольких аудиозаписей речи человека. Наилучший результат получается при использовании высококачественного аудио, но любой человек разместивший записи своего голоса в социальных сетях подвергается риску.