Большинство инструментов для клонирования голоса не защищены от мошенников, выяснили Consumer Reports
Технология клонирования голоса с использованием искусственного интеллекта сделала значительные успехи за последние годы, достигнув уровня, позволяющего создать реалистично звучащее аудио всего из нескольких секунд образца. Хотя это имеет много положительных применений — таких как аудиокниги, маркетинговые материалы и многое другое — эта технология также может быть использована для сложных мошеннических схем и других вредоносных применений.
Чтобы узнать больше о мерах безопасности, которые сейчас существуют для этих продуктов, Consumer Reports оценили шесть ведущих инструментов для клонирования голоса: Descript, ElevenLans, Lovo, PlayHT, Resemble AI и Speechify. Consumer Reports искали правильные механизмы безопасности, которые предотвращают клонирование голоса без ведома человека.
Результаты исследования Consumer Reports
Результаты показали, что четыре из шести продуктов — от ElevenLabs, Speechify, PlayHT и Lovo — не имели технических механизмов, необходимых для предотвращения клонирования голоса без ведома человека или ограничения клонирования только для голоса пользователя. Вместо этого защита ограничивалась отметкой в графе, в которой пользователи должны были подтвердить, что имеют законное право на клонирование голоса.
Дескрипт и Resemble AI оказались единственными компаниями, предпринявшими дополнительные шаги, чтобы усложнить для клиентов возможность незапланированного клонирования. Дескрипт просил пользователя прочитать и записать заявление о согласии и использовал это аудио для создания клона. Resemble AI предлагает другой подход, гарантируя, что первый клон голоса создается на основе аудио, записанного в реальном времени.
Мошенничество с клонированием голоса
Часто нелегальное клонирование используется для мошенничества. Например, популярная атака включает клонирование голоса члена семьи и последующее использование этой записи для обращения к близкому человеку с просьбой отправить деньги на помощь в сложной ситуации. Поскольку жертва думает, что слышит голос родственника в беде, она с большей вероятностью отправит необходимые средства, не задавая вопросов.
Клонирование голоса также использовалось для влияния на решения избирателей на предстоящих выборах, как это видно на выборах 2024 года, когда кто-то клонировал голос бывшего президента Джо Байдена, чтобы отговорить людей от посещения избирательных участков.
Рекомендации Consumer Reports
Consumer Reports также обнаружили, что для создания учетной записи на Speechify, Lovo, PlayHT и Descript требовались только адрес электронной почты и имя. Consumer Reports рекомендует этим компаниям также собирать информацию о кредитной карте клиентов, чтобы отследить поддельное аудио до злоумышленника.
- Создание механизма для обеспечения владения голосом, например, чтение уникального сценария.
- Внедрение водяных знаков на AI-сгенерированное аудио.
- Создание инструмента для обнаружения AI-сгенерированных изображений.
- Обнаружение и предотвращение клонирования голоса влиятельных или публичных фигур.
- Запрет аудио, содержащего мошеннические фразы.
Самое большое изменение в текущей системе заключается в предложении Consumer Reports предусмотреть надзор за процессом клонирования голоса, вместо текущего метода DIY.
Consumer Reports также отметили, что следует подчеркнуть важность понимания субъектами их ответственности в случае злоупотребления голосовой моделью в рамках договорного соглашения.
Советы по защите от мошенничества
Если вы получите срочный звонок от знакомого, требующего денег, не впадайте в панику. Используйте другое устройство, чтобы напрямую связаться с этим человеком и подтвердить запрос. Если не удается связаться с этим человеком, также можно задать звонящему вопросы для подтверждения его личности.
Подписывайтесь на наш telegram-канал








