Мошенничество с клонированием голоса остаётся растущей угрозой, предупреждают эксперты
Хотя за последние 48 часов не было зарегистрировано ни одного нового масштабного инцидента с подделкой голоса (voice‑deepfake), в уведомлениях отмечается общее увеличение случаев мошенничества с клонированием голоса. Потребителям и предприятиям настоятельно рекомендуется проверять запросы с помощью внеполосных (out‑of‑band) методов.
Последние предупреждения и ранее задокументированные случаи продолжают показывать, что мошенничество с клонированием голоса остается растущим вектором мошенничества, хотя в последние 48 часов не было зарегистрировано ни одного крупного нового инцидента. Мошенники все чаще используют ИИ для синтеза реалистичных копий голоса — выдавая себя за руководителей, членов семьи или сотрудников служб — чтобы санкционировать платежи, вытягивать учетные данные или манипулировать жертвами с целью перевода средств. Поскольку синтезированные голоса могут сочетаться со сценариями социальной инженерии и реальными контекстными деталями, жертвы могут быть убеждены действовать без независимой проверки. Эксперты советуют организациям внедрять строгие протоколы верификации финансовых операций (процедуры обратного звонка, контрольные слова, многоканальное подтверждение) и обучать персонал относиться с осторожностью к непрошенным голосовым запросам. Потребителям рекомендуется ограничивать публично доступные образцы голоса, тщательно проверять неожиданные звонки с просьбами о деньгах или учетных данных и по возможности использовать двухфакторную аутентификацию. Регуляторов и технологические компании также призывают инвестировать в инструменты обнаружения, водяные метки и политические меры для сдерживания злоупотреблений при сохранении баланса с законным использованием генеративной аудиотехнологии.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database