Исследователи по безопасности и журналисты предупреждают о растущей волне мошенничеств с экстренными звонками, в которых используются клонированные ИИ‑голоса — синтезирующие голоса детей по коротким аудиоклипам. Статья в The Guardian объясняет, насколько легко преступники могут создавать правдоподобные срочные голосовые сообщения и дает рекомендации по проверке, чтобы избежать мошенничества, основанного на эмоциях.

Расследовательская журналистика в The Guardian документирует рост мошенничества с клонированным голосом ИИ, при котором злоумышленники используют всего несколько секунд записанного аудио — снятого из постов в соцсетях, коротких фрагментов звонков или публичных видео — чтобы синтезировать голос близкого человека и оставить срочные голосовые сообщения с мольбой о деньгах. Материал суммирует интервью с жертвами, защитниками прав потребителей и исследователями в области безопасности, которые говорят, что техника быстрая, дешевая и тревожно эффективна в вызове инстинктивной реакции у членов семьи. Репортеры описывают типичную приманку: тревожный тон, сфабрикованный сценарий чрезвычайной ситуации и инструкции немедленно переслать деньги через банковский перевод, платежные приложения или подарочные карты. В статье изложены практические меры проверки для снижения ущерба: перезвонить человеку по известному номеру, заранее согласовать кодовое слово на случай чрезвычайной ситуации, сверить необычные просьбы с несколькими членами семьи и связаться с банками или платформами прежде чем отправлять средства. Также материал призывает платформы и правоохранительные органы приоритетно заниматься обнаружением и быстрым удалением синтетического аудио, используемого в активных мошеннических кампаниях.