Журналисты и эксперты по безопасности предупреждают, что клонирование голоса с помощью ИИ позволяет создавать чрезвычайно правдоподобные голосовые сообщения о чрезвычайных ситуациях, имитирующие детей или родственников, чтобы заставить членов семьи срочно отправить деньги. В материале советуют сделать паузу, перезвонить человеку по известному номеру или использовать заранее оговорённые кодовые слова и предостерегают от оплаты подарочными картами, банковскими переводами или криптовалютой.

Журналисты и специалисты по кибербезопасности описывают стремительный рост так называемых мошенничеств «hey‑kid» и с участием бабушек и дедушек, осуществляемых с помощью клонирования голоса на базе ИИ, когда злоумышленники создают правдоподобные имитации всего по нескольким секундам аудиозаписи. Атакующие используют эти синтетические фрагменты в голосовых сообщениях и живых звонках, создавая эмоционально срочные сценарии — ребёнок в беде, родственник в больнице или замороженный счёт — чтобы выманить деньги до того, как жертвы успеют проверить информацию. Технология сокращает время и навык, ранее необходимые для выдачи себя за близкого человека, и о таких случаях сообщают по всему Великобритании и США, что вызывает местные новостные оповещения и отраслевые предупреждения. В материале подчёркиваются простые шаги верификации: сделать паузу и перезвонить на номер, который вы знаете как достоверный, использовать заранее оговорённые кодовые слова или фразы и никогда не выполнять требование немедленно оплатить с помощью подарочных карт, банковских переводов или криптовалюты. Также отмечается, как преступные торговые площадки и социальные платформы ускоряют распространение инструментов клонирования голоса и аудиопримеров, призывая к обучению потребителей и оперативному сообщению в правоохранительные органы для ограничения финансового и эмоционального вреда.