Мошенники используют клонирование голоса с помощью ИИ, чтобы создавать срочные голосовые сообщения, выдавая себя за родственников и требуя немедленных переводов. The Guardian предупреждает слушателей не торопиться, проверять через известные способы связи и вводить семейные кодовые слова, чтобы предотвратить vishing‑атаки.

The Guardian сообщает о резком росте случаев использования голосового клонирования на базе ИИ для создания правдоподобных голосовых сообщений с просьбой о срочных переводах денег, часто изображающих детей или других родственников. Преступники могут собрать пригодный голосовой клон всего из нескольких секунд аудио, добытого из приветствий на автоответчике, записей в социальных сетях или видео, а затем передать убедительные сообщения, давящие на жертву с целью немедленного перевода средств. В статье перечислены практические меры предосторожности: удалить или заменить персонализированные приветствия на автоответчике на общие сообщения, установить в семье специальные кодовые слова и процедуры проверки, а также всегда перезванивать по сохранённому номеру вместо ответа на сообщение. Подчеркивается, что атакующие сочетают социальную инженерию с ИИ‑инструментами, чтобы усилить доверие и создать ощущение срочности, формируя вишинговые кампании, которые труднее обнаружить. Материал также освещает эмоциональное воздействие на семьи и необходимость адаптации методов обнаружения и реагирования со стороны технологических компаний и правоохранительных органов. В качестве наиболее эффективной немедленной защиты для потенциальных жертв акцентируются простые поведенческие меры и практики верификации.