Отчёты предупреждают об увеличении числа аудиомошенничеств, созданных с помощью ИИ, когда злоумышленники клонируют голоса родственников, чтобы инсценировать ложные семейные чрезвычайные ситуации и заставить жертв переводить деньги. Эксперты говорят, что синтетические голоса усиливают ощущение неотложности и правдоподобие классических мошенничеств с чрезвычайными ситуациями, расширяя масштаб и скорость вымогательства.

Власти и отраслевые эксперты бьют тревогу из‑за растущей тенденции мошенничества с клонированием голоса, в которой используются сгенерированные ИИ аудиозаписи для выдачи себя за родственников и создания фальшивых ситуаций семейной чрезвычайной необходимости. Мошенники получают короткие образцы голоса, синтезируют правдоподобную речь и выходят на связь с жертвами, заявляя о срочной необходимости в деньгах — например, поддельные медицинские счета, юридические проблемы или экстренные ситуации в поездках — что увеличивает давление на жертв с требованием немедленно перевести средства. Эта тактика возрождает давнюю схему мошенничества на тему чрезвычайных ситуаций, но использует синтетическое аудио, чтобы обойти некоторые шаги проверки, делая обман более правдоподобным даже для технически подкованных слушателей. Исследователи предупреждают, что технология сокращает время и усилия, необходимые для организации афер, и позволяет масштабировать атаки, в то время как защитные меры, такие как многофакторная верификация и протоколы обратного звонка, остаются эффективными противодействиями. Рекомендации для потребителей советуют подтверждать предполагаемую чрезвычайную ситуацию через вторичные каналы связи, связываться с другими членами семьи и относиться с подозрением к неожиданным просьбам о немедленной оплате. Финансовым учреждениям и платформам также рекомендуют внедрять инструменты мониторинга поведения и транзакций для выявления нетипичных переводов, которые могут указывать на платежи под принуждением.