Мошенничества с клонированием голосов ИИ участились: мошенники подделывают голоса членов семьи, чтобы вымогать деньги
Отчёты предупреждают об увеличении числа аудиомошенничеств, созданных с помощью ИИ, когда злоумышленники клонируют голоса родственников, чтобы инсценировать ложные семейные чрезвычайные ситуации и заставить жертв переводить деньги. Эксперты говорят, что синтетические голоса усиливают ощущение неотложности и правдоподобие классических мошенничеств с чрезвычайными ситуациями, расширяя масштаб и скорость вымогательства.
Власти и отраслевые эксперты бьют тревогу из‑за растущей тенденции мошенничества с клонированием голоса, в которой используются сгенерированные ИИ аудиозаписи для выдачи себя за родственников и создания фальшивых ситуаций семейной чрезвычайной необходимости. Мошенники получают короткие образцы голоса, синтезируют правдоподобную речь и выходят на связь с жертвами, заявляя о срочной необходимости в деньгах — например, поддельные медицинские счета, юридические проблемы или экстренные ситуации в поездках — что увеличивает давление на жертв с требованием немедленно перевести средства. Эта тактика возрождает давнюю схему мошенничества на тему чрезвычайных ситуаций, но использует синтетическое аудио, чтобы обойти некоторые шаги проверки, делая обман более правдоподобным даже для технически подкованных слушателей. Исследователи предупреждают, что технология сокращает время и усилия, необходимые для организации афер, и позволяет масштабировать атаки, в то время как защитные меры, такие как многофакторная верификация и протоколы обратного звонка, остаются эффективными противодействиями. Рекомендации для потребителей советуют подтверждать предполагаемую чрезвычайную ситуацию через вторичные каналы связи, связываться с другими членами семьи и относиться с подозрением к неожиданным просьбам о немедленной оплате. Финансовым учреждениям и платформам также рекомендуют внедрять инструменты мониторинга поведения и транзакций для выявления нетипичных переводов, которые могут указывать на платежи под принуждением.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database