Житель Индора потерял Rs 1.83 lakh после просьбы 'родственника', голос которого клонировал ИИ
Полиция в Индоре начала расследование после того, как звонящий, использовавший голос, сгенерированный ИИ, выдал себя за родственника и вынудил жителя перевести примерно Rs 1.83 lakh. Власти предупредили, что это часть растущей тенденции мошенничеств с клонированием голосов, эксплуатирующих эмоциональную срочность.
Недавнее дело из Индора подчёркивает растущую угрозу мошенничеств с клонированием голоса на базе ИИ: жителю позвонили, и преступник использовал сгенерированный ИИ голос, который очень походил на родственника, чтобы создать ощущение неотложности и потребовать немедленную оплату. Жертву убедили перевести около Rs 1.83 lakh, прежде чем она поняла, что звонок был мошенническим; киберотдел города возбудил проверку. Эти так называемые "hi‑mom" или "voice‑clone" мошенничества используют реалистичную синтетическую аудиозапись, методы социальной инженерии и общедоступные личные данные для создания правдоподобных чрезвычайных ситуаций. Следователи предупреждают, что за такими мошенничествами могут последовать просьбы перевести средства через UPI, банковский перевод или подарочные карты, чтобы избежать отслеживания. Власти советуют населению самостоятельно проверять любые срочные просьбы о деньгах, перезванивая по известным номерам, включая функции фильтрации звонков, и отказываться от платежа до подтверждения личности через несколько каналов. Банки и платёжные платформы также должны быть немедленно уведомлены, если средства переведены под принуждением, так как быстрая подача заявления повышает шансы на возврат.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database