Residente de Indore pierde Rs 1.83 lakh tras la súplica de un 'familiar' clonada con IA
La policía en Indore abrió una investigación después de que un interlocutor, usando una voz generada por IA, se hiciera pasar por un familiar y coaccionara a un residente para que transfiriera aproximadamente Rs 1.83 lakh. Las autoridades advirtieron que esto forma parte de una tendencia creciente de estafas con clonación de voz que explotan la urgencia emocional.
Un caso reciente en Indore destaca la creciente amenaza de las estafas por clonación de voz impulsadas por IA: un residente recibió una llamada en la que el perpetrador usó una voz generada por IA que imitaba de forma muy cercana a un familiar para crear urgencia y exigir el pago inmediato. La víctima fue persuadida para transferir alrededor de Rs 1,83 lakh antes de darse cuenta de que la llamada era fraudulenta; la célula cibernética de la ciudad ha abierto una investigación. Estas llamadas llamadas estafas "hi‑mom" o de "clonación de voz" explotan audio sintético realista, ingeniería social y datos personales disponibles públicamente para fabricar emergencias creíbles. Los investigadores advierten que tales fraudes pueden ir seguidos de solicitudes para mover fondos mediante UPI, transferencias bancarias o tarjetas de regalo para evadir rastreabilidad. Las autoridades aconsejan al público verificar de forma independiente cualquier solicitud urgente de dinero llamando a números conocidos, activando funciones de filtrado de llamadas y negándose a pagar hasta que la identidad se confirme por múltiples canales. También debe alertarse inmediatamente a bancos y plataformas de pago si se han transferido fondos bajo coacción, ya que la notificación rápida mejora la probabilidad de recuperación.
Estafas relacionadas
Artículos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database