Aumentan las estafas de clonación de voces por IA mientras los estafadores imitan voces de familiares para extorsionar dinero
Informes advierten sobre un aumento de las estafas de audio generadas por IA, en las que los estafadores clonan las voces de familiares para montar falsas emergencias familiares y presionar a las víctimas para que envíen dinero. Los expertos dicen que las voces sintéticas aceleran la sensación de urgencia y la credibilidad de las clásicas estafas por emergencia, ampliando la escala y la velocidad de la extorsión.
Autoridades y expertos de la industria están lanzando advertencias sobre una tendencia creciente en el fraude mediante clonación de voz que utiliza audio generado por IA para suplantar a familiares y crear escenarios falsos de emergencias familiares. Los estafadores obtienen muestras de voz cortas, sintetizan un habla convincente y contactan a las víctimas alegando una necesidad urgente de dinero —por ejemplo, facturas médicas falsas, problemas legales o emergencias de viaje— aumentando la presión sobre las víctimas para que transfieran fondos de inmediato. La táctica revive un manual de estafas por emergencias de larga data pero aprovecha el audio sintético para eludir algunos pasos de verificación, haciendo que el engaño sea más creíble incluso para oyentes con conocimientos técnicos. Los investigadores advierten que la tecnología reduce el tiempo y el esfuerzo necesarios para montar estafas y permite ataques a mayor escala, mientras que medidas defensivas como la verificación multifactor y los protocolos de llamada de verificación siguen siendo contramedidas efectivas. Los avisos a los consumidores recomiendan verificar la supuesta emergencia a través de canales secundarios, contactar a otros miembros de la familia y tratar con escepticismo las súplicas inesperadas de pago inmediato. También se insta a las instituciones financieras y plataformas a desplegar herramientas de supervisión del comportamiento y de las transacciones para detectar transferencias atípicas que puedan indicar pagos coaccionados.
Artículos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database