El FBI advierte sobre extorsiones de secuestro virtual generadas por IA con deepfakes y clonación de voz
El FBI emitió una advertencia pública sobre extorsionadores que utilizan fotos alteradas por IA, video deepfake y, en algunos casos, clonación de voz para crear una falsa 'prueba de vida' en secuestros virtuales. La agencia aconsejó la verificación directa con la presunta víctima y el uso de palabras clave preestablecidas para frustrar estas exigencias de rescate urgentes y efímeras.
En avisos publicados el 5 y 6 de diciembre de 2025, el FBI advirtió al público sobre un aumento de las estafas de secuestro virtual que utilizan imágenes generadas por IA, deepfakes de vídeo y clonación de voz para fabricar pruebas de secuestro y presionar a las familias de las víctimas para que paguen rescates. Los atacantes suelen enviar mensajes urgentes por SMS o redes sociales, a menudo con medios de duración limitada, exigiendo el pago y amenazando con daño inmediato. La oficina subrayó tácticas comunes, incluyendo la alteración de fotos auténticas, la creación de clips de vídeo sintéticos y el uso de voces clonadas para suplantar a las víctimas; los delincuentes explotan el pánico, el tiempo limitado para verificar y las respuestas emocionales de las familias. Para contrarrestar la amenaza, el FBI recomendó contacto directo por voz o vídeo con el presunto secuestrado, el uso de palabras clave familiares preestablecidas y escepticismo ante comunicaciones sensibles al tiempo que desaconsejan la confirmación independiente. El aviso también señaló que los atacantes pueden usar mensajería efímera o cuentas temporales para evadir el rastreo. La orientación del FBI enfatiza denunciar los incidentes con prontitud a las fuerzas del orden locales y conservar todos los mensajes y medios para los investigadores como parte de los esfuerzos más amplios para identificar y desarticular operaciones de extorsión habilitadas por deepfakes.
Artículos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database