El FBI advierte al público de EE. UU. sobre estafas de «secuestro virtual» generadas por IA que utilizan clonación de voz
El FBI advirtió que los delincuentes utilizan cada vez más la clonación de voz por IA, deepfakes e imágenes alteradas para llevar a cabo esquemas de extorsión por secuestro virtual que presionan a las víctimas para que paguen rápidamente. Las autoridades aconsejan verificar directamente a un ser querido, usar palabras clave de seguridad familiares y denunciar los incidentes a las fuerzas del orden y al portal IC3.
El FBI emitió una alerta a nivel nacional describiendo un aumento de estafas de secuestro virtual asistidas por IA en las que los atacantes usan clonación de voz, videos deepfake y fotos alteradas por IA para crear pruebas convincentes pero fraudulentas de un ser querido retenido para pedir rescate. Los estafadores suelen contactar a las víctimas y exigir el pago inmediato, a menudo en criptomonedas o mediante métodos no rastreables, mientras aprovechan fragmentos de audio o video sintéticos para simular pánico o amenazas. La oficina señaló que los materiales generados por IA suelen contener inconsistencias detectables y aconsejó defensas prácticas: contactar directamente a la supuesta víctima usando números conocidos, establecer y usar palabras de seguridad familiares, limitar la difusión de medios privados en línea y reportar los incidentes a las autoridades locales y al centro de denuncias IC3 del FBI. La alerta resalta la rapidez y la presión emocional que explotan estas estafas, instando a instituciones y consumidores a implementar protocolos de verificación y a los proveedores de servicios a monitorear cuentas abusivas y medios manipulados. El FBI enfatizó la coordinación con las víctimas y la concienciación pública para reducir los resultados exitosos de extorsión y mejorar las pistas investigativas.
Artículos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database