El FBI advirtió que los delincuentes utilizan cada vez más la clonación de voz por IA, deepfakes e imágenes alteradas para llevar a cabo esquemas de extorsión por secuestro virtual que presionan a las víctimas para que paguen rápidamente. Las autoridades aconsejan verificar directamente a un ser querido, usar palabras clave de seguridad familiares y denunciar los incidentes a las fuerzas del orden y al portal IC3.

El FBI emitió una alerta a nivel nacional describiendo un aumento de estafas de secuestro virtual asistidas por IA en las que los atacantes usan clonación de voz, videos deepfake y fotos alteradas por IA para crear pruebas convincentes pero fraudulentas de un ser querido retenido para pedir rescate. Los estafadores suelen contactar a las víctimas y exigir el pago inmediato, a menudo en criptomonedas o mediante métodos no rastreables, mientras aprovechan fragmentos de audio o video sintéticos para simular pánico o amenazas. La oficina señaló que los materiales generados por IA suelen contener inconsistencias detectables y aconsejó defensas prácticas: contactar directamente a la supuesta víctima usando números conocidos, establecer y usar palabras de seguridad familiares, limitar la difusión de medios privados en línea y reportar los incidentes a las autoridades locales y al centro de denuncias IC3 del FBI. La alerta resalta la rapidez y la presión emocional que explotan estas estafas, instando a instituciones y consumidores a implementar protocolos de verificación y a los proveedores de servicios a monitorear cuentas abusivas y medios manipulados. El FBI enfatizó la coordinación con las víctimas y la concienciación pública para reducir los resultados exitosos de extorsión y mejorar las pistas investigativas.