Estafadores Románticos Ahora Usan Videollamadas Deepfake en Tiempo Real con IA
La tecnología deepfake permite a los estafadores llevar a cabo videollamadas en vivo convincentes, eludiendo la verificación tradicional.
La Comisión Federal de Comercio ha publicado un informe alarmante que revela que los estafadores románticos han comenzado a usar tecnología de video deepfake en tiempo real para realizar videollamadas convincentes con las víctimas. Esta nueva técnica peligrosa anula por completo el consejo común de "chatear por video para verificar la identidad de alguien". Las víctimas informan haber mantenido múltiples conversaciones por video durante semanas o meses con su supuesto interés romántico, sólo para descubrir finalmente que la persona nunca existió. La tecnología de IA puede generar expresiones faciales realistas, sincronizar los labios con la voz del estafador e incluso imitar distintos acentos. Las recomendaciones de la FTC incluyen: buscar todas las fotos mediante búsqueda inversa de imágenes, desconfiar muchísimo de cualquiera que diga estar en las fuerzas armadas en el extranjero, trabajar en plataformas petrolíferas o ser médico en el extranjero, y nunca enviar dinero a alguien que no hayas conocido en persona varias veces. Las pérdidas por estafas románticas alcanzaron un récord de $1.3 mil millones en 2024.