Estafadores Románticos Ahora Usan Videollamadas Deepfake en Tiempo Real con IA
La tecnología deepfake permite a los estafadores llevar a cabo videollamadas en vivo convincentes, eludiendo la verificación tradicional.
La Comisión Federal de Comercio ha publicado un informe alarmante que revela que los estafadores románticos han comenzado a usar tecnología de video deepfake en tiempo real para realizar videollamadas convincentes con las víctimas. Esta nueva técnica peligrosa anula por completo el consejo común de "chatear por video para verificar la identidad de alguien". Las víctimas informan haber mantenido múltiples conversaciones por video durante semanas o meses con su supuesto interés romántico, sólo para descubrir finalmente que la persona nunca existió. La tecnología de IA puede generar expresiones faciales realistas, sincronizar los labios con la voz del estafador e incluso imitar distintos acentos. Las recomendaciones de la FTC incluyen: buscar todas las fotos mediante búsqueda inversa de imágenes, desconfiar muchísimo de cualquiera que diga estar en las fuerzas armadas en el extranjero, trabajar en plataformas petrolíferas o ser médico en el extranjero, y nunca enviar dinero a alguien que no hayas conocido en persona varias veces. Las pérdidas por estafas románticas alcanzaron un récord de $1.3 mil millones en 2024.
What this article means for a user right now
La tecnología deepfake permite a los estafadores llevar a cabo videollamadas en vivo convincentes, eludiendo la verificación tradicional.
- Scam Detector: For mixed scam inputs such as messages, files, screenshots, links, and fake shops.
- How StopScam Works: For the product path from first web check to ongoing mobile protection.
Estafas relacionadas
Siguiente paso
Recursos oficiales
Artículos relacionados
DOJ Scam Center Strike Force recovers roughly $580M in crypto tied to pig‑butchering romance/investment scams
Cambodia steps up raids on foreign‑run scam compounds amid international pressure