Investigadores de seguridad y periodistas advierten sobre una creciente ola de estafas de emergencia con voces clonadas por IA que sintetizan las voces de niños a partir de breves clips de audio. Un artículo de The Guardian explica lo fácil que es para los delincuentes crear mensajes de voz urgentes y convincentes y recomienda pasos de verificación para evitar fraudes impulsados por las emociones.

La investigación periodística en The Guardian documenta un aumento de las estafas con voces clonadas por IA en las que los delincuentes usan apenas unos segundos de audio grabado —obtenido de publicaciones en redes sociales, fragmentos cortos de llamadas o videos públicos— para sintetizar la voz de un ser querido y dejar mensajes de voz urgentes suplicando dinero. El artículo resume entrevistas con víctimas, defensores del consumidor e investigadores de seguridad que dicen que la técnica es rápida, barata y alarmantemente eficaz para provocar respuestas instintivas de los familiares. Los reporteros describen el señuelo típico: un tono de urgencia, un escenario de emergencia fabricado e instrucciones para enviar dinero de inmediato mediante transferencia bancaria, aplicaciones de pago o tarjetas regalo. El texto detalla medidas prácticas de verificación para reducir el daño: devolver la llamada a la persona en un número conocido, establecer una palabra clave preestablecida para emergencias, verificar solicitudes inusuales con varios miembros de la familia y contactar a bancos o plataformas antes de enviar fondos. También insta a las plataformas y a las fuerzas del orden a priorizar la detección y la eliminación rápida del audio sintético utilizado en campañas de fraude activas.