Periodistas y expertos en seguridad advierten que la clonación de voces por IA está permitiendo mensajes de voz de emergencia muy convincentes que imitan a niños o familiares para presionar a los miembros de la familia a enviar dinero rápidamente. El artículo aconseja hacer una pausa, devolver la llamada al número conocido de la persona o usar palabras clave preestablecidas y advierte contra pagar con tarjetas regalo, transferencias bancarias o criptomonedas.

Periodistas y especialistas en ciberseguridad detallan un rápido aumento de las llamadas “hey‑kid” y las estafas a los abuelos facilitadas por la clonación de voz con IA, en las que los estafadores generan imitaciones creíbles a partir de solo unos segundos de audio. Los atacantes despliegan estos fragmentos sintéticos en buzones de voz y llamadas en directo para crear narrativas emocionalmente urgentes —un niño varado, un familiar en el hospital o una cuenta congelada— para extraer dinero antes de que las víctimas puedan verificar. La tecnología reduce el tiempo y la habilidad que antes se necesitaban para hacerse pasar por un ser querido y se está informando en Reino Unido y EE. UU., lo que ha provocado alertas en medios locales y advertencias del sector. La noticia enfatiza pasos de verificación sencillos: haz una pausa y llama de vuelta a un número que sepas que es auténtico, utiliza palabras o frases clave preestablecidas y nunca accedas a exigencias de pago inmediato que insistan en tarjetas regalo, transferencias bancarias o criptomonedas. También destaca cómo los mercados criminales y las plataformas sociales aceleran el intercambio de herramientas de clonación de voz y muestras de audio, instando a la educación del consumidor y a la denuncia rápida ante las autoridades para limitar el daño económico y emocional.