A polícia em Indore abriu uma investigação depois que um interlocutor usando uma voz gerada por IA se fez passar por um parente e coagiu um morador a transferir cerca de Rs 1.83 lakh. As autoridades alertaram que isto faz parte de uma tendência crescente de golpes por clonagem de voz que exploram a urgência emocional.

Um caso recente de Indore destaca a crescente ameaça das fraudes por clonagem de voz movidas por IA: um morador recebeu uma ligação na qual o autor usou uma voz gerada por IA que imitava de forma muito próxima um membro da família para criar urgência e exigir pagamento imediato. A vítima foi convencida a transferir cerca de Rs 1.83 lakh antes de perceber que a ligação era fraudulenta; a unidade cibernética da cidade abriu uma investigação. Esses chamados golpes "hi‑mom" ou de "clonagem de voz" exploram áudio sintético realista, engenharia social e dados pessoais disponíveis publicamente para fabricar emergências críveis. Investigadores alertam que tais fraudes podem ser seguidas por pedidos para mover fundos via UPI, transferência bancária ou cartões‑presente para evitar rastreabilidade. As autoridades aconselham o público a verificar de forma independente qualquer pedido urgente de dinheiro ligando para números conhecidos, ativando recursos de triagem de chamadas e recusando o pagamento até que a identidade seja confirmada por múltiplos canais. Bancos e plataformas de pagamento também devem ser alertados imediatamente se fundos forem transferidos sob coação, pois a notificação rápida aumenta a chance de recuperação.