Ein Einwohner von Indore verliert Rs 1.83 lakh nach der Bitte eines durch KI stimmgeclonten 'Verwandten'
Die Polizei in Indore leitete eine Untersuchung ein, nachdem ein Anrufer mit einer KI‑generierten Stimme einen Angehörigen nachgeahmt und einen Bewohner dazu gezwungen hatte, etwa Rs 1.83 lakh zu überweisen. Die Behörden warnten, dass dies Teil eines wachsenden Trends von Stimmenklon‑Betrügereien ist, die emotionale Dringlichkeit ausnutzen.
Ein aktueller Fall aus Indore hebt die zunehmende Bedrohung durch KI‑gestützte Stimmenklon‑Betrügereien hervor: Eine Bewohnerin erhielt einen Anruf, bei dem der Täter eine KI‑generierte Stimme verwendete, die eine nahe Verwandte eng nachahmte, um Dringlichkeit zu erzeugen und sofortige Zahlung zu fordern. Das Opfer wurde dazu verleitet, etwa Rs 1.83 lakh zu überweisen, bevor sie bemerkte, dass der Anruf betrügerisch war; die städtische Cyber‑Zelle hat eine Untersuchung eingeleitet. Diese sogenannten "hi‑mom" oder "voice‑clone"‑Betrügereien machen sich realistisch klingende synthetische Audios, Social Engineering und öffentlich verfügbare persönliche Daten zunutze, um glaubwürdige Notfälle zu konstruieren. Ermittler warnen, dass solchen Betrügereien oft Aufforderungen folgen, Gelder über UPI, Banküberweisung oder Geschenkkarten zu transferieren, um die Rückverfolgbarkeit zu erschweren. Die Behörden raten der Öffentlichkeit, jede dringende Geldforderung eigenständig zu verifizieren, indem sie bekannte Nummern zurückrufen, Anruf‑Screening‑Funktionen aktivieren und Zahlungen verweigern, bis die Identität über mehrere Kanäle bestätigt ist. Banken und Zahlungsplattformen sollten ebenfalls umgehend informiert werden, wenn Gelder unter Zwang transferiert wurden, da schnelle Meldung die Chance auf Rückholung erhöht.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database