Преступники используют ИИ, чтобы клонировать голоса близких, требуя срочных выплат по ложным чрезвычайным ситуациям.

ФБР выпустило срочное предупреждение о всплеске мошенничества с клонированием голоса на основе ИИ, нацеленном на семьи по всей Америке. Преступники собирают образцы голосов из видео в социальных сетях и используют продвинутые инструменты ИИ для создания убедительных клонов. Жертвы получают вызывные звонки, вызывающие панику, от голоса, звучащего точно как голос их детей или внуков, которые утверждают, что они в тюрьме, в больнице или застряли за границей и нуждаются в немедленном переводе денег. «Технология стала настолько совершенной, что даже близкие члены семьи не могут отличить фальшивый голос от настоящего», — заявило Отделение киберпреступности ФБР. Эксперты настоятельно рекомендуют установить секретное семейное кодовое слово для чрезвычайных ситуаций, известное только членам семьи. Ущерб от этих мошенничеств с использованием ИИ превысил 2,5 миллиарда долларов в 2024 году, при этом пожилые люди особенно становились мишенью.