ФБР предупредило, что преступники все чаще используют клонирование голоса с помощью ИИ, дипфейки и поддельные изображения для проведения схем вымогательства при виртуальных похищениях, вынуждая жертв быстро платить. Власти советуют напрямую проверять, действительно ли с близким всё в порядке, использовать семейные кодовые слова и сообщать о таких инцидентах в правоохранительные органы и через портал IC3.

ФБР выпустило общенациональное предупреждение, в котором описывается рост числа виртуальных похищений с использованием ИИ, при которых злоумышленники применяют клонирование голоса, дипфейковые видео и ИИ‑изменённые фотографии для создания убедительных, но мошеннических доказательств удержания близкого человека с требованием выкупа. Мошенники обычно связываются с жертвами и требуют немедленной оплаты, часто в криптовалюте или иными неотслеживаемыми способами, при этом используя синтетические аудио- или видеоклипы для имитации паники или угроз. Бюро отметило, что текущие материалы, сгенерированные ИИ, часто содержат обнаруживаемые несоответствия, и дало практические рекомендации по защите: связаться с предполагаемой жертвой напрямую по известным номерам, установить и использовать семейные кодовые слова, ограничить распространение личных материалов в интернете и сообщать о подобных инцидентах в местные правоохранительные органы и в центр жалоб FBI IC3. В предупреждении подчеркивается скорость и эмоциональное давление, которыми пользуются эти мошенничества, призывая учреждения и потребителей внедрять протоколы верификации и провайдеров услуг — отслеживать злоупотребляющие аккаунты и манипулированные материалы. ФБР акцентировало координацию с жертвами и повышение общественной осведомлённости для снижения успешных случаев вымогательства и улучшения исходных данных для расследований.