ФБР выпустило публичное предупреждение о вымогателях, использующих модифицированные с помощью ИИ фотографии, дипфейк‑видео и, в некоторых случаях, клонирование голоса для создания поддельного ‘доказательства жизни’ при виртуальных похищениях. Агентство рекомендовало прямую проверку с предполагаемой жертвой и использование заранее оговорённых кодовых слов, чтобы сорвать эти срочные, мимолётные требования выкупа.

В предупреждениях, обнародованных 5–6 декабря 2025 г., ФБР предупредило общественность о росте случаев виртуального похищения, в которых используются изображения, сгенерированные ИИ, видеоди́пфейки и клонирование голоса для фабрикации доказательств похищения и давления на родственников жертв с целью получить выкуп. Злоумышленники обычно отправляют срочные текстовые или сообщения в социальных сетях, часто с медиаматериалами с ограниченным временем просмотра, требуя оплаты и угрожая немедленным вредом. Бюро подчеркнуло распространённые тактики, включая изменение подлинных фотографий, создание синтетических видеоклипов и использование клонированных голосов для выдачи себя за жертв; преступники эксплуатируют панику, ограниченное время на проверку и эмоциональную реакцию семей. Для противодействия угрозе ФБР рекомендовало установить прямой голосовой или видеоконтакт с предполагаемой жертвой, использовать заранее оговорённые семейные кодовые слова и относиться с скепсисом к срочным сообщениям, отговаривающим от самостоятельного подтверждения. В уведомлении также отмечалось, что злоумышленники могут использовать эфемерные сообщения или «одноразовые» аккаунты для уклонения от отслеживания. Руководство ФБР подчёркивает необходимость немедленного сообщения о подобных инцидентах в местные правоохранительные органы и сохранения всех сообщений и медиаматериалов для следователей в рамках более широких усилий по выявлению и пресечению операций по вымогательству с использованием дипфейков.