Анализ The Guardian и базы AI Incident Database показывает, что дипфейки стали дешёвыми и масштабируемыми, применяются в видео и аудио для распространения инвестиционных афер и имитации знакомых жертв. Эксперты предупреждают, что генеративный ИИ даёт возможность гиперперсонализированной социальной инженерии в найме, романтических схемах и корпоративном мошенничестве, усложняя обнаружение и реагирование правоохранительных органов.

Расследование, приведённое в The Guardian с опорой на записи AI Incident Database, указывает на сдвиг производства дипфейков от нишевых демонстраций к доступному инструменту с высокой пропускной способностью для преступников. Злоумышленники создают правдоподобные синтетические видео и аудиозаписи как публичных фигур, так и частных контактов жертв, чтобы продвигать фальшивые инвестиционные предложения, выдавать себя за руководителей при компрометации бизнес‑электронной почты и ускорять романс‑ и рекрутинговые аферы. В ряде задокументированных случаев жертвы теряли значительные суммы после просмотра реалистичного фейкового контента, который придавал видимую правдоподобность мошенническим запросам или ложным заявлениям о поддержке. Исследователи и специалисты по кибербезопасности отмечают, что демократизация генеративных моделей в сочетании с каналами массового распространения позволяет преступным группам одновременно атаковать большие группы и при этом персонализировать сообщения для высокого коэффициента конверсии. Рост злоупотреблений синтетическими СМИ ставит под нагрузку существующие инструменты детектирования и правовые механизмы, что вызывает требования ввести жёсткие стандарты происхождения контента, ускоренные процедуры удаления и масштабные информационные кампании. Полиция и другие правоохранительные органы перестраивают следственные процессы с учётом AI‑форензики, трассировки через блокчейн и международного сотрудничества, но эксперты предупреждают, что политика и технические барьеры отстают от темпов эксплуатации этих технологий.