Анализ базы инцидентов ИИ, опубликованный The Guardian, фиксирует резкий рост использования дипфейк‑видео и клонированных голосов в целевых мошенничествах по всему миру. Авторы предупреждают, что недорогие и простые в развертывании инструменты позволяют злоумышленникам масштабировать атаки и прогнозируют рост финансовых потерь при отсутствии улучшенных методов обнаружения и контроля.

Последний анализ на основе AI Incident Database показывает, что мошенничество с применением дипфейков перешло от единичных случаев к индустриализованной форме атак. Исследование документирует всплеск ситуаций, когда синтетическое аудио и видео существенно повышали доверие жертв: это включало любовные аферы с подделанными видеозвонками, убеждавшими жертву в подлинности отношений, и схемы с имитацией финансовых директоров, где клонированные голоса отдавали указания на перевод средств. Авторы отмечают, что демократизация генеративных моделей и коммерциализация инструментов резко снизили технический порог для создания правдоподобных подделок, что делает возможной автоматизированную, высокоперсонализированную социальную инженерию в больших объёмах. В отчёте подчёркнуты задокументированные финансовые потери, сложности с атрибуцией атак и отрыв между компрометацией и монетизацией, когда украденные или сфабрикованные активы отмываются через сложные каналы. В качестве контрмер исследователи рекомендуют инвестировать в стандарты происхождения и аутентификации, развивать кроссплатформенные возможности обнаружения, ужесточить процедуры верификации финансовых транзакций и наладить государственно‑частное партнёрство для финансирования исследований и обмена разведданными об угрозах. Без внедрения таких мер, предупреждает доклад, преступники будут продолжать масштабировать мошенничество с дипфейками во всё большем числе демографий и секторов.