Мошенничество с дипфейками достигает «промышленного масштаба», по данным AI Incident Database
Анализ AI Incident Database и расследование The Guardian показывают расширяющееся использование дипфейк-аудио и видео для крупномасштабного мошенничества и имитации людей с целью извлечения прибыли. Эксперты предупреждают, что доступные инструменты ИИ снизили барьеры и повысили персонализацию атак, увеличив риски для компаний и потребителей.
Новое исследование, опирающееся на данные AI Incident Database и материалы The Guardian, приходит к выводу, что мошенничество с использованием дипфейков сейчас происходит в «промышленных масштабах», давая злоумышленникам возможность создавать правдоподобные аудио- и видеоподделки. В документе зафиксирован широкий спектр схем — от имитаций голосов генеральных директоров для санкционирования незаконных переводов до фальшивых медицинских специалистов и подделанных взаимодействий с службой поддержки — что приводит к крупным финансовым потерям и ущербу репутации. Исследователи и специалисты по кибербезопасности отмечают, что готовые инструменты ИИ существенно снизили технические и финансовые барьеры для создания убедительных мультимедийных фейков, увеличив как объём, так и сложность целевых атак. Отмечается, что высокая степень персонализации повышает эффективность векторов социальной инженерии, размывая границы между автоматическим контентом и реальным человеческим общением. В качестве мер противодействия авторы предлагают усилить практики аутентификации, вводить многофакторную проверку для финансовых запросов, установить отраслевые стандарты отчётности об инцидентах и инвестировать в технологии обнаружения подделок. Анализ рассматривает дипфейки как нарастающую угрозу на пересечении мошенничества, кибербезопасности и информационной целостности, подчёркивая срочность скоординированных защитных мер со стороны компаний и регуляторов.