Новое исследование показывает, что мошенничества с использованием дипфейков для выдачи себя за других стали дешевыми, масштабируемыми и сильно таргетированными — от фальшивых видеозвонков с участием руководителей до ИИ‑сгенерированных медицинских и политических одобрений. Исследователи предупреждают, что синтетическое аудио и видео теперь являются доминирующим, быстро растущим вектором финансового мошенничества и атак социальной инженерии.

Анализ базы инцидентов с ИИ и репортажи The Guardian показывают, как мошенничества с подменой личности, основанные на дипфейках, перешли от единичных случаев к промышленного масштаба. Мошенники используют синтетическое аудио и видео, чтобы имитировать руководителей, врачей и общественных деятелей, создавая реалистичные, целенаправленные взаимодействия, которые обманывают жертв и вынуждают их совершать переводы на крупные суммы и давать рекомендации. В одном задокументированном случае поддельный видеозвонок с "руководителем" убедил сотрудника финансового отдела в Сингапуре перевести почти $500,000. Другие примеры включают сгенерированные ИИ одобрения от врачей и политические подмены, направленные на влияние на общественное мнение или дискредитацию лиц. Исследователи обнаружили, что эти операции недороги в масштабировании, часто автоматизированы и способны производить большие партии правдоподобного контента, адаптированного под конкретных жертв. В докладе поднимаются тревоги по поводу финансовых потерь, эрозии доверия к записанным материалам и сложностей для следователей, поскольку стандартные проверки достоверности становятся ненадёжными. Эксперты призывают к скоординированным техническим, политическим и правовым мерам, включая инструменты обнаружения, стандарты происхождения и усиленное сотрудничество отрасли и правоохранительных органов, чтобы сдержать быстрый рост мошенничеств с синтетическими медиа.