Доклад МСЭ ООН призывает к глобальным стандартам для обнаружения и маркировки ИИ-дипфейков после всплеска мошенничества
Международный союз электросвязи (ITU) рекомендовал срочно принять стандарты обнаружения и инструменты прослеживаемости для маркировки синтетического аудио/видео, предупреждая, что дипфейки всё чаще используются в инвестиционных, романтических и розыгрышных мошенничествах и могут угрожать выборам и рынкам. Доклад, обнародованный 30 дек. 2025 г. на саммите AI for Good, призывает к проверке платформ и международному сотрудничеству.
Отчёт Международного союза электросвязи, обнародованный вместе с освещением ООН 30 декабря 2025 года, предупреждает, что быстро развивающиеся инструменты синтеза ИИ делают возможными реалистичные аудио‑ и видео‑дипфейки, представляющие растущие риски мошенничества и угрозы безопасности. МСЭ рекомендует срочно принять интероперабельные технические стандарты, протоколы аутентификации контента и меры на уровне платформ по верификации и установлению происхождения для обнаружения и маркировки синтетических медиа. Авторы отмечают растущее использование дипфейков в инвестиционных и романтических мошенничествах — где сфабрикованные видео или голоса заставляют жертв переводить средства — а также в схемах с розыгрышами и вымогательством; они также указывают на потенциальные системные риски для выборов и финансовых рынков, если синтетический контент будет использован в массовом масштабе как оружие. В докладе призывается к тому, чтобы правительства, промышленность и международные организации разработали общие наборы инструментов для метаданных происхождения, API для обнаружения и оперативных процедур удаления контента, при этом соблюдая баланс между свободой выражения и защитой конфиденциальности. Он призывает крупные платформы внедрять проверяемые учётные данные и просит государства поддерживать наращивание возможностей, чтобы страны с ограниченными ресурсами могли защищаться от трансграничного злоупотребления дипфейками.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database