Опрос TechRadar показал, что примерно 25% американцев за последний год получили убедительно клонированные голосовые звонки, что указывает на резкий рост мошенничества с синтетическим голосом. Эксперты предупреждают, что генеративный ИИ масштабирует атаки по подделке голоса, повышая риск для пожилых людей и ценных целей.

Новые данные опроса, опубликованные TechRadar, свидетельствуют о переломном моменте: около одного из четырёх респондентов в США заявили, что за последние 12 месяцев им звонили с убедительно клонированным голосом. Исследователи инцидентов с ИИ и аналитики отмечают, что генеративные модели и общедоступные инструменты клонирования голоса позволяют злоумышленникам быстро создавать реалистичные подражания голосам родственников, руководителей компаний или госслужащих и использовать их в экстренно оформленных мошеннических схемах для выманивания денег, кодов аутентификации или конфиденциальной информации. Статья описывает, как злоумышленники комбинируют склонированную аудиозапись с персональными данными и деталями из социальных сетей, создавая крайне убедительные мошенничества при низкой маржинальной стоимости, и подчёркивает особую уязвимость пожилых и социально изолированных людей. TechRadar также приводит призывы экспертов к многоуровневой защите: усилению проверки идентификаторов звонящих, совместной работе отрасли по обнаружению синтетических медиа, просветительским кампаниям для общественности и регуляторному контролю моделей ИИ и платформ хостинга. В материале глубокфейки описаны как фактор, ускоряющий существующие виды мошенничества, что ставит серьёзные задачи для правоохранительных органов и защиты потребителей.