Эксперты предупреждают, что клонирование голосов с помощью ИИ подпитывает рост vishing и мошеннических схем социальной инженерии
Отраслевые отчёты подтверждают, что клонирование голоса с помощью ИИ всё чаще используется мошенниками для выдачи себя за руководителей, родственников или операторов служб обслуживания в vishing-атаках. Хотя за последние 48 часов не произошло ни одного крупного инцидента, исследователи призывают к усилению методов аутентификации и повышению общественной осведомлённости.
Органы по безопасности и защите прав потребителей продолжают поднимать вопрос о клонировании голоса с помощью ИИ как о растущем факторе, облегчающем фишинг по телефону (vishing) и сложные схемы социальной инженерии. Отчёты исследователей отрасли и компаний, таких как McAfee, подчёркивают, что недорогие инструменты синтеза голоса с высоким качеством позволяют злоумышленникам убедительно имитировать руководителей, родственников или сотрудников службы поддержки, что увеличивает вероятность того, что жертвы пойдут на финансовые или информационные уступки. Хотя за последние 48 часов не было зафиксировано ни одного отдельно выделяющегося резонансного инцидента с клонированием голоса, тенденция усиливает риски в разных секторах: финансовые подразделения компаний сталкиваются с мошенничеством, когда под видом руководителя звучат реалистичные голосовые запросы; семьи получают звонки якобы от родственников, находящихся в беде; а системы аутентификации в колл‑центрах на основе голосовых отпечатков демонстрируют уязвимости. Рекомендуемые меры включают внедрение многофакторной и внеполосной (out‑of‑band) проверки для финансовых запросов, обучение персонала скептическому отношению к нежелательным голосовым подтверждениям и использование фраз-ответов или процедур обратного звонка. Постачики и регуляторы также призваны совершенствовать средства обнаружения, внедрять в синтетическую аудиоинформацию водяные знаки и публиковать рекомендации для общественности с целью снижения эффективности мошенничества с клонированными голосами. (Источник: анализ McAfee и отраслевое освещение, 2025)
Связанные виды мошенничества
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database