По данным The Washington Post, мошенники используют ИИ, чтобы масштабировать спам и мошеннические рекламные объявления, а Google отвечает собственными ИИ-ориентированными мерами защиты. Для пользователей это означает, что такие объявления могут выглядеть убедительнее, чем раньше, даже при первом взгляде.

The Washington Post описывает, как ИИ применяют для повышения эффективности спама и мошеннической рекламы: он улучшает качество контента и позволяет проводить тесты и итерации в больших объемах. В результате мошенническая среда ускоряется — предложения скам-адов можно быстрее обновлять, подстраивать под сегменты пользователей, которые, по расчетам, с наибольшей вероятностью откликнутся, и запускать массово. В материале также говорится, что Google использует ИИ для защитных механизмов, нацеленных на выявление и снижение вредного рекламного трафика. Для обычных пользователей это история о «калибровке доверия»: даже когда платформа предпринимает действия, мошеннические объявления могут все равно попадаться, а наиболее опасные из них — часто выглядят наиболее «отполированными» и правдоподобными. Чтобы уменьшить риск, объявления стоит воспринимать как непроверенные «лиды». Если реклама ведет на скачивание, оплату или вход в аккаунт, самый безопасный вариант — открыть нужный сайт бренда или сервиса вручную, введя известный официальный адрес, или перейти через доверенную закладку, а не полагаться на целевой URL из объявления. Полезно также перепроверять подозрительные заявления через независимые источники и не поддаваться тактикам срочности. Главный вывод таков: ИИ способен одновременно повышать и уровень мошенничества, и уровень защиты, поэтому потребителям нужна многоступенчатая проверка, а не ставка на визуальные признаки или предположение, что «платформы наверняка это фильтруют».