ФБР предупреждает о мошенничестве с использованием ИИ в праздничный сезон; IC3 зарегистрировал более 9 000 жалоб
ФБР выпустило национальное предупреждение в связи с праздничным сезоном, предупреждая, что мошенники используют инструменты ИИ, такие как клонирование голоса и синтетические изображения, чтобы активизировать мошенничества, связанные с семейными чрезвычайными ситуациями, романтическими отношениями, технической поддержкой и другие виды мошенничества. Бюро призвало жертв сообщать о подобных инцидентах в Центр жалоб на интернет‑преступления (IC3) и «остановиться и оценить» ситуацию, прежде чем отправлять деньги или передавать учетные данные.
ФБР выпустило национальное предупреждение, напомнив американцам, что мошенники в праздничный сезон усиливают давление и всё чаще используют инструменты на базе ИИ для обмана жертв. Бюро отметило, что жалобы, связанные с технологиями ИИ, в IC3 превысили 9 000 за первые семь месяцев 2025 года, и описало распространённые схемы, включая притворства при семейной чрезвычайной ситуации, романтические мошенничества и поддельные обращения в техподдержку, в которых применяются клонирование голоса, фальшивые изображения или видео и синтетические профили. В предупреждении подчёркиваются простые шаги по предотвращению: проверять запросы по известным номерам телефона или через отдельные каналы, не поддаваться на срочность и угрозы, сохранять переписку для следователей и сообщать о попытках мошенничества в IC3. Также рекомендуется техническая гигиена, такая как включение многофакторной аутентификации, использование уникальных паролей, внимательная проверка ссылок и вложений и консультация с доверенными контактами перед отправкой денег или передачей учётных данных. ФБР представило эти рекомендации как сочетание здравого смысла и оперативной отчётности, что помогает правоохранительным органам выявлять тенденции и пресекать деятельность мошенников, действующих через штатные и международные границы в разгар шопинг‑сезона.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database