A reportagem do The Washington Post aponta uma nova dinâmica: criminosos usam IA para ampliar o spam e os anúncios de golpes, enquanto o Google responde com defesas baseadas em IA. Para consumidores, isso significa que anúncios fraudulentos podem parecer ainda mais convincentes, inclusive à primeira vista.

O The Washington Post descreve como a inteligência artificial está sendo usada para tornar spam e publicidade de golpes mais eficazes, tanto ao elevar a qualidade do conteúdo quanto ao permitir testes e iterações em maior volume. Com isso, o ambiente de fraudes se move mais rápido: ofertas fraudulentas podem ser atualizadas com frequência, adaptadas a públicos que parecem mais propensos e distribuídas em larga escala. A reportagem também afirma que o Google aplica defesas baseadas em IA para identificar e reduzir anúncios prejudiciais. Na prática, para usuários comuns, o cenário é uma história de “ajuste de confiança”: mesmo quando a plataforma age, anúncios de golpes ainda podem aparecer, e os mais perigosos podem ser exatamente os que têm aparência mais bem acabada. Para reduzir a exposição, a orientação é tratar anúncios como leads não verificados; se um anúncio incentiva download, pagamento ou login, o caminho mais seguro costuma ser acessar digitando o endereço oficial conhecido da marca ou usando um marcador (bookmark) confiável, em vez de depender do destino indicado no anúncio. Também é importante checar alegações suspeitas em fontes independentes e evitar táticas de urgência. A mensagem central é que a IA pode aumentar tanto a sofisticação dos golpes quanto a das defesas — então a verificação precisa ser em camadas, sem depender apenas de indícios visuais ou da suposição de que “a plataforma certamente está filtrando”.