Laut einem Bericht der Washington Post verändert sich das Spiel: Betrüger nutzen KI, um Spam und betrügerische Werbeanzeigen in größerem Umfang zu testen und zu verbessern, während Google mit KI-gestützten Abwehrmaßnahmen gegensteuert. Für Verbraucher bedeutet das: Betrug bewirbt sich möglicherweise noch überzeugender – teils schon auf den ersten Blick.

Die Washington Post beschreibt, wie KI eingesetzt wird, um Spam- und Scam-Werbung wirksamer zu machen – sowohl durch bessere Inhalte als auch durch die Möglichkeit, in höherem Tempo Varianten zu testen und weiterzuentwickeln. Dadurch entsteht ein schneller drehender Betrugszyklus: Fraud-Angebote lassen sich rasch erneuern, anhand mutmaßlicher Zielgruppen personalisieren und in großem Maßstab ausspielen. Der Bericht stellt außerdem dar, dass Google KI-basierte Abwehrmechanismen nutzt, um schädliche Werbung zu erkennen und zu reduzieren. Für Nutzer im Alltag ist das vor allem eine Geschichte über „Trust Calibration“: Selbst wenn eine Plattform eingreift, können Scam-Anzeigen noch auftauchen, und besonders gefährliche Angebote können sogar besonders gut „poliert“ wirken. Um die eigene Exposition zu senken, sollten Nutzer Anzeigen als nicht verifizierte Kontakte behandeln. Wenn eine Anzeige einen Download, eine Zahlung oder eine Anmeldung fordert, ist der sicherste Weg, die Marke oder den Dienst direkt über die bekannte offizielle Adresse aufzurufen oder einen vertrauenswürdigen Lesezeichen-Eintrag zu verwenden – statt sich auf das Ziel der Werbung zu verlassen. Zusätzlich hilft es, verdächtige Behauptungen über unabhängige Quellen zu überprüfen und auf Dringlichkeitsmechanismen zu verzichten. Die zentrale Erkenntnis lautet: KI kann sowohl die Raffinesse von Betrug als auch die Raffinesse von Gegenmaßnahmen erhöhen – Verbraucher brauchen daher mehrere Bestätigungsschritte und sollten sich nicht allein auf visuelle Hinweise oder die Annahme verlassen, Plattformen würden so etwas schon herausfiltern.