Kommerzielle AI-Phishing-as-a-Service-Kits automatisieren hochgradig personalisierte Betrugsmaschen, berichten Threat-Teams
Threat-Intelligence-Teams meldeten ein kommerzielles, KI-gesteuertes Phishing-Toolkit, das auf Untergrundmärkten verkauft wird und personalisierte Phishing-E-Mails sowie mehrstufige Social-Engineering-Abläufe automatisiert. Sicherheitsspezialisten sagen, das Kit senke die Hürde für massenhafte, überzeugende Kampagnen und werde bereits in groß angelegten Romance- und Anlagebetrugsoperationen eingesetzt.
Forschende und Bedrohungsberichte dokumentierten eine rasche Verbreitung kommerziell vermarkteter AI-Phishing-Toolkits, die die Erstellung maßgeschneiderter Nachrichten, Spear-Phishing-Sequenzen und Multichannel-Engagement-Flows automatisieren. In Untergrundforen als erschwingliches Phishing-as-a-Service beworben, nutzen diese Kits generative Modelle, um personalisierte Betreffzeilen, glaubwürdige Hintergrundgeschichten und adaptive Antwortskripte zu erstellen, die den Ton und bekannte Kontakte eines Ziels nachahmen und so die Klickrate sowie den Erfolg beim Abgreifen von Anmeldedaten deutlich steigern. Sicherheitsteams berichteten, dass die Toolkits modulare Vorlagen für E-Mail, SMS und soziale Plattformen, integriertes Tracking und automatisiertes Persona-Management enthalten, das Angreifern erlaubt, Kampagnen zu skalieren, die zuvor auf maßgeschneiderte kriminelle Labore beschränkt waren. Die Verfügbarkeit solcher Toolkits wurde bereits mit Zunahmen bei Romance-, Investment- und Credential-Fraud-Operationen in Verbindung gebracht, da technische Hürden und Betriebskosten reduziert werden. Analysten warnten, dass Verteidigungsteams Verhaltensdetektion, schnellen Austausch von Bedrohungsinformationen und Gegenmaßnahmen wie Multi-Faktor-Authentifizierung und Nutzerschulungen einführen müssen, um die Effizienzgewinne, die Angreifer durch generative KI erzielen, abzuschwächen. Der Wandel unterstreicht einen breiteren Trend: KI kommodifiziert Social Engineering in großem Maßstab.
Verwandte Betrugsarten
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database