Microsoft beschreibt eine durch KI verbesserte „Device Code“-Phishing-Kampagne, die das Auftreten von Angreifern realistischer macht und die Köder-Abläufe effektiver gestaltet. Die Hinweise richten sich an Organisationen und Privatpersonen, die mit Bedrohungen im Umfeld von MFA und Device-Sign-in konfrontiert sind.

Microsoft hat eine KI-gestützte „Device Code“-Phishing-Kampagne vorgestellt, die darauf abzielt, die Erwartungen der Nutzer in Authentifizierungsabläufen auszunutzen. Die Methode richtet sich an Personen, die sich über Device-Sign-in-Prozesse authentifizieren, etwa indem sie den Zugriff in einem Browser-zu-Geräte-Workflow über einen Gerätecode freigeben. Anschließend verbessern die Angreifer ihre Tarnung, um die Erfolgsquote zu erhöhen: Microsoft zufolge wird die Wirkung gesteigert, indem das vermeintlich legitime Erscheinungsbild weiter verfeinert und die Köder so angepasst werden, dass sie dem typischen Nutzerverhalten entsprechen—mit dem Ziel, Reibung zu reduzieren und die Wahrscheinlichkeit zu erhöhen, dass Opfer den Anweisungen folgen. Der Beitrag stellt außerdem klar, dass MFA-Eingabeaufforderungen und Device-Sign-in-Screens weiterhin missbraucht werden können, sobald Angreifer es schaffen, Nutzer zur Genehmigung einer bösartigen Authentifizierungsanfrage zu bewegen. Für Verteidiger und Verbraucher nennt Microsoft konkrete Risikosignale, darunter unerwartete Device Codes, Kontexte, die nicht zusammenpassen, sowie Aufforderungen, die nicht zu den tatsächlichen Login-Versuchen des Nutzers passen. Ergänzend werden mit Blick auf die Absicherung praktische Schritte beschrieben, etwa das Stärken von Identitätsschutzmaßnahmen, das Monitoring von Auffälligkeiten in Authentifizierungsdaten sowie die Schulung von Nutzern, Device-Code-Prompts als besonders riskant zu behandeln, sofern sie nicht über bekannte, sichere Kanäle bestätigt wurden. Insgesamt handelt es sich um eine technische, aber umsetzbare Warnung, dass KI die Wirksamkeit von Social-Engineering in MFA-nahen Angriffspfaden spürbar verbessern kann.