Ein neuer Bericht der Google Threat Intelligence Group zeigt, wie staatlich unterstützte Akteure generative KI bereits heute systematisch für Cyberaufklärung, Social Engineering und Spionage einsetzen. Im Fokus stehen dabei erstmals auch Angriffe auf KI-Modelle selbst.
Foto: hkama - stock.adobe.com
Die sicherheitspolitische Debatte um künstliche Intelligenz ist längst nicht mehr abstrakt. Mit dem Bericht „AI Threat Tracker“, der rund um die Münchner Sicherheitskonferenz veröffentlicht wurde, zieht die Google Threat Intelligence Group eine operative Zwischenbilanz. Die Analyse beschreibt nicht nur, wie Angreifer KI nutzen, sondern auch, wie sich das Bedrohungsbild verschiebt: Weg von rein klassischen IT-Zielen hin zu KI-Systemen als eigenständigem Angriffsziel. Für Unternehmen mit hohem Technologie- und Wissensanteil wird damit eine neue Dimension von Risiko sichtbar.
Zentrale Beobachtung des Berichts ist, dass generative KI entlang des gesamten Angriffslebenszyklus eingesetzt wird. Staatlich unterstützte Akteure nutzen KI unter anderem zum Coden und Scripten, zur Recherche öffentlich bekannter Schwachstellen sowie zur Unterstützung von Aktivitäten nach einer Kompromittierung. Besonders relevant ist der Einsatz in der Aufklärungsphase für Social-Engineering-Kampagnen. KI hilft dabei, große Mengen an Open-Source-Informationen zu synthetisieren und potenzielle Opfer präzise zu profilieren.
Als Beispiele nennt der Bericht den vom iranischen Staat unterstützten Akteur APT42, der generative KI nutzt, um gezielt nach offiziellen E-Mail-Adressen bestimmter Organisationen zu suchen und potenzielle Geschäftspartner auszuspionieren. Ziel ist es, einen glaubwürdigen Vorwand für Social-Engineering-Angriffe zu schaffen. Der nordkoreanische Akteur UNC2970 wiederum gibt sich in Kampagnen als Personalvermittler aus und richtet sich konsequent gegen Verteidigungsunternehmen. Auch hier kommt KI zur Auswertung von OSINT-Daten und zur Erstellung von Zielprofilen zum Einsatz.
Als qualitativ neue Entwicklung beschreibt der Bericht sogenannte Model-Extraction- oder Distillation-Attacks. Dabei versuchen Angreifer, durch gezielte Abfragen Einblicke in die Schlussfolgerungen und internen Logiken eines KI-Modells zu gewinnen, um diese zu klonen. Im vergangenen Jahr identifizierten GTIG und Google DeepMind entsprechende Aktivitäten, die sowohl von globalen Unternehmen als auch von akademischen Forschern ausgingen.
Im Fokus stehen insbesondere generative Modelle mit fortgeschrittenen Fähigkeiten zum logischen Denken, etwa Gemini. Aus Sicht der Analysten handelt es sich um eine Form des Diebstahls geistigen Eigentums, die für Industrie, Mittelstand und technologiegetriebene Unternehmen relevant ist. Nicht die zugrunde liegende Technik sei neu, wohl aber das Angriffsziel: das KI-Modell selbst.
Parallel dazu beobachtet GTIG ein stetiges Wachstum KI-integrierter Malware. Bereits in einer Analyse vom November 2025 hatte das Team darauf hingewiesen, dass Bedrohungsakteure mit KI experimentieren, um neue Fähigkeiten in Malware-Familien zu integrieren. Diese Entwicklung setzte sich fort. Unter dem Namen HONESTCUE wurden Malware-Proben verfolgt, die die API von Gemini nutzten, um Teile der Funktionsgenerierung auszulagern und so herkömmliche netzwerkbasierte Erkennung sowie statische Analyse zu umgehen.
Auch bei Phishing-Angriffen spielt KI eine wachsende Rolle. GTIG identifizierte ein Phishing-Kit mit dem Namen COINBAIT, dessen Erstellung vermutlich durch KI-basierte Codegenerierung beschleunigt wurde. Das Kit gab sich als große Kryptowährungsbörse aus und zielte auf das Abgreifen von Zugangsdaten ab. Hinzu kommt sogenanntes „Rapport-Building Phishing“, bei dem klassische Warnsignale durch glaubwürdige, kontextbezogene Kommunikation zunehmend verschwinden.
Schließlich verweist der Bericht auf einen wachsenden Markt für KI-Dienste zur Unterstützung bösartiger Aktivitäten. Analysen englisch- und russischsprachiger Untergrundforen zeigen ein anhaltendes Interesse an KI-gestützten Tools. Gleichzeitig wird deutlich, dass viele Akteure Schwierigkeiten haben, eigene Modelle zu entwickeln. Stattdessen greifen sie auf bestehende, ausgereifte KI-Modelle zurück.
Ein erheblicher Teil der Aktivitäten dreht sich daher um gehackte oder gestohlene API-Schlüssel. Als Beispiel nennt GTIG das Untergrund-Toolkit „Xanthorox“, das als maßgeschneiderte KI zur autonomen Malware-Codegenerierung und zur Entwicklung von Phishing-Kampagnen beworben wird. Die Untersuchung ergab jedoch, dass Xanthorox aus mehreren KI-Produkten kommerzieller und externer Anbieter zusammengesetzt war.
Der „AI Threat Tracker“ ordnet damit die sicherheitspolitischen Diskussionen auf der Münchner Sicherheitskonferenz konkret ein: KI senkt Kosten, beschleunigt Angriffe und erschwert deren Erkennung. Für Unternehmen bedeutet das, dass KI nicht nur Werkzeug, sondern zunehmend auch schützenswertes Ziel ist.
Weitere Details lesen Sie hier im englischsprachigen Blog von Google.