Alle 14 Tage aktuelle News aus der IT-Szene >
Generative KI ist 2025 fixer Bestandteil unternehmerischer IT-Strategien – und stellt Sicherheitsverantwortliche zugleich vor wachsende Herausforderungen. Eine aktuelle Analyse von Palo Alto Networks zeigt deutliche Zuwächse bei Nutzung und Risikovorfällen.
Foto: Palo Alto Networks
Martin Zeitler, Senior Director Technical Solutions bei Palo Alto Networks
Generative Künstliche Intelligenz hat sich binnen kurzer Zeit von einer aufkommenden Innovation zu einem zentralen Werkzeug in Unternehmen entwickelt. Was vor wenigen Jahren noch als experimentell galt, gehört heute zum festen Bestandteil digitaler Wertschöpfung – quer durch Branchen und Regionen. Doch mit dem rasanten Einsatz kommt auch eine neue Komplexität: Der sichere und regelkonforme Umgang mit GenAI-Anwendungen gerät zunehmend unter Druck. Die aktuelle Ausgabe des „State of Generative AI Report“ von Palo Alto Networks macht deutlich, wie rasant sich Nutzung und Bedrohungslage entwickeln – auch in der DACH-Region.
Der Bericht, der auf Daten aus über 7.000 Kundenumgebungen weltweit basiert, weist einen Anstieg des GenAI-Traffics um über 890 Prozent im Jahr 2024 aus.
Quelle: Palo Alto Networks
Die Abbildung zeigt den monatlichen Trend bei GenAI-Transaktionen
Parallel dazu haben sich sicherheitsrelevante Vorfälle – insbesondere im Bereich Data Loss Prevention (DLP) – um das 2,5-Fache erhöht. GenAI-bezogene Vorfälle machen mittlerweile 14 Prozent aller DLP-Meldungen aus.
Quelle: Palo Alto Networks
Die Abbildung zeigt den prozentualer Anteil von GenAI-bezogenen DLP-Vorfällen
Ein weiteres Risiko ergibt sich aus der Vielzahl eingesetzter Anwendungen: Durchschnittlich nutzen Unternehmen 66 verschiedene GenAI-Tools, von denen etwa zehn Prozent als hochriskant eingestuft werden. Besonders problematisch: Über 70 Prozent der getesteten Anwendungen zeigten bei Sicherheitstests kritische Inhalte, darunter diskriminierende Aussagen und sicherheitsgefährdende Anleitungen – etwa zum Bau von Waffen.
Ein wachsendes Problem ist laut Bericht die unautorisierte Nutzung generativer KI – sogenannte Shadow AI. Dabei setzen Mitarbeitende nicht genehmigte Tools ein, was zu erheblichen Risiken für Datensicherheit und Compliance führen kann. Unternehmen registrieren durchschnittlich mehr als sechs besonders riskante GenAI-Anwendungen in ihrer Infrastruktur – ohne dass diese offiziell erlaubt oder abgesichert wären.
Martin Zeitler, Senior Director Technical Solutions bei Palo Alto Networks, sieht darin ein grundlegendes Versäumnis vieler Organisationen: „Die Studienergebnisse offenbaren ein fundamentales Dilemma: Die Einführung von GenAI erfolgt oft schneller als deren sichere Integration. Ohne klare Richtlinien, technische Schutzmechanismen und kontinuierliche Überwachung riskieren Unternehmen nicht nur den Verlust sensibler Daten, sondern auch regulatorische Konsequenzen und Imageschäden.“
Palo Alto Networks empfiehlt daher unter anderem den Einsatz von Zero-Trust-Architekturen, granulare Zugriffskontrollen und Echtzeit-Content-Scanning.
Quelle: Palo Alto Networks
Die Abbildung zeigt das AI Access Security Dashboard mit Copilot-Empfehlungen
Auch in der DACH-Region zeigt sich ein deutlicher Anstieg bei der Nutzung generativer KI – mit spezifischen Schwerpunkten je Land. In Österreich dominiert Grammarly mit einem Anteil von 33 Prozent am GenAI-Traffic, gefolgt von ChatGPT (25 Prozent) und Microsoft Power Apps (22 Prozent). In Deutschland liegt Power Apps mit 24 Prozent vorne, während in der Schweiz sogar ein Drittel des GenAI-Traffics auf diese Lösung entfällt.
Sicherheitskritisch ist vor allem der Einsatz bestimmter Anwendungen in deutschen Unternehmensnetzwerken. So macht etwa Micro 1 AI, ein KI-basierter Interviewer, fast 49 Prozent des riskanten GenAI-Traffics aus. Auch UseChat (32 Prozent) und Zendesk AI (29 Prozent) fallen in diese Kategorie.
Zeitler unterstreicht abschließend: „Entscheidend ist es, Innovation und Schutz nicht als Widerspruch, sondern als gemeinsames Ziel zu verstehen.“