Alle 14 Tage aktuelle News aus der IT-Szene >
Eine neue Analyse von Netskope Threat Labs zeigt, dass die Nutzung generativer KI-Anwendungen im Unternehmensumfeld ist allgegenwärtig – und mit erheblichen Sicherheitsrisiken verbunden. Insbesondere die Nutzung privater Konten und der unkontrollierte Datenfluss bergen Gefahren, vor denen Sicherheitsteams dringend gewarnt werden.
Foto: Netskope
James Robinson, CISO von Netskope
Foto: Netskope
Ray Canzanese, Director of Netskope Threat Labs
Unternehmen weltweit setzen verstärkt auf generative KI, um Effizienz und Produktivität zu steigern. Doch der massive Anstieg sensibler Daten, die über nicht abgesicherte genAI-Anwendungen geteilt werden, wirft ernste Fragen zur Cybersicherheit auf. Laut einer aktuellen Studie von Netskope Threat Labs hat sich das Volumen dieser Daten innerhalb eines Jahres verdreißigfacht – darunter auch hochsensible Informationen wie Quellcode, Passwörter und geistiges Eigentum.
Die von Netskope veröffentlichte Studie „Generative AI Cloud and Threat Report 2025“ belegt eine dramatische Verlagerung: Schatten-KI entwickelt sich zur größten Herausforderung der Schatten-IT. Obwohl viele Unternehmen eigene GenAI-Tools implementieren, greifen laut Bericht 72 Prozent der Nutzer weiterhin über persönliche Konten auf öffentlich verfügbare GenAI-Apps wie ChatGPT, Google Gemini oder GitHub Copilot zu.
Unsere neuesten Daten zeigen, dass genAI nicht länger eine Nischentechnologie ist, sondern überall vorkommt“, sagt Ray Canzanese, Director of Netskope Threat Labs. „Sie wird zunehmend in alles integriert, von speziellen Anwendungen bis hin zu Backend- Integrationen. Diese Allgegenwärtigkeit stellt eine wachsende Herausforderung für die Cybersicherheit dar."
„Trotz der ernsthaften Bemühungen von Unternehmen zeigt unsere Studie, dass Schatten-IT zur Schatten-KI geworden ist“, erklärt James Robinson, CISO von Netskope. Diese unkontrollierte Nutzung erhöht das Risiko von Datenschutzverletzungen und geistigem Eigentumsverlust deutlich. Insbesondere weil GenAI-Apps Daten oft zur Weiterentwicklung ihrer Modelle verwenden, besteht die Gefahr, dass vertrauliche Informationen ungewollt offengelegt werden.
Quelle: Netskope
Quelle: Netskope
Ein überraschender Trend: Immer mehr Unternehmen setzen auf lokal gehostete GenAI-Infrastrukturen. Der Anteil ist laut Netskope innerhalb eines Jahres von unter einem Prozent auf 54 Prozent gestiegen. Damit wollen Organisationen die Risiken einer Datenexposition durch Drittanbieter-Clouds reduzieren. Gleichzeitig bringt dieser Schritt neue Herausforderungen mit sich – etwa in Bezug auf Prompt Injection, unsachgemäße Datenausgabe oder Risiken in der Lieferkette.
„KI verändert nicht nur die Sicherheit von Perimetern und Plattformen – sie schreibt die Regeln neu“, sagt Ari Giguere, Vice President of Security and Intelligence Operations bei Netskope. Unternehmen müssten sich auf eine Verteidigung in Echtzeit einstellen, die dem kreativen Einsatz von GenAI durch Angreifer ebenbürtig ist.
Angesichts der allgegenwärtigen Verbreitung von GenAI-Tools fordert Netskope ein systematisches Risikomanagement. Fast alle befragten Unternehmen haben bereits Maßnahmen ergriffen, um den Zugriff auf GenAI-Tools zu reglementieren. Dabei setzen sie auf Zugriffskontrollen, Datenklassifizierung und DLP-Technologien (Data Loss Prevention).
Um das Risiko durch den Einsatz generativer KI wirksam zu minimieren, empfiehlt Netskope zunächst eine sorgfältige Bestandsaufnahme der GenAI-Landschaft innerhalb des Unternehmens. Verantwortliche sollten sich einen Überblick darüber verschaffen, welche GenAI-Anwendungen und lokal gehosteten Infrastrukturen tatsächlich genutzt werden, wer auf diese Tools zugreift und in welchem Kontext dies geschieht.
Darüber hinaus ist es notwendig, die bestehenden Kontrollen für GenAI-Anwendungen regelmäßig zu überprüfen und gegebenenfalls zu verstärken. Dazu gehört unter anderem, nur ausdrücklich genehmigte Apps zuzulassen, alle anderen konsequent zu blockieren und technische Schutzmaßnahmen wie Data Loss Prevention einzusetzen, um zu verhindern, dass sensible Daten mit nicht zugelassenen Anwendungen geteilt werden. Ergänzend kann auch Echtzeit-Coaching der Nutzer sinnvoll sein, um das Bewusstsein für sicheres Verhalten im Umgang mit GenAI zu schärfen.
Für Unternehmen, die eigene GenAI-Infrastrukturen lokal betreiben, empfiehlt Netskope zudem, geeignete Sicherheitsstandards und Frameworks zu berücksichtigen. Dazu zählen beispielsweise die „OWASP Top 10 for Large Language Model Applications“, das „AI Risk Management Framework“ des US-amerikanischen NIST (National Institute of Standards and Technology) sowie das MITRE ATLAS-Framework. Diese bieten Orientierung bei der Entwicklung und Umsetzung wirksamer Schutzmaßnahmen für Daten, Nutzer und Netzwerke.
Den vollständigen „Generative AI Cloud and Threat Report 2025“ von Netskope Threat Labs finden Sie auf der Website des Unternehmens.