Künstliche Intelligenz durchdringt immer mehr Geschäftsprozesse – und gerät damit ins Visier von Cyberkriminellen. Dell Technologies warnt vor einer Reihe spezifischer Angriffsszenarien auf KI-Modelle. Unternehmen sollten die Risiken kennen, um rechtzeitig wirksame Schutzmaßnahmen zu etablieren.
Foto: Dell Technologies
Christian Scharrer ist Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland
Künstliche Intelligenz gilt als Schlüsseltechnologie für die digitale Transformation. Doch mit ihrem rasanten Einzug in Unternehmen und Branchen wird auch die Angriffsfläche größer. Cyberkriminelle haben längst nicht mehr nur IT-Infrastrukturen und Datenbestände im Blick, sondern richten ihre Aktivitäten zunehmend direkt gegen die Modelle selbst. Manipulationen können dabei gravierende Folgen haben – von verfälschten Ergebnissen bis hin zum Abfluss vertraulicher Informationen.
Die Entwicklung und das Training von KI-Modellen sind kosten- und zeitintensiv. Umso attraktiver ist es für Angreifer, diese Modelle zu kopieren oder gezielt zu schwächen. Dell Technologies beschreibt unter anderem den Modelldiebstahl, bei dem massenhafte Abfragen Rückschlüsse auf Funktionsweise, Gewichtungen oder Trainingsdaten erlauben. Ähnlich brisant ist das Data Poisoning, bei dem Trainingsdaten manipuliert werden, um Fehler einzuschleusen oder versteckte Hintertüren einzubauen.
Ein weiteres Szenario ist die Model Inversion: Angreifer rekonstruieren Trainingsdaten aus den Antworten des Modells, wodurch sensible Informationen offengelegt werden können. Auch Perturbation-Angriffe zählen zu den Risiken – hier führen bereits kleine Veränderungen an Eingabedaten zu falschen Klassifikationen oder Vorhersagen.
Neben klassischen Manipulationen nehmen auch Angriffe auf das Verhalten der Systeme zu. Bei der Prompt Injection bringen Angreifer Sprach- oder Textmodelle mit gezielten Eingaben dazu, unerwünschte oder vertrauliche Inhalte preiszugeben. Noch komplexer ist das sogenannte Rewards Hacking: Wird beim Reinforcement Learning das Belohnungssystem manipuliert, trainiert sich die KI ein fehlerhaftes Verhalten an, das ihre künftige Leistungsfähigkeit einschränkt.
Auch bewährte Angriffsmethoden lassen sich auf KI-Systeme übertragen. So können DoS- und DDoS-Attacken dazu führen, dass Modelle Ressourcen binden oder ihre Aufgaben nicht mehr erfüllen. Kritische Geschäftsprozesse geraten dadurch ins Stocken, während Angreifer gleichzeitig weitere Attacken vorbereiten.
Besonders tückisch ist die Kompromittierung der Lieferkette: Da Unternehmen auf vielfältige Hardware- und Softwarekomponenten von Drittanbietern angewiesen sind, reicht bereits ein schwach gesicherter Baustein, um die gesamte KI-Infrastruktur zu gefährden. Manipulierte Bibliotheken oder vortrainierte Modelle können Einfallstore für Angriffe darstellen.
„Für KI ist ein umfassendes Sicherheitskonzept notwendig, das weit über Security-Basics wie sichere Zugriffskontrollen, Verschlüsselung und Angriffserkennung hinausgeht“, betont Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. „Unternehmen müssen sowohl Trainings- als auch Input-Daten sorgfältig validieren und bereinigen und sogenannte Guardrails implementieren, die alle Ein- und Ausgaben überprüfen. Darüber hinaus benötigen sie Tools, die sie bei der Überwachung der Modelle unterstützen und Leistungsveränderungen erkennen – und natürlich sichere Lieferketten für Hardware und Software.“
Dell Technologies empfiehlt, die Verantwortung für Sicherheit nicht allein bei spezialisierten Security-Teams zu belassen. Vielmehr sollten KI-Experten, Entwickler und Sicherheitsspezialisten eng zusammenarbeiten, um Risiken frühzeitig einzudämmen. Nur wenn Schutzmechanismen bereits bei der Entwicklung und dem Training der Modelle integriert werden, lassen sich Angriffe langfristig wirksam abwehren.