Nach dem Einbruch bei der KI-Plattform Moltbook warnt der Security-Anbieter ESET vor einem gefährlichen Missverhältnis zwischen Innovationsgeschwindigkeit und IT-Sicherheit. Sicherheitsforscher kompromittierten das System innerhalb weniger Minuten.
Foto: ESET
Jake Moore, Global Security Advisor bei ESET
Der jüngst publik gewordene Vorfall bei Moltbook gilt Branchenbeobachtern als Weckruf für den gesamten KI-Sektor. Forscher des Cloud-Security-Unternehmens Wiz benötigten nur drei Minuten, um Zugriff auf zentrale Systeme zu erlangen. In der Folge konnten sie 1,5 Millionen API-Tokens, zahlreiche E-Mail-Adressen, private Nutzernachrichten sowie Steuerungsmechanismen der KI-Agenten einsehen. Die zugrunde liegende Sicherheitslücke wurde nach Bekanntwerden geschlossen.
Aus Sicht von ESET ist der Fall kein Einzelfall, sondern Ausdruck eines grundsätzlichen Problems: Sicherheitskonzepte halten mit dem rasanten Entwicklungstempo vieler KI-Plattformen nicht Schritt.
Jake Moore, Global Security Advisor bei ESET, sieht darin ein wiederkehrendes Muster:
„Wenn KI-gestützte Plattformen schnell entwickelt werden, sind grundlegende Cybersicherheits- und Datenschutzkontrollen oft das Erste, was vernachlässigt wird. Der aktuelle Vorfall könnte dies nicht deutlicher machen“.
Das Hauptproblem liege dabei weniger in den KI-Systemen selbst als in deren technischer Basis:
„Das eigentliche Risiko sind jedoch nicht die KI-Agenten selbst, sondern die Infrastruktur dahinter, wo exponierte Datenbanken und fehlerhafte Authentifizierung einen kleinen Fehler zu einer schwerwiegenden Sicherheitsverletzung machen können.“
Moltbook ist als experimentelles soziales Netzwerk für autonome KI-Agenten konzipiert. Dort interagieren KI-Systeme miteinander, erzeugen Inhalte und greifen auf externe Dienste zu. Die Plattform versteht sich als offenes Testfeld für agentenbasierte Ökosysteme – ein Ansatz, der schnelle Iteration begünstigt, zugleich aber neue Angriffsflächen schafft.
Konkret ermöglichte eine nicht gesicherte Datenbank den Zugriff auf vertrauliche Informationen und die Kontrolle über KI-Agenten. Damit wäre es potenziell möglich gewesen, die Plattform mit schädlichen Befehlen zu überfluten. Besonders kritisch wird dieses Szenario, sobald KI-Systeme in sensiblen Bereichen eingesetzt werden.
Moore erklärt:
„KI-Dienste beginnen immer mit Standard- oder generischen Daten, aber sobald sie sich sensiblen Bereichen wie Finanzen oder Gesundheitswesen nähern, untergraben Fälle wie dieser das Vertrauen in die Technologie. KI kann die Entwicklung verbessern, aber sie darf ‚Security by Design‘ nicht ersetzen.“
Der Vorfall verdeutlicht, dass moderne KI-Architekturen weiterhin auf klassischen IT-Komponenten wie Datenbanken, APIs und Cloud-Infrastrukturen basieren. Entsprechend, so ESET, müssten auch bewährte Sicherheitsprinzipien von Beginn an integriert werden – nicht erst im Nachhinein. Vertrauen werde im Zeitalter autonomer Systeme zur entscheidenden Ressource.