Alle 14 Tage aktuelle News aus der IT-Szene >
Absolute Kontrolle über unberechtigte Zugriffe lässt sich auf wirtschaftlich sinnvolle Weise kaum erreichen. Eine Confidential-Computing-Strategie bietet aber die Möglichkeit, die eigenen Daten gegen Zugriffe, die auf bekannten Angriffspfaden durchgeführt werden, effektiv abzusichern.
Foto: Amazon Web Services
Bertram Dorn ist Principal in the Office of the CISO bei AWS und unterstützt interne und externe AWS-Kunden sowie Partner dabei, sich in sicherheitsrelevanten Themen rund um AWS zurechtzufinden. Er verfügt über mehr als 30 Jahre Erfahrung in der Technologiebranche, mit einem Schwerpunkt auf Sicherheit, Netzwerke, Speicher- und Datenbanktechnologien.
Die Abwesenheit eines unberechtigten Zugriffs lässt sich kaum beweisen – selbst mit umfassender Überwachung bleiben Risiken bestehen. Wer absolute Kontrolle will, müsste seine gesamte IT-Infrastruktur selbst entwickeln, von der Hardware bis zur Software, was zwar möglich, aber in der Praxis nicht sehr wirtschaftlich ist. Realistischer ist da die Frage: Wie kann ich meine Daten so absichern, dass bekannte Angriffspfade, die mit einem vertretbaren Aufwand – also Wochen oder Monate – durchführbar wären, effektiv ausgeschlossen sind?
Die Absicherung von Daten beginnt mit einem konsequenten Identity and Access Management (IAM), da die meisten Sicherheitsvorfälle nicht durch Hardwareschwächen, sondern durch kompromittierte Zugangsdaten oder falsch konfigurierte Berechtigungen entstehen. Starke Passwörter allein reichen nicht aus – Zwei-Faktor-Authentifizierung ist essenziell, um unautorisierten Zugriff zu verhindern. Noch sicherer als klassische Passwörter sind Passkeys oder andere moderne Authentifizierungsmethoden, die auf kryptografischen Verfahren basieren. Diese verhindern viele gängige Angriffsarten, wie etwa Phishing, da der Benutzer sich nur über ein Gerät oder eine Methode anmelden kann, die eindeutig mit seiner Identität verknüpft ist.
Ein weiteres zentrales Prinzip ist die minimale Rechtevergabe – Nutzer und Administratoren sollten nur Zugriff auf die Ressourcen haben, die sie wirklich benötigen. Zudem erfordert ein fortgeschrittenes Sicherheitsmodell Zero Trust, das verhindert, dass Geräte oder Benutzer allein aufgrund ihrer Netzwerkverbindung als vertrauenswürdig eingestuft werden. Jeder Zugriff muss individuell geprüft und autorisiert werden, sowohl für Menschen als auch für automatisierte Systeme, die über Zertifikatsmanagement abgesichert werden sollten.
Neben technischen Maßnahmen ist natürlich auch die menschliche Komponente entscheidend. Sicherheitsrichtlinien müssen nicht nur vorhanden sein, sondern auch verständlich vermittelt und regelmäßig überprüft werden. Wer sich durch überkomplizierte Sicherheitsvorgaben behindert fühlt, wird versuchen, diese zu umgehen – und genau dann entstehen Risiken. Ein ganzheitlicher Ansatz, der Technologie, Prozesse und Sicherheitsbewusstsein kombiniert, ist der beste Weg, um langfristig effektiven Schutz zu gewährleisten.
Regulatorische Vorgaben verlangen, dass Unternehmen genau wissen, welche Daten sie besitzen, und angemessene technische sowie organisatorische Maßnahmen ergreifen, um sie zu schützen. Der klassische Ansatz, Daten in Kategorien wie „sensibel“ und „weniger sensibel“ einzuteilen, birgt jedoch Risiken, da sich die Sensitivität von Informationen mit der Zeit ändern kann. Ein vermeintlich harmloser Systemlog kann beispielsweise in falschen Händen hochbrisant werden.
Daher empfiehlt es sich, alle Daten auf höchstem Sicherheitsniveau zu behandeln, um Fehler in der Klassifizierung zu vermeiden. Ein bewährter Ansatz ist das Layer Cake-Modell, bei dem jede Schutzschicht – von der physischen Sicherheit über die Hardware- und Betriebssystemebene bis hin zum Identitäts- und Zugriffsmanagement – sorgfältig geprüft und abgesichert wird. Unternehmen sollten sicherstellen, dass ihr Cloud-Provider auf jeder dieser Ebenen robuste Schutzmechanismen implementiert hat.
Neben der technischen Umsetzung ist die kontinuierliche Anpassung an neue Bedrohungen essenziell. Sicherheitsmaßnahmen, die heute den Standards entsprechen, können morgen veraltet sein. Unternehmen sollten sich an etablierten Frameworks wie z.B. der ISO 27000-Familie orientieren und ihre Prozesse regelmäßig überprüfen. Da regulatorische Anforderungen nicht statisch sind, muss ein langfristiger, proaktiver Ansatz gewählt werden, um auch in Zukunft den angemessenen Sicherheitsstandard zu gewährleisten.
Die Zukunft von Confidential Computing wird stark von zwei Entwicklungen geprägt sein: der zunehmenden Leistungsfähigkeit von Quantencomputern und dem Einsatz künstlicher Intelligenz in Cyberangriffen.
Quantencomputing stellt eine der größten Herausforderungen für heutige Verschlüsselungstechniken dar. Viele kryptografische Verfahren basieren auf mathematischen Problemen, die mit klassischer Rechenleistung nicht in realistischer Zeit lösbar sind – aber ein ausreichend leistungsfähiger Quantencomputer könnte diese innerhalb kürzester Zeit durchbrechen. Deshalb arbeitet die Kryptografie-Gemeinschaft bereits an post-quantum Verfahren, die auch gegen Quantenangriffe resistent sind.
Ein weiteres wachsendes Risiko ist der Einsatz von künstlicher Intelligenz für Angriffe. Während früher ein Mensch Firewall-Schwachstellen analysieren musste, kann eine KI diese Prozesse in kürzester Zeit automatisieren. Gleichzeitig gibt es aber auch KI-gestützte Sicherheitsmaßnahmen, die Logfiles auswerten und Bedrohungen schneller erkennen als ein Mensch. Es entsteht ein technologisches Wettrennen, bei dem Unternehmen dafür sorgen müssen, dass ihre Schutzmechanismen auf dem neuesten Stand sind.
Letztendlich wird Confidential Computing in den kommenden Jahren zum Standard werden. Während heute noch über einzelne isolierte Sicherheitsmaßnahmen gesprochen wird, wird in Zukunft erwartet, dass Sicherheitsmechanismen direkt in CPUs, Hypervisor und Cloud-Infrastrukturen integriert sind – wie es AWS mit Nitro bereits umsetzt. Anbieter, die hier nicht mitziehen, werden schlichtweg aus der Supply Chain verschwinden, weil Unternehmen nur noch mit Partnern arbeiten werden, die Confidential Computing als Grundvoraussetzung liefern.
Mehr zu Confidential Computing von Bertram Dorn:
Folge 1: Anforderungen und Technologien, um hochsensible Daten sicher zu verarbeiten und zu schützen