Alle 14 Tage aktuelle News aus der IT-Szene >
Gastbeitrag: Der stetige Zuwachs an digitalen Ökosystemen geht auch mit steigenden Anforderungen an die dafür zu gewährleistende Datensicherheit einher. Bertram Dorn von AWS gibt einen Überblick über Modelle und Verfahren zum Datentransport, einem Baustein zum Schutz der eigenen Datenhoheit.
Foto: AWS Der Autor Bertram Dorn ist Principal Solutions Architect Security and Compliance bei AWS Der stetige Zuwachs an digitalen Ökosystemen geht auch mit steigenden Anforderungen an die dafür zu gewährleistende Datensicherheit einher. Bertram Dorn von AWS gibt einen Überblick über Modelle und Verfahren zum Datentransport, einem Baustein zum Schutz der eigenen Datenhoheit.
Um seine Daten zu schützen, müssen diese zuerst einmal verfügbar gemacht werden, was mit Aufwänden, Investitionen und Kosten verbunden ist. Die langfristige Hoheit über Daten kann auch mit geopolitischen Ereignissen, energiewirtschaftlichen Gegebenheiten oder ganz klassisch durch geologische Rahmenbedingungen beeinflusst werden. Und wird der Blick in die Vergangenheit gerichtet, dann war die Mobilität von Daten schon mehrfach ein Schlüsselelement für das Weiterbestehen von Unternehmen, Organisationen und Gesellschaften. Die Negativbeispiele (Bibliothek von Alexandria) als auch die Positivbeispiele (Recovery-Zeiten nach Erdbeben oder großflächigen Ereignissen) sind mannigfaltig und lassen sich über Jahrtausende finden.
Welche Verfahren für das Unternehmen die passenden sind, welche Transportwege existieren und ob diese in ausreichender Bandbreite mit adäquater Latenz verfügbar sind, muss vor der Implementierung des jeweiligen Verfahrens geklärt werden. Viele Prozesse lassen sich am effektivsten und damit am kostengünstigsten implementieren, wenn die Umsetzung im großen Stil und durch die Vereinheitlichung von Verfahren und Technologien erfolgt. In den meisten Unternehmen erreichen Projekte jedoch nicht die Größe, um wirklich interessante Skaleneffekte nutzen zu können. Das gilt insbesondere dann, wenn IT-Verfahren nicht zu ihrem Kerngeschäft gehören. An dieser Stelle kommen Serviceanbieter wie AWS ins Bild.
Die möglichen technischen Verfahren für Backups und die Datensicherung sind zahlreich und müssen auf Basis der Bedürfnisse und Ziele der Unternehmen ausgewählt werden. Lange war es gängige Praxis, Backup- und Restore-Verfahren um eine physische Auslagerung der Backup-Medien, z.B. auf Sicherungsbändern, zu erweitern. Dafür braucht es aber auch das notwendige Equipment, also genug Massenspeicherkapazität, sowie die notwendigen Laufwerke, Rechner und Netzwerkkapazitäten und nicht zuletzt Mitarbeitende, die das Verfahren in der gewünschten Zeit und Qualität durchführen können. Auch ist die Wiederherstellung der Daten aus dem Backup ein nicht zu unterschätzender Vorgang, der sehr viel Erfahrung bedarf.
Das Backup-Restore Verfahren kann durch mobile Festplatten erleichtert werden. AWS bietet hierfür beispielsweise die Snow Familie an, die aus sehr stabil verbauten, transportablen Festplatten unterschiedlicher Größe mit einer Netzwerkschnittstelle besteht. Die Größe variiert von einer Festplatte in einem Gehäuse über ein Dutzend Festplatten bis hin zu dem Snow-Mobile – ein LKW voller Festplatten (mit vielen Netzwerkanschlüssen). AWS übernimmt hierbei das Design der Gehäuse, Festplatten und Netzwerkschnittstellen als auch den Transport inklusive der Logistikprozesse für die Hardware.
Ein höheres Sicherheitsniveau als das reine Auslagern von Backup-Medien, bieten Verfahren, in denen die Daten kontinuierlich abtransportiert werden, in den meisten Fällen werden hierfür die Daten gespiegelt. Auch hier spielt neben der Datenkopie auch die Lokation eine große Rolle. Es ist noch nicht so lange her, da wurde in diesem Zusammenhang gerne von einer Distanz von ungefähr 50 Kilometern ausgegangen, um die Daten „sicher“ aufzubewahren. Doch diese geringe Distanz schützt meist nicht ausreichend vor geologischen Risiken, da die meisten organisatorischen Regionen (z.B. Metropolitan Areas) nur selten über Abstände von 50 Kilometern zwischen Rechenzentren verfügen. Daher hat sich auch im Finanzsektor der Wert von 200 Kilometern etabliert. Wobei die reinen Distanzen nicht so ausschlaggebend sind, sondern das Vermeiden von überlappenden Risikoprofilen der verschiedenen Standorte. Sind beide Standorte in Küstennähe oder können von einem Erdbeben gleichzeitig erfasst werden, so helfen auch keine 200 Kilometer. Die Kilometerzahl sollte daher nicht überbewertet werden.
Ein momentaner Trend ist die Kombination aus Backup und Datenspiegelung. Dabei werden Daten in kürzeren Intervallen bereitgestellt und die Zeit zwischen zwei Intervallen zum Abtransport verwendet. Bei Datenbanken ist diese Vorgehensweise bereits seit Jahrzehnten Praxis (Online-Logs vs. Archive-Logs). Das Verfahren ist prinzipiell auch mit Filesystemen möglich und ein „rsync“ (ein klassisches Werkzeug aus der Unix-Welt zum Kopieren und Synchronisieren von Daten) ist bei der Verwendung von Unix Systemen schon länger ein adäquates Mittel, um Daten auch auf der Ebene der Files zu sichern.
Mit der Einführung von Object Stores, wie z.B. Amazon Simple Storage Service (S3), werden Unternehmen integrierte, einfach zu handhabende Möglichkeiten angeboten, die eine Kombination der Datensicherungsmodelle sind. Eine S3-Synchronisierung eines Filesystems wird durch das S3 Command Line Interface automatisch parallelisiert und führt auch automatisch einen Versionsabgleich mit den schon gespeicherten Daten ab. Dazu kann auf der Seite des Servers automatisch eine weitere Verbreitung über verschiedene Regionen/Standorte, mit einer höheren Unabhängigkeit voneinander geschehen. Eine weitere Verbreitung erhöht die Widerstandsfähigkeit der Daten. Ebenso können automatisch mehrere Kopien angefertigt und die Daten automatisch verschlüsselt werden. Die Object Stores können sowohl große, einzelne Dateien als auch viele kleine Dateien übertragen und dabei auch die verfügbaren Transportwege auslasten.
Mit Blick auf die automatische Datenabsicherung gegen geopolitische Risiken sind Objektspeicher derzeit konkurrenzlos, da sie einfach, sicher und schnell an das Datenmanagement des Unternehmens anzubinden sind. API von Amazon S3 ist heute der Standard für Objektspeicher, damit sind auch Themen wie „Vendor-Lock-In“ keine Probleme mehr, da die Interoperabilität der Daten auch über viele Serviceanbieter sichergestellt ist.
Die Möglichkeiten zur Datensicherung sind vielfältig und sollten weitergedacht werden, als das heute der Fall ist. Schon heute können Unternehmen jedoch eine Menge tun, um mit Blick auf ihre zukünftigen Pläne und Aktivitäten die Kontrolle über ihre Daten zu behalten – ein Thema, das sie definitiv nicht auf die lange Bank schieben sollten.