Im schnelllebigen digitalen Zeitalter, in dem Daten das wertvollste Gut darstellen, ist der Schutz dieser Daten vor potenziellen Bedrohungen zu einem der wichtigsten Anliegen für Unternehmen weltweit geworden. Die zunehmende Zahl der Cyberangriffe, versehentlichen Löschungen, Naturkatastrophen und Hardware-Störungen unterstreicht nur die Anfälligkeit unserer digitalen Speicher. Diese Herausforderungen zwingen Unternehmen dazu, sich mit der nüchternen Realität eines Datenverlusts auseinanderzusetzen, der nicht nur mit finanziellen Einbußen, sondern auch mit nicht wiedergutzumachender Rufschädigung, verloren gegangenem Kundenvertrauen und regulatorischen Folgen verbunden sein kann.
Selbst kleinere Störungen können Lawinen auslösen, Unternehmen vorübergehend stilllegen und sie auch finanziell stark belasten. In einem solchen Szenario geht es nicht mehr allein darum, Daten zu speichern, sondern sie mit Redundanz auszurüsten.
Was ist Datenredundanz?
Im Prinzip geht es bei Datenredundanz darum, Kopien von Daten zu erstellen und zu speichern, um zu gewährleisten, dass ein Ersatz zur Verfügung steht, sollten die ursprünglichen Daten in irgendeiner Form beschädigt werden. Diese absichtliche Replikation dient sozusagen als Sicherheitsnetz, das Anomalien auffängt, bevor sie sich zu einer Katastrophe entwickeln können. Das ist mit dem Ersatzrad in Ihrem Auto vergleichbar: Auch da hofft man natürlich, es nie zu brauchen. Für den Fall der Fälle ist eine redundante Kopie eine gute Rückversicherung – wie das Ersatzrad.
Die Datenredundanz als Strategie ist jedoch mehr als nur die Erstellung einer Datenkopie. Sie umfasst eine Kombination aus Tools, Techniken und Infrastrukturplanung, die sicherstellen soll, dass Ihre Daten stets abrufbar und intakt sind. Redundanz kann auf mehreren Ebenen von der Hardware bis zur Software und lokal vor Ort oder in geografisch verteilten Umgebungen erreicht werden. In diesem Blog erläutern wir die verschiedenen Methoden, mit deren Hilfe sich Datenredundanz erzielen lässt, und gehen auch auf die Vor- und Nachteile der jeweiligen Ansätze ein.
1. Synchrone Spiegelung
Synchrone Spiegelung, auch als Synchronous Mirroring bezeichnet, ist ein Eckpfeiler hochverfügbarer Architekturen und stellt die Datenverfügbarkeit in Echtzeit über zwei (in manchen Fällen auch drei) Speichersysteme sicher – in der Regel am selben Standort bzw. über Metro-Cluster hinweg. Wird ein Datensatz geschrieben, speichert das System die Daten nicht nur im Primärspeicher ab, sondern spiegelt sie gleichzeitig auf einem sekundären Speichermedium. Auf diese Weise ist die Datenredundanz kontinuierlich sichergestellt, da die Daten beider Speichersysteme immer übereinstimmen.
Der Schreibvorgang gilt erst dann als abgeschlossen, nachdem die Daten erfolgreich sowohl im Primär- als auch im Spiegelspeicher abgelegt wurden. So wird ein einheitlicher Datenstand zwischen den Geräten gewährleistet, um die Werte für Recovery Point Objective (RPO) und Recovery Time Objective (RTO) auf null zu halten. Unterhalb dieser Funktionalität sorgt eine Reihe von Protokollen und Kommunikationsverfahren für Datenübertragung in Echtzeit, Synchronisierungsprüfungen sowie Failover- und Failback-Operationen. Dafür ist eine robuste Netzwerkinfrastruktur erforderlich, häufig über Glasfaser oder Hochgeschwindigkeits-Ethernet, um die Latenz zu mindern.
2. Asynchrone Replikation
Bei asynchroner Replikation entsteht die Redundanz durch regelmäßiges Kopieren der Daten vom primären an einen sekundären Standort – in der Regel über WAN-Verbindungen über große Distanzen. Eine wichtige Anwendung dieses Systems ist die Notfallwiederherstellung. Während der Primärspeicher den Schreibvorgang zunächst bestätigt, kann die Datenreplikation an den Sekundärspeicher mit leichter Verzögerung erfolgen. Daher die Bezeichnung „asynchron“. Im Laufe der Zeit wird der Sekundärspeicher jedoch mit dem Primärspeicher synchronisiert, um sicherzustellen, dass eine redundante Kopie verfügbar ist (auch wenn diese im Vergleich zur Primärkopie möglicherweise etwas veraltet ist).
Die Asynchrone Replikation arbeitet mit einer Warteschlange oder einem Zwischenspeicher. Sobald der Primärspeicher den Schreibvorgang bestätigt, werden die Daten zur Replikation in die Warteschlange eingereiht. Erweiterte Systeme können mithilfe von Algorithmen Daten zu Batches bündeln, die Netzwerkbeanspruchung minimieren oder Datensequenzen priorisieren. Mithilfe von Änderungsprotokollen kann der Datenstand in spezifischen Intervallen verfolgt und die Synchronisierung mit dem Sekundärspeicher in regelmäßigen Abständen vollzogen werden. Dieser Ansatz wird häufig in geografisch verteilten Notfallwiederherstellungsarchitekturen verfolgt, in denen Daten asynchron an dezentrale Standorte repliziert werden.
3. Erasure Coding
Erasure Coding stellt einen Paradigmenwechsel gegenüber den traditionellen Datenredundanzmethoden dar. Anstatt den kompletten Datensatz mehrfach zu replizieren, unterteilt Erasure Coding die Daten in kleinere Blöcke und erstellt zusätzliche Paritätsblöcke. Werden diese auf unterschiedlichen Servern oder Geräten gespeichert, können die ursprünglichen Daten selbst dann wiederhergestellt werden, wenn einige der Blöcke verloren gehen oder beschädigt werden, denn die verbleibenden reichen aus. Dieses Verfahren ist speziell in verteilten Speichersystemen wie Objektspeicher-Plattformen oder dezentralen Dateisystemen relevant, bei denen die Datenresilienz über Server oder sogar Rechenzentren hinweg von höchster Bedeutung ist.
Wann sollte man Erasure Coding und wann Replikation nutzen?
Erasure Coding ist vorzuziehen,
- wenn die Speichereffizienz lebenswichtig ist
- wenn die Anzahl der Speicherserver generell groß ist
- wenn zu erwarten ist, dass Daten schneller gelesen werden.
Replikation wird in der Regel bevorzugt:
- wenn geringe Latenzzeit wichtig ist
- wenn die Anzahl der Speicherserver eher klein ist
- wenn der Overhead möglichst wenig Rechenleistung beanspruchen soll
4. RAID
RAID steht für „Redundant Array of Independent Disks“. Dabei handelt es sich um eine Technologie, die verwendet wird, um mehrere Festplattenkomponenten zu einer einzigen logischen Einheit zum Zwecke der Datenredundanz zu verbinden. Durch die Nutzung mehrerer Festplatten kann RAID die I/O-Operationen verteilen und die Daten spiegeln, um gegen Festplattenausfälle gewappnet zu sein.
Aus technischer Sicht kommen bei RAID die Grundsätze des Stripings, des Spiegelns und der Parität zum Einsatz.
- Striping (wie bei RAID 0) verteilt Daten auf mehrere Festplatten und erhöht die Anzahl paralleler I/O-Vorgänge.
- Spiegeln (RAID 1) hingegen repliziert identische Daten auf zwei Festplatten und dient als direktes Backup.
- Parität (RAID 5 und 6) ist eine Methode, bei der das Striping der Daten über Laufwerke hinweg erfolgt und die Daten mit zusätzlichen Paritätsinformationen versehen werden. Diese Parität ermöglicht die Wiederherstellung der Daten beim Ausfall einer Festplatte.
5. Backup
Backups sind ein fundamentales Konzept der Datenredundanz. Sie stellen sicher, dass eine unabhängige Kopie der Daten in einiger Entfernung zum Primärspeicher aufbewahrt wird – in der Regel auf anderen Medien oder sogar an anderen geografischen Standorten. Backups sind zeitpunktspezifische Kopien von Daten, auf die man im Falle einer Datenbeschädigung oder -löschung oder in anderen Katastrophenfällen zurückgreifen kann.
Bei einem vollständigen Backup werden die Datensätze in ihrer Gesamtheit erfasst. Nachfolgende Backups können entweder differenziell sein, d. h., sie erfassen nur die Änderungen gegenüber dem letzten vollständigen Backup, oder inkrementell, d. h., sie erfassen jegliche Änderung seit der letzten (beliebig gearteten) Sicherung. Unterhalb dieser Prozesse nutzen Backup-Systeme Datenvergleichsalgorithmen, Prüfsummen und Indexierungsmechanismen.
Unterschied zwischen differenziellen und inkrementellen Backups
Bei einem differenziellen Backup werden alle Änderungen erfasst, die seit dem letzten vollständigen Backup an den Daten vorgenommen wurden. Anders gesagt: Es beinhaltet die Differenzen zwischen dem letzten vollständigen Backup und dem aktuellen Datenstand. Das bedeutet, dass es größer als ein inkrementelles Backup sein kann, aber eine schnellere Wiederherstellung ermöglicht, da dazu nur das letzte vollständige Backup und das letzte differenzielle Backup erforderlich sind.
Inkrementelle Backups hingegen erfassen nur die Änderungen, die seit dem letzten Backup vorgenommen wurden, das entweder ein Vollbackup oder ein vorheriges inkrementelles Backup sein kann. Sie sind in der Regel kleiner als differenzielle Backups, erfordern aber möglicherweise mehr Backups für eine vollständige Wiederherstellung, da Sie jedes inkrementelle Backup nacheinander anwenden müssen, beginnend mit dem letzten vollständigen Backup..
6. Snapshot
Snapshots erreichen Redundanz, indem sie den Datenstand zu bestimmten Zeitpunkten konservieren. Anstatt den vollständigen Datensatz zu kopieren, erfasst ein Snapshot zunächst den vollständigen Stand und protokolliert anschließend nur die Änderungen gegenüber diesem Stand. Auch wenn die primären Daten zahlreichen Änderungen unterzogen oder beschädigt werden, kann der Snapshot als redundante zeitpunktspezifische Kopie dienen, mithilfe derer die Daten an dem Zeitpunkt wiederhergestellt werden können, an dem der Snapshot erstellt wurde.
Snapshots funktionieren mithilfe eines Copy-on-write- oder Redirect-on-write-Mechanismus.
- Werden bei einem Copy-on-write-Snapshot Daten modifiziert, wird der ursprüngliche Datenblock kopiert und gespeichert, bevor die Modifikation erfolgt.
- Bei einem Redirect-on-write-Snapshot werden die neuen Daten in einen neuen Block geschrieben, der ursprüngliche Block bleibt unberührt.
Wie Backups können auch Snapshots differenziell und inkrementell sein. Vollständige Snapshots erfassen den vollständigen Datensatz in einem bestimmten Moment und liefern umfassende, unabhängige Backups, benötigen allerdings auch mehr Speicherplatz. Differenzielle Snapshots erfassen die Änderungen gegenüber dem vollständigen Snapshot und sind platzsparend, da nur die Änderungen gespeichert werden.
7. Continuous Data Protection (CDP)
Continuous Data Protection ist ein granularer Ansatz für die Datensicherheit. Im Gegensatz zu traditionellen Backups und Snapshots mit spezifischen Intervallen stellt die CDP die Redundanz sicher, indem sie unablässig jegliche Änderung aufzeichnet, die an den Daten vorgenommen wird. Diese kontinuierliche Überwachung sorgt dafür, dass immer ein redundantes Protokoll der Datenmodifikationen vorliegt. Wird es nötig, zu einem früheren Datenzustand zurückzukehren oder Daten wiederherzustellen, bietet CDP die Möglichkeit, granular „zurückzuspulen“ und den ungewollten Zustand sozusagen rückgängig zu machen. Auch wenn substanzielle Daten im Primärspeicher verloren gehen oder beschädigt werden, kann das umfassende CDP-Journal Daten in jedem früheren Zustand wiederherstellen und damit redundante Wiederherstellungspunkte liefern.
- Bei blockbasierter CDP werden Änderungen auf Speicherblockebene überwacht und protokolliert.
- Bei dateibasierter CDP werden Änderungen auf Dateiebene überwacht.
- Anwendungsbasierte CDP fokussiert sich auf die Erfassung von Datenänderungen innerhalb bestimmter Anwendungen und stellt anwendungskonsistente Wiederherstellungspunkte sicher.
Bei CDP liegt der RPO-Wert in der Regel nahe 0 (in Sekunden), der RTO-Wert beträgt normalerweise wenige Minuten.
Vor- und Nachteile von Datenredundanzmaßnahmen
Technik | Vorteile | Nachteile |
---|---|---|
Synchroner Spiegel |
|
|
Asynchrone Replikation |
|
|
Erasure Coding |
|
|
RAID |
|
|
Backup |
|
|
Snapshot |
|
|
Continuous Data Protection (CDP) |
|
|
Die Hintergründe der Datenredundanz zeigen: Der Schutz Ihrer Daten ist kein Luxus, sondern Notwendigkeit, denn unverhofft kommt oft! Durch die Implementierung robuster Datenredundanzmaßnahmen können Sie sich gegen unvorhergesehene Ereignisse wappnen und sicherstellen, dass Ihre Daten auch im Falle eines Falles abrufbar und intakt bleiben.
DataCore bietet softwaredefinierte Lösungen für Block-und Objektspeicherumgebungen mit vielen integrierten Datenredundanzoptionen. Kontaktieren Sie uns, um mehr über Datenredundanz zu erfahren und zu besprechen, wie Sie diese in Ihre IT-Infrastruktur einbauen können.