Suche
Sprachen
Lesezeit: 11 Minuten

Datenredundanz 101: Schützen Sie Ihre Daten vor dem Unerwarteten

Der sichere Weg zur Datenredundanz: Tools, Techniken und Kompromisse
Dc Dataredundancy Blogpost Hero Image

Im schnelllebigen digitalen Zeitalter, in dem Daten das wertvollste Gut darstellen, ist der Schutz dieser Daten vor potenziellen Bedrohungen zu einem der wichtigsten Anliegen für Unternehmen weltweit geworden. Die zunehmende Zahl der Cyberangriffe, versehentlichen Löschungen, Naturkatastrophen und Hardware-Störungen unterstreicht nur die Anfälligkeit unserer digitalen Speicher. Diese Herausforderungen zwingen Unternehmen dazu, sich mit der nüchternen Realität eines Datenverlusts auseinanderzusetzen, der nicht nur mit finanziellen Einbußen, sondern auch mit nicht wiedergutzumachender Rufschädigung, verloren gegangenem Kundenvertrauen und regulatorischen Folgen verbunden sein kann.

Selbst kleinere Störungen können Lawinen auslösen, Unternehmen vorübergehend stilllegen und sie auch finanziell stark belasten. In einem solchen Szenario geht es nicht mehr allein darum, Daten zu speichern, sondern sie mit Redundanz auszurüsten.

Was ist Datenredundanz?

Im Prinzip geht es bei Datenredundanz darum, Kopien von Daten zu erstellen und zu speichern, um zu gewährleisten, dass ein Ersatz zur Verfügung steht, sollten die ursprünglichen Daten in irgendeiner Form beschädigt werden. Diese absichtliche Replikation dient sozusagen als Sicherheitsnetz, das Anomalien auffängt, bevor sie sich zu einer Katastrophe entwickeln können. Das ist mit dem Ersatzrad in Ihrem Auto vergleichbar: Auch da hofft man natürlich, es nie zu brauchen. Für den Fall der Fälle ist eine redundante Kopie eine gute Rückversicherung – wie das Ersatzrad.

Die Datenredundanz als Strategie ist jedoch mehr als nur die Erstellung einer Datenkopie. Sie umfasst eine Kombination aus Tools, Techniken und Infrastrukturplanung, die sicherstellen soll, dass Ihre Daten stets abrufbar und intakt sind. Redundanz kann auf mehreren Ebenen von der Hardware bis zur Software und lokal vor Ort oder in geografisch verteilten Umgebungen erreicht werden. In diesem Blog erläutern wir die verschiedenen Methoden, mit deren Hilfe sich Datenredundanz erzielen lässt, und gehen auch auf die Vor- und Nachteile der jeweiligen Ansätze ein.

What is Data Redundancy?

1. Synchrone Spiegelung

automatic failover protectionSynchrone Spiegelung, auch als Synchronous Mirroring bezeichnet, ist ein Eckpfeiler hochverfügbarer Architekturen und stellt die Datenverfügbarkeit in Echtzeit über zwei (in manchen Fällen auch drei) Speichersysteme sicher – in der Regel am selben Standort bzw. über Metro-Cluster hinweg. Wird ein Datensatz geschrieben, speichert das System die Daten nicht nur im Primärspeicher ab, sondern spiegelt sie gleichzeitig auf einem sekundären Speichermedium. Auf diese Weise ist die Datenredundanz kontinuierlich sichergestellt, da die Daten beider Speichersysteme immer übereinstimmen.

Der Schreibvorgang gilt erst dann als abgeschlossen, nachdem die Daten erfolgreich sowohl im Primär- als auch im Spiegelspeicher abgelegt wurden. So wird ein einheitlicher Datenstand zwischen den Geräten gewährleistet, um die Werte für Recovery Point Objective (RPO) und Recovery Time Objective (RTO) auf null zu halten. Unterhalb dieser Funktionalität sorgt eine Reihe von Protokollen und Kommunikationsverfahren für Datenübertragung in Echtzeit, Synchronisierungsprüfungen sowie Failover- und Failback-Operationen. Dafür ist eine robuste Netzwerkinfrastruktur erforderlich, häufig über Glasfaser oder Hochgeschwindigkeits-Ethernet, um die Latenz zu mindern.

2. Asynchrone Replikation

Asynchronous Replication IconBei asynchroner Replikation entsteht die Redundanz durch regelmäßiges Kopieren der Daten vom primären an einen sekundären Standort – in der Regel über WAN-Verbindungen über große Distanzen. Eine wichtige Anwendung dieses Systems ist die Notfallwiederherstellung. Während der Primärspeicher den Schreibvorgang zunächst bestätigt, kann die Datenreplikation an den Sekundärspeicher mit leichter Verzögerung erfolgen. Daher die Bezeichnung „asynchron“. Im Laufe der Zeit wird der Sekundärspeicher jedoch mit dem Primärspeicher synchronisiert, um sicherzustellen, dass eine redundante Kopie verfügbar ist (auch wenn diese im Vergleich zur Primärkopie möglicherweise etwas veraltet ist).

Die Asynchrone Replikation arbeitet mit einer Warteschlange oder einem Zwischenspeicher. Sobald der Primärspeicher den Schreibvorgang bestätigt, werden die Daten zur Replikation in die Warteschlange eingereiht. Erweiterte Systeme können mithilfe von Algorithmen Daten zu Batches bündeln, die Netzwerkbeanspruchung minimieren oder Datensequenzen priorisieren. Mithilfe von Änderungsprotokollen kann der Datenstand in spezifischen Intervallen verfolgt und die Synchronisierung mit dem Sekundärspeicher in regelmäßigen Abständen vollzogen werden. Dieser Ansatz wird häufig in geografisch verteilten Notfallwiederherstellungsarchitekturen verfolgt, in denen Daten asynchron an dezentrale Standorte repliziert werden.

3. Erasure Coding

erasureErasure Coding stellt einen Paradigmenwechsel gegenüber den traditionellen Datenredundanzmethoden dar. Anstatt den kompletten Datensatz mehrfach zu replizieren, unterteilt Erasure Coding die Daten in kleinere Blöcke und erstellt zusätzliche Paritätsblöcke. Werden diese auf unterschiedlichen Servern oder Geräten gespeichert, können die ursprünglichen Daten selbst dann wiederhergestellt werden, wenn einige der Blöcke verloren gehen oder beschädigt werden, denn die verbleibenden reichen aus. Dieses Verfahren ist speziell in verteilten Speichersystemen wie  Objektspeicher-Plattformen oder dezentralen Dateisystemen relevant, bei denen die Datenresilienz über Server oder sogar Rechenzentren hinweg von höchster Bedeutung ist.

Wann sollte man Erasure Coding und wann Replikation nutzen?

Erasure Coding ist vorzuziehen,

  • wenn die Speichereffizienz lebenswichtig ist
  • wenn die Anzahl der Speicherserver generell groß ist
  • wenn zu erwarten ist, dass Daten schneller gelesen werden.

Replikation wird in der Regel bevorzugt:

  • wenn geringe Latenzzeit wichtig ist
  • wenn die Anzahl der Speicherserver eher klein ist
  • wenn der Overhead möglichst wenig Rechenleistung beanspruchen soll

4. RAID

Raid IconRAID steht für „Redundant Array of Independent Disks“. Dabei handelt es sich um eine Technologie, die verwendet wird, um mehrere Festplattenkomponenten zu einer einzigen logischen Einheit zum Zwecke der Datenredundanz zu verbinden. Durch die Nutzung mehrerer Festplatten kann RAID die I/O-Operationen verteilen und die Daten spiegeln, um gegen Festplattenausfälle gewappnet zu sein.

Aus technischer Sicht kommen bei RAID die Grundsätze des Stripings, des Spiegelns und der Parität zum Einsatz.

  • Striping (wie bei RAID 0) verteilt Daten auf mehrere Festplatten und erhöht die Anzahl paralleler I/O-Vorgänge.
  • Spiegeln (RAID 1) hingegen repliziert identische Daten auf zwei Festplatten und dient als direktes Backup.
  • Parität (RAID 5 und 6) ist eine Methode, bei der das Striping der Daten über Laufwerke hinweg erfolgt und die Daten mit zusätzlichen Paritätsinformationen versehen werden. Diese Parität ermöglicht die Wiederherstellung der Daten beim Ausfall einer Festplatte.

5. Backup

Opening Icons Data backup restoreBackups sind ein fundamentales Konzept der Datenredundanz. Sie stellen sicher, dass eine unabhängige Kopie der Daten in einiger Entfernung zum Primärspeicher aufbewahrt wird – in der Regel auf anderen Medien oder sogar an anderen geografischen Standorten. Backups sind zeitpunktspezifische Kopien von Daten, auf die man im Falle einer Datenbeschädigung oder -löschung oder in anderen Katastrophenfällen zurückgreifen kann.

Bei einem vollständigen Backup werden die Datensätze in ihrer Gesamtheit erfasst. Nachfolgende Backups können entweder differenziell sein, d. h., sie erfassen nur die Änderungen gegenüber dem letzten vollständigen Backup, oder inkrementell, d. h., sie erfassen jegliche Änderung seit der letzten (beliebig gearteten) Sicherung. Unterhalb dieser Prozesse nutzen Backup-Systeme Datenvergleichsalgorithmen, Prüfsummen und Indexierungsmechanismen.

Unterschied zwischen differenziellen und inkrementellen Backups

Bei einem differenziellen Backup werden alle Änderungen erfasst, die seit dem letzten vollständigen Backup an den Daten vorgenommen wurden. Anders gesagt: Es beinhaltet die Differenzen zwischen dem letzten vollständigen Backup und dem aktuellen Datenstand. Das bedeutet, dass es größer als ein inkrementelles Backup sein kann, aber eine schnellere Wiederherstellung ermöglicht, da dazu nur das letzte vollständige Backup und das letzte differenzielle Backup erforderlich sind.

Inkrementelle Backups hingegen erfassen nur die Änderungen, die seit dem letzten Backup vorgenommen wurden, das entweder ein Vollbackup oder ein vorheriges inkrementelles Backup sein kann. Sie sind in der Regel kleiner als differenzielle Backups, erfordern aber möglicherweise mehr Backups für eine vollständige Wiederherstellung, da Sie jedes inkrementelle Backup nacheinander anwenden müssen, beginnend mit dem letzten vollständigen Backup..

6. Snapshot

Snapshot IconSnapshots erreichen Redundanz, indem sie den Datenstand zu bestimmten Zeitpunkten konservieren. Anstatt den vollständigen Datensatz zu kopieren, erfasst ein Snapshot zunächst den vollständigen Stand und protokolliert anschließend nur die Änderungen gegenüber diesem Stand. Auch wenn die primären Daten zahlreichen Änderungen unterzogen oder beschädigt werden, kann der Snapshot als redundante zeitpunktspezifische Kopie dienen, mithilfe derer die Daten an dem Zeitpunkt wiederhergestellt werden können, an dem der Snapshot erstellt wurde.

Snapshots funktionieren mithilfe eines Copy-on-write- oder Redirect-on-write-Mechanismus.

  • Werden bei einem Copy-on-write-Snapshot Daten modifiziert, wird der ursprüngliche Datenblock kopiert und gespeichert, bevor die Modifikation erfolgt.
  • Bei einem Redirect-on-write-Snapshot werden die neuen Daten in einen neuen Block geschrieben, der ursprüngliche Block bleibt unberührt.

Wie Backups können auch Snapshots differenziell und inkrementell sein. Vollständige Snapshots erfassen den vollständigen Datensatz in einem bestimmten Moment und liefern umfassende, unabhängige Backups, benötigen allerdings auch mehr Speicherplatz. Differenzielle Snapshots erfassen die Änderungen gegenüber dem vollständigen Snapshot und sind platzsparend, da nur die Änderungen gespeichert werden.

7. Continuous Data Protection (CDP)

Continuous Data Protection ist ein granularer Ansatz für die Datensicherheit. Im Gegensatz zu traditionellen Backups und Snapshots mit spezifischen Intervallen stellt die CDP die Redundanz sicher, indem sie unablässig jegliche Änderung aufzeichnet, die an den Daten vorgenommen wird. Diese kontinuierliche Überwachung sorgt dafür, dass immer ein redundantes Protokoll der Datenmodifikationen vorliegt. Wird es nötig, zu einem früheren Datenzustand zurückzukehren oder Daten wiederherzustellen, bietet CDP die Möglichkeit, granular „zurückzuspulen“ und den ungewollten Zustand sozusagen rückgängig zu machen. Auch wenn substanzielle Daten im Primärspeicher verloren gehen oder beschädigt werden, kann das umfassende CDP-Journal Daten in jedem früheren Zustand wiederherstellen und damit redundante Wiederherstellungspunkte liefern.

  • Bei blockbasierter CDP werden Änderungen auf Speicherblockebene überwacht und protokolliert.
  • Bei dateibasierter CDP werden Änderungen auf Dateiebene überwacht.
  • Anwendungsbasierte CDP fokussiert sich auf die Erfassung von Datenänderungen innerhalb bestimmter Anwendungen und stellt anwendungskonsistente Wiederherstellungspunkte sicher.

Bei CDP liegt der RPO-Wert in der Regel nahe 0 (in Sekunden), der RTO-Wert beträgt normalerweise wenige Minuten.

Vor- und Nachteile von Datenredundanzmaßnahmen

Technik Vorteile Nachteile
Synchroner Spiegel
  • Datenkonsistenz: Gewährleistet, dass Quell- und Zielspeichersysteme immer synchron sind
  • Transparentes Failover: Nahtloser und sofortiger Übergang bei Ausfällen
  • Ressourcenintensiv: Benötigt ein robustes Netzwerk und ausreichend Speicherkapazität, um vollständig redundante Datenkopien zu pflegen und simultane Schreibvorgänge zu verarbeiten; damit sind auch höhere Kosten verbunden
Asynchrone Replikation
  • Performance: Die Performance der Quelle wird nicht beeinträchtigt
  • Geografische Flexibilität: Für Backup-Standorte, zwischen denen große Entfernungen liegen
  • Risiko eines Datenverlusts: Potenzieller Verlust zwischen den Replikationsintervallen, sollte es zu einem Standortausfall kommen
  • Kapazitätsintensiv: Benötigt die gleiche Menge an Speicherplatz für Quell- und Zielstandort
Erasure Coding
  • Effiziente Redundanz: Platzsparender als Spiegeln/Replikation
  • Fehlertoleranz: Toleriert mehrere simultane Ausfälle (je nach definiertem EC-Schema)
  • Beanspruchung der Rechenkapazität: Overhead durch Verschlüsselung und Entschlüsselung
  • Komplexität: Implementierung kann komplex sein und Fachwissen benötigen
RAID
  • Integriertes Failover: Toleriert Ausfälle innerhalb des RAID-Systems (RAID 1, 5, 6)
  • Hot-Swapping: Bei bestimmten RAID-Konfigurationen ist es möglich, ausgefallene Festplatten ohne Systemabschaltung oder Betriebsunterbrechung auszutauschen
  • Performance: Ausgezeichnete Performance bei Implementierung mit Hardware RAID-Controller
  • Wiederaufbauzeit: Risiko langwieriger Wiederaufbauten, insbesondere bei großen Festplatten
  • Performance-Unterschiede: Manche RAID-Level (z. B. RAID 5) haben zwar eine Fehlertoleranz, aufgrund der Paritätsberechnung kann jedoch die Schreibkapazität beeinträchtigt sein
  • Limitierte Skalierung: Ermöglicht häufig nur eine Skalierung bis zu einem bestimmten Grad (z. B. Konnektivität des Hardware-RAID-Controllers)
Backup
  • Ermöglicht Isolation: Zwischen den Backups können sogenannte „Air Gaps“ die Sicherheit vor unerwünschten Datenänderungen vergrößern; dies dient als letzte Verteidigungslinie
  • Schutz vor Ransomware: Ein aktuelles Backup kann dazu genutzt werden, das System wiederherzustellen, ohne auf Lösegeldforderungen eingehen zu müssen
  • Wiederherstellungszeit: Zeitaufwendig für große Datensätze; hängt auch vom Backup-Medium ab (Tape oder online)
  • Speicherkosten: Erheblicher Platzbedarf (wenn es mehrere Versionen gibt), daher höhere Kosten
Snapshot
  • Platzsparend mit inkrementellen Kopien: Nur Änderungen werden erfasst; verringert den Speicherbedarf
  • Schnelle Erstellung: Eine zeitpunktspezifische Kopie ist schneller als Backups und kann problemlos zu Testzwecken eingesetzt werden
  • Kein vollständiges Backup: Snapshots ersetzen keine Backups. Wenn der zugrunde liegende Speicher beschädigt wird, gehen möglicherweise alle Snapshots verloren.
  • Performance-Verschlechterung: Werden Snapshots akkumuliert, kann dies die Performance beeinträchtigen und den Verwaltungsaufwand erhöhen
    Continuous Data Protection (CDP)
Continuous Data Protection (CDP)
  • Granularität: Erfasst jede Änderung und ermöglicht die Datenwiederherstellung an jedem beliebigen Zeitpunkt, sodass der Datenverlust minimal ist
  • Verbesserte RPO- und RTO-Werte: Durch Ergänzung von Backups und Snapshots kann CDP die Wiederherstellung beschleunigen
  • Ressourcenintensiv: Wenn es viele Änderungen an den Daten gibt, wird beträchtliche Rechen- und Speicherkapazität beansprucht
  • Begrenzter Wiederherstellungszeitraum: In der Regel nur einige Tage, um eine übermäßige Beanspruchung des Speicherplatzes zu verhindern

Die Hintergründe der Datenredundanz zeigen: Der Schutz Ihrer Daten ist kein Luxus, sondern Notwendigkeit, denn unverhofft kommt oft! Durch die Implementierung robuster Datenredundanzmaßnahmen können Sie sich gegen unvorhergesehene Ereignisse wappnen und sicherstellen, dass Ihre Daten auch im Falle eines Falles abrufbar und intakt bleiben.

DataCore bietet softwaredefinierte Lösungen für Block-und Objektspeicherumgebungen mit vielen integrierten Datenredundanzoptionen. Kontaktieren Sie uns, um mehr über Datenredundanz zu erfahren und zu besprechen, wie Sie diese in Ihre IT-Infrastruktur einbauen können.

Nützliche Ressourcen

Maximize the Potential
of Your Data

Looking for higher availability, greater performance, stronger security, and flexible infrastructure options?

Contact Us Now

Ähnliche Beiträge
 
Cyber-Resilienz-Rating
Vinod Mohan
Cyber-Resilienz-Rating
 
Ist Ihr Speicher für eine Zukunft mit künstlicher Intelligenz gerüstet?
Vinod Mohan
Ist Ihr Speicher für eine Zukunft mit künstlicher Intelligenz gerüstet?
 
Cyberstorage: Ein integrierter Bestandteil Ihrer Datensicherheitsstrategie
Vinod Mohan
Cyberstorage: Ein integrierter Bestandteil Ihrer Datensicherheitsstrategie