In der digitalen Landschaft von heute ist der Umgang mit Daten nicht nur deshalb schwierig, weil ihre Menge explosionsartig zunimmt. Auch wenn das schiere Datenvolumen zweifellos enorme Ausmaße annimmt, bestehen die eigentlichen Herausforderungen in der Unterscheidung, wie häufig Daten abgerufen werden und wo sie infolgedessen sinnvollerweise gespeichert werden sollten. Wussten Sie, dass nur 10 % aller gespeicherten Daten für sage und schreibe 90 % aller I/O-Operationen verantwortlich sind? Und dass diese unverzichtbaren 10 % nicht konstant dieselben sind? Stattdessen verändert und verschiebt sich die Bedeutung der Daten kontinuierlich und spiegelt damit die veränderlichen Bedürfnisse und Prioritäten des Unternehmens wider.
Andererseits sind auch mit den restlichen 90 % der Daten, die eher „ruhend“ sind, durchaus Herausforderungen verbunden. Diese gewaltige Menge an ruhenden Daten zu identifizieren und zu entscheiden, wo und wie sie gespeichert werden, ist ebenfalls eine nicht zu unterschätzende Aufgabe. Wird Hochleistungsspeicher an inaktive, ruhende Daten verschwendet, laufen Unternehmen Gefahr, ihre kritischen Tätigkeiten auszubremsen.
In einem solchen Szenario stehen Unternehmen typischerweise vor dem Dilemma, sich zwischen Performance und Kapazität entscheiden zu müssen.
- Auf der einen Seite steht die Optimierung der Performance. Sie bringt Geschwindigkeit und Flexibilität, bindet dafür jedoch enorme Kapazitäten (was wiederum ins Geld geht). Durch Daten-Tiering lassen sich zwar einige Probleme lösen, doch die mit der Speicherung selten abgerufener Daten verbundenen Kosten sind trotzdem nicht unerheblich.
- Auf der anderen Seite steht die Optimierung der Kapazität. Die Integration von Deduplizierungs- und Komprimierungsstrategien ermöglicht eine kompaktere Speicherstandfläche. Zwar ist diese Methode wirtschaftlicher, da der Schwerpunkt auf kostengünstigem Speicher liegt, doch geht dies selbst bei All-Flash-Konfiguration möglicherweise zulasten der Performance.
Diese fehlende Anpassungsfähigkeit zwingt IT-Teams häufig dazu, zwischen einer Optimierung der Performance und der Einsparung von Speicherplatz zu wählen – eine Entscheidung, die kein IT-Team treffen möchte.
BEISPIEL: Stellen wir uns einen Hypervisor-Datenspeicher vor, der 52 VMs bedient, von denen zwei hohe I/O-Anforderungen haben. Techniken zur Optimierung der Kapazität, die Platz sparen, aber Latenz hinzufügen, können hier nicht eingesetzt werden. Aufgrund des hohen Tempos, das diese beiden VMs erfordern, ist eine zusätzliche Verzögerung grundsätzlich nicht annehmbar. Damit muss man die Performance zwangsläufig über die Kapazitätseinsparung stellen.
Die Lösung: Adaptive Data Placement
DataCore hat diese Herausforderungen erkannt und ab Version 10.0 PSP17 eine bahnbrechende Fähigkeit in seine Software-Defined Storage-Platform SANsymphony integriert: Adaptive Data Placement. „Adaptive Datenplatzierung“ bedeutet im Wesentlichen die Kombination der Funktionen aus Auto-Tiering und Inline-Deduplizierung und -Komprimierung. Diese Kopplung stellt sicher, dass Daten nicht einfach nur gespeichert werden – sie werden intelligent, optimal und in einer Weise gespeichert, die eine Spitzenperformance garantiert, ohne wertvolle Speicherressourcen zu verschwenden.
Das Prinzip
Zunächst konfiguriert der Administrator die bevorzugte Einstellung für die Kapazitätsoptimierung, indem er eine von drei Richtlinien auswählt – aggressiv, normal oder defensiv. Diese Richtlinien bestimmen den gewünschten Prozentsatz an kalten/warmen Daten, der optimiert werden soll. Der Administrator kann diese Werte dann entweder auf die Inline-Deduplizierung, die Inline-Komprimierung oder auf beides anwenden.
Drei neue Richtlinien für die Kapazitätsoptimierung zur Auswahl
Anhand dieser Konfiguration untersucht SANsymphony die Datenzugriffstemperaturen systematisch und identifiziert Datensätze, die eher inaktiv und damit geeignete Kandidaten für die Kapazitätsoptimierung sind.
Automatische Ermittlung kalter Datensätze zur Optimierung der Kapazität
Die identifizierten Datensätze werden anhand der integrierten Einstellungen der Plattform für die Inline-Deduplizierung und -komprimierung einer Kapazitätsoptimierung unterzogen. (Hinweis: Spezifische Datensätze können gekennzeichnet werden, sodass sie von der Kapazitätsoptimierung ausgenommen werden.) Diese optimierten Daten werden dann in eine bestimmte Ebene verschoben. Es ist wichtig, dass diese Ebene ausschließlich kalte, zur Kapazitätsoptimierung ausgewählte Daten enthält und dass dort keine heißen Daten gespeichert werden.
Anschließend überwacht SANsymphony kontinuierlich das Datenzugriffsverhalten mithilfe von Auto-Tiering-Mechanismen, um sicherzustellen, dass die Datensätze strategisch in der am besten geeigneten Speicherebene untergebracht werden. Die dynamische Neuzuweisung der Daten wird von der laufenden Veränderung der Zugriffshäufigkeit reguliert und beinhaltet die Echtzeitbewegungen der Daten zwischen der kapazitätsoptimierten Ebene und anderen typischerweise am Auto-Tiering beteiligten Ebenen. Auf diese Weise erreicht SANsymphony die gleichzeitige Optimierung von Performance UND Kapazität – das Gütesiegel dieses innovativen softwaredefinierten Ansatzes.
Adaptive Data Placement: Wo Auto-Tiering auf Kapazitätsoptimierung trifft
Um auf unser vorheriges Beispiel mit 52 VMs zurückzukommen: Adaptive Platzierung verringert den VM-Administrationsaufwand durch die automatische Anpassung der Performance und Kapazität gemäß dem VM-Bedarf und macht die kontinuierliche manuelle Neuverteilung des Datenspeichers überflüssig. Die Daten der zwei IO-intensiven VMs werden auf dem schnellsten Speicher untergebracht, während die anderen VMs mit weniger aktiven Daten einer Kapazitätsoptimierung unterzogen werden.
Das Ergebnis: Sie genießen die Vorteile beider Optionen:
- Die bestmögliche Performance für heiße Daten: mehr Reaktionsschnelligkeit für Anwendungen
- Die geringstmögliche Standfläche für kalte Daten: erhebliche Kosten- und Kapazitätseinsparungen
Die wichtigsten Highlights
- Anwendung ohne Ausfallzeit: Die Ausführung erfolgt während des laufenden Betriebs; Prozessunterbrechungen sind nicht erforderlich.
- Transparenz für Anwendungen: Alle Prozesse laufen im Hintergrund ab und sind vollständig transparent für Ihre Anwendungen.
- Vollautomatisch: Kontinuierliche Überwachung und manuelle Anpassungen sind überflüssig. Der Betrieb läuft autonom, die Datenplatzierung wird anhand des Echtzeitbedarfs optimiert.
- Einschalten/Abschalten nach Belieben: Kann gemäß den IT-Anforderungen jederzeit aktiviert oder deaktiviert werden.
- Läuft in Echtzeit: Funktioniert in Echtzeit und stellt sicher, dass die Daten auf der Grundlage aktueller Zugriffsmuster und Bedarfe immer optimal platziert werden.
- Dynamisch: Passt sich dem Auf und Ab der Datenzugriffsanforderungen an und gewährleistet jederzeit die optimale Datenplatzierung.
Erleben Sie die Leistungsfähigkeit von Adaptive Data Placement
Adaptive Data Placement ist ein integrierter Bestandteil der Software-Defined-Storage-Plattform SANsymphony und entspricht der Mission von DataCore, die Grundlage für intelligentes, optimales und dynamisches Speichermanagement zu schaffen. Es geht nicht einfach nur darum, Ihre Daten zu speichern – es geht darum, sie richtig zu speichern. Mit Anpassungen in Echtzeit, optimaler Datenplatzierung und nahtloser Kapazitätsoptimierung versetzt SANsymphony Unternehmen in die Lage, sowohl ihre Performance- als auch ihre Kapazitätsziele zu erreichen.
Wir machen Ihr Datenmanagement intelligent und zukunftsfähig und geben Ihrem IT-Team die Werkzeuge für optimale Leistungen an die Hand. Setzen Sie sich noch heute mit DataCore in Verbindung, um einen Testlauf in Ihrer Umgebung zu vereinbaren.