Suche
Sprachen
Lesezeit: 6 Minuten

Software-Defined Storage und Hyperkonvergenz - Trends 2019

DataCore hat kürzlich eine Marktumfrage mit dem Titel “Der Status von Software-Defined, Hyperconverged und Cloud-Speicher” mit interessanten Ergebnissen veröffentlicht. Im Folgenden soll der Fokus auf einige Bereiche gerichtet werden, die besonders auffallend sind.

Tücken der Geschäftskontinuität

Die Studie ergab, dass die größte Herausforderung für den Betrieb von Speicherinfrastrukturen jeglicher Art darin besteht, Ausfälle zu minimieren und Geschäftskontinuität zu realisieren. Dies gilt sowohl für On-Premise als auch in der Cloud. Überraschend dabei ist, dass die IT bereits seit Jahrzehnten versucht, dieses Problem zu lösen. Warum ist das so?

Die Antwort ist, dass Geschäftskontinuität nur schwer umzusetzen ist. Es besteht ein Unterschied zwischen Hochverfügbarkeit und Notfallwiederherstellung. Ungeachtet dessen, was einige Anbieter möglicherweise propagieren, löst ein Backup oder eine gespiegelte Kopie das Problem nicht. Mit Business Continuity ist die Sicherheit gemeint, dass ein Unternehmen den Geschäftsbetrieb im Katastrophenfall schnell wieder aufnehmen und operieren kann.

Eine effektive Strategie für Geschäftskontinuität muss viele Faktoren berücksichtigen: Spiegelung oder Replikation, synchron oder asynchron, lokal oder remote, wie viele Kopien der Daten sind erforderlich usw. Eine solche Strategie sollte ebenso dazu in die Lage versetzen, geschäftliche Anforderungen wie Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO) abzubilden.

Ein häufig übersehener Part ist aber das Failover, das Failback und das Wiederherstellen des Systems in den ursprünglichen Zustand – im Idealfall ohne Unterbrechung oder manuelle Eingriffe. Hierfür müssen Prozeduren und Tests entwickelt werden.

Im Jahr 2019 wird die Geschäftskontinuität weiterhin eine Herausforderung bleiben, aber es gibt eine Reihe von Technologien, die dies wesentlich erleichtern können.

Reif für die Cloud

Die Cloud scheint sich zu einem Standard in der IT zu entwickeln. Die meisten Technologen wissen, wann und wie die Cloud wertvoll sein kann. Lew Moorman, ehemaliger Präsident von Rackspace, sagte einmal: “Die Cloud ist für alle da, aber nicht für alles.” Dies ist wohl wahr. Unsere Studie belegt beispielsweise, dass 42% der Befragten die öffentliche Cloud für sich nicht in Betracht ziehen.

Vor rund acht Jahren galt die Cloud vornehmlich als Möglichkeit zur Kostensenkung. Heute muss man feststellen, dass ihr primärer Wert auf Agilität und nicht auf Kosteneinsparungen beruht. In der Tat haben viele Unternehmen eine Art Schockerfahrung gemacht, da mit steigenden Nutzerzahlen und anspruchsvolleren Services (z. B. durch Instanzen höherer Klasse, mehr Ressourcen und größerer IOPS- und Bandbreitenanforderungen)  in der Regel  hohe Kosten verbunden sind.

DataCores Untersuchung ergab, dass 36% der Befragten die Erfahrung machen mussten, dass die Cloud am Ende teurer ist als On-Premises-Optionen. Aus ökonomischer Sicht betrachtet, lässt sich die Nutzung der Cloud mit dem Mieten eines Autos vergleichen: bequem und für wenige Tage günstig, aber auf Dauer nicht besonders wirtschaftlich.

Gleichzeitig wird die Cloud scheinbar allgegenwärtig. Was wir unter einem traditionellem On-Premise-Ansatz verstehen, ist in der Regel eine Software-definierte, dynamisch skalierbare, virtualisierte Infrastruktur. Während die Cloud zu einem zunehmend wichtigen Instrument für die IT wird und weiter wächst, werden auch herkömmliche Rechenzentren nicht verschwinden. Auch sie wachsen weiter.

Herstellerbindung vermeiden

42% der Befragten gaben an, dass ihre Hauptsorge darin liegt, an einen Speicheranbieter gebunden zu sein. Warum? Hersteller von Speicherhardware bieten mit der ihr eigenen Kreativität mehrjährige Programme an, für die langfristige Verpflichtungen erforderlich sind. Dies führt jedoch häufig zum Verlust der Freiheit, hohen Kosten und mangelnder Flexibilität.

Dies ist besonders wichtig, wenn man die Entwicklung der Speichertechnologien berücksichtigt. Mit jeder dieser Technologie scheinen neue Anbieter aus dem Boden zu sprießen, die IT-Abteilungen zum Wechsel locken. Diese Entwicklung wird sich fortsetzen. Warum sollten Anwender sich also auf einen Anbieter beschränken?

In einer Zeit, in der Speicherhardware Commodity ist, werden IT-Entscheider versuchen, diese Beschränkung zu vermeiden. Der Wert von Speicherlösungen liegt heute mehr denn je in den durch Software bereitgestellten Services: Spiegelung, automatisches Tiering, Thin Provisioning usw.

Software-Defined Storage kann diese Services auch in heterogenen Umgebungen bereitstellen, und oftmals mehr Funktionalität bieten als jene von Hardwareherstellern. Eine intelligente Virtualisierungsschicht liefert zahlreiche Vorteile: geringere Kosten durch Automatisierung, einfacheres Management, weniger Migrationsaufwand und die Möglichkeit, einheitliche Services über Storage-Systeme hinweg zu nutzen.

Es überrascht daher nicht, dass 56% der befragten IT-Abteilungen in den nächsten 12 Monaten Software-Defined Storage-Lösungen in Betracht ziehen oder bereits planen. Die Absicht, SDS einzuführen, ist dabei fast doppelt so hoch wie für hyperkonvergente Infrastrukturen (37% gegenüber 21%). Mit der von SDS gebotenen Freiheit gibt es keinen Grund mehr, Herstellerbindungen einzugehen.

Langsame Übernahme von NVMe

Eine der neueren Technologien ist NVMe, die die Flash-Leistung durch parallele Verbindungen zu Hochgeschwindigkeits-Storage weiter verbessert. Die Übernahme neuer Technologien ist natürlich schwierig, denn es bedarf des Austauschs vorhandener Hardware durch die neueste. DataCores Studie hat dabei gezeigt, dass nur 6,5% der Befragten mehr als 50% ihrer Umgebung über NVMe angebunden haben.

Ein weiterer Grund ist die Komplexität bei der Migration von Hardware und der Aufbau umfassender Systeme, die von der Leistung eines NVMe-basierten Speichers profitieren. So haben etwa die Hälfte der Befragten NVMe noch gar nicht im Einsatz. Für IT-Abteilungen, die von NVMe-Performance profitieren möchten, stehen verschiedene Optionen zur Verfügung:

  • Einsatz von Parallel-I/O-Technologie, um NVMe-ähnliche Performance zu erzielen. Mit Parallel-I/O und intelligenten Caching-Algorithmen können häufig 5-fache Performance-Verbesserungen erzielt und I/O-Engpässs beseitigt werden.
  • Durch Software-Defined Storage und dynamisches Auto-Tiering auf Blockebene kann bereits eine geringe Menge an NVMe-Storage für erhebliche Leistungsverbesserungen sorgen.
  • Software-definierter Speicher mit Fibre Channel Gen6-Unterstützung ermöglicht die effektive Nutzung NVMe über ein NAS – mit bis zu 1,6 Millionen IOPS über einen Port. SDS kann so die Performance-Potenziale dieser Systeme optimal nutzen und Migrationen vermeiden.
  • NVMe over Fabric ist sicherlich das Zukunftsmodell für die Leistungsmaximierung, ist jedoch noch nicht so ausgereift, um an der Schwelle zum Mainstream zu stehen.

Nicht jede Anwendung erfordert NVMe-Leistung – noch nicht einmal Flash. Wie bei den meisten neuen Technologien könnten in naher Zukunft viele neue Storage-Systeme über NVMe betrieben werden.

Entwicklung einer hyperkonvergenten Infrastruktur

Die hyperkonvergente Infrastruktur (HCI) bietet Datenzentren die Möglichkeit, vollständig integrierte Systeme einzusetzen, die relativ einfach genutzt werden können. Das geht jedoch nicht ganz ohne Kompromisse.

Fast 40% der Umfrageteilnehmer gaben an, HCI-Lösungen auszuschließen, da sie nicht in vorhandene Systeme integriert werden können (es schafft Silos), zu teuer sind, zu Herstellerbindung führen und keine getrennte Skalierung von Rechenleistung und Storage ermöglichen.

Wie zu erwarten, entwickelt sich auch die HCI-Technologie weiter. Ein Software-basierter Ansatz kann auch heute schon dazu beitragen, hyperkonvergente Systeme bereitzustellen, die auch auf externen Speicher zugreifen und Speicher für externe Hosts bereitstellen können, um die Silo-Bildung zu durchbrechen. Da es sich lediglich um verschiedene Bereitstellungsmodelle von SDS handelt, kann ein Rechenzentrum  je nach Bedarf zu einer HCI-Lösung greifen, oder zu Hybridconverged  und herkömmlichen Modellen migrieren. Weiteres über solche Ansätze lesen Sie in diesem Beitrag.

Um den gesamten Bericht einschließlich zusätzlicher Ergebnisse zu softwaredefiniertem, hyperkonvergentem und Cloud-Speicher sowie zu verwandten Technologien einzusehen, besuchen Sie bitte: https://www.datacore.com/document/state-of-sds-hci-cloud-storage-seventh-annual/ oder laden Sie unsere Umfrage-Infografik herunter.

Maximize the Potential
of Your Data

Looking for higher availability, greater performance, stronger security, and flexible infrastructure options?

Contact Us Now

Ähnliche Beiträge
 
Die zehn wichtigsten Auswahlkriterien für Software-Defined Storage
Vinod Mohan
Die zehn wichtigsten Auswahlkriterien für Software-Defined Storage
 
Ihre Daten, unsere Priorität
Vinod Mohan
Ihre Daten, unsere Priorität
datacore logo icon
 
Zwei CEOs im Wortlaut: DataCore will nicht aufhören, warum auch?
Michael Baumann
Zwei CEOs im Wortlaut: DataCore will nicht aufhören, warum auch?