von unserer Gastbloggerin Kriemhilde Klippstätter
Die Speicherwelt ist kompliziert geblieben, wenigstens. Wer soll was wo wie speichern? Basisentscheidungen sind zu treffen und neue Ideen zumindest auszuloten. Der Speicherort zum Beispiel.
Nach dem Besuch einiger Speicher-Startups im Silicon-Valley ist klar, dass sie alle ihre Daten in der Cloud verwahren. Sagen sie zumindest. Für ein Startup mag das tauglich sein, für größere Firmen wohl kaum. Doch einige von den Jungunternehmen befassen sich genau damit: Der Datenspeicherung in der Cloud.
Heutige Applikationen sind praktisch „in der Cloud geboren“, sagen sie und meinen damit, dass sie für Cloud-Computing entworfen wurden. Sie nutzen nicht-relationale Datenbanken wie MongoDB, Apache Cassandra oder andere. Der Vorteil nicht-relationaler Datenbanken besteht vor allem darin, dass sie hoch verfügbar sind, allerdings hapert es an der Datenkonsistenz.
Herkömmliche Anwendungen, die für das Rechenzentrum alter Prägung entworfen wurden und auf relationalen Datenbanken betrieben werden, wandern heute aber ebenfalls zunehmend in Cloud-Umgebungen. Ob für sie die herkömmlichen Strategien für das Datenmanagement ausreichen bleibt allerdings zweifelhaft. Auch zur Lösung dieses Problems werden allerorten Produkte entwickelt.
Wäre „Software as a Service“ – SaaS – etwas, um den neuen Verwaltungswust zu umgehen? Die SaaS-Anbieter tragen nur die Verantwortung für Fehler in Hardware- und Software, für Stromausfall, Naturkatastrophen und Löschaufträge, leider. Alles andere, also Programmfehler, menschliches Versagen, Sabotageakte von Internen und Externen, aller rechtlichen Belange von der Aufbewahrungspflicht bis zum rechtlich einwandfreien Inhalt sowie Bedrohungen durch Viren und Ransomware bleiben im Entscheidungs- und Abwehrbereich der Nutzer. Nicht umsonst weisen alle großen Cloud-Provider darauf hin. Microsoft etwa mit „Bei Office 365 geht es um Ihre Daten. Sie gehören Ihnen und Sie kontrollieren sie auch.“ Salesforce empfiehlt, sich eine Backup-Lösung aus dem Partnerverzeichnis zu suchen und Google konstatiert: „Ganz einfach gesagt, Google besitzt Ihre Daten nicht.“ Als Fazit bleibt vielleicht eines: Man soll, darf, muss immer die Kontrolle über die eigenen Daten behalten.
Ist es dann nicht einfacher, weiter alle Informationen im eigenen Speicherzentrum zu horten? Tatsächlich hat eine kürzlich von uns durchgeführte Befragung von Herstellern und Analysten erbracht, dass das herkömmliche SAN heute noch nicht ausgedient hat. In the long run ist es aber – manche sagen: leider – nicht mehr zeitgemäß, da wir globale Player sind, es sein müssen oder vielleicht werden. Das alte Storage Area Network wird sich wohl in den kommenden zehn Jahren schleichend davon machen.
Als vernünftiger Mittelweg sprießen hybride Clouds in den Himmel. Neue Unterart: „Hybrid Storage Cloud“ (HSC). Auf der einen Seite steht im heimischen Rechenzentrum eine mit spezieller Software beladene Hardware-Appliance, die andererseits auch die Integration in eine Public Cloud bewerkstelligt. Der HSC-Lieferant sollte dabei aber zumindest alle Überwachungs- und Optimierungsaufgaben inklusive Software-Updates für die gemietete Hardware übernehmen.
Um dem ganzen Mix aus Aufgaben, Standort, Hardware und Software eine Hülle zu geben, wurde Software-defined Storage erfunden. Zwar sind die Kriterien, was nun genau SDS haben muss, um SDS zu sein, noch unscharf, aber das Wort ist in aller Speichermunde. IDC-Analystin Archana Venkatraman: „Tatsächlich sehen wir Software-defined Storage als das am stärksten wachsende Speichersoftware-Segment in EMEA an“.
Einige der derzeitigen SDS-Protagonisten haben die Herstellerunabhängigkeit, das Pay-as-you-grow-Prinzip und den möglichen Mix von Hardware-Komponenten als Vorzüge ausgemacht. Andere mahnen, dass neue Aufgaben wie Analytics, Hadoop oder Spark auf alten monolithischen Strukturen nicht oder nur mit großem Kostenaufwand befriedigend skalieren und man schon deshalb die eigene Speicherstruktur verändern müsse. Das gelingt allerdings meist nur unter Schmerzen, denn auf die IT-Abteilungen kommen neue Aufgaben zu. Sie müssen Workloads und User Policies festlegen und damit mehr konzeptionelle Arbeit leisten als bisher. Wohl dem also, der die Vorzüge von SDS mit einem kompetenten Partner verwirklichen kann.
***
Kriemhilde Klippstätter arbeitet seit zehn Jahren als freie IT-Journalistin und Systemischer Coach in München. Davor war sie jahrelang als Redakteurin beim Hüthig Verlag (“minimikromagazin”) und IDG Business Media (“Computerwoche”) als Redakteurin beschäftigt. Ihr Lebensmotto: Panta rhei – alles ist im Fluß.
Einer Ihrer aktuellen Artikel: https://www.storage-insider.de/datacore-vom-storage-zum-data-service-a-767562/