„Wir setzen lieber auf unsere Vision als Nachahmer-Produkte anzubieten. Das sollen andere Firmen machen. Uns geht es immer um den nächsten Traum“ – Steve Jobs, 1984
Der Begriff Software-defined Storage (SDS) wurde richtig populär, als Unternehmen wie IBM, HPE oder EMC und andere Größen das Rechenzentrum neu erobern wollten – und zwar als Software-defined Data Center (SDDC). Das heisst weg von der margenträgen Hardware hin zu einem prognostizierten Wachstumsmarkt: Software. VMware hatte es vorgemacht, da geht was… aber spektakulär war es eigentlich nicht mehr; obwohl es Virtualisierungstechnologien schon zu Mainframe-Zeiten gab, war es relativ erfolgreich.
Software-defined Everything wurde überall ein heißes Thema, und machte auch in der Speicher-Branche nicht halt: so entstand SDS. Dabei gab es auch im Open-Systems-Bereich schon lange die Kerntechnologie. DataCore begann damit 1998…Der Weg der Speichervirtualisierung besteht darin, eine Abstraktionsschicht zwischen den Anwendungen und herkömmlichen Speicherlösungen hinzuzufügen, in die Daten geschrieben werden. Mit dieser Zwischenschicht können IT-Administratoren den Speicher flexibler zusammenstellen und bereitstellen. Gleichzeitig ermöglicht sie, einen höheren Grad an Verfügbarkeit zwischen heterogenen Ressourcen zu gewährleisten, ohne dass während der Aktualisierung eines Speichersystems Ausfallzeiten für Anwendungen erforderlich sind. Entscheidend ist aber: SDx und Virtualisierung sind billiger, Hardware austauschbar.
Im Marketing-Jargon wird billig formelhaft mit kosteneffizient übersetzt. Das mag sogar stimmen. Manche sparen Kosten durch längere Nutzung vorhandener günstiger Ressourcen, geben das Geld dann aber für Anwendungen aus, wofür ihre Hardware nicht ausgelegt ist. Andere nutzen den Software-Layer, um sofort schneller neuere und leistungsfähigere Hardware zu kaufen, in der Hoffnung, dass dies zukünftige, noch unbekannte Probleme eliminiert. In der Gesamtbilanz keine echte Revolution.
Definieren wir Software-defined?
Zu Beginn bestand das Problem für den Anwender darin, dass SDS nicht eindeutig definiert wurde. Bei den Herstellern war alles SDS. Kürzlich hat die bedeutende Storage Networking Industry Association (SNIA), eine Organisation, in die Hersteller Zeit und Geld investieren, um bestimmte Marktziele zu verfolgen, die sie alleine nicht erreichen, eine Standarddefinition für SDS erstellt. Oho, gar andere Definitionen stammen von Analysten, eine Spezies, die nach demselben Geschäftsprinzip arbeitet, jedoch kostspieliger als die SNIA ist. Nach SNIA-Definition jedenfalls muss SDS Folgendes umfassen: Automatisierung, Standardschnittstellen, virtualisierter Datenpfad, Skalierbarkeit und Transparenz. Verkehrt ist das nicht, aber…
In der Realität benötigen IT-Organisationen mehr als eine Software nach der Standard-Definition. Die meisten IT-Organisationen benötigen kein Produkt, sondern eine Lösung für Betriebskontinuität, die Leistungsanforderungen von kritischen Anwendungen und die Senkung der gesamten Infrastrukturkosten, nicht in Segmenten. Wie schon angedeutet, wird der humanoide Faktor für das Austarieren einer vernünftigen Balance benötigt, nur Technologie löst dies nicht.
Der Spagat zwischen Automation und Policy-based Computing veranschaulicht das sehr gut: nicht-invasive Administration ist wünschenswert, aber auch eine Sackgasse. Denn jedes Unternehmen, jede Abteilung wird sinnvollerweise nach aktueller und voraussichtlicher Lage (Vorsicht: Analytics!) Policy-based administriert und regiert. Auch im Zeitalter nach der digitalen Transformation wird jemand diese Entscheidungen treffen, und dieser Jemand wird eventuell Software-orientiert sein, auf jeden Fall aber aus Fleisch und Blut. Solange wir unpassende Werbe- und Partnerangebote auf unseren Social Media-Plattformen erhalten, wissen wir, dass hinter jedem Algorithmus ein fehlbarer Mensch steht.
In diesem Sinne: Keine Angst vor der digitalen Transformation, sie ist alternativlos…aber wir schaffen das! Sofern sie auf der praktischen Erfahrung von Anwendern, RZ-Leitern und Administratoren aufbaut, die sie jenseits von Quartalszielen durch Anwendung und Bedarf weiterentwickeln. Sie können zu diesen Erfahrungen ganz einfach selbst gelangen und beitragen: Klicken Sie hier, um heute eine Testversion zu erhalten.
Oder besuchen Sie unser Webinar „Heute schon digital gewandelt?“ Mehr Performance, niedrige Latenzzeiten, höhere Verfügbarkeit und bessere TCO-Ergebnisse stehen in Kombination mit einem »echten« Software-Defined-Konzept, für Mehrwerte in hyperkonvergenten und klassischen SAN-/NAS-Umgebungen als vergleichbare Lösungsansätze. Zur Webinar-Anmeldung hier.