Softwaredefinierte Speichersysteme oder was hat die Dinosaurier getötet?

Softwaredefinierte Speichersysteme oder was hat die Dinosaurier getötet?

Sie standen einst an der Spitze der Nahrungskette. Seit tausenden von Jahren. Und dann geschah das Undenkbare: Der Himmel war mit Wolken bedeckt und sie hörten auf zu existieren. Auf der anderen Seite der Welt ereigneten sich Ereignisse, die das Klima veränderten: Die Bewölkung nahm zu. Die Dinosaurier wurden zu groß und zu langsam: Ihre Überlebensversuche waren zum Scheitern verurteilt. Die Spitzenprädatoren beherrschten die Erde 100 Millionen Jahre lang und wurden immer größer und stärker. Sie entwickelten sich zu scheinbar perfekten Wesen an der Spitze der Nahrungskette, doch das Universum veränderte plötzlich das Gesicht unseres Planeten.

Ironischerweise waren es die Wolken, die vor 66 Millionen Jahren die Dinosaurier auslöschten. Ebenso zerstören Clouds heute klassische Datenspeichersysteme an der Spitze der Nahrungskette. In beiden Fällen lag das Problem nicht in den Wolken selbst, sondern in der Fähigkeit, sich an eine sich verändernde Welt anzupassen. Im Fall der Dinosaurier ging alles schnell: Die zerstörerische Wirkung der Wolken trat innerhalb von Tagen oder Wochen nach dem Meteoriteneinschlag (oder dem Vulkanausbruch – Sie haben die Wahl der Theorie) ein. Bei klassischen Data Warehouses dauert der Prozess Jahre, ist aber natürlich irreversibel.

Trias: das Zeitalter des großen Eisens und die Entstehung wandernder Anwendungen

Also was ist passiert? Das bestehende Ökosystem umfasste Speichersysteme der Einstiegs- und Mittelklasse, Systeme der Unternehmensebene und Direct-Attached Storage (DAS). Diese Kategorien wurden von Analysten festgelegt und verfügten über eigene Marktvolumina, Indikatoren für Kosten, Zuverlässigkeit, Leistung und Skalierbarkeit. Und dann passierte etwas Seltsames.

Das Aufkommen virtueller Maschinen bedeutete, dass mehrere Anwendungen gleichzeitig auf einem einzigen Server ausgeführt werden konnten, wahrscheinlich über mehrere Eigentümer hinweg – eine Änderung, die die Zukunft von Direct-Attached Storage sofort in Frage stellte. Dann entwickelten die Besitzer der größten Hyperscale-Infrastrukturen (Hyperscaler): Facebook, Google, eBay usw., die es satt hatten, riesige Summen für Speichersysteme auszugeben, eigene Anwendungen, die die Datenverfügbarkeit auf regulären Servern statt auf großen „Hardware“-Speichern sicherstellten Systeme. Dann brachte Amazon etwas Seltsames auf den Markt, das Simple Storage Service oder S3 hieß. Kein Block, keine Datei, sondern etwas grundlegend Neues: Es wurde unmöglich, ein System zu kaufen, es wurde möglich, nur eine Dienstleistung zu kaufen. Moment mal, was ist das für ein helles Licht, das am Himmel sichtbar ist? Ein weiterer Asteroid?

Jura: die Ära der „gut genug Saurier“

Wir sind mit der Ideologie „gut genug“ in die Speicherentwicklungsphase gegangen. Als Speicherkunden bemerkten, was die Hyperscaler getan hatten, begannen sie, die Fairness der zehn- oder sogar hundertfachen zusätzlichen Kosten für die Hardware, die sie für ihre Unternehmensspeichersysteme zahlten, in Frage zu stellen. Mittelklasse-Arrays begannen, Marktanteile von Systemen der Spitzenklasse zu gewinnen. Produkte wie HPE 3PAR zeigte ein schnelles Wachstum. EMC Symmetrix, das einst dominierende Array der Enterprise-Klasse, hatte immer noch einen gewissen Marktanteil, schrumpfte jedoch rapide. Viele Benutzer haben mit der Migration ihrer Daten zu AWS begonnen.

Andererseits begannen Speicherinnovatoren, Ideen von Hyperscalern zu übernehmen und verwendeten Technologien verteilter horizontal skalierbarer Systeme – eine der vertikalen Skalierung entgegengesetzte Ideologie. Es wird erwartet, dass die neue Speichersoftware genau wie Hyperscaler auf regulären Servern laufen kann. Nicht mehr das 10- bis 100-fache der Kosten für die Ausrüstung selbst. Theoretisch können Sie jeden Server verwenden – die Wahl hängt von Ihren Vorlieben ab. Die Ära der softwaredefinierten Speicherung (SDS) hat begonnen: Wolken verdunkelten den Himmel, die Temperaturen sanken und die Population der Spitzenprädatoren begann zu sinken.

Die Kreidezeit: der Beginn der Entwicklung softwaredefinierter Speichersysteme

Die Anfänge des softwaredefinierten Speichers waren aufregend. Es wurde viel versprochen, aber wenig gehalten. Gleichzeitig kam es zu einem wichtigen technologischen Wandel: Flash-Speicher wurden zur modernen Alternative zu Spinning Rust (HDD). Dies war die Zeit vieler Speicher-Startups und einfach zu handhabender Risikokapitalgelder. Alles wäre großartig, wenn es nicht ein Problem gäbe: Die Datenspeicherung erfordert ernsthafte Überlegungen. Es stellt sich heraus, dass Kunden ihre Daten lieben. Wenn sie den Zugriff darauf verlieren oder in Terabytes an Daten ein paar fehlerhafte Bits gefunden werden, machen sie sich große Sorgen. Die meisten Startups haben nicht überlebt. Kunden erhielten coole Funktionen, aber mit den Basistools war nicht alles gut. Schlechtes Rezept.

Känozoikum: Speichermassive dominieren

Nur wenige Leute reden darüber, was danach geschah, weil es nicht sehr interessant ist – Kunden kaufen weiterhin die gleichen klassischen Speicher-Arrays. Wer seine Anwendungen in die Cloud verlagerte, verlagerte natürlich auch seine Daten dorthin. Doch für die allermeisten Kunden, die nicht komplett oder gar nicht auf die Cloud umsteigen wollen, bot das gleiche Hewlett Packard Enterprise weiterhin klassische Arrays an.

Wir befinden uns im Jahr 2019. Warum gibt es also immer noch ein milliardenschweres Speichergeschäft, das auf der Y2K-Technologie basiert? Weil sie funktionieren! Einfach ausgedrückt: Die Anforderungen geschäftskritischer Anwendungen wurden von Produkten, die auf der Welle des Hypes entwickelt wurden, nicht erfüllt. Produkte wie HPE 3PAR blieben die beste Option für Unternehmenskunden, und die neue Entwicklung der HPE 3PAR-Architektur ist es auch HPE zuerst – das bestätigt es nur.

Die Fähigkeiten softwaredefinierter Speichersysteme wiederum waren ausgezeichnet: horizontale Skalierbarkeit, die Verwendung von Standardservern ... Der Preis dafür war jedoch: instabile Verfügbarkeit, unvorhersehbare Leistung und spezifische Skalierbarkeitsregeln.

Die Komplexität der Kundenanforderungen besteht darin, dass sie nie einfacher werden. Niemand wird sagen, dass ein Verlust der Datenintegrität oder längere Ausfallzeiten akzeptabel sind. Deshalb ist für Speichersysteme eine Architektur so wichtig, die gleichzeitig den Anforderungen moderner, sich schnell entwickelnder Rechenzentren gerecht wird und bei der Suche nach einem Kompromiss nicht auf die wesentlichen Merkmale von Speichersystemen der Enterprise-Klasse verzichtet.

Tertiär: Entstehung neuer Lebensformen

Versuchen wir herauszufinden, wie es einem der Neulinge auf dem Speichermarkt – Datera – gelungen ist, mit einer so schwierigen Mischung aus historisch etablierten und neuen Anforderungen an Speichersysteme zurechtzukommen. Erstens durch die Implementierung einer Architektur, die auf die Lösung des oben beschriebenen Dilemmas ausgerichtet ist. Es ist unmöglich, eine Legacy-Architektur zu modifizieren, um den Herausforderungen eines modernen Rechenzentrums gerecht zu werden, ebenso wenig wie es unmöglich ist, eine durchschnittliche softwaredefinierte Speicherarchitektur zu modifizieren, um den Anforderungen von Systemen der Enterprise-Klasse gerecht zu werden: Dinosaurier wurden nicht aufgrund der Temperatur zu Säugetieren fallen gelassen.

Der Aufbau einer Lösung, die den Speicheranforderungen der Enterprise-Klasse entspricht und gleichzeitig die Agilität des modernen Rechenzentrums voll ausnutzt, ist keine leichte Aufgabe, aber genau das hat sich Datera vorgenommen. Die Spezialisten von Datera arbeiten seit fünf Jahren daran und haben ein Rezept zum „Kochen“ von softwaredefiniertem Speicher der Enterprise-Klasse gefunden.

Die Hauptschwierigkeit, auf die Datera stieß, bestand darin, dass der logische Operator „AND“ anstelle des viel einfacheren „OR“ verwendet werden musste. Konsistente Verfügbarkeit UND vorhersehbare Leistung UND architektonische Skalierbarkeit UND Orchestrierung als Code UND standardisierte Hardware UND Richtliniendurchsetzung UND Flexibilität UND analysegesteuertes Management, „UND“ Sicherheit, „UND“ Integration mit offenen Ökosystemen. Der logische Operator „AND“ ist ein Zeichen länger als „OR“ – das ist der Hauptunterschied.

Quartärzeit: Moderne Rechenzentren und plötzlicher Klimawandel bestimmen die Entwicklung softwaredefinierter Speichersysteme

Wie hat Datera also eine Architektur geschaffen, die den Anforderungen traditioneller Unternehmensspeicher und gleichzeitig den Anforderungen moderner Rechenzentren gerecht wird? Alles läuft wieder auf diesen lästigen „AND“-Operator hinaus.

Es hatte keinen Sinn, einzelne Anforderungen einzeln anzugehen. Die Summe solcher Elemente wird kein einziges Ganzes ergeben. Wie in jedem komplexen System war eine sorgfältige Abwägung des gesamten Komplexes ausgewogener Kompromisse wichtig. Bei der Entwicklung ließen sich die Datera-Spezialisten von drei Hauptprinzipien leiten:

  • anwendungsspezifisches Management;
  • ein einheitlicher Mechanismus zur Gewährleistung der Datenflexibilität;
  • hohe Leistung durch reduzierte Gemeinkosten.

Das gemeinsame Merkmal dieser Prinzipien ist die Einfachheit. Verwalten Sie Ihr System ganz einfach, verwalten Sie Ihre Daten einfach mit einer einzigen, eleganten Engine und liefern Sie eine vorhersehbare (und hohe) Leistung bei gleichzeitiger Reduzierung der Kosten. Warum ist Einfachheit so wichtig? Erfahrene Fachleute in der Speicherwelt wissen, dass die Erfüllung der Speicheranforderungen des heutigen dynamischen Rechenzentrums nicht nur durch granulares Management, mehrere Datenverwaltungstools und Hyperoptimierung zur Leistungssteigerung erreicht werden kann. Der Komplex solcher Techniken ist uns bereits als Dinosaurier-Speichersystem bekannt.

Die Vertrautheit mit diesen Prinzipien hat Datera gute Dienste geleistet. Die von ihnen entwickelte Architektur verfügt einerseits über die Verfügbarkeit, Leistung und Skalierbarkeit eines modernen Speichersystems der Enterprise-Klasse und andererseits über die Flexibilität und Geschwindigkeit, die für ein modernes softwaredefiniertes Rechenzentrum erforderlich sind.

Verfügbarkeit von Datera in Russland

Datera ist ein globaler Technologiepartner von Hewlett Packard Enterprise. Datera-Produkte werden auf Kompatibilität und Leistung mit verschiedenen Servermodellen getestet HPE ProLiant.

Mehr über die Datera-Architektur erfahren Sie unter HPE-Webinar 31 Oktober.

Source: habr.com

Kommentar hinzufügen