Speichermarkt 2020 – Ein Ausblick

Unser Doc Storage blickt in die »Glaskugel« und analysiert, welche Ansätze und Anforderungen den Speichermarkt 2020 bestimmen könnten: Technologisch sieht er die Notwendigkeit nach mehr Performance, Prozesse zu beschleunigen sowie mehr Effizienz und Beschleunigung. Aber auch der Umgang mit den gespeicherten Daten ist ein wichtiger Aspekt.

Kolumne Doc Storage:

DocStorage2014 thumb

Anzeige

Es ist allgemein üblich geworden, zum Jahreswechsel einen mehr oder weniger unscharfen Blick in die Glaskugel für die nächsten zwölf Monate zu werfen. Auch ich versuche mich diesmal darin, auch wenn ich annehme, dass in einem Jahr der Rückblick auf das vergangene einige hier nicht erwähnte Themen aufzählen wird, genauso wie einige der besprochenen Themen nicht ganz so wichtig gewesen sein werden wie hier angenommen.

Technologien für das Jahr 2020

Auch 2020 werden einige Technologien wichtiger werden als sie dies im Moment noch sind. Diese nun »disruptiv« zu nennen wäre übertrieben, allerdings zeigen sie jetzt schon den Trend, sich an anderen, traditionellen vorbei in den Vordergrund zu drängen. Ich versuche mich hier mal an einer Auswahl.

1. Storage-Class-Memory (SCM)

Natürlich wurde die breite Einführung von SCM bereits schon vor einigen Jahren prophezeit, und Samsungs Z-SSD, Toshibas XL-Flash sowie Intels Optane haben versucht, Kunden zu gewinnen. Allerdings sind die Hersteller im kommenden Jahr endlich soweit, den Anwendern die entsprechenden Implementierungen in der angemessenen Zuverlässigkeit und vor allem zu vernünftigen Preisen anzubieten. Intel hat nun endlich Optane-DCPMM zum Laufen gebracht, und das dürfte diesen Zweig erheblich anfeuern.

Die Kombination von schnellem DRAM mit NAND-Speichern ermöglicht den Anwendern die Arbeit mit größeren Datenmengen zu realistischen Preisen. SCM ist um tausendfach schneller als NAND, bietet also Latenzen im Mikrosekunden-Bereich, nicht in Millisekunden. Damit wird SCM zunächst einmal zur Erweiterung von Hauptspeichern benutzt werden. Allerdings benötigen die Server dafür auch die neuesten Generationen an CPUs, was eine Welle von Upgrades in den Rechenzentren nach sich ziehen dürfte. Ein Win-Win für Intel.

2. Software-defined Storage (SDS)

Weit aufgerissene Augen und Kopfkratzen – wie jetzt, SDS haben wir doch schon seit Jahren? Ja, das ist richtig, als Technologie sicherlich. Allerdings, wenn wir heute in die großen Rechenzentren schauen, tun hier immer noch größtenteils die gewohnten Enterprise-Monolithen ihren Dienst. Und auch dies wird sich sehr bald ändern. Der Wunsch nach Flexibilität, einfacher Erweiterung und Automation, aber auch nach universellerer Einsetzbarkeit des Personals wird auch die letzten Anwender großer Subsysteme in Richtung von SDS treiben. SDS funktioniert auf Industrie-Standard-Hardware, größtenteils auf x86-Basis.

Die Einführung von SDS bringt bessere Interaktion zwischen Speicher und Arbeitslast, agiles Management und Skalierbarkeit (fast) in Echtzeit. Dem Kunden wird dabei die Auswahl der unterliegenden Hardware wesentlich erleichtert, während die Verwaltung der Umgebung unverändert bleibt. SDS-Umgebungen verfügen inzwischen über alle Möglichkeiten, die bisher zum Teil nur den Monolithen vorbehalten waren. Durch geringeren Verwaltungsaufwand lässt sich vor allem der Opex senken. Des Weiteren fallen Migrationspausen völlig weg, was die Verfügbarkeit deutlich steigert. All das werden im neuen Jahr viele Anwender von Enterprise-Systemen erkennen und auf SDS schwenken. In der Folge werden wir immer weniger dieser Monolithen in den Rechenzentren finden.

3. Computational-Storage

Computational-Storage ermöglicht es, einige Prozesse statt auf der CPU auf den Prozessoren der Speichersysteme auszuführen. Dies entlastet die installierten Rechner und nutzt die Hardware der Speichersysteme besser aus. Im kommenden Jahr wird sich diese Methode in den Mainstream drängen, da immer mehr Hersteller Lösungen hierfür anbieten. Hierbei lässt sich diese Technologie in vielen Spielarten anwenden, zum Beispiel von großen Speichern, die Big-Data für Analyseanwendungen aufbereiten oder Datenbanken sortieren, bis hin zu kleineren Systemen, die Daten filtern, bevor diese in eine Cloud geschickt werden. NVMe bildet hierfür die entscheidende unterliegende Technologie. Deshalb sollten sich Entscheider mit dem Wechsel auf NVMe beschäftigen, bevor Computational-Storage in ihren Fokus rückt.

4. NVMe(-oF)

Standard-SSDs wurden und werden über SAS oder noch schlimmer über SATA angesprochen, Kanalarten, die vor Jahrzehnten für den Betrieb mit wesentlich langsameren Festplatten entwickelt wurden. Um diesen Flaschenhals zu eliminieren, haben die Hersteller nun Von-Volatile Memory Express (NVMe) eingeführt. Diese Technik läuft über der PCIe-Schicht und stellt ein wesentlich leistungsfähigeres Kommunikationsprotokoll dar, welches speziell für schnelle SSD-Speicher geeignet ist. Es ermöglicht nicht nur deutlich schnellere Verarbeitung mit wesentlich niedrigeren Lieferzeiten, sondern unterstützt hiermit auch Echtzeit-Anwendungen im Rechenzentrum und der Cloud.

Dabei ist NVMe nicht auf Speichergeräte limitiert, sondern kann darüber hinaus auch als Netzwerkprotokoll dienen (NVMe over Fabric, NVMe-oF). Damit können Speichernetze aufgebaut werden, die in ihrer Leistung direkt angeschlossenen Speichern kaum nachstehen. Dadurch lassen sich Flash-Speicher, wenn nötig, auf mehr als einem Rechner zuteilen. Weitere Adaptionen wie NVMe über TCP könnten dieser Technologie weitere Felder eröffnen. Im Jahr 2020 wird jeder, der über die Erweiterung existierender Arrays oder die Anschaffung neuer Speicher nachdenkt, um NVMe nicht drumherum kommen.

Man sieht – es wird nicht mehr auf den Zuwachs von Speicherkapazitäten oder die Verbesserung von Geschwindigkeiten der einschlägigen Medien ankommen. Dass dies geschieht, dafür braucht es noch nicht einmal einen Blick in die Glaskugel. Das schöne dabei ist, dass bei den neuen Medien keine Einschränkung durch chemische oder mechanische Eigenschaften mehr stattfindet, es gibt (fast) kein Limit an Bits pro Quadratzoll oder der Anzahl von Platten in einem bestimmten Gehäuseformat. Durch die Trennung von Speicher-Software und unterliegender Hardware wird auch die Weiterentwicklung von klassischen Arrays zum Ende kommen, niemand wird mehr bereit sein, den Premium-Aufschlag für solche Systeme zu bezahlen.

Ob diese nun schon heuer aus den Preislisten verschwinden oder im darauffolgenden ist völlig gleichgültig, ihre Zeit ist abgelaufen. Es waren schöne 25 Jahre, aber jetzt ist die Ära neuer Lösungen angebrochen. In dieser Ära sollte es nur noch drei Fragen geben, die die Verkäufer der Hersteller stellen: wie groß, wie schnell und was soll das System machen? Nach den Antworten wird eine bestimmte Hardware auf den Laster gestellt, mit entsprechenden SSDs ausgestattet und mit einer einschlägigen Software bespielt. Ich gehe sogar soweit, zu erwarten, dass es in nicht allzu ferner Zukunft keine spezialisierten Speicher-Betriebssysteme mehr geben wird, nur noch solche, in denen die Portion benutzt wird, für die der Speicher gerade aufgestellt ist. Das Zeitalter der konvergenten Systeme ist angebrochen, wer die nicht hat oder ganz schnell entwickelt, den wird es in nicht allzu ferner Zukunft im Speichermarkt nicht mehr geben.

Umgang mit Daten

Auch in dem Bereich, der nichts oder nur am Rande mit den unterliegenden Technologien zu tun hat, wird es natürlich Trends und Entwicklungen geben. Einige davon kennen wir bereits, andere gesellen sich neu hinzu.

1. Cloud

Ja, natürlich – die ersten Cloud-Techniken haben wir bereits vor über 20 Jahren gesehen, und seit 2006 gibt es ernstzunehmende Implementierungen. Jeder redet davon, und jeder schwört, dass, wenn er sie noch nicht nutzt, er sie ganz bestimmt für das nächste Projekt einsetzen werde. Immer mehr Anwendungen wandern, allein schon aus Kostengründen, in die Wolke, und mit ihnen die zugehörigen Daten und damit der Speicher. Wir haben hier immer wieder auf die Risiken und Gefahren hingewiesen, die es bei der Migration in die Cloud zu beachten gilt, wir können nur hoffen, dass diese immer und bei jedem Projekt beachtet werden. Aber, wir können noch so oft die Stirn runzeln und tief durchatmen, die Cloud entwickelt sich immer mehr zum Zentrum unserer EDV. Ob wir das wollen oder nicht, auch in 2020.

2. Privatsphäre

Jaja, ich weiß, großer Lacher. Allerdings wird es im kommenden Jahr wieder sehr wichtig, dass wir uns alle sehr gründlich überlegen, wem wir unsere Daten geben und wofür. Auch nachdem (fast) alle Datenverarbeiter sich der DSGVO unterworfen haben und es uns (theoretisch) möglich sein sollte, immer und jederzeit alle Daten überall löschen zu lassen, wo wir das wollen. Aus der anderen Perspektive muss die Wahrung dieser Privatsphäre also eine der obersten Direktiven der RZ-Betreiber sein und bleiben, egal ob man das nun möchte oder nicht. Dies ist einerseits wichtig, um gesetzliche Bestimmungen zu erfüllen, andererseits aber auch, um dem Anwender das Vertrauen in die Betreiber zu erhalten.

3. Sicherheit

Ja, auch hier werden sich einige sich die Ohren zuhalten und stark durchatmen, weil sie das Thema nicht mehr hören können. Allerdings ist die Frage, ob man in der nächsten Ausgabe der Tageszeitung stehen möchte, gar nicht mal so abwegig. Es ist in den letzten Jahren üblich geworden, Datenlecks nicht mehr schön kuschelig in den Fachpublikationen zu diskutieren, sondern reißerisch auf Seite 1 der Tageszeitungen auszubreiten. Und damit das Vertrauen (siehe oben) der Nutzer in bestimmte Betreiber, gegen Null zu senken. Also, bevor wir tief durchatmen und genervt sind, sollten wir uns alle fragen, ob wir da landen wollen, auf Seite 1.

Dafür sollten wir alle Maßnahmen ergreifen, die uns irgend möglich sind, und vor allem einen Blick auch von außen einholen. Diejenigen, die an unsere Daten wollen, denken völlig anders als wir, also müssen wir sie fragen, wo denn eventuell noch Lücken in unseren ach so durchdachten Konzepten sein könnten. Das ist nervig, aber unumgänglich. Und nicht nur einmal, sondern ständig, immer wieder, auf regelmäßiger Basis. Es ist keine Schande, sich diese Hilfe zu holen – auf der Titelseite zu landen schon. Jeder RZ-Betreiber sollte, ach was, muss diese Maßnahmen ergreifen, wenn nicht bisher, dann sehr schnell im neuen Jahr.

Daten bleiben das zentrale Element der Entscheidungsfindung

Natürlich wird es im Umfeld des Umganges mit immer größeren Datenmengen eine Vielzahl weiterer Trends geben, die 2020 mehr oder weniger wichtig werden. Ob es nun die Sicherung der Datenqualität selbst ist, um möglichst genaue und verlässliche Ergebnisse zu bekommen, ob es durch die immer höhere Integration der Systeme auch eine immer größere Automation ist oder andere Themen wie Analyse, Business-Intelligence oder Decision-Support. Es war schon immer ein zentrales Thema der DV, durch möglichst genaue Daten die bestmöglichen Entscheidungen zu unterstützen. Hier wird die Integration der entsprechenden Anwendungen und das Zusammenspiel mit den Speichersystemen zeigen, wie weit wir damit in 2020 kommen.

Was denken Sie, habe ich Themen unerwähnt gelassen, die in 2020 wichtig werden könnten? Schreiben Sie mir gerne (und bitte, liebe Hersteller, keine Werbung…).

Gruß
Doc Storage

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.