Top-10-Storage-Trends: Mittelstand goes Transformation

Die Entwicklung im Storage-Markt ist eng verknüpft mit dem Datenwachstum und den damit verbundenen neuen Anforderungen an Performance, Sicherheit und Wertschöpfung (Bild: via Canva Pro).
Bild via Canva Pro

Im Zeichen der voranschreitenden Digitalisierung ist es banal: Speicherung, Verwaltung, Schutz und Bewertung von Daten gehören zu den elementaren Aufgaben der IT. Ihre Wichtigkeit wächst jedoch durch das Datenwachstum angesichts der Digitalisierung und neuen Anforderungen an Performance, Sicherheit und Wertschöpfung. Einige Veränderungen dürften für KMU und den Mittelstand besondere Herausforderungen mit sich bringen. Wir diskutieren unsere Top-10-Trends.

Wir müssen uns nichts vormachen. Speichersysteme stehen länger als uns die Hersteller vormachen wollen. Warum? Weil sie funktionieren, einerseits und der Hersteller andererseits eine Erneuerung wünscht, der potenzielle Abnehmer aber die Investition nicht einsieht. Die Analysten wiederum drängen uns zur Transformation. Aber warum? Um ihre Berichte für fünfstellige Beträge zu verkaufen? Nichts von alledem braucht man, vielmehr wird ein zuverlässiger, performanter Speicher benötigt, so einfach ist das.

Anzeige

Trends in der Entwicklung gibt es, jeder sollte einen Blick darauf haben. So sind Trends ein bisschen Zukunftsmusik. Nicht verkehrt, aber auch nicht richtig, Unternehmen suchen nach neuen und effektiven Lösungen, um Daten vorzuhalten und für ihre Geschäftsanforderungen und -modelle zu nutzen. Der Mittelstand ist gefordert und hat erheblichen Einfluss auf den Erfolg von neuen Konzepten, Strategien und Lösungen. Der Speichermarkt erlebt derzeit eine von äußeren Kräften getriebene Transformation.

Trend I: Weniger Fokus auf Technologie, mehr auf Datenwert

Richtig Spektakuläres mag man in der Speicherbranche seit längerem nicht gesehen haben, aber es gibt sie natürlich: Technologische Fortschritte im Speicherumfeld.

Storage-Class-Memory (SCM) beispielsweise. SCM reduzieren Antwortzeiten auf obere Nanosekunden- und untere Mikrosekunden-Bereiche. Angesichts der exorbitanten Preise werden sie noch eher als Cache eingesetzt, aber das könnte sich mit der Massenproduktion ändern.

Weiterentwicklungen gibt es auch bei Flash-Speicher. 3D Triple und Quad Level Cells (TLC, QLC) schreiben heute in 128 Schichten und höher, verbessern die Haltbarkeit und werden wohl bald schon im 256-Layer-Format bis zu 90 TByte pro Modul verarbeiten.

Schließlich gibt es noch die Ebene der Schnittstellen, Treiber und Protokolle. Hier wird seit längerem NVMe over Fabric (NVMe-oF) als Trend gehandelt und nimmt jetzt allmählich an Fahrt auf. NVMe-oF hat hohes Potenzial, Bandbreiten und Latenzzeiten spürbar zu verbessern.

Dennoch wird ein Trend deutlich, der insbesondere Mittelstand und KMUs eher entgegenkommt: In Zukunft werden viele der technologischen Details der Datenspeicherung für den Nutzer zunehmend an Bedeutung verlieren, während die Diskussionen um den Geschäftswert boomen. Entsprechend richten sich die Hersteller aus. Dies führt zu Trends II: Kein Wettbieten um »Bits und Bytes«, sondern Lösungen auch für den Mittelstand.

Trends II: SLAs treiben Speicher-Entscheidungen, nicht der Storage

Speicher(ver)käufe beginnen heute nicht mehr mit Konversationen über die Leistungs-Spezifikationen einer Storage-Lösung. Sie beginnen mit den Speicheranforderungen des Unternehmens. Anders gesagt, entscheiden primär die Anwendung und erforderliche Service-Levels über die zu wählende Storage-Lösung. Service-Level-Agreements (SLA) sind der Schlüssel zur Auswahl der Speichertechnologie. Das klingt zunächst naheliegend, wurde aber über Jahrzehnte anders gehandhabt.

Für CTOs und IT-Manager bedeutet das eine gravierende Veränderung. Sie geraten unter Umständen vom Regen in die Traufe. Denn kaum haben sie sich einer eventuell müßigen Diskussion um »Speeds und Feeds« entledigt, stehen sie vor neuen Aufgaben: Sie müssen die Art und Weise, wie Applikationen Daten in Workloads verarbeiten und bereitstellen, verstehen und analysieren, um die adäquate Speicherlösung wählen zu können.

Neben klassischen Anforderungen wie Verfügbarkeit und Geschwindigkeit sind deshalb nicht umsonst Automations-Bemühungen rund um Künstliche Intelligenz (KI), Machine-Learning (ML) und Deep-Learning (DL) quasi Teil des Speichermanagements geworden. In diesem Sinne ist es oftmals unerheblich, welches Art »Blech« die Arbeit tut und wo dieses steht.

Trend III: Software-defined und das Ende der Herstellergefechte

Aus Trend I und Trend II ergibt sich folgerichtig auch, dass die klassischen Anbietergefechte im Konferenzraum des potenziellen Käufers verschwinden. Die komplexen wie individuellen Anforderungen sowie die Dynamik der Geschäftsmodelle und der Stand und Wille zur Transformation reduziert den Sockel an Stammlieferanten und Standard-Kaufentscheidungen auf Basis alter Erfahrungen mit dem Anbieter X oder Y. Nicht zuletzt erfinden sich auch diese derzeit neu!

Das moderne Rechenzentrum ist Software-basiert, im Speicherbereich durch Software-defined Storage (SDS), der gerade auch Mittelständlern große Vorteile bietet. Enterprise-Services auf Standard-Hardware, weniger Hersteller- oder Technologiebindung, zentrale und plattformübergreifende Speicherstrategien und langfristig niedrigere Gesamtkosten sind die Gründe, warum auch KMU und Mittelstand verstärkt diesen Bereich gehen.

Trend IV: Personal, Pay-Programme und Provider im Wandel

Die hybride Cloud nutzt externe Ressourcen für Standard-IT-Aufgaben, die lokale Cloud bedient Perfomance- und Sicherheitsaspekte. Die Anschaffungskosten für Hardware, etwa Flash-Speicher sinken. Warum also nicht zurück in alte Modelle? Ein Grund: Preise sinken nicht in dem Maße, wie die Datenmengen steigen. Analysten schätzen das Datenwachstum branchenübergreifend auf etwa 30 Prozent im Jahr 2021.

Lokaler Speicher benötigt darüber hinaus umfangreiche Investitionen in RZ-Raum, Strom- und Klima-Management und nicht zuletzt in Fachpersonal. Dies ist einerseits teure »Mangelware«, und bedeutet andererseits zumindest im deutschen Arbeitsrecht, eine zumindest mittelfristige Kapitalbindung.

Gerade die wirtschaftliche Unsicherheit fördert deswegen auch den zumindest partiellen Gang in die Cloud. Dort sind eventuell höhere Kosten pro TByte zu erwarten, ein Preisverfall nicht in Sicht. Mit der Standardisierung von Schnittstellen wie S3 oder Open-Source-Plattformen wie Kubernetes sinkt aber das Risiko eines Lock-Ins.

Diese gibt es verstärkt von globalen Anbietern, etwa Dell Technologies Apex oder HPE GreenLake, aber auch und gerade im deutschsprachigen Mittelstand von lokalen Managed-Service-Providern (MSP), die sich oftmals auf den Mittelstand fokussieren. Sie liegen im Trend, einhergehend mit neuen Pay-as-you-go-Abrechnungs- und Miet-Modellen. Betriebskosten (OPEX) statt einmaliger Investition (CAPEX) lautet das Gebot der Stunde. Diese Umschichtung erscheint vielen Unternehmen, Mittelstand eingeschlossen, als derzeit optimale Lösung.

Ein interessanter, gegentrendiger Aspekt begegnete uns jedoch im Gespräch mit einem deutschen, mittelständischen Unternehmen aus dem produzierenden Gewerbe. Er lehnt Abo- und Miet-Modelle, ob On-Premises oder in der Cloud, als Basis seiner IT komplett ab. Denn, wenn sein Unternehmen zwei Monatsraten auf Grund einer temporären Cash-Not nicht bezahlen könne, sei sein komplettes Geschäft eliminiert. Er erwirbt deshalb Hardware, Software-Lizenzen und 3-Jahresservice.

Trend V: Hybrid-Storage ist Basis der digitalen Transformation

Während bei Multi-Cloud-Ansätzen verschiedene IT-Dienste in unterschiedliche Clouds verlagert werden, spricht man bei der Kombination von Private- und Public-Cloud vom hybriden Ansatz. Multi-Cloud-Ansätze ermöglichen es, für jede Anwendung zwischen verschiedenen Cloud-Optionen zu wählen. Bei diesen Ansätzen soll in erster Linie die Abhängigkeit von einem Hoster oder Hyperscaler vermieden werden. Diese Flexibilität führt aber auch zu Komplexität, welche gerade dem Mittelstand Unbehagen bereitet. Und: Die Umsetzung von Governance und DSGVO bleiben kritisch.

Bei einer hybriden Struktur geht es mehr um Sicherheitsaspekte und Compliance-Anforderungen, die eine lokale Datenhaltung und -sicherung neben der Cloud-Nutzung mit vorsehen.

Daten und Prozesse in einer hybriden Umgebung bilden eine Einheit, während sie in Multi-Cloud-Szenarien eher getrennt bleiben, und rücken so in den Vordergrund. In beiden Fällen wird sich der Anwender immer weniger darum kümmern, welcher Hardware-Unterbau die erforderlichen Dienste liefert. Auf Ebene der lokalen Private-Cloud sind deshalb Software-definierte Storages (SDS) längst etabliert. Diese können Teil einer beliebigen Kombination aus Storage-as-a-Service (SaaS) oder jeder anderen »As-a-Service-Umgebung« sein. SDS ermöglicht dabei nicht nur Speicherklassen für die Performance, sondern auch für den adäquaten Grad der Security.

Im Hybrid-Modell schließen sich lokale und Cloud-Sicherung nicht aus, eher ergänzen sie sich. So schätzt die Enterprise Strategy Group (ESG), dass bereits 69 Prozent der Unternehmen Cloud-Dienste als Ergänzung lokaler Datensicherung nutzen. Die Mehrheit der befragten Unternehmen nutzen Cloud-residente Lösungen wie Backup-as-a-Service (BaaS), Disaster-Recovery-as-a-Service (DRaaS) oder auch einfach Backup-Kapazität in der Cloud. Über den technischen Ansatz hinaus bedeutet dies einen Paradigmenwechsel: Cloud-Services sind zentrales Element der digitalen Transformation und die Art und Weise, wie mit Daten umgegangen wird. Sie treiben die Innovationskraft des Unternehmens gerade bei KMU und Mittelstand voran. Die Kombination aus Elastizität und Sicherheitsanforderungen bringt hybride Ansätze voran.

Trend VI: Bei Storage steht Security im Fokus

Storage und Security werden eins. Das betrifft On-Premises ohnehin, und der Trend zur Hybrid-Cloud verstärkt diese Entwicklung jedoch weiter. Äußere Katastrophen wie der Brandunfall bei OVH Cloud im März dieses Jahrs, vor allem aber die Bedrohung durch Schad-Software wie Ransomware machen die Bedeutung des Thema Datensicherheit evident und untrennbar mit der Datenhaltung verbunden.

Zu beachten ist dabei, dass sich auch Cyber-Kriminellen weiterentwickelt haben. Beschränkten sie sich anfangs noch auf das Verschlüsseln von Daten, auf die man nach Zahlung eines Lösegelds wieder zugreifen konnte, sind sie nun verstärkt darauf aus, die Daten selbst zu »kidnappen«. Das heißt, die Höhe des Lösegelds richtet sich danach, welche Summe die Diebe alternativ im Darknet damit generieren können. Es droht nicht nur der Verlust interner Daten, sondern nachhaltige Rufschädigung nach Außen.

Die Cloud wird häufig dazu genutzt, um auf einer ausgelagerten Ebene mehr Sicherheit und schnelles Disaster-Recovery zu gewährleisten. Doch auch Tools und Funktionen in der Cloud sind nur so zuverlässig, wie die Unternehmen und Mitarbeiter sie umsetzen. Probleme sind hauptsächlich auf menschliche Fehler, versteckte Software-Bugs oder Prozessfehler zurückzuführen. Das erfordert auch im Mittelstand den Aufbau neuer Security-Expertise und ruft gleichzeitig nach höheren Graden an Automatisierung.

Rund um Sicherung, Sicherheit und Cloud bleibt letztlich eine alte Backup-Weisheit unberührt: Eine richtige Datensicherung braucht zwingend die Auslagerung auf ein transportables Medium, das tatsächlich auch physisch ausgelagert wird und in keinerlei Verbindung zu einem Netzwerk archiviert wird. Diese Kriterien erfüllt keine Cloud, keine Disk-Backup-Appliance, sondern in erster Linie das Tape. Nicht nur bei Hyperscalern erfährt das Magnetband eine Renaissance.

Auch im Rechenzentrum vor Ort wird diese Tatsache heute mit dem Modebegriff »Air Gapping« propagiert. Da ist es doch eher überraschend, dass auf Basis einer aktuellen Umfrage des Branchenverbandes BITKOM, jedes vierte deutsche Großunternehmen bereits eine Cloud-Only-, jedes dritte eine Cloud-First-Strategie verfolgt. Bei KMUs und Mittelstand dürfte dies aus gutem Grund derzeit nicht der Fall sein.

Auch bei der Nutzung von Disk und Cloud gibt es Sicherheits-relevante Weiterentwicklungen. Experten warnen aber eindringlich davor, sich ausschließlich auf einen Trend wie Immutable Objects, ein definierter Zeitstempel für die Unveränderbarkeit von Speicherobjekten, oder Data-at-rest-Verschlüsselung, eine Hierarchisierung der Verschlüsselung von Benutzerdaten in verteilten Netzwerk- und Cloud-Umgebungen, als Allheilmittel zu verlassen. Auch Snapshots in die Cloud sind keine finalen Schutzmechanismen.

VII: Objektspeicher alternativlos für unstrukturierte Daten

Das enorme Datenwachstum führt dazu, dass kostengünstiger Objektspeicher sich neben Datei- und Blockspeicher etabliert. Object-Storage bietet die Möglichkeiten für präskriptive Metadaten, die Daten neu organisierbar und nutzbar machen, beispielsweise zu Analysezwecken. Auch zeichnet er sich durch eine nahezu unbegrenzte Skalierbarkeit ohne hierarchischen Datenstruktur aus. Sie eignen sich optimal zur Bereitstellung großer Mengen an unstrukturierten Daten, und liegen damit im Trend für Unternehmen jeder Größe.

Neben dem geteilten Zugriff können Objektspeicher ebenso als Datenrefugium für die Anwendungsentwicklung rund um KI, ML oder DL herhalten. Sie verändern die Nutzbarkeit und Wertschöpfung aus vorhandenen Unternehmensdaten. Und was den verteilten Zugriff anbelangt, ruft so mancher Verfechter der Objektspeicher-Technologie gar das zukünftige Ende der Dateispeicher aus.

VIII: Container-native Anwendungen werden Standard

Ähnlich verhält es sich mit Cloud-basierten Container-Technologien. Speicheranbieter haben 2020 viel in diese Technologie investiert, sei es durch Entwicklung oder zahlreiche Akquisitionen, und machen sie 2021 zu einem wichtigen Bestandteil ihrer Strategien. Über die Kubernetes-Plattform werden heute neue Applikationen für die Ausführung geschäftskritischer Workloads und auch Backup- und Disaster-Recovery-Lösungen in Containern entwickelt.

IDC prognostizierte bereits für 2020, dass die Hälfte aller Unternehmensanwendungen über Container in Hybrid-Cloud- oder Multi-Cloud-Umgebungen bereitgestellt wurden. Containerisierte Anwendungen erfordern oftmals eine Kombination aus Primär- und Sekundärspeicher, aufgrund des dynamischen Umgangs mit Containern sind dabei herkömmliche Speichertechnologien nicht ideal. Deswegen wird auch dies den Trend zu hybriden Strukturen vorantreiben.

Trend IX: Ressourcenteilung in Composable-Infrastrukturen

Unter dem Schlagwort »Composability« propagieren Hersteller verstärkt den Ansatz, Systeme in unabhängige Einheiten aufzuteilen und mit anderen unabhängigen Einheiten zu kombinieren. Eine Composable Infrastructure entkoppelt Geräte-Ressourcen, um sie als Dienste zu behandeln. Physische Rechen-, Speicher- und Netzwerk-Systeme etwa sind solche Geräte-Ressourcen, die sich im Rahmen einer Composable-Infrastructure verwenden lassen. Das Ziel ist es, die Bereitstellung einer neuen Anwendung so flexibel und schnell zu ermöglichen, wie es ansonsten nur in der Cloud möglich ist.

Der Schlüssel dabei ist, dass dies größtenteils automatisch ohne Administratoren-Eingriff geschieht. Stattdessen definiert die Software die Anforderungen der Anwendung an die physische Infrastruktur mit Richtlinien und Serviceprofilen. Damit dies in einem automatisierten Erkennungsprozess von statten geht, sind entsprechende Metadaten aus einem Objekt(-speicher) nötig, was den wichtigen Speicher-seitigen Anteil einer Composable-Infrastruktur ausmacht.

In einer solchen Infrastruktur werden Ressourcen logisch in Pools aufgeteilt, sodass Administratoren die Hardware nicht physisch konfigurieren müssen. Die Unterschiede zur Virtualisierung oder diversen Software-defined-Ansätzen sind dabei fließend. Das höhere Maß an Universalität und Automation mögen den Mode-Begriff rechtfertigen.

Trend X: Optimierung am »Edge«

Ressourcen-Optimierung wird derzeit aber nicht nur im zentralen Rechenzentrum angestrebt. Vielmehr soll dies künftig auch mit Ressourcen und Geräten am Netzwerkrand, dem Edge, erfolgen. Hier wird der Ansatz verfolgt, die Datenerfassung und -aufbereitung vor der Übertragung in die Zentrale bereits an dem Ort vorzunehmen, an dem sie entstehen.

Core-to-Edge/Edge-to-Core sollen zur optimalen Auslastung und Nutzung und damit für schnellere, kostengünstigere Infrastrukturen sorgen. Durch die Bereitstellung von Speicherfunktionen auf Edge-Speicher können die von diesen Geräten gesammelten Daten im Verbund mit anderen Rechen-Systemen zur Analyse vor Ort verarbeitet und manipuliert werden, bevor man sie in erheblich reduzierter Menge an den zentralen Ort zur weiteren Verarbeitung und Speicherung sendet. Durch das Verschieben von Speichernutzung an den Edge lassen sich die Rohdaten aufnehmen, verarbeiten und dann löschen, wenn sie nicht mehr benötigt werden. Dies reduziert sowohl die Netzwerk- und Kapazitätsanforderungen.

Quo vadis, Storage?

Unternehmen suchen nach neuen und effektiven Lösungen, um Daten vorzuhalten und für ihre Geschäftsanforderungen und -modelle zu nutzen. Wir haben den Blick auf einen Ausschnitt gelegt. Welcher Trend sich durchsetzt, welcher eine Sackgasse oder gar nur heiße Luft ist – wir wissen es nicht. Fest steht aber, dass der Mittelstand einerseits gefordert bleibt und andererseits erheblichen Einfluss auf den Erfolg von neuen Konzepten, Strategien und Lösungen haben wird. Nicht nur der Speichermarkt erlebt derzeit eine von äußeren Kräften getriebene Transformation.

Michael Baumann, speicherguide.de
Michael Baumann, speicherguide.de

Michael

Baumann

speicherguide.de -

Redaktion

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.