Bits für die Ewigkeit

Was Langzeitarchivierung wirklich bedeutet – eine Diskussion

Datenarchivierung

Experten aus der Speicherbranche diskutieren in diesem Beitrag, warum Langzeitarchivierung weit mehr ist als das bloße Aufbewahren von Bits – und welche Technologien das Rennen um die Datenspeicherung von morgen machen könnten.

Wir leben in einer Zeit, in der Daten eine zentralen Ressource menschlicher Aktivitäten darstellen. Diese Entwicklung beruht auf der frühen Erkenntnis, dass Daten wirtschaftlichen und strategischen Wert besitzen: eine Annahme, auf der die Geschäftsmodelle großer Internetunternehmen bereits vor über zwei Jahrzehnten aufbauten. Mit dem Übergang von Big Data zu Künstlicher Intelligenz verstärkt sich diese Bedeutung weiter: Daten sind heute in nahezu allen Bereichen eine wesentliche Quelle der Erkenntnis und der Wertschöpfung.

Anzeige

Deshalb verfolgen viele Organisationen den Grundsatz, Daten zu speichern statt zu löschen. Ausschlaggebend dafür sind zum einen die stetig wachsenden analytischen Möglichkeiten, Daten in verwertbare Informationen zu überführen. Zum anderen erfordern rechtliche und regulatorische Vorgaben zunehmend die langfristige Aufbewahrung von Daten, häufig über mehrere Jahrzehnte. Entsprechend rücken die langfristige Datenspeicherung sowie Technologien, welche diese ermöglichen, immer stärker in den Fokus.

Langzeitspeicherung im Spannungsfeld konkurrierender Zeithorizonte

Die zentrale Herausforderung der Langzeitspeicherung besteht darin, dass Daten über Jahrzehnte oder sogar darüber hinaus verfügbar bleiben müssen, während sich zentrale Aspekte der Datenspeicherung und des Datenmanagements in deutlich kürzeren Zyklen verändern.

Tim Pfaelzer, GM & SVP EMEA bei Veeam, bringt diesen Zielkonflikt auf den Punkt. Er betont die Notwendigkeit, Daten über lange Zeiträume hinweg sicher, zugänglich und regelkonform zu bewahren – trotz stetig wachsender Datenmengen, sich wandelnder Technologien sowie sich ändernder gesetzlicher und regulatorischer Rahmenbedingungen. „Mit wachsenden Datenmengen und einer zunehmenden Verteilung über Cloud- und On-Prem Umgebungen steigt die Komplexität und es wird schwieriger, Datenintegrität, Governance und Auffindbarkeit dauerhaft sicherzustellen“, erläutert Pfaelzer. „Zugleich können Technologiestandards, Speichermedien und Datenformate im Laufe der Zeit obsolet werden, was die langfristige Lesbarkeit und Nutzbarkeit von Daten zu einer zentralen Herausforderung macht.“

Anzeige

Für Organisationen ergibt sich daraus die Gefahr, dass die sich kontinuierlich wandelnde Technologielandschaft und der damit verbundene Anpassungsdruck neue Risiken schaffen. Paul Speciale, Scalitys CMO, weist darauf hin, dass die größte Herausforderung darin besteht, Datenhaltbarkeit und Zugänglichkeit auch unter Bedingungen permanenten technologischen Wandels sicherzustellen.

„Hardware-Lebenszyklen verkürzen sich, Medienformate ändern sich kontinuierlich, und Software-Stacks entwickeln sich mit hoher Geschwindigkeit weiter“, so Speciale. „Bei Zeiträumen von mehreren Jahrzehnten reichen die Risiken weit über die physische Degradation von Speichermedien hinaus und umfassen unter anderem Format-Obsoleszenz, System-Inkompatibilitäten sowie den Verlust operativer Expertise.“

Wo Risiken bestehen, eröffnen sich zugleich Chancen. Skip Levens, Head of Product Marketing bei Quantum, betont derweil, dass Organisationen, welche die Herausforderungen der Langzeitspeicherung erfolgreich meistern, daraus eine strategische Stärke entwickeln.

„Das Risiko besteht heute nicht mehr primär darin, Daten zu verlieren, sondern darin, zurückzufallen, weil vorhandene Daten nicht so gespeichert, organisiert oder zugänglich sind, wie es künftige Workflows erfordern“, erklärt er. „Profitieren werden jene Unternehmen, die historische Inhalte, Forschungs-, Betriebs- und Kundendaten in Pipelines überführen, in denen sie indexiert, angereichert und durch moderne Analyse- und KI-Modelle aktiviert werden können.“ Er fügt hinzu: „Niemand kann heute genau vorhersagen, welche Fragen in fünf oder zehn Jahren an diese Daten gestellt werden. Aber eines ist klar: Organisationen, die alles speichern, was sie können, in kosteneffizienten Formaten und mit vertrauenswürdigen Metadaten, haben einen erheblichen Vorteil. Sie innovieren schneller, entwickeln leistungsfähigere Modelle, bieten attraktivere Services an und treffen Entscheidungen auf der Basis jahrzehntelangen institutionellen Wissens.“

Martin Kunze, CMO und Mitgründer von Cerabyte, präzisiert die Herausforderung noch etwas weiter: „Eine zentrale Aufgabe besteht darin, Daten bereits heute so mit Metadaten zu strukturieren und zu beschreiben, dass zukünftige Such- und Analyseverfahren – die wir heute noch nicht vollständig antizipieren können – dennoch effektiv darauf zugreifen können. Mit anderen Worten: Wir müssen Zugriffsmuster, Werkzeuge und Anwendungsfälle vorbereiten, die es heute noch gar nicht gibt.“

Robson Andrade, CRO von Geyser Data, lenkt den Fokus auf die Kosten von Rechenzentren bei der Datenspeicherung mit aktuellen Technologien wie Festplatten. „Der Einsatz großer Mengen mechanischer Festplatten umfasst weit mehr als reine Hardware-Investitionen“, erläutert er. „Er erfordert erheblichen Platzbedarf, hohen Energieverbrauch und kontinuierliche Kühlsysteme.“

Scott Shadley, Vorstandsmitglied der Storage Networking Industry Association (SNIA), betont die zentrale Rolle der Organisation bei der Entwicklung von Standards für Langzeitspeicher-Technologien. „Unternehmen stehen unterschiedlichen Rahmenbedingungen gegenüber, und die Lösungen zur Datenspeicherung werden entscheidend durch die von SNIA bereitgestellten Standards geprägt“, so Shadley. „Diese Standards decken ein breites Spektrum ab – von Tape, HDD und SSD bis hin zu DNA-Speicherung für Archivierungszwecke. Mehrere Arbeitsgruppen innerhalb der SNIA beschäftigen sich mit verschiedenen Methoden, Produkten und Schnittstellen der Datenspeicherung.“

Irrtümer und Missverständnisse bei der Langzeitarchivierung

Für David Norfolk, Practice Leader für Development und Governance bei Bloor Research, ​​ist der größte Mythos in der Langzeit-Datenspeicherung die Annahme, dass Daten einfach unbeachtet bleiben können, bis man tatsächlich auf sie zugreifen muss.

„Es ist ein Trugschluss zu glauben, man kann Daten lediglich speichern und sich erst später mit deren Wiederherstellung befassen“, betont Norfolk. „Ein Archiv muss von Beginn an auf die erwarteten Nutzungsszenarien ausgerichtet und regelmäßig überprüft werden, um sicherzustellen, dass es weiterhin den Anforderungen der Organisation entspricht.“

Für Aleksandr Ragel, CEO von Leil Storage, folgt daraus die Notwendigkeit, das Konzept klassischer Speicherklassen grundlegend zu überdenken.

„Künstliche Intelligenz, Analytik und Compliance verwandeln vermeintlich ‚kalte‘ Daten in ‚langsam warme‘ Daten – mit seltenen Schreib-, aber wiederholten Lesezugriffen über viele Jahre hinweg“, erläutert er. „Architekturen, die davon ausgehen, dass Daten einmal geschrieben und anschließend kaum noch genutzt werden – die klassische Tape-Logik –, stoßen an ihre Grenzen, wenn Organisationen zehn Jahre alte Logs, Simulationen oder Videodaten zur Entwicklung neuer KI-Modelle heranziehen.“

Skip Levens von Quantum führt diesen Gedanken fort und betont, dass Speicher-Tiers nicht statisch, sondern dynamisch konzipiert werden sollten. „Diese Denkweise ist sinnvoll, da Speicherung vor allem unter dem Gesichtspunkt von Compliance oder Kostenkontrolle betrachtet wird“, erklärt Levens. „Langfristige Archive müssen jedoch als lebendige Assets verstanden werden: Sie werden kontinuierlich validiert, indexiert, angereichert und bereinigt, damit zukünftige Modelle daraus belastbare Erkenntnisse und Muster gewinnen können.“ Und wieter: „Organisationen mit einem nachhaltigen Wettbewerbsvorteil sind jene, die Archive so gestalten, dass Daten schnell rehydriert, mit weiterentwickelten Metadaten aktualisiert und bei Bedarf wieder nahtlos in aktive Daten-Pipelines integriert werden können.“

Paul Speciale von Scality unterstreicht diesen Standpunkt: „Heute greifen KI, Analytik und regulatorische Prüfungen regelmäßig auf Archivdaten zu. Archive entwickeln sich zu aktiven Data Lakes, deren Inhalte deutlich häufiger abgefragt, analysiert und wiederverwendet werden, als vielfach angenommen wird.“

„Langzeitarchivierung bedeutet, Daten über Jahrzehnte hinweg intakt und nutzbar zu halten. Dafür sind kontinuierliche Integritätsprüfungen, Unveränderlichkeit sowie automatisierte Selbstheilungs-Mechanismen unerlässlich.“

Martin Kunze von Cerabyte betont: „Es ist ein verbreiteter Irrtum, dass zuverlässige Bit-Speicherung ausreicht. Ohne begleitende Informationen zur Identifikation des Mediums, zum Lesen und zur Interpretation des Bitstroms bleiben archivierte Daten praktisch wertlos.“

Mehrere Panelteilnehmer stellen außerdem Mythen über die Eignung bestimmter Speichermedien für die Langzeitarchivierung infrage – insbesondere Tape. Tvrtko Fritz, CEO von euroNAS, verweist darauf: „Tape ist zwar kosteneffizient und zuverlässig, aber der Datenzugriff ist oft langsam und operativ aufwendig, insbesondere bei zeitkritischen Anforderungen.“

Aleksandr Ragel ergänzt: „Es ist ein Mythos, dass Tape grundsätzlich die günstigste und nachhaltigste Lösung darstellt. Zwar sind Kassetten preiswert, doch Faktoren wie Handhabung, Robotik, Mehrfachkopien, lange Wiederherstellungszeiten sowie manuelle Prozesse verursachen erhebliche versteckte Kosten und bergen Risiken.“ Ragel widerspricht zudem der Annahme, SSDs könnten HDDs in Langzeitarchiven ersetzen: „Für große Kapazitäten und Aufbewahrungszeiträume über Jahrzehnte hinweg bieten HDDs – insbesondere HM-SMR – weiterhin deutlich bessere Kosten pro Terabyte und eine höhere Speicherdichte als SSDs, und das bleibt auf absehbare Zeit so. HDDs bilden nach wie vor das Rückgrat für Daten, die nicht mit extrem niedrigen Latenzen verfügbar sein müssen.“

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Zentrale neue Technologien für die Langzeitarchivierung

Martin Kunze von Cerabyte betont: „Jede Technologie, die Daten ohne laufenden Energieverbrauch – für das Medium selbst und die Umgebung – speichert und zugleich kosteneffiziente Schreib- und Lesevorgänge ermöglicht, ist ein starker Kandidat für eine neue Stufe der Speicherhierarchie.“ „In diesem Kontext geht es bei Permanenz weniger um ein Marketing-Label wie ‚Langzeitspeicherung‘, sondern um die strukturelle Senkung der TCO.“

Aleksandr Ragel hebt die Vorteile von Host-Managed-SMR Festplatten hervor: „HM-SMR bietet rund 20 % mehr nutzbare Kapazität zu vergleichbaren Kosten, und alle großen HDD-Hersteller treiben die Entwicklung immer größerer zonierter Laufwerke voran, einschließlich kommender HAMR-basierter SMR-Modelle.“

Skip Levens favorisiert die Kombination aus Object Storage und Tape: „Die meisten ‚Next-Gen‘ Archivtechnologien sind noch Jahre von der praktischen Nutzung entfernt. Niemand kann seine langfristige Aufbewahrungs-Strategie auf Laborversprechen stützen. Die Kombination aus Object Storage und Tape ist leistungsfähig: Sie bietet Cloud-ähnliche Haltbarkeit und automatisierten Zugriff über eine intelligente Objektschicht, während das Medium im Ruhezustand praktisch keinen Strom verbraucht.“

Robson Andrade, CRO, Geyser Data, ergänzt: „Es gibt ein wiedererwachtes Interesse an magnetischen Tape-Technologien wie LTO, nun mit einem grundlegend erneuerten Ansatz. Intelligentes Tiering und hohe Kompressionsraten ermöglichen Zugriff und Management ähnlich einem Standardlaufwerk.“

Andy Tomlin, CEO, QiStor betont: „Langfristige Speicherung ist vor allem eine Kostenfrage. Ich sehe nicht, dass neue Technologien HDD oder SSD verdrängen werden.“ Greg Matson, SVP Products Marketing bei Solidigm, ergänzt: „Bei dauerhaft aktiven Laufwerken mit häufigen Änderungen sind Haltbarkeit und Datenaufbewahrung kritisch. Für Write-Once-Read-Never- oder Write-Once-Read-Occasionally Szenarien bieten SSDs jedoch eine sehr praktikable Lösung.“

Paul Speciale hebt den Nutzen von Object Storage und S3 hervor:„Skalierbarer Object Storage bietet nahezu unbegrenzte Kapazität, geografische Verteilung, Hardware-Abstraktion und offene APIs. So wird die langfristige Zugänglichkeit unterstützt, während das selbstheilende Design den Migrationsaufwand erheblich reduziert.“

„Unterdessen gestalten softwaredefinierte Unveränderlichkeit und WORM-Richtlinien die Archivierungsstrategie neu, indem sie eine regulatorisch konforme Aufbewahrung gewährleisten, ohne auf proprietäre Hardware angewiesen zu sein“, führt Speciale weiter aus. „Parallel dazu verbessern Metadaten-gestützte Intelligenz und automatisierte Richtlinien die Klassifizierung von Daten, das Management von Speicherebenen sowie die Durchsetzung von Governance über lange Aufbewahrungs-Zeiträume hinweg.“

Schließlich verweist Tvrtko Fritz von euroNAS auf Ceph als langfristig geeignete Datenspeicher-Plattform. „Ceph gehört zu den vielversprechendsten Technologien für die Langzeitarchivierung“, so Fritz. „Seine Skalierbarkeit ist nahezu unbegrenzt. Ceph ist ideal für Organisationen, die kontinuierliches Datenwachstum erwarten. Besonders hervorzuheben ist Cephs Fähigkeit, Daten über mehrere Standorte oder Rechenzentren zu verteilen, wodurch eingebaute Redundanz und Resilienz gewährleistet werden.“

Langzeitspeicherung im Umbruch: Technologien im Wettstreit, der Markt entscheidet

Im Zeitalter der KI gewinnt die langfristige Bewahrung von Daten mehr denn je an strategischer Bedeutung. Der heutige – und potenzielle zukünftige – Wert dieser Daten ist für den Betrieb und die Wettbewerbsfähigkeit vieler Organisationen entscheidend. Die Absicht oder Verpflichtung, Daten auf unbestimmte Zeit aufzubewahren, bringt jedoch erhebliche Herausforderungen mit sich: den Zugriff über mehrere Technologie-Generationen hinweg sicherzustellen, fortlaufende Compliance zu gewährleisten sowie die zugrunde liegende Infrastruktur langfristig betreibbar und integrierbar zu halten. Ein Versagen in diesen Bereichen birgt erhebliche Risiken, während Organisationen, die diese Anforderungen meistern, zugleich große Chancen erschließen.

Wie Speichertechnologien für die Langzeit-Archivierung in einigen Jahrzehnten aussehen werden, ist ungewiss. Vielversprechende Ansätze, etwa langlebige und wartungsarme Technologien wie etwa keramische Speicher, zeichnen sich bereits ab. Dennoch setzen sich Nischen-Technologien nur schwer gegen etablierte Lösungen wie HDD-, SSD- und Tape-Varianten sowie gegen bestehende Metadaten- und Object-Storage-Systeme durch, die den langfristigen Datenzugriff ermöglichen. Wahrscheinlich gelangen neue Formate in den breiten Einsatz – welche sich schließlich behaupten werden, entscheiden der Markt sowie die Akzeptanz durch die Anwender.

Von Federica Monsone, CEO und Gründerin von A3 Communications

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.