AWS S3 Glacier Deep Archive: Preiswerte Datenaufbewahrung

Einen Cloud-Speicher für die langfristige Datenaufbewahrung bietet AWS mit »S3 Glacier Deep Archive«. Mit 1 Euro pro TByte und Monat ist der Dienst relativ preiswert, eignet sich aber nur für Daten, die nicht sofort im Zugriff stehen müssen. Der günstige Preis inkludiert bei der Wiederherstellung Latenzzeiten von 12 oder 48 Stunden bis zum ersten Byte.

AWS offeriert mit S3 Glacier Deep Archive eine Alternative für die digitale Langzeitarchivierung. Dabei handelt es sich um einen Objektspeicher für die langfristige Aufbewahrung von Daten, auf die innerhalb eines Jahres nur selten zugegriffen wird. Alle im Glacier Deep Archive gespeicherten Objekte werden bei einer Datenbeständigkeit von 99,999999999 Prozent über mindestens drei geografisch verteilte Verfügbarkeitszonen repliziert und gespeichert und können innerhalb von 12 Stunden wiederhergestellt werden.

Anzeige

Laut Anbieter lässt sich der Cloud-Speicher per Tape-Gateway mit einer Virtual Tape Library (VTL) verbinden, ohne Änderungen am existierenden Backup-Prozess und ist zudem kompatibel zu emulierten Bandlaufwerken. Mit Kosten von monatlich rund einem Euro pro TByte bietet S3 Glacier Deep Archive ein nahezu unschlagbares Preis-/Leistungs-Verhältnis, zumindest im Vergleich zu Disk und Tape.

 AWS S3 Glacier Deep Archive: Preiswerte Datenaufbewahrung mit langer Reaktionszeit (Grafik: Amazon)

Der Hauptunterschied zwischen S3 Glacier und S3 Glacier Deep Archive besteht in den Kosten und der Zugriffszeit auf die gespeicherten Daten. S3 Glacier ist für den Zugriff innerhalb von Minuten konzipiert, während Deep Archive Anwender adressiert, die niedrige Speicherkosten für archivierte Daten wünschen, auf die höchstens ein- bis zweimal im Jahr zugegriffen werden, und wenn die Anwender bereit sind, Latenzzeiten von 12 oder 48 Stunden bis zum ersten Byte hinzunehmen. Die Mindestspeicherdauer beträgt 180 Tage.

AWS hat S3 Glacier Deep Archive in die Funktionalität von S3 integriert, einschließlich S3 Storage Class Analysis, S3 Object Tagging, S3 Lifecycle-Richtlinien, S3 Object Lock, regionsübergreifende Replikation und serverseitige Verschlüsselung, mit vom Kunden verwalteten Schlüsseln.

Abrufen lassen sich die gespeicherten Daten über die Amazon S3-APIs oder der Anwender löst über die Amazon S3 Management Console eine Wiederherstellungsanforderung aus. Bei der Wiederherstellung wird eine temporäre Kopie der Daten in der Speicherklasse S3 RRS erstellt. Die in S3 Glacier Deep Archive archivierten Daten bleiben dabei unverändert. Der IT-Manager kann festlegen, wie viele Tage die temporäre Kopie in S3 gespeichert bleibt. Auf die temporäre Kopie greift man in S3 über eine Amazon S3 GET-Anforderung für das archivierte Objekt zu.

AWS zufolge ist die einfachste Methode, Daten in S3 Glacier Deep Archive zu speichern, das direkte Hochladen über die S3 PUT-API. Daten lassen sicher aber auch über das Internet speichern bzw. über diverse AWS-Dienste, -Tools und -Schnittstellen wie Direct Connect, Management Console, Storage Gateway, dass Software Development Kit und sogar die AWS-Befehlszeilenschnittstelle.

Fazit: Preiswertes Langezeitarchiv mit den Nachteilen eines US-Anbieters

Die Deep-Archive-Version von Glacier eignet sich vor allem als Datengrab. Das heißt, wenn die Daten einmal möglichst sicher gespeichert und im besten Fall nicht mehr darauf zugegriffen werden soll. Dabei sollte es sich aber nicht um personenbezogene Daten handeln. Die DSGVO sieht die USA, im Sinne des Datenschutzes, als unsicheres Drittland. Auch gilt es den US-Cloud-Act zu bedenken, der US-Behörden ein Zugriffsrecht auf alle bei US-Firmen gespeicherten Daten einräumt, einschließlich Kundendaten, unabhängig davon, wo diese auf der Welt gespeichert sind.

Zu beachten ist auch die Speicherdauer von mindestens 180 Tage. Das heißt, für hochgeladene Daten muss der Kunde auf jeden Fall 180 Tage bezahlen. Der Preis für Deep-Archive-Variante von Glacier liegt bei rund einem Euro (netto) pro TByte und Monat. AWS fügt zudem den Daten einen kostenpflichtigen Overhead für Metadaten hinzu (zwischen 32 und 40 KByte). Für den Abruf von einem TByte sind zirka 20 Euro zu veranschlagen.

Anmerkung der Redaktion

Das mag kleinlich erscheinen, vor allem auch, weil AWS zu einem der weltweit größten Cloud-Dienste-Anbieter zählt: Kunden können den Anbieter nur über die Webseite kontaktieren. Als Anschrift wird nur die Zentrale in den USA genannt, die Anschrift der deutschen Niederlassung bleibt ein Geheimnis. Der geschäftliche Erfolg gibt Amazon recht, wir halten das aber für keinen guten Stil. Getreu dem Motto, »rufen Sie uns nicht an, wie rufen Sie an…«.

Kurzinfo

Hersteller: Amazon Web Services, Inc.
410 Terry Avenue North
Seattle WA 98109, USA

Amazon S3 Glacier
Amazon S3 Glacier Deep Archive

Amazon S3 Preise
Video von Henry Krasemann zu Glacier Deep Archive:
Howto: Günstig viele Daten (z.B. Fotos/Videos) extern sichern (Amazon AWS S3 Glacier Deep Archive)

Funktionen:

  • Entwickelt für eine Beständigkeit von 99,999999999 % der Objekte über mehrere Availability Zones hinweg
  • Kostengünstigste Speicherklasse, konzipiert für die Langzeitspeicherung von Daten, die 7 bis 10 Jahre aufbewahrt werden

  • Ideale Alternative zu Magnetbandbibliotheken
  • Abruf innerhalb von 12 Stunden
  • S3-PUT-API für direkte Uploads in S3 Glacier Deep Archive und S3-Lebenszyklus-Management für die automatische Migration von Objekten

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.