Datensicherung im Umbruch: Ursachen, Techniken, Empfehlungen

Kaum ein IT-Bereich ist so stark im Umbruch wie die Datensicherung. Ein maßgeblicher Einflussfaktor ist die Entwicklung bei den Festplatten.

Die Kapazitäten pro Laufwerk wachsen deutlich stärker als ihre Geschwindigkeit. Gegenüber dem Jahr 2000 fasst ein Laufwerk heute das 75-fache, ist aber nur fünf Mal so schnell. Der Trend zu immer mehr Daten auf immer weniger Laufwerken ohne adäquaten Ausgleich bei der Performance führt zumassiven Zeitproblemen beim Backup mit traditionellen Methoden. Für virtuelle Umgebungen passen herkömmliche Methoden aufgrund ihrer hohen I/O-Last ohnehin nicht mehr, da hier ein einziger physischer Server die Backup I/O-Last für alle darauf laufenden virtuellen Maschinen tragen muss. Hinzu kommt der Trend zu Cloud-Infrastrukturen mit remote Verbindungen für den Datenverkehr. IT-Organisationen sollten sich daher eingehend mit ihrer Backup-Strategie befassen. Der Wechsel auf eine effizientere Backup-to-Disk (B2D) Methode ist fast schon zwingend.

Anzeige

Traditionelles Backup to Disk: erste Fortschritte

Die Datensicherung auf Festplatten ermöglicht gegenüber Backup to Tape häufigere inkrementelle Backups. Dies kann zwar zu moderat verlängerten Restore-Zeiten führen, aber die Vorteile beim Backup überwiegen hier fast immer: Im Vergleich zum Vollbackup wird bei inkrementellen Backups deutlich weniger Speicherkapazität verbraucht und die I/O-Last für das Backup nimmt ab. Auch für die meisten Datenbanken ist dies anwendbar. Oracle, MaxDB und IBMDB2 unterstützen Blocklevel Incremental. Microsoft SQL Server unterstützt ab Windows Server 2008 differenzielle Sicherungen. Die Reduzierung der Vollbackups wird unabhängig davon empfohlen, ob Kompression oder Deduplizierung folgen.

Bleiben die Backup-Daten unkomprimiert, wird es aufgrund des hohen Plattenspeicherbedarfs bereits nach wenigen Tagen unwirtschaftlich, die Backups auf Disk vorzuhalten. Für ältere Backups empfiehlt sich daher die Verlagerung der Sicherungen auf physische Bandlaufwerke. Mit Komprimierung kann B2D für einen Zeitraum von bis zu vier Wochen eine sinnvolle Lösung sein. Im Anschluss empfiehlt sich aber auch hier die Sicherung auf physische Bänder.

B2D mit Deduplizierung bietet sich an, wenn durch das Backup zahlreiche Dubletten entstehen. Dies gilt insbesondere beim Vorhalten zahlreicher Vollbackups. Mit Deduplizierung lassen sich dann deutlich grössere Verdichtungsraten erreichen. Wird „inline“, also während statt nach dem Sicherungsprozess dedupliziert, entfallen Plattenkapazitäten als Zwischenspeicher ebenso wie Nachverdichtungsprozesse. Der geringere Plattenbedarf erlaubt eine Vorhaltezeit von bis etwa drei Monaten. Ältere Backups sollten auf Band gehalten werden. Mithilfe einer deduplizierten Replizierung kann es zudem wirtschaftlich sein, eine Disaster Recovery-Kopie der Backups über WAN in ein anderes Rechenzentrum zu transferieren.

Unabhängig vom Prozedere der Deduplizierung (während oder nach dem Backup) und ihrer Algorithmen erfordert das sequenzielle Lesen deduplizierter Daten jedoch zahlreiche gestreute Disk-I/Os. Dies bremst parallel angeforderte Rücksicherungen und Bandkopien stark.

Incremental Forever

Diese Methode schafft Vollbackups weitgehend ab. In der Regel wird zu Beginn ein Vollbackup erstellt, alle weiteren Backups erfolgen inkrementell zum vorhergehenden Backup als Referenzstatus. Zu unterscheiden sind inkrementelle Backups auf File- und Block-Ebene.

Einige Datensicherungslösungen bieten „File Level Incremental Forever“ (FLIF) durch „Synthetic Fulls“: Auf dem Datensicherungs-Server werden von Zeit zu Zeit „künstliche“ Vollbackups erzeugt, umältere Backupstände freigeben zu können. Allerdings müssen die Verfahren auf Dauer fehlerfrei und lückenlos funktionieren, was schwer zu erreichen ist.

„Blocklevel-Incremental Forever“ (BLIF) gibt es in zwei Ausprägungen: Neben klassischem BLIF (wie zum Beispiel mit NetApp Open Systems Snap-Vault) führen Sicherungs-Clients mit Deduplizierung auf dem Quellsystem zu einem ähnlichen Ergebnis. Beide reduzieren die Backup-Datenströme deutlich. Um gut skalieren zu können, benötigt das Backup jedoch den Zugriff auf Änderungsmarkierungen oder -Logs, die imOnlinebetrieb über das Betriebssystem gesammelt werden.

Ihre Restores skalieren jedoch meist deutlich schlechter als die der zuvor genannten Techniken. Für Backups über WAN-Strecken sollte daher eine Kopie der jüngsten Sicherung vor Ort vorgehalten werden.

Snapshot-basierte Backups

Full Copy Snapshots sind aufgrund des hohen Diskbedarfs ungeeignet. Differenzielle Snapshots sollten gewählt werden, da das Halten vieler Snapshot-Stände sinnvoll ist. Die von NetApp implementierten „Write Anywhere“ Snapshots skalieren hier am höchsten, da kein Write-Overhead entsteht – sie verhalten sich performanceneutral. Im Gegensatz dazu kommt es bei „Redirect on Write“ für das aktive Volume sowie beim Auflösen alter Snapshots zu Performance-Nachteilen. Bei „Copy on first Write“ wird die Performance beeinträchtigt, sobald massiv ins aktive Volume geschrieben wird.

Die Rücksicherung ganzer Volumes oder NFS-Files ist bei Verwendung von NetApp SnapRestore durch Pointer-Änderung ohne Datenbewegung möglich. Die NetApp Methode arbeitet mit logischen Verweisen auf Datenblöcke, aus denen sich der Datenstand zu einem bestimmten Zeitpunkt schnell rekonstruieren lässt.

Die Replizierung mit denNetApp Produkten SnapMirror und SnapVault sowie Spiegelungen mithilfe von MetroCluster erfolgen nach dem Prinzip „Block-Level-Incremental Forever“. Es werden also nur die geänderten Blöcke zum Sekundärspeicher gesandt. Im Desasterfall kann der Sekundärspeicher mit seinen Snapshots zum aktiven Volume werden. Dies alles ist schon viele Jahre praxiserprobt und weit verbreitet. Deduplizierungs- und Kompressionsvorteile sind bei NetApp ab dem Primärstorage nutzbar und können bei Spiegelung, Replizierung und Tape-Backup erhalten bleiben.

Fazit

Die wachsende IT-Abhängigkeit der Geschäftsprozesse erfordert mittlerweile eine hohes Mass an Desaster-Vorsorge und Verfügbarkeit: Zeitgemäß erscheinen Recovery Point Objectives im Stundenbereich, Recovery Time Objectives im Minutenbereich und verlässliche Desaster Recovery-Verfahren für die meisten Daten. Klassisches B2D und Incremental Forever-Techniken bieten zwar Fortschritte, aber nur eine Snapshot-basierte Datensicherungslösung hat das Potenzial, die unterschiedlichsten Herausforderungen zu meistern – und das auf eine hoch effiziente Weise: Die Datensicherung einzelner Dateien oder Volumes bietet gleichzeitig eine verlässliche Disaster Recovery-Lösung. Die Art der Infrastruktur, ob herkömmlich, virtualisiert oder serviceorientiert, spielt dabei keine Rolle. Gleichwohl profitiert davon jede Infrastruktur, sofern eine geeignete Storage-Plattform verwendet wird.

Dieter Unterseher, www.netapp.de

Diesen Artikel finden Sie auch in der it management Ausgabe 5-2011.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.