Orbit IT-Forum: Auf dem Weg zum Arbeitsplatz der Zukunft
27.09.17 - 27.09.17
In Leverkusen

AUTOMATE IT 2017
28.09.17 - 28.09.17
In Darmstadt

it-sa 2017
10.10.17 - 12.10.17
In Nürnberg

3. Esslinger Forum: Das Internet der Dinge
17.10.17 - 17.10.17
In Esslingen

Transformation World
19.10.17 - 20.10.17
In Heidelberg

BackupDie IT hat sich in den letzten drei Jahrzehnten erheblich weiterentwickelt, während die Datensicherung mühsam Schritt halten musste. Herkömmliche Backup-Modelle bieten längst nicht mehr die Flexibilität, Performance und Skalierbarkeit, die heutige Unternehmen verlangen.

Die jüngste, große Aufregung um erfolgreiche Ransomware-Attacken ist nur ein Beleg für die wachsende Sensibilität und Relevanz von Datenverfügbarkeit in Unternehmen. Aktuelle Statistiken weisen darauf hin, dass allein in den letzten zwei Jahren 90 Prozent der Daten in der Welt generiert wurden. Technologien wie das Internet der Dinge, Industrie 4.0 und Connected Mobility werden das Datenwachstum weiter beschleunigen.

„Da unsere Abhängigkeit von Daten steigt, ist der Bedarf an kontinuierlichem Datenzugriff und konsistenter Datensicherheit kritischer als je zuvor. Die Backup-Anwendungen, die heute das Mainstream-Angebot prägen und vielfach im Einsatz sind, wurden in den späten 1980er Jahren entwickelt, als Festplattengrößen in dreistelligen Megabyte-Zahlen gemessen wurden und Microsoft gerade erst bei Version 2.11 von Windows angelangt war“, erklärt Thorsten Eckert, Sales Director DACH bei Actifio. „Da sich die Welt weiterentwickelt hat, haben die damaligen Backup-Anwendungen neue Features verpasst bekommen, um die zunächst nur steigenden und später regelrecht explodierenden Datenmengen bewältigen zu können. Die nach wie vor zugrundeliegenden ursprünglichen Altarchitekturen wurden jedoch nicht für die Herausforderungen konzipiert, die heute gegeben sind.“

Aus dieser Vorgeschichte resultieren nach Meinung von Actifio letztlich vier typische Herausforderungen beim Backup, die den Bedarf für einen neuen Ansatz immer deutlicher machen.

1.) Windows sichern

Herkömmliche Backup-Software basiert auf einen kombinierten Ansatz von inkrementellen und vollständigen Backups. Eine inkrementelle Sicherung kopiert die Änderungen der letzten Sicherung, so dass die übertragene Datenmenge in der Regel eher klein ist, was sehr schnelle Sicherungen ermöglicht. Eine vollständige Sicherung hingegen ist eine vollständige Kopie der Produktionsdaten. Diese ist in der Regel sehr groß und kann unhandlich werden, wenn das Datenvolumen weiterwächst.

Um die Backup-Fenster zu minimieren, verlassen sich Unternehmen lieber auf inkrementelle Backups. Dies hat jedoch deutliche Auswirkungen auf die Wiederherstellungszeiten. Vollständige Backups dauern viel länger, bis sie abgeschlossen sind.

2.) Wiederherstellungszeiten

In der Vergangenheit stand die Minimierung der Backup-Fenster im Vordergrund, aber heute zählt die zuverlässige – und im Idealfall auch schnelle – Wiederherstellbarkeit. Was bringt es, wenn Daten täglich gesichert werden, sich aber im Ernstfall nicht schnell wiederherstellen lassen?

Die Herausforderung bei der Wiederherstellung geht zurück auf das Modell der inkrementellen und vollständigen Sicherung. Inkrementelle Backups sind überschaubar, aber das zuständige IT-Team muss zuerst die vorherige vollständige Sicherung und dann jede nachfolgende inkrementelle Sicherung wiederherstellen. Dieser Vorgang kann zeitaufwändig sein und birgt ein Risiko, da ein Fehler bei jeder inkrementellen Sicherung zu einer fehlerhaften vollständigen Wiederherstellung führen kann. Die Wiederherstellung aus einer vollständigen Sicherung heraus ist viel einfacher, da sich das gesamte Image von einem Backup wiederherstellen lässt.

Unternehmen sehen sich gezwungen, sich zwischen zwei Kompromissen zu entscheiden: schnelle Backup-Zeiten und langsame Wiederherstellungen mit inkrementellen Backups oder langsame Backups und schnellere Wiederherstellungen mit vollständigen Backups. Diese zwei alternativen „Notlösungen“ sind in der heutigen datenorientierten Welt nicht mehr zeitgemäß. Vorteilhafter wäre eine Lösung, die eine schnelle Sicherung und ebenso schnelle Wiederherstellung ermöglicht.

3.) Komplexe Disaster-Recovery-Prozesse

Da die IT für den Geschäftsbetrieb kritischer geworden ist, ist die Herausforderung einer zuverlässigen Wiederherstellung im Notfall (Disaster Recovery, DR) wichtiger denn je. Ein einziger Ausfall kann bereits zu erheblichen Einnahmenverlusten und negativen Auswirkungen für die Reputation führen. Daher müssen Unternehmen auf Ausfälle aller Art vorbereitet sein, einschließlich Katastrophenszenarien.

Die Herausforderung beim herkömmlichen Backup ist, dass groß angelegte Wiederherstellungen Tage oder sogar Wochen dauern können. Die vollständige Wiederherstellung nach einer Katastrophe kann extrem problematisch sein. Der Einsatz von Festplatten als Sicherungsziel sorgt inkrementell für Verbesserungen der Wiederherstellungszeiten, das Kernproblem langwieriger Wiederherstellungen bleibt aber bestehen. Aus diesem Grund sind viele Unternehmen nicht in der Lage, ihre Disaster-Recovery-Pläne zu testen, weil der Zeit- und Arbeitsaufwand größer ist als entsprechende Ressourcen zur Verfügung stehen. Dies ist eine beängstigende Situation, denn ohne einen realitätsnahen Test, ist nicht sicher, ob ein DR-Plan im Notfall tatsächlich funktionieren wird.

Erforderlich wären daher schnellere Methoden, die eine sofortige Datenwiederherstellung (Instant Data Recovery) lokal und in der Cloud ermöglichen, ohne langwierigen Wiederherstellungsprozess.

4.) Gesicherte Daten nutzbar machen

Die heutigen IT-Infrastrukturen entwickeln sich ständig weiter. Um die Zuverlässigkeit und Konsistenz zu gewährleisten, müssen Unternehmen sämtliche Änderungen und Upgrades sorgfältig testen, bevor sie in der Produktionsumgebung ausgerollt werden. In der Praxis erfordert dies große Testumgebungen, in denen Unternehmen Kopien von Produktionsdaten erstellen, speichern, „mounten“ und darauf zugreifen. Diese Investition kommt hinzu neben den bestehenden Investitionen für die Produktionsumgebung und die Datensicherung.

Ideal wäre also eine Lösung, die eine unmittelbare Wiederherstellung von lese-/schreibfähigen Daten zu Testzwecken ermöglicht. Gesicherte Daten werden somit besser nutzbar. Durch das sofortige „Mounten“ einer Kopie der Produktionsdaten können die Anforderungen für die Speicherung von Testdaten deutlich reduziert werden. Für Tests können immer die aktuellsten Produktionskopien herangezogen werden. Die Testumgebung kann somit schlanker sein und die Testqualität verbessert sich, da mit vollständigen Produktionsdatensätzen getestet wird, statt behelfsmäßig mit abgespeckten Testdatensätzen.

Zeit für neue Ansätze

Die IT hat sich in den letzten drei Jahrzehnten erheblich weiterentwickelt, während die Datensicherung mühsam Schritt halten musste. Herkömmliche Backup-Modelle bieten längst nicht mehr die Flexibilität, Performance und Skalierbarkeit, die heutige Unternehmen verlangen.

„Wir müssen die Datensicherung daher komplett überdenken. Überzeugende Ansätze gibt es bereits. Lösungen für Enterprise-Data-as-a-Service, basierend auf Copy-Data-Virtualisierung, haben sich in der Praxis bereits vielfach bewährt“, bilanziert Thorsten Eckert. „Nur mit zeitgemäßen Ansätzen wie virtualisiertem Datenmanagement lässt sich eine moderne Backup-Strategie umsetzen, die aktuellen Geschäftsanforderungen gerecht wird – und künftig zu erwartende Erfordernisse im Blick hat.“

www.actifio.com/de
 

Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet