SAP SECURITY 2017
22.11.17 - 22.11.17
In Walldorf, Leonardo Hotel

Cloud Expo Europe
28.11.17 - 29.11.17
In Frankfurt

Data Centre World
28.11.17 - 29.11.17
In Frankfurt

IT-Tage 2017
11.12.17 - 14.12.17
In Frankfurt, Messe Kap Europa

Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum

BackupDie IT hat sich in den letzten drei Jahrzehnten erheblich weiterentwickelt, während die Datensicherung mühsam Schritt halten musste. Herkömmliche Backup-Modelle bieten längst nicht mehr die Flexibilität, Performance und Skalierbarkeit, die heutige Unternehmen verlangen.

Die jüngste, große Aufregung um erfolgreiche Ransomware-Attacken ist nur ein Beleg für die wachsende Sensibilität und Relevanz von Datenverfügbarkeit in Unternehmen. Aktuelle Statistiken weisen darauf hin, dass allein in den letzten zwei Jahren 90 Prozent der Daten in der Welt generiert wurden. Technologien wie das Internet der Dinge, Industrie 4.0 und Connected Mobility werden das Datenwachstum weiter beschleunigen.

„Da unsere Abhängigkeit von Daten steigt, ist der Bedarf an kontinuierlichem Datenzugriff und konsistenter Datensicherheit kritischer als je zuvor. Die Backup-Anwendungen, die heute das Mainstream-Angebot prägen und vielfach im Einsatz sind, wurden in den späten 1980er Jahren entwickelt, als Festplattengrößen in dreistelligen Megabyte-Zahlen gemessen wurden und Microsoft gerade erst bei Version 2.11 von Windows angelangt war“, erklärt Thorsten Eckert, Sales Director DACH bei Actifio. „Da sich die Welt weiterentwickelt hat, haben die damaligen Backup-Anwendungen neue Features verpasst bekommen, um die zunächst nur steigenden und später regelrecht explodierenden Datenmengen bewältigen zu können. Die nach wie vor zugrundeliegenden ursprünglichen Altarchitekturen wurden jedoch nicht für die Herausforderungen konzipiert, die heute gegeben sind.“

Aus dieser Vorgeschichte resultieren nach Meinung von Actifio letztlich vier typische Herausforderungen beim Backup, die den Bedarf für einen neuen Ansatz immer deutlicher machen.

1.) Windows sichern

Herkömmliche Backup-Software basiert auf einen kombinierten Ansatz von inkrementellen und vollständigen Backups. Eine inkrementelle Sicherung kopiert die Änderungen der letzten Sicherung, so dass die übertragene Datenmenge in der Regel eher klein ist, was sehr schnelle Sicherungen ermöglicht. Eine vollständige Sicherung hingegen ist eine vollständige Kopie der Produktionsdaten. Diese ist in der Regel sehr groß und kann unhandlich werden, wenn das Datenvolumen weiterwächst.

Um die Backup-Fenster zu minimieren, verlassen sich Unternehmen lieber auf inkrementelle Backups. Dies hat jedoch deutliche Auswirkungen auf die Wiederherstellungszeiten. Vollständige Backups dauern viel länger, bis sie abgeschlossen sind.

2.) Wiederherstellungszeiten

In der Vergangenheit stand die Minimierung der Backup-Fenster im Vordergrund, aber heute zählt die zuverlässige – und im Idealfall auch schnelle – Wiederherstellbarkeit. Was bringt es, wenn Daten täglich gesichert werden, sich aber im Ernstfall nicht schnell wiederherstellen lassen?

Die Herausforderung bei der Wiederherstellung geht zurück auf das Modell der inkrementellen und vollständigen Sicherung. Inkrementelle Backups sind überschaubar, aber das zuständige IT-Team muss zuerst die vorherige vollständige Sicherung und dann jede nachfolgende inkrementelle Sicherung wiederherstellen. Dieser Vorgang kann zeitaufwändig sein und birgt ein Risiko, da ein Fehler bei jeder inkrementellen Sicherung zu einer fehlerhaften vollständigen Wiederherstellung führen kann. Die Wiederherstellung aus einer vollständigen Sicherung heraus ist viel einfacher, da sich das gesamte Image von einem Backup wiederherstellen lässt.

Unternehmen sehen sich gezwungen, sich zwischen zwei Kompromissen zu entscheiden: schnelle Backup-Zeiten und langsame Wiederherstellungen mit inkrementellen Backups oder langsame Backups und schnellere Wiederherstellungen mit vollständigen Backups. Diese zwei alternativen „Notlösungen“ sind in der heutigen datenorientierten Welt nicht mehr zeitgemäß. Vorteilhafter wäre eine Lösung, die eine schnelle Sicherung und ebenso schnelle Wiederherstellung ermöglicht.

3.) Komplexe Disaster-Recovery-Prozesse

Da die IT für den Geschäftsbetrieb kritischer geworden ist, ist die Herausforderung einer zuverlässigen Wiederherstellung im Notfall (Disaster Recovery, DR) wichtiger denn je. Ein einziger Ausfall kann bereits zu erheblichen Einnahmenverlusten und negativen Auswirkungen für die Reputation führen. Daher müssen Unternehmen auf Ausfälle aller Art vorbereitet sein, einschließlich Katastrophenszenarien.

Die Herausforderung beim herkömmlichen Backup ist, dass groß angelegte Wiederherstellungen Tage oder sogar Wochen dauern können. Die vollständige Wiederherstellung nach einer Katastrophe kann extrem problematisch sein. Der Einsatz von Festplatten als Sicherungsziel sorgt inkrementell für Verbesserungen der Wiederherstellungszeiten, das Kernproblem langwieriger Wiederherstellungen bleibt aber bestehen. Aus diesem Grund sind viele Unternehmen nicht in der Lage, ihre Disaster-Recovery-Pläne zu testen, weil der Zeit- und Arbeitsaufwand größer ist als entsprechende Ressourcen zur Verfügung stehen. Dies ist eine beängstigende Situation, denn ohne einen realitätsnahen Test, ist nicht sicher, ob ein DR-Plan im Notfall tatsächlich funktionieren wird.

Erforderlich wären daher schnellere Methoden, die eine sofortige Datenwiederherstellung (Instant Data Recovery) lokal und in der Cloud ermöglichen, ohne langwierigen Wiederherstellungsprozess.

4.) Gesicherte Daten nutzbar machen

Die heutigen IT-Infrastrukturen entwickeln sich ständig weiter. Um die Zuverlässigkeit und Konsistenz zu gewährleisten, müssen Unternehmen sämtliche Änderungen und Upgrades sorgfältig testen, bevor sie in der Produktionsumgebung ausgerollt werden. In der Praxis erfordert dies große Testumgebungen, in denen Unternehmen Kopien von Produktionsdaten erstellen, speichern, „mounten“ und darauf zugreifen. Diese Investition kommt hinzu neben den bestehenden Investitionen für die Produktionsumgebung und die Datensicherung.

Ideal wäre also eine Lösung, die eine unmittelbare Wiederherstellung von lese-/schreibfähigen Daten zu Testzwecken ermöglicht. Gesicherte Daten werden somit besser nutzbar. Durch das sofortige „Mounten“ einer Kopie der Produktionsdaten können die Anforderungen für die Speicherung von Testdaten deutlich reduziert werden. Für Tests können immer die aktuellsten Produktionskopien herangezogen werden. Die Testumgebung kann somit schlanker sein und die Testqualität verbessert sich, da mit vollständigen Produktionsdatensätzen getestet wird, statt behelfsmäßig mit abgespeckten Testdatensätzen.

Zeit für neue Ansätze

Die IT hat sich in den letzten drei Jahrzehnten erheblich weiterentwickelt, während die Datensicherung mühsam Schritt halten musste. Herkömmliche Backup-Modelle bieten längst nicht mehr die Flexibilität, Performance und Skalierbarkeit, die heutige Unternehmen verlangen.

„Wir müssen die Datensicherung daher komplett überdenken. Überzeugende Ansätze gibt es bereits. Lösungen für Enterprise-Data-as-a-Service, basierend auf Copy-Data-Virtualisierung, haben sich in der Praxis bereits vielfach bewährt“, bilanziert Thorsten Eckert. „Nur mit zeitgemäßen Ansätzen wie virtualisiertem Datenmanagement lässt sich eine moderne Backup-Strategie umsetzen, die aktuellen Geschäftsanforderungen gerecht wird – und künftig zu erwartende Erfordernisse im Blick hat.“

www.actifio.com/de
 

GRID LIST
Tb W190 H80 Crop Int 317759afc8ca7146cd91b20c1bc3da77

TÜViT bietet TSI-Version speziell für die Rechenzentrumsnorm EN 50600

Die TÜV Informationstechnik GmbH (TÜViT) hat auf Basis der europäischen…
Netzwerk

Netzwerkverwaltung der Zukunft: Worauf es für KMU ankommt

Großunternehmen verfügen eher über umfangreiche Ressourcen komplexe Netzwerke aufzubauen…
User

Flexera definiert SAM neu

Mit neuen Lösungen, Kooperationen und einer zentralen Plattform für Unternehmens-IT-Daten…
WAN Cloud

Verfügbarkeit des WAN hat für Cloud-Nutzer höchste Priorität

"Cloud First" heißt die Devise in immer mehr Unternehmen. IDC beispielsweise geht davon…
Tb W190 H80 Crop Int 8934e8c1736b537d6fa8ae0594f8bc01

Physiker beschleunigen Rechnen mit Quanten-Prozessoren

Für nächstes Jahr hat Google einen Quantenprozessor angekündigt, der mit 50 Qubits, den…
Best Practice

Netzwerk-Redesign & Implementierung eines Monitoring-Tools

Höchste Qualität basiert auf einer sicheren und stabilen Infrastruktur. Um diese weiter…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet