Anzeige

Anzeige

VERANSTALTUNGEN

IT-SOURCING 2019 – Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

ACMP Competence Days Berlin
11.09.19 - 11.09.19
In Stiftung Deutsches Technikmuseum Berlin, Berlin

MCC CyberRisks - for Critical Infrastructures
12.09.19 - 13.09.19
In Hotel Maritim, Bonn

Rethink! IT 2019
16.09.19 - 17.09.19
In Berlin

DSAG-Jahreskongress
17.09.19 - 19.09.19
In Nürnberg, Messezentrum

Anzeige

Anzeige

Backup Cloud

Welche große Rolle die Verfügbarkeit von Daten für Unternehmen und Privatleute spielen, das wird erst meist dann deutlich, wenn der Zugriff auf die Daten plötzlich nicht mehr möglich ist. Die spektakulären Ransomware-Vorfälle der vergangenen Monate haben dies schmerzhaft deutlich gemacht.

Deshalb erinnert Pure Storage wenige Tage vor dem World Backup Day am 31. März an die Bedeutung von Backups und gibt einen Ausblick auf kommende Entwicklungen.

„Daten sind heute das wertvollste Kapital eines Unternehmens. Daher ist die Datensicherung äußerst wichtig. Hierbei kommt es immer mehr auf hohe Geschwindigkeit und hochgradig zuverlässige Verfügbarkeit an, wenn Daten aus Backups abgerufen werden müssen“, erklärt Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage.

Das herkömmliche Backup-Modell Disk-to-Disk-to-Tape (D2D2T) wird Unternehmen, die eine schnelle Datenwiederherstellung benötigen, kaum mehr gerecht. Vom primären Speicherspeichersystem wird hier ein lokales Backup auf einem sekundären Speichersystem oder auf einer Backup-Appliance erstellt. Diese Appliances sind jedoch unflexibel, da sie in der Regel speziell dafür konzipiert sind, Daten in eine Richtung von der Quelle zum Ziel zu kopieren und diese Daten durch Deduplizierung effizient zu speichern. Zweitens liefern sie im Allgemeinen eine schlechte Wiederherstellungsleistung, da die deduplizierten Backup-Daten fragmentiert sind, sowohl auf Festplatte als auch auf Band.

Diese beiden Probleme führen nach Erfahrung von Pure Storage zu einer langsamen und komplexen Dateninfrastruktur. Die IT-Abteilung muss zudem unter Umständen zusätzliche Speicherinfrastrukturen bereitstellen, um andere Workloads, wie beispielsweise die Test-/Dev-Umgebung, zu unterstützen. Snapshots der Produktionsanwendungen und Datenbanken werden oft auch auf separaten Speichersystemen gesichert, um bei Bedarf eine schnellere Wiederherstellung zu ermöglichen. Dennoch garantiert auch diese Disaster-Recovery-Option nicht von Haus aus, dass Daten schnell und zuverlässig wiederhergestellt werden können.

In modernen Backup-Szenarien ersetzt daher Flash bereits die herkömmliche Festplatte und das altgediente Speicherband. Im Vergleich zum traditionellen Ansatz ermöglicht Flash-to-Flash-to-Cloud (F2F2C) eine schnellere Wiederherstellung und vereinfacht den IT-Betrieb. Das primäre Flash-Speichersystem, auf dem geschäftskritische Anwendungen betrieben werden, sichert Daten auf einem Flash-basierten sekundären Speicher für schnelle Wiederherstellungen. Dann werden die Backup-Daten in die Public Cloud ausgelagert. Die Backup-Daten können vor Ort und in der Cloud durch Komprimierung und Deduplizierung äußerst effizient gespeichert werden. Dieser Ansatz ermöglicht schnellere Restores, flexiblere Wiederherstellungen sowie eine sichere langfristige Aufbewahrung und einfachere Handhabung der Daten. Die schnelle Wiederherstellung findet in der lokalen Umgebung statt, während auf Backup-Daten in der Public Cloud automatisch zurückgegriffen wird, wenn lokale Daten nicht verfügbar sind.

„Entscheidend ist heute die Verknüpfung von Backup und Recovery. Künftig werden superschnelle Restores für Unternehmen extrem wichtig werden, damit etwa bei Ransomware-Angriffen der Geschäftsbetrieb nicht unterbrochen wird“, erläutert Güner Aksoy. „Im Zusammenhang um die Absicherung von Datenbanken geht es oft um die Begriffe „Restore“ und „Recovery“. Im Hinblick auf relationale Datenbanken sind dies unterschiedliche Prozesse. Der Restore-Prozess beinhaltet das Kopieren von Daten aus entsprechenden Sicherungsdateien an einen bestimmten Speicherort. Im Recovery-Prozess hingegen werden die Datenbank-Protokolldatei und die Datendateien in einen konsistenten Zustand gebracht.“

Es ist nach Meinung der Experten von Pure Storage wichtig zu beachten, dass ein Recovery-Prozess für eine Datenbank unabhängig von einem Restore-Prozess erfolgen kann. Die neuesten All-Flash-Speichersysteme können diese Prozesse insgesamt beschleunigen und als Datenbank-Backup-Ziel mit hoher Durchsatzleistung verwendet werden.

Ein weiterer Aspekt ist Backup in Hybrid-Cloud-Umgebungen – die zunehmend populärer werden. Hierbei gilt es, eine Art Kluft zu überwinden: Die Cloud ist nicht speziell für Unternehmensanwendungen konzipiert, und die Unternehmensinfrastruktur ist nicht so benutzerfreundlich wie die Cloud. Unternehmen sollten heute aber in der Lage sein, Infrastrukturentscheidungen auf der Grundlage dessen zu treffen, was für ihre Umgebung am besten geeignet ist. Die Erweiterung einer datenzentrischen Flash-Architektur in die Cloud hinein bietet Unternehmen mehr Mobilität und Flexibilität. Sie können die Cloud für Backup und Datenschutz nutzen sowie für die Entwicklung komplexerer Webscale-Anwendungen, und erweiterte Speicherfunktionen wie Snapshots und Multizonenreplikation nutzen. Darüber hinaus bietet sich der Einsatz einer Deduplizierungs-Engine für Objektspeicher an.

Die Datensicherungsarchitektur der nächsten Generation sollte auf Scale-Out-Speichersystemen basieren, die von Grund auf für unstrukturierte Daten entwickelt wurden und eine bisher unerreichte Leistung für eine Vielzahl von Workloads bieten. Schnelle Backup- und Wiederherstellungs-, aber auch Test/Dev- und Analytik-Operationen lassen sich somit auf einer einzigen Storage-Plattform, einem Data Hub, konsolidieren.

„All dies kann in einer einheitlichen Hybrid-Cloud, also nahtlos in einer großen Umgebung erfolgen. Die Speicherplattform muss daher konsistente Speicherdienste, Ausfallsicherheit und APIs für On-Premises-Umgebungen und verschiedene Cloud-Modelle liefern. Dies hilft, zu gewährleisten, dass einmal erstellte Anwendungen quasi überall ausgeführt werden können“, fasst Güner Aksoy abschließend zusammen. „Je nach Anforderungen, Datenmenge und Sensibilität der Daten können Unternehmen entscheiden, ob die Daten in die Public Cloud wandern oder lokal abgelegt werden.“

www.purestorage.com/de
 

GRID LIST
Festplatte vernichten

Wie man Festplatten auch selbst vernichten kann ...

… und wie man Daten auf Festplatten, SSDs und Flash-Medien löschen kann! Für eine…
Das Quantencomputer-Zeitalter

Quantencomputing jetzt

Die Quantencomputing-Technologie verspricht enorme Disruptionspotenziale – und Vorteile…
Den Globus umspannendes Netzwerk

Einführung eines „Software-Defined WAN“

Das softwaredefinierte Wide-Area-Netzwerk (SD-WAN oder SDWAN) ist eine spezielle…
Tb W190 H80 Crop Int D3997b22a46f8ecc60e19ce451be47b8

Den App-Zugriff auf geteilte Speicher im Blick

Viele Unternehmen beschäftigt die Frage, was in der Cloud besser als im eigenen…
Edge Computing

Was uns Edge Computing lehrt

Edge Computing ist in der Behörden- und Unternehmens-IT angekommen – und das gerade noch…
Tb W190 H80 Crop Int 779da77bf0ee119944b09fe601840a0f

Managed Service Provider profitieren von aktuellen Trends

Das Geschäftsumfeld praktisch aller Branchen hat sich in den vergangenen Jahren…