Orbit IT-Forum: Auf dem Weg zum Arbeitsplatz der Zukunft
27.09.17 - 27.09.17
In Leverkusen

AUTOMATE IT 2017
28.09.17 - 28.09.17
In Darmstadt

it-sa 2017
10.10.17 - 12.10.17
In Nürnberg

3. Esslinger Forum: Das Internet der Dinge
17.10.17 - 17.10.17
In Esslingen

Transformation World
19.10.17 - 20.10.17
In Heidelberg

Rechenzentrum CloudUnternehmen setzen heute zunehmend auf Hybrid-Cloud-Strukturen, um ihre IT-Umgebung flexibler und kostengünstiger zu machen. Doch wenn Daten auf verschiedene Systeme verteilt sind, wird die Verwaltung kompliziert. Gefragt ist ein übergreifendes Konzept, das Storage und Datenmanagement ganzheitlich betrachtet.

Vorbei sind die Zeiten, in denen die IT-Umgebung ausschließlich im eigenen Haus aufgestellt war. Heute bedienen sich IT-Abteilungen aus einem Bauchladen an Cloud-Services und kombinieren sie mit internen Ressourcen, um für jedes Anwendungsszenario die kostengünstigste und effizienteste Lösung bereitzustellen. Sie brauchen die Flexibilität und Skalierbarkeit der Cloud, wollen gleichzeitig aber die Kontrolle in der Hand behalten. Der Trend geht deshalb zur Hybrid-Cloud, einer Mischung aus Private und Public Cloud. Dabei werden Daten jedoch auf viele verschiedene Systeme verteilt – teilweise im Haus und teilweise extern. Das Management der Daten und ihre Synchronisation in hybriden Umgebungen ist kompliziert und endet oft in manuellen Prozessen. Unternehmen benötigen deswegen ein ganzheitliches Konzept für ihre Datenhaltung und ihr Datenmanagement: eine Data Fabric.

Das Konzept der Data Fabric

Eine Data Fabric-Strategie basiert auf drei Säulen: einem einheitlichen Datenmanagement, einer einheitlichen Datenübertragung und einem einheitlichen Datenformat. Das einheitliche Datenmanagement stellt sicher, dass dieselben Prozesse und Tools greifen, egal auf welchem System Administratoren Daten klonen, sichern oder wiederherstellen. Das reduziert den Management-Aufwand erheblich. Die einheitliche Datenübertragung ermöglicht es, Daten zwischen Clouds zu verschieben, sodass diese zur richtigen Zeit am richtigen Ort für die jeweiligen Applikationen zur Verfügung stehen. IT-Teams haben so die Möglichkeit, innovative Cloud-Lösungen zu entwickeln, ohne sich auf einen bestimmten Service-Anbieter festlegen zu müssen. Das einheitliche Datenformat schließlich sorgt dafür, dass IT-Abteilungen Applikationen schneller in der Cloud oder auf verschiedenen Cloud-Plattformen bereitstellen können. Denn sie müssen Anwendungen nicht erst aufwändig an die Cloud anpassen. 

Die richtige Speicherlösung auswählen

Das Fundament für die Data Fabric ist der Speicher. Er sollte hochperformant, skalierbar und einfach zu administrieren sein. Dafür kommt heute eigentlich nur Flash-Technologie in Frage. Doch Flash ist nicht gleich Flash – es existieren Systeme mit ganz unterschiedlicher Ausprägung. Welches davon am besten geeignet ist, hängt vom jeweiligen Anwendungsfall ab. Unternehmen sollten deshalb vorab ihre Ist-Situation analysieren. Einige Produkte sind zum Beispiel auf Geschwindigkeit optimiert, um damit Datenbanksysteme mit höchsten Transaktionsleistungen zu unterstützen, wie sie bei Online-Shops oder in der Finanzbranche benötigt werden. Andere Systeme sind auf Effizienz ausgelegt und verfügen über Funktionen zur Datenkomprimierung, die die benötigte Speicherkapazität um bis zu 10:1 verringern. Darüber hinaus gibt es besonders skalierbare Flash-Systemarchitekturen, die sich dem Datenwachstum flexibel anpassen.

Auf einfaches Storage-Management achten

Je einfacher sich der Storage administrieren lässt und je mehr Prozesse automatisiert ablaufen, desto geringer ist der Aufwand für die IT-Abteilung und desto besser unterstützt er das Data-Fabric-Konzept. Wichtige Aspekte sind in dieser Hinsicht die Provisionierung und Performance-Verteilung. Am Beispiel der SolidFire-Technologie lässt sich dies gut aufzeigen. Sie ermöglicht es, jeder Applikation eine garantierte Speicherleistung zuzuweisen, die nie unterschritten wird. Das ist gerade in Cloud-Umgebungen von Bedeutung, wenn IT-Teams mehrere Applikationen parallel auf einer Plattform betreiben möchten. Ohne eine solche garantierte Quality of Service würden sich die Anwendungen die Ressourcen gegenseitig streitig machen. So aber erhält jede einzelne die Performance, die sie benötigt. 

Eine automatisierte Provisionierung funktioniert, indem ein Administrator Policies festlegt, in denen er bestimmte Volume-Typen definiert und ihnen Werte für die maximalen Input/Output Operations pro Sekunde (IOPS), die minimalen IOPS und die Burst-IOPS zuweist. Grundsätzlich kann er Performance und Kapazität getrennt voneinander managen. Denn die Ressourcen aller Speicherkonten stehen bei SolidFire allen Volumes in einem zentralen Performance-Pool und einem Kapazitäts-Pool zur Verfügung. Wenn ein Mitarbeiter künftig eine virtuelle Maschine für ein Projekt benötigt, kann er sie auf Knopfdruck provisionieren. Er braucht dafür keinen Storage-Administrator und keine Storage-Kenntnisse, sondern gibt nur den Volume-Typ an. Die erforderlichen Prozesse laufen anhand der Policies automatisch im Hintergrund ab. 

Gute Integrierbarkeit in beliebte Cloud-Technologien

Storage- und Datenmanagement sollten sich zudem nahtlos per API in branchenführende Cloud-Technologien von Unternehmen wie Amazon, Microsoft, OpenStack, SoftLayer oder VMware integrieren lassen. So können IT-Mitarbeiter den Speicher direkt aus dem System heraus managen, in dem sie gerade arbeiten. Das spart Zeit und macht es einfacher, zum Beispiel einen Cloning-Prozess anzustoßen oder eine virtuelle Maschine zu provisionieren. Außerdem können IT-Teams dann frei zwischen verschiedenen Service-Anbietern wählen, problemlos wechseln und rasch auf geschäftliche Anforderungen reagieren. 

Fazit

Mit einer Data-Fabric-Strategie machen Unternehmen ihre Daten unabhängig von der darunterliegenden Infrastruktur. IT-Administratoren haben Daten jederzeit dort verfügbar, wo sie benötigt werden – egal ob sie in der Cloud oder On Premise liegen. Und sie können ihre Daten und Applikationen problemlos von einer Cloud in eine andere verschieben. Entscheidend dafür sind ein einheitliches Datenmanagement, eine einheitliche Datenübertragung und ein einheitliches Datenformat. Storage- und Datenmanagement müssen sich zudem in branchenführende Cloud-Technologien integrieren lassen. So gewinnen Unternehmen die Flexibilität und Skalierbarkeit, die sie heute benötigen, um im Wettbewerb zu bestehen.

Horst Thieme

 

Autor: Horst Thieme, Manager Cloud Business Development EMEA, NetApp Deutschland GmbH

 
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet