VERANSTALTUNGEN

USU World 2018
06.06.18 - 07.06.18
In World Conference Center Bonn

CEBIT 2018
11.06.18 - 15.06.18
In Hannover

ERP Tage Aachen
19.06.18 - 21.06.18
In Aachen

next IT Con
25.06.18 - 25.06.18
In Nürnberg

XaaS Evolution 2018
01.07.18 - 03.07.18
In H4 Hotel Berlin Alexanderplatz

Evolution

Über hyperkonvergente Infrastruktur sollten Unternehmen nachdenken, die auf automatisierte Standardaufgaben und einen stabilen Applikationsbetrieb setzen wollen. Einblicke in technische Details zeigen, warum die neuen Software-gesteuerten Komplettlösungen Kernanwendungen und verschiedene Workloads konsolidieren – und der Unternehmens-IT einen Entwicklungsschub geben können.

Fast die Hälfte der deutschen Mittelstands- und Großunternehmen arbeitet an datenbasierten Geschäftsmodellen und vernetzten Produkten. Das geht aus einer aktuellen Studie von Crisp Research und NetApp hervor. Mehr Gewicht erfährt so die Software-Entwicklung, die sich heute vor allem agiler Methoden wie Scrum oder Kanban bedient. DevOps (Development & Operations) wendet diese Konzepte auch auf den IT-Betrieb an. Entwickler und Administratoren benötigen möglichst viele automatisierte Prozesse, um wie angestrebt, die Release-Zyklen zu verkürzen. So sollen der Build aus dem Repository sowie System- und Performance-Tests automatisiert ablaufen. Entwickler legen ihren Code in einem zentralen Repository ab. Solche Repositorys benötigen skalierbaren Speicher, sodass sich neue Projekte ganz nach Bedarf schnell hinzufügen lassen. Um DevOps bestmöglich zu unterstützen, sollte der Speicher außerdem über einen hohen Automatisierungsgrad verfügen.

Die geforderte flexible Skalierung und Automatisierung beim Management und in der Bereitstellung von IT-Ressourcen liefert die neue Generation hyperkonvergenter Infrastrukturen (HCI), die bereits Marktreife erreicht hat. Mit diesen hochintegrierten Systemen können IT-Administratoren Storage und Server über ein gemeinsames Web-Frontend orchestrieren. Der eigentliche Effekt ist aber, dass sich Repositorys einfacher und schneller anpassen lassen – im Vergleich zu einer Umgebung, in der Server- und Storage-Infrastruktur getrennt ist.

Schlüsselfunktionen eines modernen Rechenzentrums

Die neuen HCIs können nicht nur die Software-Entwicklung auf die nächste Infrastrukturstufe heben, sondern generell die Evolution im IT-Betrieb in Richtung Next Generation Data Center (NGDC) vorantreiben. Zu den charakteristischen Merkmalen eines zukunftsfähigen Rechenzentrums zählen demnach – neben automatisiertem Management und flexibler Skalierbarkeit – garantierte Performance, einfaches Datenmanagement und Ausfallsicherheit. Diese Kriterien erfüllt bereits heute eine neue HCI, die Server, Speicher, Netzwerk und Virtualisierung Software-gesteuert zu einem funktionierenden Mikrorechenzentrum vereint. Ein Administrator dreht quasi nur noch den Schlüssel um – und alle Komponenten spielen perfekt zusammen.

Es stehen je drei Ausstattungen für Compute und Storage zur Wahl. (Quelle: NetApp)

Bild 1: Es stehen je drei Ausstattungen für Compute und Storage zur Wahl. (Quelle: NetApp)

Virtualisierte Flash Storage und Standard Compute Nodes bilden hierbei einen Ressourcen-Pool, der alle Applikationen versorgt. Ebenso stehen integrierte Data Services wie Hochverfügbarkeit, Replikation, Datensicherung, Reduktion sowie Backup und Recovery bereit. Eine eingebaute Deployment Engine automatisiert und beschleunigt die Installation der HCI-Lösung, die nach rund 45 Minuten einsatzbereit ist. Das Management erfolgt über eine zentrale Konsole, beispielsweise die VMware vCenter, und beruht auf vielen automatisierten Standardprozessen. So bedarf es nur wenige Klicks, um eine Virtuelle Maschine (VM) aufzusetzen und zu provisionieren. Der Administrationsaufwand beschränkt sich auf das Nötigste, wobei die Zusatzoption besteht, ein Selbstbedienungsportal zu betreiben. Über das können sich Programmierer in wenigen Schritten eigenständig einen Testserver einrichten. Die Hilfe eines Administrators benötigen sie nicht.

Eingeschränkte Konvergenz

Auch bei einer konvergenten Infrastruktur (CI) hat ein Administrator weniger zu tun. Die in einer Box vorkonfigurierten Server, Speicher, Netzwerk und Virtualisierungstechnik lassen sich perfekt auf ein spezielles Anwendungsszenario wie SAP HANA abstimmen. Doch das Hardware-zentrierte System stößt schnell an Grenzen, wenn beispielsweise als weitere Anwendung eine VDI (Virtual Desktop Infrastructure) auf dem CI-System hinzukommen soll. Die Anforderungen, die sich aus beiden Workloads ergeben, kann die physikalisch aufgebaute Plattform nicht abdecken. Wesentlich flexibler stellen sich Unternehmen mit einer HCI auf. Denn diese Systeme beruhen auf dem Konzept, verschiedene Workloads auf einem System zu konsolidieren. Unter diesen Aspekt werden die HCI-Komponenten auf einander abgestimmt, wobei hardware-seitig zwar Standardprodukte zum Einsatz kommen, die jedoch spezielle Fähigkeiten aufweisen.

: Im Vergleich zu bisherigen Modellen kommt bei NetApp HCI die benötigte CPU Performance vom lizenzunabhängigen Storage-Block. (Quelle: NetApp)

Bild 2: Im Vergleich zu bisherigen Modellen kommt bei NetApp HCI die benötigte CPU Performance vom lizenzunabhängigen Storage-Block. (Quelle: NetApp)

In das verbaute Speichersystem sollte vor allem eine garantierte Quality of Service (QoS) integriert sein. Dadurch vermeiden Unternehmen die Silobildung, die für latenzkritische Anwendungen typisch ist. QoS basiert darauf, dass jeder Applikation ein Minimalwert, ein Maximalwert und einen Burst-Wert an IOPS zugwiesen wird. Der Effekt: Verschiedene Applikationen, die auf denselben Ressourcen-Pool zugreifen, behindern sich nicht. Der IT-Betrieb läuft störungsfrei. Die garantierte Performance verbreitert das Einsatzspektrum, da sich nun beispielsweise eine VDI parallel mit einer Produktionsdatenbank auf derselben HCI betreiben lässt.

Wachstum nicht mehr blockiert

Flexibler wird der IT-Betrieb noch durch eine weitere Verbesserung: Das Wachstum ist nicht mehr an feste Blöcke gebunden. Die neuen hyperkonvergenten Systeme lassen sich horizontal skalieren. Ein Unternehmen erweitert bei Bedarf bloß den Speicher, ohne die Compute Nodes anzufassen und in neue CPU zu investieren. Das komponentenunabhängige Skalieren funktioniert auch anders herum und bewährt sich zusammen mit der QoS-Funktionalität beim Betrieb großer SQL- und NoSQL-Datenbanken.

Technologisch sichert ein intelligentes Speichersystem den Applikationsbetrieb ab. Der Vorgang, Datenblöcke doppelt im System abzulegen, sorgt für einen SSD-Ausfall vor. Tritt der ein, gereift ein intelligenter Prozess, der die zweite Kopie nutzt, um die Daten wiederherzustellen. Zudem verschiebt der Hypervisor betroffene VMs auf intakte Cluster. Das alles läuft automatisiert ab, sodass die Daten innerhalb von Minuten statt in Stunden oder Tagen wieder zur Verfügung stehen.

Daten in die Cloud und zurück verschieben

Ohne ein einfaches wie effizientes Datenmanagement lässt sich die Datenflut nicht beherrschen. Ein einheitliches Datenformat und eine einheitliche Datenübertragung erleichtern es Unternehmen, Informationen schnell am Verarbeitungsort bereitzustellen sowie zwischen Rechenzentrum und Cloud hin- und herzuschieben. Deshalb sollte eine zentrale Datenmanagementplattform zum Einsatz kommen, die diese Kriterien erfüllt. Aus dem Grund hat beispielsweise Datenmanagementspezialist NetApp seine HCI in die eigene Data Fabric eingebunden. In dieser Konstellation und über RESTful APIs zu den Hyperscalern Amazon Web Services, Azure oder Google machen hyperkonvergente Systeme die Unternehmens-IT Cloud-fähig

Die Datenübertragung von einer HCI in einen Cloud-Speicher gehört unter anderem zu den Standardaufgaben bei einer IoT-Anwendung. Unternehmen setzen hierbei das sogenannte Edge Computing um, wofür sie im Maschinenpark eine HCI-Lösung als Micro Data Center installieren. Die Box analysiert Daten bereits am Entstehungsort und leitet nur relevante Informationen an das zentrale Rechenzentrum weiter. Hier ist nur selten IT-Personal vor Ort. Für solche Anwendungsfälle brauchen Unternehmen ein System, das sowohl Rechenleistung als auch Speicher bietet und sich mit wenig Aufwand in Betrieb nehmen und managen lässt.

Wegweisende Konsolidierung

HCIs der zweiten Generation sorgen für einen stabilen wie effizienten IT-Betrieb, zu dessen wesentlichen Eigenschaften dann automatisiertes Management, flexible Skalierbarkeit, garantierte Performance, einfaches Datenmanagement und Ausfallsicherheit zählen. Das entspricht dem Anforderungsprofil, das ansonsten mit einem NGDC in Verbindung gebracht wird. Den Weg dorthin weisen die neuen HCI-Lösungen, die für eine Konsolidierung von verschiedenen Workloads auf einem System konzipiert sind. Die Software-gesteuerten Komplettlösungen sollten daher für alle Branchen interessant sein, um Kernanwendungen wie spezielles Workloads stark automatisiert zu betreiben, ohne Leistungseinbußen fürchten zu müssen. Durch die flexible und unabhängige Skalierung von Compute und Storage haben Unternehmen die Chance, zunächst klein mit der Einstiegsvariante von zwei Compute und Storage Nodes zu starten. Sie können die zwei Chassis sukzessive zu einem großen modernen Rechenzentrum aufrüsten – und zwar in dem Ausmaß und Tempo wie sie tatsächlich wachsen. Diese nächste Evolutionsstufe im IT-Betrieb lohnt sich. Auch weil Silos sowie unnötige Hardware- und Lizenzkosten nicht mehr entstehen, was in anderen Infrastrukturen an der Tagesordnung ist.

Johannes Wagmüller

Johannes Wagmüller ist Director Systems Engineering, Germany, bei NetApp (Quelle: NetApp)

Johannes Wagmüller ist Director Systems Engineering bei NetApp, als welcher er seit 2010 den technischen Vertrieb des Storage-Herstellers und Datenmanagementspezialisten in Deutschland leitet. Die technische Beratung sowie die Konzeption von Storage- und Datenmanagement Lösungen ist der Schwerpunkt seiner Arbeit. Wagmüller ist bereits seit 2002 bei NetApp, wo er in München als Systems Engineer begann. Vor NetApp war Wagmüller in Professional Service und Pre-Sales Funktionen unter anderem bei Compugraphic und Silicon Graphics tätig.

 

 

 

 

 

 

Tb W90 H64 Crop Int 2ad2935371c0a55c2864ae5408de1f94
Dez 18, 2017

Rechenzentrum Trends 2018: Was für IT-Manager jetzt wichtig ist

Die digitale Transformation ist in vollem Gange: Bis zum Jahr 2021 könnte wenigstens die…
Eisberg
Nov 16, 2017

Daten-Eisberg voraus!

Beim viel beschriebenen Datenberg handelt es sich doch eher um einen Daten-Eisberg. Denn…
Mainstream
Mai 04, 2017

Moderne IT-Infrastruktur: Hyperkonvergenz wird Mainstream

Hyperkonvergente Infrastrukturen wurden bislang größtenteils für Außenstellen sowie in…
GRID LIST
Tb W190 H80 Crop Int 8a73214089cfc94177ca237fa9f4486e

NAS-Dateien effizienter nutzen

Viele Backup-Administratoren haben immer noch Schwierigkeiten, Unmengen von NAS-Daten zu…
Tb W190 H80 Crop Int D2e97c879f93358a07f6423857d2138e

Backup: DSGVO-Anforderungen an die Datenstrategie

Bei der Umsetzung der EU-Datenschutz-Grundverordnung im Unternehmen stellt sich ganz akut…
Tb W190 H80 Crop Int 775ac528c7968761631ff816c092b592

Autark, grün, sicher: Rechenzentrum mit Blick auf Digitalisierung

Die drei Hauptanforderungen der Kuka AG an ihr neues Rechenzentrum am Unternehmenssitz im…
9,7

Apple stellt neues 9,7" iPad mit Unterstützung für Apple Pencil vor

Apple hat sein iPad mit Unterstützung für Apple Pencil und noch mehr Leistung…
Tb W190 H80 Crop Int 7ceecdcfe907ab7e759b08befd02f94b

HCI-Lösungen ebnen den Weg in die Hybrid Cloud

Hyperkonvergente Infrastrukturen bilden einen idealen Ausgangspunkt, von dem aus…
Tb W190 H80 Crop Int 981ea00df0da877f1d5f65bdddb91339

Die Modernisierung von Rechenzentren in Zeiten des Klimawandels

Für die einzelnen technischen Komponenten von Rechenzentren gab es jahrelang…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security