Cloud Expo Europe
28.11.17 - 29.11.17
In Frankfurt

Data Centre World
28.11.17 - 29.11.17
In Frankfurt

IT-Tage 2017
11.12.17 - 14.12.17
In Frankfurt, Messe Kap Europa

Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum

CESIS 2018
20.02.18 - 21.02.18
In München

BautreppeVirtualisierung ist in Rechenzentren von Unternehmen heute an der Tagesordnung, die Vorteile unbestreitbar. Um den nachhaltigen Erfolg der Virtualisierung zu garantieren, gilt es jedoch, einige Klippen zu umschiffen. 

Um rasantem Wachstum und Bedarfsschwankungen gerecht zu werden, muss die Infrastruktur die Skalierung einzelner virtueller Maschinen (VMs) sowie zusätzlich hinzukommende virtualisierte Workloads problemlos unterstützen. Obwohl Software-definierte Architekturen die Netzwerk-Skalierung erst einmal vereinfachen, zählt die Skalierbarkeit der Gesamtinfrastruktur weiterhin zu den größten Herausforderungen, um Virtualisierung im modernen Rechenzentrum noch umfassender einzusetzen.

Virtualisierte Umgebungen sind ihrem Wesen nach komplex. Diese Komplexität können neue, einfach zu skalierende Lösungen jedoch einfach lösen, indem weitere Virtualisierungshosts einfach nach dem Bauklötze-Prinzip hinzugefügt werden. Was nach dem Zusammenstecken von Legosteinen klingt, kann zahlreiche Probleme von Unternehmen lösen, die Mehrzweck-Speicherlösungen im Einsatz haben, also Storage, der nicht speziell für Virtualisierung entwickelt wurde. Wo jedoch liegen genau die Probleme, die zu Engpässen führen? Und wie kann Speicher im Bauklötze-Prinzip diese Probleme lösen?

Skalierung erhöht die Komplexität

Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträgern in der Kapazität oder der Leistung skaliert werden. Gerade das macht sie leider ineffizient. IT-Abteilungen, die mit herkömmlichem Speicher arbeiten, stellen für gewöhnlich mehr als den erforderlichen Speicher bereit. Sie überprovisionieren ihn, um die von ihren virtualisierten Umgebungen benötigte Performance zu erzielen. Dies resultiert in überschüssiger, nicht genutzter Kapazität und unnötiger Komplexität.
Außerdem: Die Anzahl der von herkömmlichen Storage-Controllern unterstützten Datenträger ist begrenzt. Ist die maximale Anzahl von Datenträgern erreicht, müssen Unternehmen entweder einen weiteren Controller hinzufügen und den Storage darunter getrennt verwalten oder gleich das kostspielige „Forklift-Update“ wählen - also das bisherige Speichersystem durch ein komplett neues ersetzen. In beiden Szenarien ist die Skalierung ein ständiger Kampf, der zwangsläufig die Komplexität noch vergrößert.

Aufwendige Verwaltung verursacht höhere Gemeinkosten

Obwohl sowohl die Speicherleistung als auch die Skalierungskosten für IT-Administratoren von enormer Bedeutung sind, ist der erhöhte Verwaltungsaufwand für die meisten Abteilungen das wohl größte Problem in diesem Zusammenhang. Von komplexen, für die Bereitstellung erforderlichen Vorgängen bis hin zur Zuordnung von Speicher in virtuellen Umgebungen: Administratoren sind gezwungen, ihre Speicherumgebungen weit im Voraus zu planen, um die verschiedenen Gruppen von VMs zu berücksichtigen. Die Zuordnung virtueller Server und virtueller Desktops kann auch erfahrene IT-Administratoren schnell überfordern. Viele Abteilungen verwenden nach wie vor riesige Tabellen für die Zuordnung von Speicher-LUNs oder Laufwerken zu VMs, was eine unglaublich zeitaufwendige, ineffiziente und fehleranfällige Methode der Speicherverwaltung ist.

Trotz dieses Aufwands lässt sich bei herkömmlichen Speichersystemen zudem nur sehr schwer vorhersagen, wie sich die Skalierung auf bestehende virtualisierte Workloads auswirken wird. Bei den meisten Speicherlösungen werden alle VMs in einen großen gemeinsamen Speichertopf geworfen. In diesem „Eintopf“ besteht wenig bis keine Transparenz, was die Performance individueller VMs anbelangt. Auch gibt es keine Möglichkeit, die Servicequalität bestimmter VMs zu messen. Das Problem wird weiter verschärft, wenn Umgebungen mit zugehörigen VMs so groß sind, dass sie sich über verschiedene Speichersysteme erstrecken.

Durch den mangelnden Einblick in einzelne VMs über den gesamten Speicher hinweg ist die Fehlerbehebung für Administratoren mit hohem Zeitaufwand verbunden. Denn sie müssen sämtliche potenziellen Probleme für mehrere Dimensionen und Workloads zu untersuchen. Mit herkömmlichem Speicher erfordert die Ermittlung der Ursache von Performance-Schwierigkeiten, insbesondere in größeren Umgebungen, mehrere Verwaltungs-Tools für ganz unterschiedliche Schichten.

Die fehlende Transparenz und Kontrolle führt dazu, dass niemand vorhersagen kann, wie die Leistung der virtualisierten Umgebung ausfallen wird. Dies kann schwerwiegende Folgen für IT-Abteilungen haben, vor allem, wenn verschiedene Arten kritischer Workloads mit ungleichen Performance-Anforderungen auf dem gleichen Speichersystem kombiniert werden. Vorhersagbare Performance ist für IT-Abteilungen, die herkömmliche Speicherplattformen verwenden, eigentlich unerreichbar. Denn es ist unmöglich, zu wissen, ob neue VMs auf den vorhandenen Speicher passen oder Performance-Probleme mit den Anwendungen oder Diensten verursachen werden können. Es besteht somit eindeutig Bedarf an einer neuen Art von Storage, der die Herausforderungen der Skalierung virtualisierter Umgebungen von vorneherein mitbedenkt.

Bausteine – ein besserer Ansatz für skalierbaren Virtualisierungsspeicher

Ein völlig anderer Ansatz zur Skalierung von Speicher in virtualisierten Umgebungen besteht in der Nutzung von Speicher-Bausteinen. Diese neue Herangehensweise basiert auf der Idee, dass auf die gleiche Art, wie der Baukasten-Ansatz in virtualisierten Umgebungen für die Compute-Ebene verwendet wird, Speicher effizient skaliert werden sollte. Der aus Bausteinen bestehende neue Speicher ist durch die Verständigung und den Betrieb auf der VM-Ebene in der Lage, die Verwaltungsmöglichkeiten der Virtualisierungsebene voll auszuschöpfen, was die Skalierung von Speicher einfach und vorhersagbar macht. Intelligente Funktionen, wie automatische Lastverteilung von VMs über Hosts hinweg, gewährleisten eine einfache und vorhersagbare Skalierung.

Bei diesem simplen Baukasten-Ansatz zur Skalierung von Speicher in virtualisierten Umgebungen erscheint jeder Baustein als einzelner Datenspeicher in der Virtualisierungsschicht. Im Gegensatz dazu müssen Administratoren bei herkömmlichem Speicher Zeit für das Erstellen von separaten LUNs oder Laufwerken für jede neue Gruppe von VMs und danach das Anlegen und das Exportieren der entsprechenden Datenspeicher aufwenden. Der Baustein-Ansatz macht die Schaffung und Verwaltung komplexer Netze von LUNs und Laufwerken überflüssig.

Ein weiterer Vorteil ist, dass Bausteine Administratoren einen klaren und umfassenden Einblick in die Systemleistung und Kapazitätsauslastung bieten. Die IT braucht nicht länger große Mengen vielschichtiger Kapazitäts- und Performance-Daten auszuwerten oder sich Gedanken darüber zu machen, wie viel ungenutzte Leistung zur Verfügung steht.

Ein Baustein kann zudem sicherstellen, dass es keine Beeinflussung durch „laute Nachbarn“ auf dem gleichen System gibt. Mit Quality-of-Service-Funktionalität auf VM-Ebene ist die Speicherperformance vorhersagbar. Außerdem ist es möglich, dass sich verschiedene
Arten von VMs, wie I/O-intensive Workloads für die Online-Transaktionsverarbeitung (OLTP) und latenzempfindliche Endanwender-Desktops, auf demselben Baustein befinden.

Administratoren können über die Performance und Kapazität eines einzelnen Bausteins hinaus skalieren, indem sie einfach ein zusätzliches System zur Virtualisierungsschicht hinzufügen. Das nimmt weniger als fünf Minuten in Anspruch. Dadurch wird praktisch ein weiterer Datenspeicher hinzugefügt, der durch die Virtualisierungsschicht verwaltet werden kann.

Tintri Virtualisierung Klein

Die Möglichkeit zur Überwachung und Steuerung
der virtuellen Umgebung ist wichtig bei der Skalierung von Speicher. Bausteine benötigen eine einheitliche, intuitive Steuerungsplattform, die es Administratoren erlaubt, mehrere Bausteine als einen einzigen zu verwalten.

Tintri Virtualisierung 2 Klein

Virtualisierung benötigt skalierbaren Speicher

Die IT benötigt speziell auf Virtualisierung ausgelegten Speicher, um den Anforderungen sich dynamisch verändernder virtualisierter Umgebungen gerecht zu werden. Sie braucht zudem einfache, intuitive Tools, die umfassende Transparenz und Kontrolle in der gesamten Speicherumgebung bieten können und sie in die Lage versetzt, Speicher auf der VM-Ebene zu überwachen und zu betreiben.

Peter Mahlmeister, Tintri
 

GRID LIST
Voreingestelltes Bild

TÜV NORD GROUP ist neues Mitglied bei Connected Living

Die TÜV NORD GROUP ist seit Mai Mitglied des Innovationszentrums Connected Living und…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet