Transformation World
19.10.17 - 20.10.17
In Heidelberg

PM Forum 2017
24.10.17 - 25.10.17
In Nürnberg

PM Forum 2017
24.10.17 - 25.10.17
In Nürnberg

10. gfo-Jahreskongress
25.10.17 - 26.10.17
In Düsseldorf

Google Analytics Summit 2017
09.11.17 - 09.11.17
In Hamburg

Diethelm SiebuhrDiethelm Siebuhr, Nexinto, über das automatisierte Rechenzentrum, den Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft und daraus resultierende Vorteile für Service Provider und ihre Kunden.

Die Entwicklung der IT in den letzten Jahrzehnten kann man auch als eine Emanzipations-Geschichte verstehen: Es begann mit codieren statt löten, später wurde designt und strukturiert statt programmiert, mittlerweile wird, wo immer es möglich ist, schon ziemlich anwendungsnah konfiguriert und orchestriert. Natürlich wird man nie ohne "Blech" und ohne Code auskommen, die Physik lässt sich nun mal nicht austricksen. Aber es wandern doch mehr und mehr Funktionalitäten in die virtuelle Welt der Software. Zwischen Mensch und Blech sind mittlerweile eine ganze Reihe von Layern eingezogen worden, die den Nutzern viel hardwarenahes Arbeiten durch eine möglichst weitgehende Automatisierung abnehmen.


Die Virtualisierungswelle rollt


Die vor rund zehn Jahren einsetzende Welle der Virtualisierung war ein entscheidender Schritt in dieser Entwicklung. Server waren nicht länger sperrige, teure und warme Kästen, sondern im Wesentlichen flexible Software, die sich der Ressourcen der Hardware nach Bedarf bediente. Das Ergebnis waren innovative Tool-Landschaften. Alle Komponenten eines Rechenzentrums, also vor allem Storage- und Netzwerk-Systeme, lösen sich ebenfalls vom Blech und werden gemeinsam mit der Server-Virtualisierung gesteuert. Auch wenn derzeit die Virtualisierung von Servern, Storage und Netzwerk noch nicht im Gleichschritt geht – bei Servern ist man schon sehr weit, während die Netzwerk-Technik noch ein wenig hinterherhinkt –, so kann man zumindest fest damit rechnen, dass es schon in naher Zukunft soweit sein wird.

Rechenzentrums-Services lassen sich auf dieser Basis je nach Anforderung zusammenstellen: Speicherkapazität oder Prozessorleistung werden per Software bei der Hardware "abgerufen" – welche Hardware dabei jeweils in Anspruch genommen wird, welche konkrete CPU rechnet oder welche konkreten Platten speichern, interessiert den Anwender nicht mehr; die Ressourcen werden automatisch zugewiesen und verteilt. Das Ergebnis ist ein sehr hohes Maß an Flexibilität und Skalierbarkeit. Die Betriebswirte freut, dass das Ganze auch noch kostengünstig ist, denn eine virtuell abgekoppelte Hardware macht keine besonderen Ansprüche geltend, Standard- und Commodity-Komponenten reichen aus.


Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft


Ein möglicher Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft, dem "Future Proofed IT Toolset", ist das Einrichten eines Software Defined Datacenters (SDDC). Hier kann ein Software-Layer geschaffen werden, der individuelle Anforderungen von Anwendern automatisiert in eine technische Konfiguration umsetzt. Alle Server-, Storage- und Netzwerk-Ressourcen werden auf dieser Ebene so konfiguriert, dass am Ende eine individuelle Systemlandschaft bereitgestellt wird. Das Rechenzentrum wird vielleicht die Erstkonfiguration noch direkt vornehmen, die dabei getroffenen Einstellungen werden in Skripten erfasst, die ab der nächsten Implementierung eine automatische Konfiguration erlauben. Damit die Erstkonfiguration nicht zu übermäßigem Aufwand führt, was wiederum die Flexibilität einschränken würde, muss hier ein geeignetes IT-Tool-Set eingesetzt werden. 


Vorteil für Service Provider


Vor allem Service Provider, die eine Vielzahl an Implementierungen ausrollen, können von diesem Verfahren profitieren. Anstatt für jeden Kunden eine eigene Systemlandschaft aufzubauen, werden die jeweiligen Einstellungen gemäß Anforderungskatalog orchestriert und beim nächsten Mal automatisiert wiederverwendet. Dabei werden nicht nur die Hardware-Ressourcen, sondern auch Performance-, Kapazitäts- und Availability-Management-Prozesse festgelegt. Die damit erreichte Automatisierung der Systeme sorgt für hohe Effizienz und niedrige Kosten. Dabei können die Ressourcen in sehr kurzer Zeit bereitgestellt werden, denn von der Anforderung eines Services bis zur Bereitstellung in der virtuellen Kundenumgebung vergehen oft nur Minuten. 

Die hohe Effizienz eines derart automatisierten Rechenzentrums freut den Kunden, sofern sie sich in den Preisen bemerkbar macht. Ansonsten will er in diesem Szenario „IT als Service“ in Anspruch nehmen und gerade nicht mit der Organisation einer IT-Infrastruktur konfrontiert werden. Insofern ist SDDC ein Thema für Rechenzentren, interessiert aber den Anwender nur peripher; für ihn ist das zunächst einmal nur Migration.

Denkt man das Konzept allerdings noch einen Schritt weiter, so kommen die Anwender mit dem SDDC wieder direkt in Berührung: In den seltensten Fällen übernimmt das Rechenzentrum eines Service Providers eine komplette IT-Systemlandschaft; in der Regel beschränkt es sich auf einige bestimmte Aufgaben, beispielsweise einen Webshop oder eine E-Mail-Infrastruktur, während andere im Rechenzentrum des Kunden verbleiben. Beide Sphären sind optimal organisiert, wenn die Anpassungen und In-tegration auf den Systemen der Kunden auch automatisiert erfolgen und das Rechenzentrum nach demselben SDDC-Konzept wie beim IT-Provider aufgebaut wird, so dass unter anderem auch ein gemeinsames Monitoring möglich ist.


Rechenzentrumsübergreifende Virtualisierung


Konkret heißt das, dass die umfassende Automatisierung auch die Ressourcen im Kunden-Rechenzentrum berücksichtigen und eventuell in seine Konfigurationen miteinbeziehen muss. Der Provider kann die Orchestrierung des Gesamtsystems wiederum als Service einbringen und unterstützt den Anwender bei einer zukunftsfähigen Organisation seiner Infrastruktur. Im Ergebnis ist eine solche rechenzentrumsübergreifende Virtualisierung noch flexibler, noch besser skalierbar und damit noch effizienter. Hardware ist damit wieder ein Stück fortgerückt.

Diethelm Siebuhr ist CEO der Nexinto Holding in Hamburg

https://www.nexinto.com/de

GRID LIST
Tb W190 H80 Crop Int D1a9e4fb59f56aef82a0754bb96c5f75

Umfrage offenbart hohes Cybersicherheits-Risiko | IT-Sicherheit in deutschen Unternehmen

Dringender Handlungsbedarf für deutsche Unternehmen: Das Risiko, Opfer eines…
Tb W190 H80 Crop Int 9168b2ba3e6259e0f1fd673ee066a7c3

Produkt-Performance ist wichtiger als IT-Sicherheit

Im Zweifelsfall ist mehr als zwei Dritteln der deutschen Unternehmen Produkt-Performance…
Tb W190 H80 Crop Int B01d5408433c87e01a881e190b070011

Jeder vierte Internetnutzer besucht keine Bankfiliale mehr

Geld wird zunehmend digital verwaltet und angelegt: Rund jeder vierte Internetnutzer (24…
Tb W190 H80 Crop Int 7b240a672f346adba7106f43f59804b0

IT-Sicherheit bei deutschen Mittelständlern | IT-Security Barometer

Neun von zehn Mittelständler in Deutschland finden es wichtig oder sehr wichtig, dass…
Advanced Analytics

SAS „dominiert“ bei Advanced-Analytics-Plattformen

Die aktuelle BARC-Studie bescheinigt Softwareherstellern besondere Stärken bei…
Superheldin

Bürokräfte wünschen sich Chief Happiness Officer

Nur knapp die Hälfte der deutschen Arbeitnehmer (49 %) ist der Ansicht, an ihrem…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet