VERANSTALTUNGEN

IT-Sourcing 2018
03.09.18 - 04.09.18
In Hamburg

DILK 2018
17.09.18 - 19.09.18
In Düsseldorf

abas Global Conference
20.09.18 - 21.09.18
In Karlsruhe

it-sa 2018
09.10.18 - 11.10.18
In Nürnberg

Digital Marketing 4Heroes Conference
16.10.18 - 16.10.18
In Wien und München

Diethelm SiebuhrDiethelm Siebuhr, Nexinto, über das automatisierte Rechenzentrum, den Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft und daraus resultierende Vorteile für Service Provider und ihre Kunden.

Die Entwicklung der IT in den letzten Jahrzehnten kann man auch als eine Emanzipations-Geschichte verstehen: Es begann mit codieren statt löten, später wurde designt und strukturiert statt programmiert, mittlerweile wird, wo immer es möglich ist, schon ziemlich anwendungsnah konfiguriert und orchestriert. Natürlich wird man nie ohne "Blech" und ohne Code auskommen, die Physik lässt sich nun mal nicht austricksen. Aber es wandern doch mehr und mehr Funktionalitäten in die virtuelle Welt der Software. Zwischen Mensch und Blech sind mittlerweile eine ganze Reihe von Layern eingezogen worden, die den Nutzern viel hardwarenahes Arbeiten durch eine möglichst weitgehende Automatisierung abnehmen.


Die Virtualisierungswelle rollt


Die vor rund zehn Jahren einsetzende Welle der Virtualisierung war ein entscheidender Schritt in dieser Entwicklung. Server waren nicht länger sperrige, teure und warme Kästen, sondern im Wesentlichen flexible Software, die sich der Ressourcen der Hardware nach Bedarf bediente. Das Ergebnis waren innovative Tool-Landschaften. Alle Komponenten eines Rechenzentrums, also vor allem Storage- und Netzwerk-Systeme, lösen sich ebenfalls vom Blech und werden gemeinsam mit der Server-Virtualisierung gesteuert. Auch wenn derzeit die Virtualisierung von Servern, Storage und Netzwerk noch nicht im Gleichschritt geht – bei Servern ist man schon sehr weit, während die Netzwerk-Technik noch ein wenig hinterherhinkt –, so kann man zumindest fest damit rechnen, dass es schon in naher Zukunft soweit sein wird.

Rechenzentrums-Services lassen sich auf dieser Basis je nach Anforderung zusammenstellen: Speicherkapazität oder Prozessorleistung werden per Software bei der Hardware "abgerufen" – welche Hardware dabei jeweils in Anspruch genommen wird, welche konkrete CPU rechnet oder welche konkreten Platten speichern, interessiert den Anwender nicht mehr; die Ressourcen werden automatisch zugewiesen und verteilt. Das Ergebnis ist ein sehr hohes Maß an Flexibilität und Skalierbarkeit. Die Betriebswirte freut, dass das Ganze auch noch kostengünstig ist, denn eine virtuell abgekoppelte Hardware macht keine besonderen Ansprüche geltend, Standard- und Commodity-Komponenten reichen aus.


Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft


Ein möglicher Umsetzungspfad zu einer marktgerecht angepassten IT-Tool-Landschaft, dem "Future Proofed IT Toolset", ist das Einrichten eines Software Defined Datacenters (SDDC). Hier kann ein Software-Layer geschaffen werden, der individuelle Anforderungen von Anwendern automatisiert in eine technische Konfiguration umsetzt. Alle Server-, Storage- und Netzwerk-Ressourcen werden auf dieser Ebene so konfiguriert, dass am Ende eine individuelle Systemlandschaft bereitgestellt wird. Das Rechenzentrum wird vielleicht die Erstkonfiguration noch direkt vornehmen, die dabei getroffenen Einstellungen werden in Skripten erfasst, die ab der nächsten Implementierung eine automatische Konfiguration erlauben. Damit die Erstkonfiguration nicht zu übermäßigem Aufwand führt, was wiederum die Flexibilität einschränken würde, muss hier ein geeignetes IT-Tool-Set eingesetzt werden. 


Vorteil für Service Provider


Vor allem Service Provider, die eine Vielzahl an Implementierungen ausrollen, können von diesem Verfahren profitieren. Anstatt für jeden Kunden eine eigene Systemlandschaft aufzubauen, werden die jeweiligen Einstellungen gemäß Anforderungskatalog orchestriert und beim nächsten Mal automatisiert wiederverwendet. Dabei werden nicht nur die Hardware-Ressourcen, sondern auch Performance-, Kapazitäts- und Availability-Management-Prozesse festgelegt. Die damit erreichte Automatisierung der Systeme sorgt für hohe Effizienz und niedrige Kosten. Dabei können die Ressourcen in sehr kurzer Zeit bereitgestellt werden, denn von der Anforderung eines Services bis zur Bereitstellung in der virtuellen Kundenumgebung vergehen oft nur Minuten. 

Die hohe Effizienz eines derart automatisierten Rechenzentrums freut den Kunden, sofern sie sich in den Preisen bemerkbar macht. Ansonsten will er in diesem Szenario „IT als Service“ in Anspruch nehmen und gerade nicht mit der Organisation einer IT-Infrastruktur konfrontiert werden. Insofern ist SDDC ein Thema für Rechenzentren, interessiert aber den Anwender nur peripher; für ihn ist das zunächst einmal nur Migration.

Denkt man das Konzept allerdings noch einen Schritt weiter, so kommen die Anwender mit dem SDDC wieder direkt in Berührung: In den seltensten Fällen übernimmt das Rechenzentrum eines Service Providers eine komplette IT-Systemlandschaft; in der Regel beschränkt es sich auf einige bestimmte Aufgaben, beispielsweise einen Webshop oder eine E-Mail-Infrastruktur, während andere im Rechenzentrum des Kunden verbleiben. Beide Sphären sind optimal organisiert, wenn die Anpassungen und In-tegration auf den Systemen der Kunden auch automatisiert erfolgen und das Rechenzentrum nach demselben SDDC-Konzept wie beim IT-Provider aufgebaut wird, so dass unter anderem auch ein gemeinsames Monitoring möglich ist.


Rechenzentrumsübergreifende Virtualisierung


Konkret heißt das, dass die umfassende Automatisierung auch die Ressourcen im Kunden-Rechenzentrum berücksichtigen und eventuell in seine Konfigurationen miteinbeziehen muss. Der Provider kann die Orchestrierung des Gesamtsystems wiederum als Service einbringen und unterstützt den Anwender bei einer zukunftsfähigen Organisation seiner Infrastruktur. Im Ergebnis ist eine solche rechenzentrumsübergreifende Virtualisierung noch flexibler, noch besser skalierbar und damit noch effizienter. Hardware ist damit wieder ein Stück fortgerückt.

Diethelm Siebuhr ist CEO der Nexinto Holding in Hamburg

https://www.nexinto.com/de

GRID LIST
Industrie Security

Die größten Cybersicherheitsbedenken für industrielle Netzwerke

In Zeiten der Digitalisierung stehen Betreiber industrieller Kontrollsysteme (ICS,…
Connected World

Unternehmen verlagern den Fokus von BI auf Data Analytics

Die Exasol AG, Hersteller von analytischen In-Memory Datenbanksystemen, gab heute die…
Penetrationstest

Penetrationstests offenbaren gefährliches Tor in Unternehmensnetzwerke

Ob Schwachstellen in Webanwendungen oder öffentlich verfügbare Verwaltungsschnittstellen…
Startup

Wie zufrieden sind Startups mit dem Standort Deutschland?

Der Standort Deutschland ist für Startups viel besser als sein Ruf. Ob…
Insurance

Digitalisierung der Versicherungsbranche steckt in den Kinderschuhen

Einen Schaden online melden oder eine Leistungsabrechnung digital bearbeiten: Was für die…
Hacking detected

Neueste Entwicklungen bei von Hackern entdeckten Sicherheitslücken

HackerOne, eine Plattform für Bug-Bounties und Cybersecurity, gab heute die Ergebnisse…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security