Die Wolke – zu „weich“ für die harte IT Welt?

Cloud Computing ist ein „Dauerbrenner“ in den IT-Fachabteilungen. Doch in punkto Umsetzung sind viele Unternehmen noch skeptisch. Jüngst warf der Netzausfall von Blackberry Fragen zur Versorgungssicherheit auf. Auch lässt die Verbindung der Wolke mit vorhandenen oder neuen IT-Strukturen, wie etwa. dem Übergang zu Windows 7, noch Antworten vermissen. Lösungsanbieter sind gefordert, die richtigen Wege zu ebnen und dem Bedürfnis nach Sicherheit, Datenschutz und höchster IT-Qualität zu entsprechen.
 
Am Thema Cloud Computing scheiden sich die Geister: Während die einen Experten diesem Bereich zweistellige Wachstumsraten in Deutschland voraus sagen, kommt eine aktuelle Umfrage des Bitkom zu dem Resultat, dass die Mehrheit der befragten Unternehmen Cloud Computing nicht nutzt und dies auch nicht in naher Zukunft plant. Rund die Hälfte der Befragten befürchtet unzureichende Datensicherheit und -verfügbarkeit. Nur knapp 50 Prozent glauben, dass das Rechnen in der Wolke die Compliance-Vorschriften erfüllt.

Was sind die Gründe dafür, dass sich die partielle Schwarzmalerei trotz der weithin anerkannten Vorteile von Cloud Computing, vor allem Flexibiliät durch das Bereitstellen kostenvariabler IT-Ressourcen, hält? Wie kann man die Bedenken ausräumen? Ein Grund für die Unsicherheit ist, dass die Pro- und Contra-Diskussion ungenau geführt wird. Skeptiker sehen jeden Rechenzentrumsausfall oder Datenskandal durch Cloud Computing begründet. Doch diese Fälle sind kaum der Wolke anzulasten, denn sie fanden bereits statt, als dieses Thema noch nicht in der IT-Welt kursierte.

Anzeige

Ein weiterer Aspekt ist, dass die Public (öffentliche) Cloud und die Private (geschlossene) Cloud oft noch vermischt werden. Dabei ist gerade diese Unterscheidung für das Verständnis dieses Themas wichtig. Die Sicherheits- und Verfügbarkeitsmaßnahmen der Public lassen sich nicht mit denen der Private Cloud vergleichen. Die Server der Public Cloud stehen in einem Rechenzentrum an unbekanntem Ort, irgendwo auf der Welt. In einer Private Cloud sind die Daten hingegen immer auffindbar. Sie können über einen Rechnerverbund verteilt sein, aber der Zugriff ist bei entsprechender Vertragslage stets möglich. Des Weiteren entscheidet der Kunde bei der Private Cloud, inwiefern der Lösungsanbieter in seine Daten eingreifen darf. Er kann seine Daten auch verschlüsseln, um jeglichen Auswertungen vorzubeugen.

Auch die Sorge um fehlende Compliance ist in der Private Cloud unbegründet. Wer etwa an die strengen rechtlichen Datenschutzvorgaben in Deutschland gebunden ist, bezieht seine Cloud Computing-Leistungen nur aus deutschen Rechenzentren. So wird verhindert, dass Daten die Landesgrenzen überschreiten.

„Zwillinge“ bürgen für Sicherheit

Die Twin-Core-Strategie („Zwillingsstrategie“), die auch T-Systems betreibt, stellt auch beim Cloud Computing eine wichtige Schutzmaßnahme dar. Dazu Dr. Ferri Abolhassan, Geschäftsführer T-Systems und verantwortlich für den Bereich Production: „Mit der Twin-Core-Strategie werden auch beim Cloud Computing Daten und Anwendungen zusätzlich in einem zweiten, parallelen Rechenzentrum abgelegt und gesichert. Die Synchronisation wird im laufenden Betrieb durchgeführt. Wenn ein Server am Hauptstandort ausfällt, geht der Betrieb in seinem „Zwilling“ unterbrechungsfrei weiter. In beiden Rechenzentren ist der gesamte Datenbestand jederzeit verfügbar. Zudem sichern definierte Servicelevel hohe Verfügbarkeiten und die Datenhoheit in einer virtualisierten Umgebung.“

Des Weiteren sorgen Datenschutz-Kriterien für Sicherheit. Für ein Cloud Computing-Rechenzentrum, in dem mehrere Unternehmen IT-Ressourcen auf denselben Servern speichern, muss gewährleistet sein, dass niemand an die Informationen eines anderen gelangt. Daten und Applikationen der verschiedenen Kunden müssen so zusagen einen Sicherheitsabstand einhalten. Im Zusammenhang damit sollte auch jeder Auftraggeber einen separaten Zugang für sein Unternehmen erhalten.

Darüber hinaus können Kunden von T-Systems den Umgang mit ihren Daten durch Audits prüfen und dabei Rechenzentren und Prozesse genau analysieren. Zusätzlich ermöglichen entsprechende Zertifizierungen eines Dienstleisters nach ISO oder eine stringente Vorgehensweise nach ITIL (IT Infrastructure Library) eine bessere Übersicht über den Umgang mit vertraulichen Daten.

Nutzt ein Unternehmen das Netz seines Lösungsanbieters, sollte es mit diesem Service-Vereinbarungen für die Wolke vertraglich fixieren, vergleichbar mit den Inhalten eines klassischen Outsourcing-Vertrags. So lässt sich die Qualität und Verlässlichkeit der Dienste überprüfen.

Dienstleister sollten die Unsicherheit ihrer potenziellen Cloud Computing-Kunden ernst nehmen und folgende Faktoren in ihren Lösungen beherzigen: Sicherheit, Verfügbarkeit und Datenschutz. Um die IT-Qualität zu gewährleisten, muss darüber hinaus die Integration der Wolke mit neuen IT-Strukturen ermöglicht werden – ein aktuelles Beispiel ist die Migration zu Windows 7.

Eine Frage der Qualität: Cloud Computing und Windows 7

t systems itm11 quote klein

Wie alle Anwendungen laufen auch Cloud-Applikationen auf einer Desktop-Oberfläche. Da für viele Unternehmen beispielsweise noch die Migration auf Windows 7 auf der Agenda steht, ist zu berücksichtigen, dass auch die aus der Wolke bezogenen Applikationen auf der neuen Oberfläche laufen. Zu diesem Zweck testet T-Systems die Software ihrer Kunden auf Herz und Nieren, damit eine „glatte Landung“ in der neuen Windows-Welt möglich ist.

Laut einer Umfrage der International Data Corporation setzte im Juli 2011 bereits ein Drittel von rund 2000 befragten Firmen in 13 Ländern Windows 7 ein. Tendenz steigend.  Ein Grund liegt in der häufig veralteten PC- und Notebook-Hardware. Hier gab es in den letzten Jahren einen Investitionsstau. Beim Austausch der Geräte migrieren viele in einem Zug auf Windows 7. Von den befragten Unternehmen denken 43 Prozent bei der Einführung zusätzlich an Desktop-Standardisierung und -Virtualisierung als eine mögliche Lösung für Kompatibilitätsprobleme.

In eigenen Testzentren nimmt T-Systems die Migration auf Windows 7 für Kunden unter die Lupe. Das Risiko des Wechsels vom bisherigen auf das neue Betriebssystem ist so am besten einzuschätzen. Um festzustellen, ob die für das eigene Business wichtigen Applikationen Windows-7-fähig sind, übergibt ein Unternehmen dem Testcenter ein Muster seiner Eigenentwicklungen oder kritischen Applikationen. So kann ein Unternehmen abschätzen, mit welchem Aufwand eine Komplettmigration auf Windows 7 verbunden ist und den Aufwand frühzeitig identifizieren und finanziell kalkulieren.

Die Telekom-Tochter führt die Qualitätssicherung über den gesamten Lebenszyklus einer Applikation, inklusive der genutzten Hardware, unter den erforderlichen technischen Rahmenbedingungen, durch. Enthalten sind die fachlichen Abnahme der Applikation und die anschließenden Tests zur Integration bzw. Interoperabilität, bis zum weltweiten Rollout und schließlich zum späteren Deinstallieren der alten Software. Die Kunden erhalten ein qualifiziertes Testergebnis für jede Applikation sowie eine Empfehlung für das weitere Vorgehen.

Millionen Möglichkeiten zum Abgleich

Das Gehirn der Qualitätsprüfungen befindet sich in einer Datenbank, die alle möglichen Schnittmengen zwischen Applikationen automatisch aufzeichnet. Die Tester prüfen, was auf einem Kundensystem technisch vor sich geht, wenn eine Anwendung installiert wird. Die Ergebnisse werden in der Datenbank gespeichert und später für Vergleichsmessungen verwendet. Auf Basis der Schnittmengenermittlung lassen sich Risikopotenziale für Instabilitäten oder Interoperabilitäten mit anderen Applikationen identifizieren. Die Datenbank verfügt nach rund zehn Jahren der Informationssammlung über mehrere Millionen Einträge, die die Experten mit Windows 7 abgleichen. Dabei achten sie besonders auf Konflikte mit dem Betriebssystem bzw. auf mögliche Inkompatibilitäten zwischen Applikationen unter Windows 7. Wulf Krüger, fachlicher Leiter des Testlabors in Mannheim: „Die Interoperabilitäts-Problematik bei IT-Arbeitsplätzen begleitet uns schon seit Jahren von einem Betriebssystem zum nächsten. Unsere Datenbank unterfüttert mögliche Lösungen qualitativ und quantitativ. Das unterstützt die Fehlersuche und -eingrenzung ganz entscheidend und hilft unseren Kunden, bereits frühzeitig Gefahrenpotenziale zu erkennen.“

 
Feri Abolhassan, blogs.t-systems.de/cloud

Diesen Artikel lesen Sie auch in der it management , Ausgabe 11-2011.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.