Mit Hybrid Traffic Intelligence Probleme bei der Cloud-Migration überwinden

Quelle: Gigamon

Die Migration in die Cloud ist für Unternehmen angesichts der Flexibilität, der unbegrenzten Skalierbarkeit und der potenziell niedrigeren Gesamtbetriebskosten (TCO) bei Infrastructure-as-a-Service (IaaS) verlockend.

Schon allein deshalb, weil sich Unternehmen nicht mit der Bereitstellung und Konfiguration von Routern und Switches oder mit Sicherheitsproblemen “in der Cloud” herumschlagen müssen. Die Migration zur Cloud schafft allerdings nicht alle Netzwerkprobleme aus dem Weg. Unter anderem müssen unzählige Datenpakete entschlüsselt und unnötige Datenströme verringert werden. Außerdem erfordern cloudbasierte Anwendungen genauso Transparenz wie On-Premises- oder virtualisierte Anwendungen. Und das nicht nur auf der Netzwerk- und Paketebene, sondern auch auf der Anwendungsebene. Auch die Herausforderung, Visibilität in den Ost-West-Verkehr zu gewinnen, um Datenflüsse zu verstehen und blinde Flecken zu vermeiden, besteht weiterhin. Viele, wenn nicht sogar die meisten der Probleme, mit denen Unternehmen On-Premises konfrontiert sind, bleiben also auch in der Cloud bestehen. 

Anzeige

Trotz dieser Herausforderungen für die Cloud bleiben die Vorteile erhalten. Doch wie kann diesen Herausforderungen am besten begegnet werden, um eine sichere Netzwerkinfrastruktur und einen hohen Schutz gegenüber Cyberattacken zu gewährleisten? 

Visibilität ist Voraussetzung für eine erfolgreiche Migration

Für IT-, Cloud- und Sicherheitsarchitekten, die mit diesen Herausforderungen konfrontiert sind und eine effektive Sicherheits- und Netzwerkhaltung in der Hybrid Cloud sicherstellen müssen, ist Sichtbarkeit des Netzwerkverkehrs der Schlüssel. Denn wenn ausgewählter Datenverkehr automatisch erfasst, analysiert, optimiert und auf unterschiedliche lokale und cloudbasierte Tools verteilt wird, erhöht das die Sicherheit und die Effizienz. Doch aktuell vielfach eingesetzte Tools können die Anforderungen an intelligente Netzwerkvisibilität, und damit an die Netzwerksicherheit, nicht gewährleisten. 

Protokolldaten und Observability Tools eignen sich nicht als Visibilitätsquelle

Protokolldaten, z. B. aus VPC-Flow-Protokollen, sind für die Inhaltsprüfung unzureichend, da diese den Payload nicht enthalten und daher als Wahrheitsquelle unzuverlässig sind. Denn es kann sein, dass die Quelle der Protokolldaten kompromittiert ist und die Protokollinhalte von verschiedenen Elementen und Diensten variieren. Der Erhalt von Details auf Paketebene ist von entscheidender Bedeutung, da sich Malware in Paketen versteckt. Protokolle vermitteln nicht viel von dem, was Sicherheitstools benötigen. 

Ähnlich verhält es sich mit IaaS-Anbietern wie AWS CloudWatch und Azure Network Watcher, die zwar die Möglichkeit bieten, bei bestimmten Ereignissen eine Paketerfassung auszulösen, doch dient dies in erster Linie nur der Fehlerbehebung und ist reaktiv. Die Spiegelung von Paketdaten erfordert eine extreme Granularität, die interne und kundenorientierte Anwendungen und Workloads in Entwicklungs-, Test- und Produktionsumgebungen umfasst. 

In der Vergangenheit waren Administratoren auch gezwungen, sich ausschließlich auf systemeigene Verkehrsspiegelungsdienste oder aufwendige toolspezifische Agenten zu verlassen, um Rohdatenpakete zu erfassen und direkt an ihre Sicherheits- und Überwachungstools zu senden. Das Ergebnis sind komplexe Netzwerkdesigns, eine übermäßige Inanspruchnahme von Bandbreite und Prozessorleistung, ein Wettstreit der Tools um den Zugriff auf den Datenverkehr, überlastete Tools, die an Effektivität verlieren, und eine überflüssige Skalierung. 

Die IT-Abteilung ist dadurch nur begrenzt in der Lage, den Netzwerkverkehr, die Nutzungserfahrung und die Anwendungs-/Flussinformationen zu analysieren. Sie hat Schwierigkeiten, den Zustand der Infrastruktur und der Anwendungen zu bewerten. Anbieter von Observability behaupten, diese Informationen zu liefern, allerdings nicht auf Workload-Ebene und auch nicht mit den erweiterten Metadatenattributen, die notwendig sind, um einige Probleme aufzuzeigen und zu lösen.
Visibilitäts-Tools müssen deshalb Zugang zu allen Netzwerkpaketen und Anwendungsdaten haben, einschließlich Ost-West-Verkehr, zwischen einzelnen VMs auf überwachten Servern und zwischen Container-Pods auf Worker Nodes.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Cloud-Anbieter sorgen für Sicherheit, richtig?

Ja und nein! Anbieter von Cloud-Infrastrukturen schützen die Rechen-, Speicher-, Datenbank- und Netzwerkelemente. Anwendungen, Kundendaten, Identitäts- und Zugriffsmanagement (IAM), Firewalls und mehr müssen Unternehmen selbst sichern. Zu den cloudnativen Sicherheitsdiensten, die üblicherweise in der öffentlichen Cloud eingesetzt werden, gehören IAM, Sicherheitsgruppen, Protokolle und Web Application Firewalls (WAF). Doch diese haben ihre Grenzen:

Ali

Moniri

Gigamon -

Senior PreSales Engineer

Ali Moniri ist Senior PreSales Engineer für Deutschland, Österreich und die Schweiz bei Gigamon. Er besitzt mehr als 20 Jahre Erfahrung als PreSales & Technical Sales im Bereich IT-Software mit dem Fokus auf Security, Compliance und Datacentermanagement. In seinen beruflichen Stationen hat Herr Moniri in unterschiedlichsten Kundensegmenten auf nationaler
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.