Versteckte Kosten bei Hyperscalern: Europäische Alternativen im Vergleich

EU Cloud

Die Entscheidung für eine Cloud-Infrastruktur bedeutet heute oft eine Entscheidung zwischen globaler Reichweite und regionaler Souveränität, zwischen etabliertem Ökosystem und Kostentransparenz.

Während Hyperscaler wie AWS, Google Cloud und Microsoft Azure mit umfassenden Service-Portfolios und weltweiter Präsenz punkten, gewinnen europäische Cloud-Anbieter durch transparentere Preismodelle, DSGVO-native Architekturen und die Vermeidung geopolitischer Compliance-Risiken zunehmend an Bedeutung.

Anzeige

Dieser Artikel analysiert die versteckten Kostenaspekte bei Hyperscalern, beleuchtet die regulatorischen Herausforderungen grenzüberschreitender Datenspeicherung und stellt europäische Alternativen vor. Dabei betrachten wir sowohl etablierte Player wie OVHcloud und StackIT als auch jüngere Anbieter wie Impossible Cloud und Scaleway. Transparenzhinweis: Dieser Artikel wurde unabhängig erstellt. Der Autor hat keine finanziellen Beziehungen zu den genannten Cloud-Anbietern. Produktnennungen dienen der redaktionellen Information und stellen keine Kaufempfehlung dar.

Die Anatomie versteckter Cloud-Kosten

Das größte Missverständnis bei Cloud-Kostenschätzungen liegt in der Annahme, dass der beworbene Storage-Preis pro Gigabyte die tatsächlichen Kosten widerspiegelt. In der Realität entwickelt sich die monatliche Rechnung oft zu einer komplexen Zusammensetzung aus zahlreichen Einzelpositionen.

Egress-Gebühren als Hauptkostentreiber

Anzeige

Der größte Kostentreiber bei Hyperscalern sind Egress-Gebühren, also Kosten für das Abrufen eigener Daten aus der Cloud. Bei AWS beispielsweise können diese je nach Region zwischen 0,05 und 0,15 Dollar pro Gigabyte liegen. Für ein Unternehmen, das täglich 10 Terabyte an Backup-Daten oder Mediendateien abruft, summiert sich dies auf monatliche Egress-Kosten zwischen 15.000 und 45.000 Dollar, unabhängig von den eigentlichen Speicherkosten.

Cross-Region-Transfer und API-Costs

Hinzu kommen Cross-Region-Transfer-Gebühren, wenn Daten zwischen verschiedenen geografischen Rechenzentrumsstandorten bewegt werden, API-Request-Gebühren bei hohen Zugriffszahlen, sowie Kosten für erweiterte Features wie Object Lock, detaillierte Audit-Logs oder automatisierte Lifecycle-Policies. Die Komplexität der Preismodelle macht eine präzise Kostenschätzung zur Herausforderung. Eine Studie von Flexera aus 2024 zeigt, dass Unternehmen durchschnittlich 28 Prozent ihres Cloud-Budgets durch ungenutzte oder falsch dimensionierte Ressourcen verschwenden.

Europäische Anbieter setzen hier oft auf vereinfachte Modelle. Viele verzichten vollständig auf Egress-Gebühren oder bieten Flatrates für Datenverkehr an. Dies schafft nicht nur Kostentransparenz, sondern beseitigt auch einen zentralen Lock-in-Mechanismus, da Unternehmen ihre Daten ohne prohibitive Kosten migrieren können.

Dennoch gilt auch hier: Genau nachfragen. Support-Tiers können kostenpflichtig sein, Minimum-Commitments für attraktive Preise erforderlich werden, und spezielle Features wie WORM-Storage oder erweiterte Compliance-Tools können zusätzliche Gebühren verursachen.

Regulatorische Komplexität: Der geopolitische Faktor

Für europäische Unternehmen wird die Cloud-Entscheidung zunehmend zu einer Frage der Rechtssicherheit und Datensouveränität.

US CLOUD Act und DSGVO im Konflikt

Der US CLOUD Act ermöglicht amerikanischen Behörden den Zugriff auf Daten, die von US-Unternehmen kontrolliert werden, unabhängig vom physischen Speicherort der Server. Ein deutsches Unternehmen, das einen US-Hyperscaler nutzt und Daten in Frankfurt speichert, unterliegt damit potenziell zwei widersprüchlichen Rechtsordnungen: der europäischen Datenschutz-Grundverordnung und dem US CLOUD Act.

Schrems II und seine Folgen für Unternehmen 

Das Schrems-II-Urteil des Europäischen Gerichtshofs von 2020 hat die Verwendung von Standardvertragsklauseln für Datenübermittlungen in die USA erschwert, da US-Überwachungsgesetze wie FISA 702 mit europäischen Datenschutzgrundsätzen kollidieren. Unternehmen müssen nun im Einzelfall prüfen, ob die Datenübermittlung rechtssicher ist, und zusätzliche Schutzmaßnahmen implementieren.

NIS2-Richtlinie für kritische Infrastrukturen

Die NIS2-Richtlinie der Europäischen Union verschärft diese Anforderungen für kritische Infrastrukturen zusätzlich. Betreiber wesentlicher und wichtiger Dienste müssen ab Oktober 2024 erhöhte Cybersicherheitsstandards erfüllen und Sicherheitsvorfälle innerhalb von 24 Stunden melden. Die Wahl eines Cloud-Anbieters wird damit auch zu einer Compliance-Entscheidung.

Europäische Anbieter mit ausschließlich europäischer Infrastruktur und Rechtsunterstellung umgehen diese Konfliktzone von vornherein. Sie unterliegen nur europäischem Recht und können Datenherausgabeverlangen nur bei gültigen europäischen Gerichtsbeschlüssen nachkommen. Dies reduziert nicht nur rechtliche Risiken, sondern auch den administrativen Aufwand für Datenschutz-Folgenabschätzungen und die Dokumentation von Schutzmaßnahmen.

Zertifizierungen als Entscheidungskriterium

Allerdings: Auch europäische Anbieter sind nicht per se DSGVO-konform oder sicher. Entscheidend sind Zertifizierungen wie ISO 27001, SOC 2 Type II oder das BSI C5-Testat. Unternehmen sollten diese Nachweise einfordern und prüfen, bevor sie sensible Daten migrieren.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Technische Kompatibilität als Migrationshürde

Eine der größten Ängste bei der Migration zu alternativen Cloud-Anbietern ist die technische Integration. Funktioniert die bestehende Infrastruktur mit einem neuen Anbieter? Müssen Applikationen umgeschrieben werden?

S3-API-Kompatibilität in der Praxis

Für reine Speicher-Workloads bieten viele europäische Anbieter vollständige S3-API-Kompatibilität. Die S3-Schnittstelle von Amazon Web Services hat sich zum de-facto-Standard für Object Storage entwickelt. Anwendungen, Backup-Lösungen wie Veeam oder Commvault, und Analyse-Tools, die mit AWS S3 arbeiten, lassen sich in der Regel nahtlos mit S3-kompatiblen Alternativen verbinden. In den meisten Fällen müssen lediglich Endpoint-URL, Access Key und Secret Key angepasst werden.

Grenzen der Kompatibilität bei erweiterten Features

Die technische Realität ist jedoch nuancierter. Vollständige S3-Kompatibilität bedeutet Unterstützung für Basisfunktionen wie GET, PUT, DELETE, LIST und Multipart-Uploads. Hyperscaler-spezifische Erweiterungen wie AWS Event Notifications, komplexe IAM-Policies, S3 Batch Operations oder bestimmte Security-Features werden möglicherweise nicht identisch abgebildet. Unternehmen sollten vor der Migration eine detaillierte Feature-Analyse durchführen und prüfen, welche AWS-spezifischen Funktionalitäten tatsächlich genutzt werden.

Proprietäre Hyperscaler-Dienste und Re-Engineering 

Bei Nutzung proprietärer Hyperscaler-Dienste steigt die Komplexität erheblich. Serverless Functions wie AWS Lambda, managed Databases wie Aurora oder RDS, Streaming-Services wie Kinesis oder Machine-Learning-Plattformen wie SageMaker haben keine direkten Äquivalente bei alternativen Anbietern. Hier ist ein Re-Engineering erforderlich, oft verbunden mit erheblichem Entwicklungsaufwand.

Die pragmatische Antwort auf diese Herausforderung ist ein phasenweiser, use-case-getriebener Migrationsansatz. Beginnen Sie mit kostenintensiven, aber technisch einfachen Workloads: kalte Backups, Archivdaten, statische Webinhalte oder Medienarchive. Diese nutzen typischerweise nur Standard-S3-Funktionalität und bieten schnelle Erfolge bei der Kostensenkung. Hochspezialisierte Anwendungen, die tief in hyperskalare Services integriert sind, können auch langfristig dort verbleiben. Es geht um strategische Diversifizierung, nicht um dogmatische Totalumsiedlung.

Ein paralleler Multi-Cloud-Betrieb während einer Pilotphase minimiert das Risiko und erlaubt realistische Performance- und Kostentests unter Produktionsbedingungen.

Due Diligence: Die vier kritischen Fragen

Ein Wechsel ist also kein Selbstläufer. Er erfordert eine nüchterne Due Diligence, die folgende Fragen beantworten muss:

  1. Sind unsere kritischen Workloads technisch kompatibel (nicht nur API, auch Features)?
  2. Wie sieht der konkrete Migrationspfad und -zeitplan aus?
  3. Welche der versprochenen Einsparungen lassen sich für unsere Nutzungsmuster validieren?
  4. Welche neuen operativen Prozesse oder Skills sind erforderlich?

Europäische Cloud-Anbieter im Überblick

Der europäische Cloud-Markt ist heterogener als oft angenommen. Neben den großen Hyperscalern, die auch europäische Rechenzentren betreiben, existiert ein Ökosystem spezialisierter Anbieter mit unterschiedlichen Schwerpunkten.

OVHcloud – Europas größter unabhängiger Anbieter 

OVHcloud ist Europas größter unabhängiger Cloud-Anbieter mit Hauptsitz in Frankreich. Das Unternehmen betreibt 43 Rechenzentren weltweit, davon 24 in Europa, und bietet ein breites Portfolio von Bare-Metal-Servern über Public Cloud bis zu Storage-Lösungen. OVHcloud positioniert sich als kostengünstige Alternative mit hoher Kapazität, ist aber weniger auf Enterprise-Features fokussiert als die großen Hyperscaler. Die Preisgestaltung ist transparent, Support und Dokumentation erreichen jedoch nicht immer Hyperscaler-Niveau.

StackIT – Deutsche Cloud der Schwarz Gruppe 

StackIT, die Cloud-Plattform der Schwarz Gruppe (Lidl, Kaufland), richtet sich gezielt an den deutschen Mittelstand und öffentliche Auftraggeber. Mit Rechenzentren ausschließlich in Deutschland und Österreich und einer klaren DSGVO-Compliance-Strategie adressiert StackIT Unternehmen, die Wert auf Datensouveränität legen. Das Portfolio umfasst IaaS, PaaS und verschiedene Managed Services. Als relativ junger Anbieter baut StackIT sein Angebot kontinuierlich aus, kann aber noch nicht mit der Feature-Breite der Hyperscaler mithalten.

IONOS Cloud – Telekom-Partner für den Mittelstand 

IONOS Cloud, Teil von United Internet, profitiert von einer Partnerschaft mit der Deutschen Telekom und fokussiert sich auf den DACH-Markt. Die Plattform bietet solide Grundfunktionalität mit besonderem Fokus auf KMUs und ist bekannt für deutschen Support und einfache Bedienbarkeit. Die Innovationsgeschwindigkeit ist geringer als bei Tech-First-Anbietern, dafür punktet IONOS mit Stabilität und lokalem Service.

Scaleway – Developer-freundliche Innovation

Scaleway, ein französischer Anbieter der Iliad-Gruppe, positioniert sich als Developer-freundliche Alternative mit innovativen Features. Das Unternehmen bietet spezialisierte Services wie ARM-basierte Cloud-Instanzen, Kubernetes-Management und Object Storage mit S3-Kompatibilität. Die Preisstruktur ist etwas komplexer als bei Mitbewerbern, dafür ist die technologische Ausrichtung modern. Scaleway eignet sich besonders für Startups und Tech-Unternehmen, die Wert auf Flexibilität und moderne Architekturen legen.

Impossible Cloud – Radikaler Storage-Fokus

Impossible Cloud verfolgt als jüngster Anbieter einen radikalen Ansatz: vollständiger Verzicht auf Egress-Gebühren, aggressive Preisgestaltung und Fokus auf S3-kompatiblen Object Storage. Das 2022 gegründete Unternehmen richtet sich primär an Unternehmen, die von AWS S3 migrieren möchten, und bietet nach eigenen Angaben Einsparungen von 50 bis 80 Prozent bei datenintensiven Workloads. Als junges Unternehmen fehlt jedoch die Track-Record-Historie etablierter Anbieter, und das Service-Portfolio beschränkt sich auf Storage-Lösungen.

Gaia-X – Standards-Framework statt Cloud-Anbieter

Gaia-X ist kein direkter Cloud-Anbieter, sondern eine europäische Initiative für föderierte Dateninfrastrukturen. Ziel ist die Schaffung eines Standards-Frameworks für Datensouveränität, Interoperabilität und Transparenz. Erste Gaia-X-konforme Dienste werden ab 2025 erwartet. Für Unternehmen ist Gaia-X relevant als zukünftiges Zertifizierungs-Framework, sollte aber aktuelle Migrationsentscheidungen nicht blockieren.

Kostenvergleich in der Praxis

Die Frage nach konkreten Einsparungen lässt sich nicht pauschal beantworten, sondern ist stark use-case-abhängig. Entscheidend sind Faktoren wie Datenvolumen, Zugriffshäufigkeit, geografische Verteilung, benötigte Features und bestehende Enterprise-Rabatte.

Beispielrechnung: 100 TB Storage mit 50 TB Egress

Für datenintensive Workloads mit hohen Egress-Volumina, etwa Medienarchivierung, Backup-Systeme oder Data-Lake-Speicherung, können die Einsparungen signifikant sein. Bei einem Unternehmen, das 100 Terabyte speichert und monatlich 50 Terabyte abruft, entstehen bei AWS S3 Standard in der Region Frankfurt folgende Kosten: circa 2.300 Dollar für Storage und etwa 4.500 Dollar für Egress, insgesamt also rund 6.800 Dollar monatlich. Ein europäischer Anbieter ohne Egress-Gebühren würde bei vergleichbarem Storage-Preis etwa 2.300 Dollar kosten, eine Ersparnis von rund 66 Prozent.

Storage-Klassen und Enterprise-Rabatte berücksichtigen

Diese Rechnung ist jedoch vereinfacht. AWS bietet verschiedene Storage-Klassen wie S3 Intelligent-Tiering, S3 Glacier für Archive oder S3 One Zone-IA für weniger kritische Daten, die deutlich günstiger sind. Enterprise-Kunden erhalten üblicherweise Rahmenverträge mit Rabatten von 20 bis 40 Prozent auf Listenpreise. Cross-Region-Replizierung, erweiterte Monitoring-Features oder Integration in andere AWS-Services können zusätzlichen Wert bieten, der in einer reinen Preisbetrachtung nicht sichtbar wird.

Umgekehrt haben europäische Anbieter oft niedrigere Basispreise auch für selten abgerufene Daten, verzichten aber auf differenzierte Storage-Klassen. Unternehmen zahlen dann auch für kalte Archive den Premium-Preis für “heißen” Storage, was die Ersparnis schmälern kann.

Total Cost of Ownership über drei Jahre

Eine realistische Einschätzung erfordert daher eine individuelle Total-Cost-of-Ownership-Analyse über mindestens drei Jahre, die neben direkten Kosten auch Migrationsaufwände, Schulungen, eventuell notwendige Prozessanpassungen und das Risiko von Vendor-Lock-in berücksichtigt.

Unabhängige Analysten wie Gartner empfehlen einen strukturierten Evaluierungsprozess: Analyse der aktuellen Cloud-Rechnung über drei Monate, Identifizierung von Kostenblöcken, Erstellen eines Workload-Profils, Einholen vergleichbarer Angebote mit identischen Anforderungen und Durchführung eines Proof-of-Concept mit realistischen Lastprofilen.

TCO-Rechner für Backup und Recovery

Helfen können auch TCO-Rechner. Dieser NetApp-Rechner vergleicht zwar primär NetApp-Lösungen mit Hyperscalern, illustriert aber gut die versteckten Kostentreiber bei AWS, Azure und Google Cloud: https://www.netapp.com/de/data-services/backup-and-recovery-tco-calculator/

Versteckte Kosten bei Hyperscaler
Die Grafik verdeutlicht, wie sich die „Überraschung“ auf der Hyperscaler-Rechnung
zusammensetzt und welche Posten bei einem transparenten Modell (Beispiel Impossible
Cloud) wegfallen oder deutlich reduziert werden.

Versteckte Kosten auch bei europäischen Alternativen

Die Transparenz ist ein Wert an sich, doch bei jedem Anbieter, siehe auch die nachfolgende Anbietertabelle) müssen mögliche versteckte oder variable Kosten hinterfragt werden.

Dazu zählen Support-Tiers, Mindestcommitments, Feature-Aufpreise oder Bandbreitenrestriktionen. Speziell Object-Lock-Funktionalitäten (WORM) und erweiterte Audit-Logs können je nach Anbieter kostenpflichtig sein.

  1. Support-Tiers und Minimum Commitments: Ist ein 24/7 Enterprise-Support mit 15-Minuten-Reaktionszeit im Basistarif enthalten oder kostenpflichtig? Gibt es implizite Mindestnutzungen, um attraktive Preise zu erhalten?
  2. Feature-Aufpreise für Object Lock und Audit-Logs: Sind Funktionen wie Object Lock, detaillierte Access-Logs oder erweiterte Analytics kostenlos?
  3. Bandbreitenrestriktionen trotz Egress-Freiheit: Fallen trotz fehlender Egress-Gebühren Kosten für extrem hohe Transfervolumen an?
Bis zu 60 % weniger Cloud-Kosten: So geht’s wirklich


Performance und Service Level Agreements

Neben Kosten ist Performance ein kritischer Entscheidungsfaktor. Die Frage “Sind Sie schneller als AWS?” lässt sich jedoch nicht pauschal beantworten, da Performance stark vom Anwendungsfall abhängt.

Regionale vs. globale Performance

Für sequentielle Zugriffe auf große Objekte innerhalb Europas können regionale Anbieter Vorteile bieten, da Netzwerklatenz zu lokalen Rechenzentren geringer ist. Für global verteilte Zugriffe oder die Integration in andere Cloud-Services ist die weltweite Infrastruktur der Hyperscaler überlegen.

Verfügbarkeit: 99,9% vs. 99,99%

Entscheidend sind konkrete Service Level Agreements. AWS S3 garantiert beispielsweise 99,99 Prozent Verfügbarkeit und elf Neunen Durability (99,999999999 Prozent). Vergleichbare europäische Anbieter bieten typischerweise 99,9 bis 99,95 Prozent Verfügbarkeit. Der Unterschied klingt minimal, bedeutet aber bei 99,9 Prozent etwa 43 Minuten Ausfallzeit pro Monat gegenüber 4 Minuten bei 99,99 Prozent.

Support-SLAs und Technical Account Manager

Für Unternehmen sind auch Support-SLAs relevant. Enterprise-Support bei AWS beinhaltet 15-Minuten-Reaktionszeiten für kritische Fälle und einen Technical Account Manager. Viele europäische Anbieter bieten vergleichbare Support-Level optional oder als kostenpflichtiges Add-on an.

Proof-of-Concept als Performance-Bewertung

Der optimale Weg zur Performance-Bewertung ist ein strukturierter Proof-of-Concept, der realistische Zugriffsmuster, Objektgrößen, Lastprofile und geografische Verteilung abbildet. Nur so lassen sich theoretische Spezifikationen in praktische Erkenntnisse übersetzen.

Die Migrationsstrategie: Pragmatismus statt Revolution

Die Vorstellung eines “Big Bang”, bei dem alle Workloads simultan migriert werden, ist weder notwendig noch empfehlenswert. Erfolgreiche Cloud-Migrationen folgen einem phasenweisen Ansatz, der Risiken minimiert und schnelle Erfolge ermöglicht.

Phase 1: Kostenintensive, unkomplizierte Workloads

Phase eins fokussiert auf kostenintensive, aber technisch unkomplizierte Workloads. Kalte Backups, die selten abgerufen werden, aber Speicherplatz belegen, sind ideale Kandidaten. Archivdaten ohne Echtzeitanforderungen, statische Webinhalte oder Medienbibliotheken folgen. Diese Workloads nutzen Standard-S3-Funktionalität, haben geringe Performance-Anforderungen und bieten schnelle Kosteneinsparungen.

Phase 2: Aktive Workloads mit Proof-of-Concept

Phase zwei betrachtet aktive Workloads mit höheren Anforderungen an Verfügbarkeit und Performance. Hier ist ein Proof-of-Concept unter Produktionsbedingungen sinnvoll, idealerweise mit parallelem Betrieb zur Risikominimierung. Monitoring von Performance-Metriken, Verfügbarkeit und Anwendungsverhalten über mehrere Wochen gibt Sicherheit für die vollständige Migration.

Phase 3: Komplexe Anwendungen und Neu-Architektur

Phase drei evaluiert komplexe Anwendungen mit tiefer Integration in Hyperscaler-Ökosysteme. Hier ist oft eine Neu-Architektur sinnvoller als eine Migration, etwa durch Containerisierung mit Kubernetes, die Anbieter-Unabhängigkeit schafft.

Datenmigration: Netzwerk vs. Offline-Transfer

Für die Datenmigration selbst existieren verschiedene Ansätze. Bei kleineren Volumina bis 10 Terabyte ist eine Netzwerk-Migration über dedizierte Verbindungen praktikabel. Für größere Datenmengen bieten manche Anbieter Offline-Transfers per Speicher-Appliance an. Die reine Transferzeit bei 10 Gigabit pro Sekunde Bandbreite beträgt für 500 Terabyte etwa 5 Tage, in der Praxis sind jedoch 2 bis 3 Wochen realistisch, da Netzwerk-Overhead, Validierung und Cutover-Koordination hinzukommen.

Change Management und Mitarbeiter-Training

Ein kritischer Erfolgsfaktor ist das Change Management. IT-Teams müssen mit neuen Administrationsoberflächen, anderen IAM-Konzepten, modifizierten Monitoring-Tools und veränderten Billing-Prozessen vertraut gemacht werden. Ein bis zwei Tage intensives Training und begleitende Dokumentation sind typischerweise ausreichend, da AWS-Kenntnisse weitgehend transferierbar sind.

Herausforderungen und ehrliche Nachteile

Bei aller Attraktivität europäischer Alternativen ist eine ehrliche Betrachtung der Nachteile essentiell für fundierte Entscheidungen.

Fehlendes Service-Ökosystem der Hyperscaler

Das umfassendste Defizit ist das fehlende Service-Ökosystem. AWS bietet über 200 Services, von spezialisierten Datenbanken über Machine-Learning-Plattformen bis zu IoT-Infrastrukturen. Diese nahtlose Integration in ein einheitliches Ökosystem, gemeinsame IAM-Strukturen und konsistente Logging- und Monitoring-Tools schaffen erheblichen Mehrwert, der in reinen Kostenvergleichen nicht abgebildet wird. Europäische Anbieter fokussieren sich typischerweise auf Kern-Services wie Compute, Storage und Networking.

Begrenzte globale Präsenz europäischer Anbieter

Die globale Präsenz ist ein weiterer Vorteil der Hyperscaler. AWS betreibt über 30 geografische Regionen weltweit, Azure und Google Cloud ähnlich viele. Für Unternehmen mit globalen Operationen und Anforderungen an lokale Datenresidenz in Asien, Lateinamerika oder Australien sind europäische Anbieter mit primär kontinentaler Infrastruktur keine vollständige Alternative.

Kleinere Developer-Community und Dokumentation

Die Developer-Community und das Ökosystem aus Tools, Frameworks, Bibliotheken und Integrationen ist bei Hyperscalern ungleich größer. Für fast jede technische Herausforderung existieren Lösungsvorschläge, Stack-Overflow-Diskussionen, Open-Source-Tools und Consulting-Partner. Bei neueren europäischen Anbietern ist diese Community kleiner, Dokumentation weniger umfassend, und die Verfügbarkeit spezialisierter Expertise geringer.

Unternehmensrisiko bei jüngeren Anbietern

Das Unternehmensrisiko bei Startups oder jüngeren Anbietern ist ein realer Faktor. Während die Insolvenzwahrscheinlichkeit bei gut finanzierten Unternehmen gering ist, muss sie bei kritischen Workloads bedacht werden. S3-Kompatibilität erleichtert Exit-Szenarien, dennoch bedeutet eine Anbieter-Migration Aufwand und potenzielle Disruption.

Die strategische Gesamtbetrachtung

Die Analyse der versteckten Kosten und Risiken von Hyperscalern führt zu einer differenzierten Erkenntnis.

Hybrid- und Multi-Cloud als optimale Strategie 

Die optimale Cloud-Strategie ist für die meisten Unternehmen eine hybride oder Multi-Cloud-Architektur, die spezifische Stärken unterschiedlicher Anbieter für passende Workloads nutzt.

Hyperscaler bieten unschlagbare Vorteile für global skalierte, hochintegrierte Anwendungen, die ihr Service-Ökosystem nutzen. Innovation, Feature-Geschwindigkeit und weltweite Reichweite rechtfertigen oft höhere Kosten. Europäische Anbieter punkten bei datenintensiven, compliance-kritischen Workloads mit transparenter Kostenstruktur, regionalem Support und DSGVO-nativer Architektur.

Fünf zentrale Entscheidungsfragen

Die Entscheidung sollte nicht ideologisch, sondern pragmatisch getroffen werden, basierend auf einer ehrlichen Bestandsaufnahme der eigenen Anforderungen, Risikotoleranz und strategischen Prioritäten. Folgende Fragen strukturieren den Entscheidungsprozess:

Erstens, welche Workloads verursachen die höchsten Cloud-Kosten, und wo liegen die Hauptkostentreiber? Eine detaillierte Analyse der aktuellen Rechnung über drei Monate identifiziert Ansatzpunkte.

Zweitens, welche regulatorischen und Compliance-Anforderungen gelten für unsere Daten? KRITIS-Betreiber, Gesundheitsdienstleister oder Finanzinstitute unterliegen strengeren Vorgaben als E-Commerce-Unternehmen.

Drittens, wie stark sind unsere Anwendungen in Hyperscaler-spezifische Services integriert? Eine ehrliche technische Bestandsaufnahme zeigt Migrationsaufwände.

Viertens, welche Performance- und Verfügbarkeitsanforderungen haben unsere kritischen Workloads wirklich? Nicht jede Anwendung benötigt fünf Neunen Verfügbarkeit.

Fünftens, welche Risikotoleranz haben wir bezüglich Anbieter-Stabilität, und wie wichtig ist uns strategische Unabhängigkeit?

Die Beantwortung dieser Fragen ermöglicht eine fundierte Entscheidung, die technische, wirtschaftliche und strategische Aspekte integriert. 

Differenzierte Multi-Cloud-Architektur

Das Ergebnis ist oft eine differenzierte Multi-Cloud-Strategie: Hyperscaler für Innovation und globale Services, europäische Spezialanbieter für souveräne, kosteneffiziente Kern-Workloads.

Praktische Handlungsempfehlungen

Für IT-Entscheider, die eine Evaluierung europäischer Cloud-Alternativen erwägen, bieten sich folgende Schritte an.

Dreimonatige Kostenanalyse durchführen

Beginnen Sie mit einer dreimonatigen Kostenanalyse Ihrer aktuellen Cloud-Nutzung. Isolieren Sie Egress-Kosten, API-Request-Volumina, Cross-Region-Transfers und Feature-Aufpreise. Identifizieren Sie die teuersten Workloads und analysieren Sie deren technische Anforderungen.

Workload-Profil erstellen

Erstellen Sie ein detailliertes Workload-Profil für die drei kostenintensivsten Use Cases: durchschnittliches Datenvolumen, Wachstumsrate, Zugriffsmuster, Performance-Anforderungen, geografische Verteilung, Compliance-Vorgaben und genutzte Cloud-Services.

Vergleichbare Angebote einholen

Holen Sie vergleichbare Angebote von mindestens drei europäischen Anbietern ein, basierend auf identischen Anforderungen. Fordern Sie explizit Auskunft zu versteckten Kosten wie Support-Tiers, Minimum-Commitments und Feature-Aufpreisen.

Proof-of-Concept über 4-8 Wochen 

Führen Sie einen strukturierten Proof-of-Concept durch, idealerweise über 4 bis 8 Wochen. Testen Sie realistische Workloads, messen Sie Performance-Metriken, evaluieren Sie Administrations-Interfaces und bewerten Sie Support-Qualität. Ein paralleler Betrieb minimiert Risiken.

TCO-Berechnung über drei Jahre

Erstellen Sie eine Total-Cost-of-Ownership-Berechnung über drei Jahre, die neben direkten Kosten auch Migrationsaufwände, Schulungen, mögliche Anpassungen an Prozessen und Tools sowie Exit-Kosten berücksichtigt. Bewerten Sie quantitative und qualitative Faktoren wie Compliance-Vereinfachung, strategische Unabhängigkeit und Risikoreduktion.

Phasenweisen Migrationsplan entwickeln

Entwickeln Sie einen phasenweisen Migrationsplan, der mit unkritischen, aber kostenintensiven Workloads beginnt, Erfolge dokumentiert und auf dieser Basis weitere Phasen plant. Definieren Sie klare Entscheidungskriterien für Go/No-Go an definierten Meilensteinen.

Ausblick: Die Zukunft der europäischen Cloud

Die europäische Cloud-Landschaft entwickelt sich dynamisch. 

Regulatorische Initiativen der EU 

Regulatorische Initiativen wie die NIS2-Richtlinie, der Data Act und das Digital Markets Act der EU fördern Interoperabilität, Datensouveränität und offene Standards. Dies schafft strukturelle Vorteile für europäische Anbieter.

Hyperscaler investieren in europäische Souveränität

Gleichzeitig investieren Hyperscaler massiv in europäische Rechenzentren und bieten verstärkt DSGVO-Compliance-Tools an. AWS hat eine “European Sovereign Cloud” angekündigt, Microsoft bietet “EU Data Boundary”, und Google Cloud verstärkt seine europäische Präsenz. Die Grenzen verschwimmen zunehmend.

Intelligente Hybrid-Strategien als Zukunft

Für Unternehmen bedeutet dies: Die Entscheidung zwischen Hyperscalern und europäischen Alternativen wird nicht einfacher, sondern differenzierter. Die besten Ergebnisse werden jene erzielen, die technologische, wirtschaftliche und strategische Faktoren integriert betrachten und ihre Cloud-Architektur kontinuierlich an veränderte Anforderungen anpassen.

Die Zukunft gehört nicht dem einen oder anderen Modell, sondern intelligenten Hybrid-Strategien, die für jeden Workload den optimalen Ort finden – basierend auf Daten, nicht Dogmen.

FAQ

Wie berechne ich die Wirtschaftlichkeit eines Wechsels?

Erstellen Sie eine 3-Monats-Analyse Ihrer aktuellen Hyperscaler-Rechnung:
– Isolieren Sie die Egress-Kosten – oft 20-40% der Gesamtrechnung
– Zählen Sie API-Requests – bei >100 Mio./Monat signifikant
– Identifizieren Sie “kalte” Daten – ideal für Migration zuerst
– Vergleichen Sie die Preise mit denen anderer Anbieter

Gibt es versteckte Gebühren bei europäischen Anbietern?

Viele europäische Cloud-Anbieter haben keine „versteckten“ Gebühren im eigentlichen Sinne, aber differenzierte Kosten für Traffic, API-Calls oder Mindestlaufzeiten, die leicht übersehen werden können. Versteckt bedeutet hier: Kosten, die oft nicht im Marketing-Preis (etwa „x €/TB Speicher“) stehen, sondern in separaten Traffic-/Operations-Tabellen oder AGBs geregelt sind.​ Für eine konkrete Auswahl lohnt sich der Blick in die jeweilige detaillierte Preisliste (Traffic-Staffelung, API-Gebühren, Mindestvolumen) sowie in SLA/AGB, da sich Konditionen je nach Region, Produktlinie, Laufzeit und Vertragstyp unterscheiden. Achten Sie darauf, ob das Modell ist rein nutzungsbasiert (Pay-as-you-go), ob Enterprise-Support (24/7 mit 15-Minuten-SLA) kostenpflichtig ist, ob dehr hohe API-Volumen (>1 Mrd. Requests/Tag) können spezielle Vereinbarungen benötigen und ob das Data Recovery nach versehentlicher Löschung Service-Kosten verursacht.

Wie handhaben europäische Anbieter Behördenanfragen?

Anders als US-Anbieter unterliegen sie ausschließlich europäischem Recht:
– Datenherausgabe nur bei gültigem europäischem Gerichtsbeschluss
– Transparente Berichterstattung über Behördenanfragen
– Keine Hintertüren durch US-Regularien wie FISA 702
– DSGVO-Compliance durch Design, nicht als Add-on

Was ist das Äquivalent zu S3 Intelligent-Tiering?

Das direkte funktionale Äquivalent zu S3 Intelligent-Tiering gibt es bei den meisten europäischen Anbietern so nicht. Meist musst du zwischen „immer heiß“ (einheitliche Performance) und klassischen Hot/Warm/Cold-Klassen wählen. Impossible Cloud entspricht dabei einem Always-Hot-Modell ohne Tiering, während andere EU-Provider eher fixe Storage-Klassen mit Lifecycle-Regeln anbieten.​

Impossible Cloud
„Always-Hot“-Object-Storage: Alle Daten liegen in einem performanten Tier, es gibt keine getrennten Klassen und keine Retrieval-Aufpreise – damit vergleichbar zu S3 Intelligent-Tiering im „Frequent Access“-Modus ohne Übergang in Cold/Archive.​
Keine Egress- oder API-Fees, keine Mindest-Speicherdauer; Nachteil aus Kostensicht: selten abgerufene Archive zahlen denselben TB-Preis wie häufig genutzte Daten.​

Hetzner Object Storage
Hetzner bietet eine einzige Object-Storage-Klasse ohne internes Tiering; Preis ist pro TB plus evtl. zusätzlichen Traffic, Abrufe kosten nichts extra.​
Das kommt einem einfachen „Always-Hot“-Tier nahe; ein automatisches, nutzungsabhängiges Tiering wie S3 Intelligent-Tiering existiert nicht, Lifecycle-Regeln zum Löschen/Verschieben musst du selbst bauen.​

Open Telekom Cloud (OBS)
Bietet explizite Storage-Klassen „Standard“, „Warm“ und „Cold“, zwischen denen du per Lifecycle-Regeln automatisch umstufen kannst.​
In Summe kannst du so ein manuelles Intelligent-Tiering nachbauen, aber die Klassenzuordnung basiert auf deinen Policies, nicht auf automatischer Zugriffsanalyse wie bei AWS.​

Andere europäische Anbieter (OVH, Scaleway, STACKIT etc.)
Viele EU-Provider arbeiten mit klar getrennten Storage-Klassen (Standard/Archive, Hot/Cold) und optionalen Lifecycle-Policies, aber ohne Zugriffszählung wie bei Intelligent-Tiering.​
In der Praxis bedeutet das: Du wählst initial eine Klasse und definierst Regeln zum Verschieben, statt eine einzelne „intelligente“ Klasse zu buchen; das reduziert Komplexität, erfordert aber mehr eigenes Kosten- und Datenmanagement.

Wie lange dauert die Migration von 500 TB Daten?

Ein realistischer Zeitplan: In der Praxis bei 10 Gbit/s Dedicated Connection ~15 Tage reine Transferzeit.

Was sind die größten Nachteile europäischer Anbieter?

– Fehlendes Ökosystem: Keine direkte Integration mit 200+ AWS Services
– Globale Präsenz: Nur europäische Rechenzentren (aktuell Deutschland, Schweden)
– Feature-Lücke: Kein S3 Glacier-Äquivalent für Ultra-Cold Storage
– Community & Tools: Weniger Dritt-Tools, kleinere Developer-Community
– Dokumentation: Weniger detailliert als AWS’s 5.000+ Seiten Guide

Sollten wir auf Gaia-X warten?

Gaia-X ist ein Standards-Framework, kein direkter Cloud-Anbieter:
– Erste Gaia-X-konforme Dienste ab 2025
– Impossible Cloud plant Gaia-X-Zertifizierung
– Aktuelle Migration schließt Gaia-X später nicht aus

Empfehlung: Jetzt migrieren, bei Bedarf später zu Gaia-X-konformen Diensten wechseln

Wie überzeuge ich mein Management?

Argumentationsframework:

1. Finanziell: 3-Jahres-TCO-Vergleich mit Risikoabschlag
2. Compliance: Reduktion regulatorischer Risiken (Schrems II)
3. Strategisch: Vermeidung von Vendor Lock-in
4. Operational: Vereinfachung der Kostenkontrolle
5. Präsentieren Sie einen Phasenplan mit klaren Meilensteinen und Exit-Optionen.

Brauchen wir neue Mitarbeiter oder Schulungen?

Technisch geringer Aufwand dank S3-Kompatibilität, aber:
– 1-2 Tage Training für Admin-Team empfohlen
– Unterschiede in IAM, Monitoring, Billing verstehen
– Keine neuen Zertifizierungen nötig
– AWS-Kenntnisse sind größtenteils transferierbar

Ulrich

Parthier

Publisher it management, it security

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.