Das Stimmungsbarometer in deutschen IT-Abteilungen zeigt in eine bestimmte Richtung: Mehr als die Hälfte der Unternehmen will ihre Cloud-Strategie überdenken, 51 Prozent rechnen laut Bitkom Cloud Report 2025 mit steigenden Kosten.
Der erste Impuls vieler Entscheider lautet: raus aus der Cloud, weg von den Hyperscalern. Doch so einfach ist die Rechnung nicht.
Ein Cloud Exit bedeutet nicht, sämtliche Workloads über Nacht auf eigene Server zu migrieren. In der Praxis geht es um eine strategische Neubewertung: Welche Dienste lohnen sich bei einem Hyperscaler und welche lassen sich günstiger, flexibler und souveräner betreiben? Die Antwort ist fast immer ein Hybrid-Modell und sie beginnt mit drei Fragen: Was kosten uns die Cloud-Dienste tatsächlich? Wo verlieren wir technische Flexibilität? Und wo geben wir Datensouveränität auf, ohne es zu müssen?
Die Kostenwahrheit: Warum Cloud-Rechnungen außer Kontrolle geraten
Viele Unternehmen kennen ihre echten Cloud-Kosten nicht oder nicht granular genug. Abrechnungen von AWS oder Azure sind komplex und oft intransparent (ein ganzer SaaS Bereich beschäftigt sich mit der Aufschlüsselung). Es ist nicht in allen Unternehmen klar, welcher der genutzten Dienste die monatliche Rechnung in die Höhe treibt. Nur, ohne diese Transparenz fehlt die Grundlage für jede Optimierung.
Eine sinnvolle erste Maßnahme: Die drei größten Kostentreiber identifizieren und gezielt analysieren. In vielen Fällen sind das EC2-Instanzen (virtuelle Server), RDS-Datenbanken und S3-Object-Storage. Allein Datenbanken können über 60 Prozent der gesamten Cloud-Rechnung ausmachen. S3-Kosten werden häufig durch Traffic-Gebühren in die Höhe getrieben, nicht durch das reine Speichervolumen.
Wie hoch der Cloud-Kostenanteil am Umsatz sein darf, hängt vom Geschäftsmodell ab. Als Orientierung: Im E-Commerce sollten Cloud-Kosten unter fünf Prozent des Umsatzes liegen, bei SaaS-Unternehmen zwischen fünf und zehn Prozent. Enterprise-Plattformen bewegen sich teils bei 40 bis 50 Prozent – dort lohnt sich ein Cloud Exit nur, wenn die Marge zu sehr schrumpft. Figma etwa zahlt rund 300.000 Dollar pro Tag an AWS, hat aber eine Marge, die das rechtfertigt.
Quick Wins: Standarddienste zuerst migrieren
Die einfachsten Einsparungen liegen bei standardisierten Diensten. S3-kompatibler Object Storage und Content Delivery Networks (CDN) lassen sich mit überschaubarem Aufwand zu spezialisierten Anbietern verlagern. Typischerweise innerhalb von drei Monaten, mit Parallelbetrieb zur Risikominimierung.
Europäische Anbieter sind hier längst wettbewerbsfähig. Hetzner bietet dedizierte Server mit exzellenter Performance ab rund 100 Euro im Monat. Bunny CDN liefert ein leistungsstarkes Content Delivery Network zu einem Bruchteil der Hyperscaler-Kosten und hat für seine Storage Lösung nun S3 in Beta. Selbst wenn die reine Speicherung bei einem alternativen Anbieter nicht günstiger ist, kann die Gesamtrechnung deutlich sinken, weil der Traffic anders abgerechnet wird. Deutsche und europäische Cloudanbieter können meiner Erfahrung nach viele Use Cases abbilden, die die meisten Unternehmen haben und das nicht nur günstiger, sondern auch nach europäischen Datenschutzstandards.
Strategischer Exit: Wo die Komplexität steigt
Schwieriger wird es, wenn proprietäre Dienste tief in der Architektur verankert sind. Monitoring-Tools wie Datadog, Serverless Functions oder cloud-spezifische Datenbanken schaffen Abhängigkeiten, die sich nicht in wenigen Wochen lösen lassen. Hier braucht es eine schrittweise Hybrid-Strategie über sechs bis zwölf Monate: zuerst Datenbanken und Compute migrieren, dann die Tools so entkoppeln, dass die Abhängigkeit von einzelnen Anbietern reduziert wird.
Ein häufig unterschätztes Risiko sind Serverless Functions. Sie ermöglichen schnelle Entwicklung, können aber bei Traffic-Spitzen extrem teuer werden. Gerade AI-basierte Micro-SaaS-Produkte, die viral gehen, produzieren innerhalb von Stunden Kosten, die das Budget eines ganzen Monats übersteigen. Eine Alarmierung bei Budgetüberschreitung einzurichten, lohnt sich.
Abwägung zwischen Cloud und eigener Infrastruktur
Wer den Cloud Exit plant, muss realistisch bleiben. Auch bei AWS und Azure gibt es Ausfälle, nur werden diese eher toleriert, weil dann ohnehin weite Teile des Internets betroffen sind. Bei kleineren Anbietern oder eigener Infrastruktur ist die Geduld der Kunden geringer. Nur 100 Prozent Uptime gibt es nirgendwo.
Gleichzeitig hält sich in vielen Führungsetagen eine gefährliche Naivität: „In der Cloud wäre das nicht passiert“ ist ein Satz, der bei Applikationsfehlern regelmäßig fällt. Die Wahrheit ist: Fehlkonfigurationen, Sicherheitslücken und Ausfälle können überall auftreten. Eigene Infrastruktur kann also in bestimmten Fällen ein großer Vorteil sein: Hardware hält heute deutlich länger, was die Gesamtkosten über fünf bis sieben Jahre senkt, braucht aber auch eigene Strukturen für die Verwaltung.
Mal am Beispiel: Das Unternehmen Basecamp hatte jährliche Cloud-Kosten von rund drei Millionen Dollar. Nach dem Exit auf eigene Infrastruktur sparte das Team zwei Millionen Dollar im Jahr, ohne zusätzliches Personal einstellen zu müssen, und die Datenbank-Performance verbesserte sich deutlich.
Fazit: Cloud-Strategie vom Geschäftsmodell her denken
Ein Cloud Exit ist kein Alles-oder-Nichts-Projekt. Für Startups und kleine Unternehmen, die schnell skalieren müssen, bleiben Hyperscaler oft die richtige Wahl. Für etablierte Unternehmen mit planbaren Workloads lohnt sich der Blick auf Alternativen besonders dort, wo standardisierte Dienste hohe Kosten verursachen.
Die entscheidende Frage ist nicht „Cloud, ja oder nein?“, sondern: Welche Dienste brauchen den Skalierungsvorteil eines Hyperscalers, und welche lassen sich günstiger, performanter und souveräner anders betreiben. Wer diese Frage ehrlich beantwortet, findet die richtige Balance zwischen Cloud-Anbietern und eigener Infrastruktur.