Deutschland baut seine digitale Infrastruktur immer weiter aus. Neue Einrichtungen wie das KI-Zentrum in München sollen riesige und ständig wachsende Datenmengen verarbeiten.
Mehr Daten erfordern mehr Speicherplatz, mehr Rechenleistung und mehr Systeme, die rund um die Uhr im Einsatz sind. Damit rückt das Thema Nachhaltigkeit immer dringlicher in den Fokus.
Der Energieverbrauch in Dateninfrastrukturen hängt jedoch nicht nur von einer steigenden Nachfrage ab – ein erheblicher Anteil geht auf ineffizientes Systemdesign zurück. Mit wachsenden Datenmengen wächst die Infrastruktur oft linear oder sogar überproportional, weil alte Systeme für Spitzenlasten ausgelegt sind und ineffiziente Verarbeitungsmodelle einsetzen. Das verbraucht mehr Rechenleistung, Speicherplatz und Netzwerkressourcen als nötig und führt zu höheren Cloud-Kosten, einer geringeren Auslastung und einem größeren CO₂-Fußabdruck.
Nachhaltigkeit ist daher vor allem eine Frage der technischen Effizienz.
Warum Datenarchitekturen bei steigendem Datenvolumen ineffizient werden
Ein weit verbreiteter Irrtum ist, dass kontinuierlich laufende Systeme grundsätzlich ineffizient sind. Tatsächlich wird Energie nicht durch einen Dauerbetrieb verschwendet, sondern weil diese Systeme zu groß dimensioniert sind und daher nicht voll ausgelastet werden.
Die traditionelle Batch-Verarbeitung, bei der Daten in großen Mengen schrittweise verarbeitet werden, führt zu erheblichen Lastspitzen und erfordert Systeme, die auf maximale Kapazität ausgelegt sind. Historische Daten werden immer wieder vollständig gescannt und neu verarbeitet, auch wenn sich nur geringfügig etwas an ihnen geändert hat Redundante Datenpipelines erzeugen unnötige Verarbeitungsschritte, während Infrastruktur für Spitzenlasten oft über lange Zeit ungenutzt bleibt. Was im kleinen Maßstab noch überschaubar erscheint, kann schnell zu einem unverhältnismäßigen Anstieg der Kosten und des Energieverbrauchs führen.
In stark regulierten Branchen wie dem Finanzwesen, dem Gesundheitswesen, der Energiebranche und der Telekommunikation sind diese Ineffizienzen schwerer zu erkennen. Systeme werden hier bewusst größer angelegt, um Anforderungen an Sicherheit und Compliance zu erfüllen und führen dadurch strukturell zu einer geringen Auslastung.
GreenOps und die Rolle von Streaming-Architekturen
Um die bestehenden Herausforderungen zu bewältigen, setzen Unternehmen zunehmend auf das sogenannte GreenOps-Modell. Bei diesem Ansatz wird Nachhaltigkeit nicht als separates Ziel betrachtet, sondern als integraler Bestandteil der Entwicklung und des Betriebs von Datensystemen verstanden. Das Ziel ist es, unnötigen Ressourcenverbrauch systematisch von Anfang an zu vermeiden.
In der Praxis wird die Infrastruktur an den tatsächlichen Bedarf angepasst, redundante Verarbeitungsprozesse vermieden und die Datenspeicherung bewusst gesteuert. Das zugrunde liegende Prinzip ist einfach: Weniger unnötige Prozesse führen zu geringeren Kosten und einem reduzierten Energieverbrauch. Hier ist die Wahl der Architektur entscheidend.
Während traditionelle Batch-Modelle oft bestehende Ineffizienzen verstärken, verfolgen Streaming-Architekturen einen anderen Ansatz. Daten-Streaming verarbeitet Daten kontinuierlich und event-getrieben: Statt ganze Datensätze mehrfach neu zu berechnen, werden ausschließlich neue oder geänderte Daten verarbeitet. Dadurch werden überflüssige Prozesse erheblich reduziert und gleichzeitig die Lücke zwischen durchschnittlicher und maximaler Kapazität verringert. Die Arbeitsauslastung wird stabiler und leichter planbar, wodurch der Bedarf an kurzfristigen Kapazitätsspitzen sinkt. Infrastrukturen können dadurch effizienter gestaltet, die Auslastung erhöht und ungenutzte Ressourcen reduziert werden.
Darüber hinaus ermöglicht Daten-Streaming eine bessere Wiederverwendung. Ein einziger Datenstrom kann mehrere Anwendungen versorgen, wodurch doppelte Datenaufnahmen und redundante Übertragungen zwischen verschiedenen Teams vermieden werden. Eine gut optimierte Streaming-Plattform kann so insgesamt weniger Energie verbrauchen als Batch-Systeme, die für wiederholte Berechnungen kurzzeitig große Rechenressourcen hochfahren.
Eine Kombination aus Streaming und Batch-Verarbeitung
Das heißt allerdings nicht, dass Daten-Streaming die Batch-Verarbeitung ersetzt. Die Batch-Verarbeitung ist nach wie vor wichtig für einmalige Datensicherungen, seltene analytische Auswertungen und das Trainieren von Modellen außerhalb des laufenden Betriebs. Es kommt nur zu Ineffizienzen, wenn die Batch-Verarbeitung dort eingesetzt wird, wo eine kontinuierliche Verarbeitung besser geeignet wäre. Eine nachhaltige Datenarchitektur kombiniert daher beide Ansätze: Daten-Streaming für kontinuierliche Workloads und Batch-Verarbeitung für spezifische Anwendungsfälle.
Letztendlich wird Nachhaltigkeit nicht einfach durch zusätzliche Tools erreicht, sondern durch bewusste Architekturentscheidungen. Indem Unternehmen einen GreenOps-Ansatz verfolgen und unnötige Verarbeitungsprozesse reduzieren, können sie die Auslastung verbessern, Kosten senken und die Umweltbelastung verringern.