Interview

KI-Workloads stellen RZ-Weichen neu

Rechenzentrum

Large Language Models haben sich innerhalb kürzester Zeit zur Triebfeder der digitalen Wertschöpfung entwickelt. Für Rechenzentren steigen damit die Anforderungen an Leistung, Energie und Regulierung enorm. Florian Sippel, COO der noris network AG, erklärt, wie sich KI-Infrastrukturen souverän, skalierbar und nachhaltig betreiben lassen.

Herr Sippel, GPU-Cluster treiben die Leistungsdichte auf ein neues Niveau. Wo liegen die physischen Grenzen herkömmlicher Infrastrukturen?

Anzeige

Florian Sippel: Referenzarchitekturen kalkulieren bereits rund 1,1 Megawatt pro Compute-Rack. Das übersteigt die aktuelle Anschlussleistung vieler existierender Rechenzentren um ein Vielfaches. Der springende Punkt ist: Obwohl reichlich freie Fläche vorhanden ist, lassen sich zusätzliche KI-Lasten nicht mehr betreiben, weil die elektrische Versorgung nicht mehr mithalten kann. Wir müssen die Infrastruktur für den Einsatz von KI-Anwendungen also von Grund auf neu denken. Das gilt im Übrigen nicht nur für die Stromversorgung, sondern auch für die Kühlung.

Stichwort Stromversorgung: Welche Rolle spielt die 800-VDC-Technologie in diesem Kontext?

Florian Sippel: Die Umstellung auf 800 VDC Gleichstromversorgung ist ein Hebel, um die Effizienz in hochdichten KI-Umgebungen zu steigern. Der physikalische Vorteil: Bei gleicher Leistung sinkt mit der höheren Spannung der Strom und damit der erforderliche Leiterquerschnitt. Das spart Material, reduziert ohmsche Verluste und vereinfacht die Kabelinfrastruktur erheblich. Hinzu kommt, dass gegenüber herkömmlichen Wechselstromarchitekturen Wandlungsstufen entfallen, die ihrerseits Energie kosten. Gerade bei Leistungsdichten im Megawattbereich ergibt sich daraus ein spürbarer ökonomischer und ökologischer Effekt.

Anzeige

Hochdichte GPU-Cluster erzeugen enorme Abwärme. Wie adressiert noris network die Herausforderungen bei der Kühlung?

Florian Sippel: Wir verfolgen einen mehrstufigen Ansatz. Für luftgekühlte GPU-Server bauen wir auf Ultra-High-Density-Racks. Für Leistungsdichten im Megawattbereich nutzen wir modulare Container-Rechenzentren mit hybriden Kühlsystemen, die Luft-, adiabate und Wasserkühlung kombinieren. Besonders vielversprechend ist unser Liquid-Cooling- Konzept ohne konventionelle Kältemaschine. Eine direkte Flüssigkeitskühlung der GPU-Module führt die Abwärme auf einem deutlich höheren Temperaturniveau ab als herkömmliche Luftkühlung. Das reduziert die mechanische Komplexität und die Wartungskosten erheblich.

Zum anderen wird die Abwärme auf diesem Temperaturniveau thermodynamisch nutzbar, beispielsweise für die Einspeisung in Fernwärmenetze oder als Prozesswärme für angrenzende Industrie. Was in konventionellen Rechenzentren als Verlust verpufft, wird so zur verwertbaren Ressource.

Neben der Technik steht die Frage der digitalen Souveränität im Raum. Wie bewerten Sie die regulatorische Landschaft?

Florian Sippel: Die regulatorische Dimension ist für viele unserer Kunden mittlerweile genauso entscheidend wie Verfügbarkeit oder Performance. Die DSGVO ist heute Grundlage. Darüber hinaus greifen branchenspezifische Regelwerke wie DORA, das Finanzunternehmen und Assekuranzen strenge Anforderungen an die digitale Betriebsstabilität auferlegt. Relativ neu ist der EU AI Act, der erstmals verbindliche Regeln für den Einsatz künstlicher Intelligenz definiert.

Auf der anderen Seite steht der CLOUD Act. Das US-amerikanische Gesetz erlaubt es Behörden, auf Daten zuzugreifen, die bei amerikanischen Anbietern gespeichert sind, und zwar unabhängig davon, ob die Server in Europa stehen. Für Unternehmen mit sensiblen Daten oder in regulierten Branchen entsteht dadurch ein erhebliches Compliance-Risiko, das sich auch durch vertragliche Regelungen nicht ausschließen lässt. Unsere Infrastrukturen unterliegen ausschließlich deutschem und europäischem Recht.

Welche Rolle spielt die BSI-C5-Testierung in diesem Zusammenhang?

Florian Sippel: Die BSI-C5-Testierung ist der maßgebliche Sicherheitsstandard für Cloud-Dienste in Deutschland. Sie definiert Anforderungen an Transparenz, Datenschutz und Informationssicherheit, die über gängige internationale Zertifizierungen hinausgehen. Die C5-Testierung ist faktisch Voraussetzung für Cloud-Provider, um die öffentliche Hand bedienen zu können. Aber auch privatwirtschaftliche Unternehmen erkennen zunehmend, dass sie mit einer C5-testierten Infrastruktur regulatorische Anforderungen effizienter erfüllen. Mit der Einhaltung von Regularien wie ISO 27001, BSI-Grundschutz und EN 50600 dokumentieren wir zudem, dass Sicherheits- und Nachhaltigkeitsanforderungen systematisch adressiert werden.

noris network bietet verschiedene Betriebsmodelle für KI-Anwendungen an. Können Sie das Portfolio skizzieren?

Florian Sippel: Wir haben ein gestuftes Portfolio mit fünf Betriebsmodellen implementiert, die unterschiedliche Anforderungen an Kontrolle, Skalierbarkeit und Datensouveränität abdecken. Den Ausgangspunkt bildet das klassische Housing von KI-Systemen als Colocation in unseren Rechenzentren – mit Luft- und Wasserkühlung. Der Kunde betreibt seine eigene Hardware in unserer Infrastruktur und profitiert von unserer Kühlungs- und Energieversorgung. Wer diese Leistung lieber vor Ort nutzt, wählt die zweite Option: Modulare Container-Rechenzentren, die direkt am Kundenstandort installiert werden. Das ist besonders attraktiv für Organisationen, die aus Compliance- oder Latenzgründen auf lokale Datenverarbeitung vertrauen möchten.

Darüber hinaus bieten wir direkten Zugriff auf GPU-Ressourcen als Managed Service. Kunden erhalten dedizierte Kapazität auf einer GPU oder einem Teil davon, ohne selbst Hardware beschaffen zu müssen. Wer noch einen Schritt weiter gehen will, kann auf unser Dedicated- LLM-as-a-Service zurückgreifen: Dabei betreiben wir ein Sprachmodell exklusiv für einen Kunden auf unserem KI-Inferenz-Cluster – vollständig isoliert und souverän. Alternativ dazu bieten wir den Shared-LLM-as-a-Service. Es umfasst ein Open-Source-Sprachmodell, die Nutzung wird Token-basiert abgerechnet. Das Shared-Modell senkt die Einstiegshürde und eignet sich für Anwendungsfälle, bei denen keine exklusive Modellinstanz erforderlich ist.

Welches Modell empfehlen Sie Unternehmen, die erstmals KI-Workloads in eine souveräne Infrastruktur überführen?

Florian Sippel: Das hängt vom Reifegrad der Organisation und vom konkreten Anwendungsfall ab. Unternehmen mit eigener GPU-Hardware und Betriebserfahrung starten oft mit Colocation. Für Organisationen, die schnell und ohne großen Investitionsaufwand Ergebnisse erzielen möchten, ist Shared-LLM-as-a-Service ein pragmatischer Einstieg. Das erwähnte Token-Abrechnungsmodell erlaubt es, Kosten und Leistung am Anwendungsfall auszurichten. Steigen die Anforderungen an Exklusivität und Datenisolation, ist der Wechsel zum dedizierten Modell der logische nächste Schritt. Entscheidend aber ist, dass sämtliche Modelle in einer konsistenten Umgebung betrieben werden, in der Rechenleistung, Datenhaltung und Governance nahtlos zusammenwirken.

Was in konventionellen Rechenzentren als Verlust verpufft, wird bei noris network zur verwertbaren Ressource.

Florian Sippel, noris network AG

Welche Bedeutung hat Nachhaltigkeit in der Planung hochdichter KI-Infrastrukturen?

Florian Sippel: Nachhaltigkeit ist seit jeher ein integraler Bestandteil unserer Architekturentscheidungen. Unsere Rechenzentren werden CO2-neutral mit Strom versorgt. Zertifizierungen nach ISO 14001 und ISO 50001 belegen, dass wir Umwelt- und Energiemanagement systematisch betreiben. Der Verzicht auf konventionelle Kältemaschinen beim Liquid Cooling reduziert den Energiebedarf der Kühlung drastisch. Modulare Container-Rechenzentren wiederum lassen sich bedarfsgerecht erweitern. Damit stellen wir sicher, dass Überkapazitäten weitestgehend vermieden werden.

Herr Sippel, wir danken Ihnen für dieses Gespräch.

Florian

Sippel

Chief Operations Officer (COO)

noris network AG

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.