Energie einsparen im Datacenter I

Rechenzentren: Energie- und Stromhunger vs. Nachhaltigkeit

Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Rechenzentren haben einen enormen Energiebedarf. Nachhaltigkeit und Sparsamkeit sind vor allem ein Thema für große Unternehmen. Mit der bevorstehenden Gas- und Stromknappheit, besteht hier aber Handlungsbedarf: Wie können Datacenter mehr Energie einsparen?

Leserfrage: Unternehmen und Bevölkerung werden zum Energiesparen aufgerufen. Dies sollte auch für Rechenzentren gelten, die für ihren enormen Energie- und Stromhunger bekannt sind. Um die Themen Nachhaltigkeit und Sparsamkeit kümmern sich vor allem Firmen, deren Platzkapazitäten an ihre Grenzen stoßen. So weitergehen kann es eigentlich nicht. Wie können Datacenter mehr Energie einsparen?

Anzeige

Antwort Doc Storage:

Lädt man die neuesten Urlaubsfotos in irgendeine Wolke hoch, besteht die Möglichkeit, dass sie irgendwo in einem riesige Rechenzentrum landen. In diesen Installationen, meist größer als irgendein Flugzeugträger, reihen sich zigtausende Rechner aneinander. Sie ziehen sich durch fensterlose Hallen, die so lang sind, dass Mitarbeiter auf Motorrollern oder mindestens auf Fahrrädern durch die Gänge fahren. Dies sind die Schatzkammern der heutigen Regenten.

Man muss kaum noch erwähnen, dass die fünf größten Unternehmen derzeit Apple, Amazon, Alphabet, Microsoft und Facebook sind. Diese ersetzen bisherige Riesen wie Shell oder ExxonMobil. Obwohl diese Fabriken keinen schwarzen Rauch ausstoßen, sind sie bei weitem nicht frei von Umweltauswirkungen. Man muss kaum noch erwähnen, dass die Nachfrage nach Internet- oder Mobiltelefonverkehr mehr als nur linear zunimmt, und dies führt nicht erst in Zukunft zu einer Explosion des Energieverbrauchs.

Im letzten Jahr verbrauchten Rechenzentren jährlich schätzungsweise 200 Terawattstunden (TWh). Das ist mehr als der nationale Energieverbrauch einiger Länder, aber lediglich die Hälfte des weltweit für Verkehr aufgewendeten Stroms und nur etwas mehr als ein Prozent des globalen Strombedarfs. Rechenzentren tragen etwa 0,3 Prozent zu den gesamten CO2-Emissionen bei, während das Gesamtsystem der Informations- und Kommunikationstechnologien, einschließlich persönlicher digitaler Geräte, Mobiltelefonnetzen und Fernsehern, mehr als zwei Prozent der globalen CO2-Emissionen ausmacht.

Damit liegt der CO2-»Fußabdruck« der DV und Informationssysteme etwa auf einer Stufe mit den Emissionen der Luftfahrt. Was in Zukunft passieren wird, ist allerdings schwer abzuschätzen. Ein eher besorgniserregendes Modell sagt vorher, dass der Stromverbrauch durch DV und Informationssysteme in zehn bis zwölf Jahren bis zu einem Fünftel des Stromverbrauchs übersteigen könnte, wobei Rechenzentren weiterhin mehr als ein Drittel davon verbrauchen. Wenn die rechenintensive Kryptowährungen noch beliebter werden, könnte es wesentlich früher zu einem starken Anstieg dieses Energiebedarfs kommen.

Alte RZs werden durch effizientere Installationen ersetzt

Allerdings bleibt der Stromverbrauch der DV und Informationssysteme vorerst nahezu unverändert, da einem erhöhten Internetverkehr und steigenden Datenlasten größere Bandbreiten gegenüberstehen, und mit der Zeit immer mehr ältere Rechenzentren durch neue hocheffiziente Installationen ersetzt werden. Aber diese Erfolge könnten nur kurzfristig sein. Viele Wissenschaftler sind skeptisch, ob der Trend dieses Ersetzens alter energiehungriger durch neue und effiziente Technologie anhält und sich ewig aufrechterhalten lässt.

Angesichts dieser Drohung mit einer noch energiehungrigeren Zukunft suchen viele Institutionen nach Möglichkeiten, die Umweltauswirkungen der DV so effizient wie möglich einzuschränken. So werden Prozesse optimiert, erneuerbare Energien eingesetzt und bessere Lösungen für Kühlung und Abwärme untersucht. Aber auch heute schon können Betreiber von Rechenzentren in vielen Bereichen effektiv Energie, und damit im Ende auch immer weiter steigende Kosten einsparen.

NL Icon 2
Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.

Hyperscale-Rechenzentren ohne unnötige Bauteile

Der Strombedarf von Rechenzentren ist über die letzten fünf Jahre ungefähr gleichgeblieben, teilweise durch die Verwendung einer organisierten, einheitlichen Rechnerarchitektur, die sich leicht und schnell auf jede beliebige Ausbaustufe vergrößern lässt. Diese Hyperscale-Rechenzentren entstanden vor etwa zehn Jahren, als Unternehmen wie Google oder Amazon in Bereiche von hunderttausend Rechnern und mehr vorstießen. Als Lösungsansatz wurde 2011 das Open Compute Project von Facebook ins Leben gerufen. Dies sollte Hardware- und Software-Lösungen austauschbar machen, um Architekturen energieeffizienter zu machen. Die hier beteiligten Hersteller bauten Bare-Bones, die für genau diesen einen Zweck entwickelt wurden. Es gab weder Videoausgänge noch blinkende Lichter oder Schrauben. Laut den beteiligten Firmen soll ein Rechner in einem solchen Hyperscale-RZ annähernd vier in einer konventionellen Architektur ersetzen können.

Hyperscale steht auch für Energieverbrauchseffizienz

Die Einsparungen durch Hyperscale ergeben sich durch ihre Energieverbrauchseffizienz. Diese wird definiert als die Energie, die für den gesamten Betrieb benötigt wird, einschließlich Beleuchtung und Kühlung, dividiert durch die für die Rechenleistung aufgewendete Energie. Konventionelle Rechenzentren haben meist einen Effizienzwert von rund 2,0. Hyperscale-Installationen konnten diesen Wert auf rund 1,2 reduzieren. Google weist momentan für alle seine Rechenzentren Wert von 1,12 aus.

Ältere oder weniger technologisch fortschrittliche Rechenzentren können eine Mixtur von Systemen betreiben, die insgesamt schwer zu optimieren sind. Hinzu kommen solche, die sogar (fast) nutzlos sind. Unterschiedliche Studien gehen davon aus, dass rund ein Viertel aller in Rechenzentrum betriebenen Systeme keiner sinnvollen Tätigkeit nachgehen. In vielen Fällen wurde schlicht vergessen, sie auszuschalten. Andere Studien schätzen, dass die Verlagerung von mehr als drei Vierteln aller konventionellen Systeme in Hyperscale-Rechenzentren mehr als ein Viertel der Energie einsparen könnte.

Aber auch die Verlagerung in Hyperscale-Zentren hat ihre Grenzen. Danach wird es schon komplizierter, weitere Einsparpotentiale zu finden. Eine effektive Art der Nutzung ist das von Facebook entworfene Autoscale, welches möglichst viele Rechner unter Höchstlast laufen lässt. Die dann nicht mehr belasteten Systeme werden ausgeschaltet. Schon vor acht Jahren hat das Unternehmen damit etwas mehr als ein Zehntel der an den Rechnern anliegenden Energie eingespart.

Problemfall Kühlung

Eine weitere Möglichkeit der Senkung des Verbrauches ist das Herabfahren der Kühlung. In Standard-Rechenzentren macht die Klimatisierung fast 40 Prozent des Energieverbrauches aus. Die Verwendung von wasserverdampfenden Kühltürmen verursacht ein weiteres Umweltproblem. Allein in US-amerikanischen Datacentern wurden Mitte des letzten Jahrzehnts schon mehr als 100 Milliarden Liter Wasser zur Kühlung eingesetzt. Damit dürfte die Abschaffung solcher Kompressionskältemaschinen und Wasserkühltürme wesentlich dazu beitragen, Energie und Wasser einzusparen.

Für weltweit operierende Unternehmen besteht eine beliebte und einfache Lösung darin, Rechenzentren in kühleren Breitengraden zu errichten und Außenluft zur Kühlung zu verwenden. Solche Rechenzentren müssen allerdings nicht in polaren Regionen liegen: eine permanente Außentemperatur von zwölf bis 15 Grad ist völlig ausreichend, um die freie Luftkühlung zu nutzen.

Leitungswasser ist im Vergleich dazu ein noch besserer Wärmeleiter. Hiermit können Rechenzentren gekühlt werden können. Dieses »warme Wasser« ist weniger energieintensiv zu bereitzustellen und im Kühlsystem einfacher wieder aufzubereiten. Schon in gemäßigten Klimazonen ist die Kühlung mit »warmen Wasser« zur De-facto-Lösung für Hochleistungsrechner geworden, die schnell und extrem heiß laufen. Auch Rechenzentren in warmen Klimazonen investieren häufig in diese Systeme.

Für High-Density-High-Power-Computing ist es am effizientesten, die Rechner in ein nicht leitendes Öl- oder Mineralbad einzutauchen. Einige Betreiber haben dies schon im letzten Jahrzehnt getestet, um ihre Rechner mit noch höheren Geschwindigkeiten betreiben zu können. Im Moment scheitert die Immersionskühlung allerdings ein Spezialgebiet, vor allem behindert durch sehr komplexe Wartung.

KI reduziert Energiebedarf

Auch in diesem Bereich wird seit kurzem künstliche Intelligenz (KI) eingesetzt. Google hat vor einigen Jahren im Rahmen seines DeepMind-Projektes die Steuerung der gesamten Kühlinfrastruktur auf Wetter und andere Umweltfaktoren abzustimmen. Angeblich hat der Betreiber hiermit den Energiebedarf des Testzentrums um fast die Hälfte gesenkt. Inzwischen wird diese Lösung bei vielen Rechenzentren des Betreibers weltweit eingesetzt.

Gesucht: Innovative Kühllösungen

Man kann hieran erkennen, dass die Erforschung innovativer Kühllösungen in Kombination mit der Optimierung bestehender Installationen in Zukunft immer wichtiger wird. Es gibt Gebiete, in denen sich keine kostenlose Luftkühlung nutzen lässt, beispielsweise Afrika oder Südasien. Andere Entwicklungen werden DV-Infrastrukturen aus komplett neuen Richtungen belasten. Selbstfahrende Autos werden kleinste Installationen an Mobilfunkmasten benötigen. Diese Rechner werden Hochleistungsgeräte sein müssen, welche KI-Workloads in Echtzeit bewältigen können. Auch diese Geräte benötigen entsprechende Kühlmöglichkeiten.

RZ-Abwärme nutzbar machen

Zusammen mit einer besseren Kühlung entstand die Idee, Abwärme von Rechnern zu nutzen und damit an anderer Stelle Strom einzusparen. Im Gegensatz zum Rechenzentrum wird es immer dankbare Abnehmer für Wärme geben, die dann eben bei deren Erzeugung keine Energie mehr aufwenden müssen. Ein Rechenzentrum der IBM beispielsweise wärmt ein Schwimmbad in der Nähe. Leider breitet sich Wärme nicht gut aus. Daher ist die Nutzung von Abwärme in der Regel auf Rechenzentren beschränkt, die sich neben einem geeigneten Abnehmer befinden. Oder eben auf Städte, welche bereits leitungsgebundenes Warmwasser zum Heizen von Häusern verwenden. Verschiedenste Forscher und Hersteller arbeiten daran, Abwärme allgemein nutzbar zu machen, inklusive der Vorverarbeitung zur Stromerzeugung. Andere haben als Ziel, die Abwärme zum Betrieb von Kühlgeräten zu nutzen.

Am Ende sind Rechenzentren nur so gut wie die Prozessoren, mit denen sie betrieben werden. Auch hier gibt es Raum für Verbesserungen. Seit der Erfindung der digitalen Rechnertechnik hat sich die Anzahl der Operationen, die ein Prozessor mit jeder Kilowattstunde ausführen kann, etwa alle eineinhalb Jahre in der Hochleistungsgruppe und alle zwei bis drei Jahre bei Standardsystemen verdoppelt. Hört sich nicht viel an, ist allerdings eine mehr als 10-Milliarden-fache Verbesserung die letzten 50 Jahre. Seit ungefähr zwanzig Jahren flacht diese Kurve ab, und in wenigen Jahrzehnten wird die Funktion von Transistoren auf eine natürliche Grenze stoßen. Bis dahin wird es nötig werden, völlig neue Wege zu finden, Rechnertechnik zu implementieren. Ein Ansatz ist bereits in der Forschung – das Rechnen mit Quanten.

Energiesparpotenziale außerhalb des RZ

Und obwohl das Augenmerk natürlich – auch schon aus Kostengründen – auf der Reduzierung des Energieverbrauchs im Rechenzentrum liegt, darf nicht vergessen werden, dass die Informationstechnik den allgemeinen Stromverbrauch intelligenter und damit effizienter machen könnte. Nur ein Beispiel: Sollten alle Fahrzeuge auf den Straßen automatisiert werden, besteht die Aussicht auf die Möglichkeit, allein durch einen reibungsloseren Verkehrsfluss und einfachere Fahrgemeinschaften den Gesamtenergiebedarf der Personen- und Gütertransporte, um über die Hälfte zu reduzieren. Auch Gebäude jeglicher Art, die seit Beginn des Jahrtausends über die Hälfte des gestiegenen weltweiten Strombedarfs ausmachen, haben enorme Spielräume für Verbesserungen. Intelligentes Heizen und Kühlen, abhängig von Gebäudesensoren und Wetterberichten, könnten in Zukunft über ein Zehntel an Energie einsparen.

Mit dem Einsparen von Energie könnten die Rechenzentren auch dazu beitragen, die globalen Emissionen deutlich zu reduzieren. Erneuerbaren Energien könnte ein deutlicher Vorteil gegenüber fossilen Brennstoffen verschafft werden. Waren 2010 DV-Unternehmen kaum unter den Nutzern erneuerbarer Energien, waren es fünf Jahre später schon mehr als die Hälfte. Auch wenn man es nicht gern lesen mag, ist Google inzwischen der größte Unternehmenskunde erneuerbarer Energien weltweit.

Datensparsamkeit gleichbedeutend mit Energieeinsparung

Die absolut unwahrscheinliche Reduzierung unseres Datendursts könnte allerdings der ultimative Weg sein, den Energieverbrauch in den kommenden Jahren durch die Decke zu treiben. Würde jemand beispielsweise seine YouTube– oder Netflix-Nutzung einschränken, welche momentan über ein Drittel des Internetverkehrs in den Vereinigten Staaten ausmacht? Ein ebenso völlig utopisches Verbot hochauflösender Kameras in Mobiltelefonen könnte den Datenverkehr in Europa um fast die Hälfte reduzieren. Aber, wie gesagt, es wird niemand wagen, solche Regeln einzuführen. Vielleicht würde es helfen, jedem in sozialen Medien oder in Clouds gespeicherten Fotos oder Videos zwangsweise einzublenden, wieviel Energie deren Verarbeitung im Ende verbraucht. Und jedem Nutzer digitaler Währungen bei jeder Nutzung vorzurechnen, was dieser Einsatz wirklich kostet.

Und als zweites machen wir dann kommende Woche die Einsparmöglichkeiten in kleineren und mittleren Rechenzentren…

Gruß
Doc Storage

Weiterführende Links

Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Doc Storage

Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.