Server-Betriebskosten und CO2-Fußabdruck senken

Rechenzentrum

Serversysteme müssen für die Ausführung spezifischer Workloads optimiert werden, um überschüssige Verarbeitungsleistung, die nicht benötigt wird, zu reduzieren. Darüber hinaus sind bestimmte Server aufgrund ihres Designs energieeffizienter als andere, da sie Komponenten gemeinsam nutzen können.

Weltweit verbrauchen Rechenzentren mindestens 200 Terawattstunden (TWh) Strom pro Jahr. Das sind in etwa 2% des weltweiten Energieverbrauchs. Angesichts der zunehmenden Digitalisierung und damit einhergehenden steigenden Auslastung der Rechenzentren, müssen Unternehmen den Fokus auf die Reduzierung des Stromverbrauchs legen, um die Betriebskosten (OPEX) zu verringern und die Umwelt weniger stark zu belasten. Nur mit einer höheren Servereffizienz können Unternehmen ihre gesetzten Umweltziele erreichen.

Anzeige

Beim Einrichten eines Servers stehen zahlreiche Komponenten und Konfigurationsoptionen zur Auswahl. Herkömmliche Allzweckserver sind so konzipiert, dass sie für jede typische Workload geeignet sind, was zu einer übermäßigen Bereitstellung von Ressourcen führt. Damit soll sichergestellt werden, dass das System für ein möglichst breites Spektrum von Anwendungen geeignet ist. 

Bei einem Workload-optimierten System hingegen werden die Auswahl der Komponenten und die Konfigurationsoptionen so angepasst, dass sie den Anforderungen für eine bestimmte Workload entsprechen. Diese Optimierungen reduzieren unnötige Funktionen, was nicht nur die Kosten, sondern auch den Stromverbrauch und die Wärmeentwicklung senkt. Die Einsparungen sind erheblich, wenn man bedenkt, dass der Server Hunderte, Tausende oder sogar Zehntausende von Systemen integriert wird.

Verschiedene Serversystemtypen sind für unterschiedliche Workloads ausgelegt, z. B. für Server mit mehr CPUs, Kühlkapazität, Speicherkapazität, I/O-Kapazität oder Netzwerkleistung. High-Performance-Computing-/HPC-Anwendungen erfordern schnelle CPUs, während Content-Delivery-Netzwerke massive I/O-Funktionen benötigen. Durch einen für die Workload geeigneten Servertyp wird die Überkapazität reduziert, was die Kosten senkt. 

A picture containing text, toiletry

Description automatically generated
Verschiedene Workloads erfordern unterschiedliche Kapazitäten und Skalierbarkeit

Auswahl und Optimierung der Komponenten eines Serversystems

Bei der Anschaffung neuer Serverhardware sind einige Entscheidungen zu treffen. Mit den Fortschritten beim CPU- und GPU-Design geht es nicht mehr nur um die Wahl der Hardware, sondern auch darum, die Workload und die SLAs (Service-Level Agreement) auf das jeweilige Modell abzustimmen. Dies hat auch den Effekt, dass sich der Stromverbrauch bei der Ausführung von Anwendungen verringert.

Leistung/Watt

Da sich die Prozessor-Technologie ständig verbessert, wird mit jeder neuen Generation von CPUs und GPUs mehr Arbeit pro Watt geleistet. Die neuesten Prozessoren von Intel und AMD sind bis zu dreimal leistungsfähiger in Bezug auf die Arbeit, die pro verbrauchtem Watt geleistet wird. Dieses technologische Wunderwerk hat enorme Vorteile für Rechenzentren, die mehr Dienste bei gleichbleibendem oder reduziertem Energiebedarf anbieten wollen.

CPU-Unterschiede

CPUs für Server und Workstations gibt es in vielen verschiedenen Konfigurationen. Die Anzahl der Cores pro CPU, die Taktrate des Prozessors, die Leistungsaufnahme, die Boost-Taktfrequenz und die Menge des Cache kategorisieren CPUs. Die Anzahl der Cores und die Taktrate stehen stets im Zusammenhang mit dem Stromverbrauch. Je höher die Zahl der Cores und die Taktrate, desto mehr Strom wird verbraucht und desto heißer läuft der Prozessor. Umgekehrt verbraucht eine geringere Anzahl von Cores und Taktraten weniger Strom bei kühlerem Betrieb.

Angenommen, eine Workload muss nicht in einer bestimmten Zeit abgeschlossen werden. Ein Server mit weniger leistungsstarken CPUs (bezogen auf die Leistungsfähigkeit) kann im Vergleich zu einem leistungsstärkeren System verwendet werden, wenn die SLA strenger ist. Ein E-Mail-Server wäre ein solches Beispiel. Die Antwortzeit zum Anzeigen oder Herunterladen von E-Mails auf ein Client-Gerät muss interaktiv sein. Es könnte aber eine langsamere und weniger stromintensive CPU verwendet werden, da die Engpässe beim Speicher und im Netzwerk liegen würden. 

Andererseits wäre eine leistungsstärkere und energieintensivere CPU für eine Datenbankumgebung geeignet, in der Daten möglicherweise schnell analysiert werden müssen. Es würde zwar nicht schaden, einen E-Mail-Server auf ein Hochleistungssystem zu setzen, aber das System würde nicht für den vorgesehenen Zweck genutzt werden.

Beschleuniger

Heutige Rechnerumgebungen werden immer heterogener. Beschleuniger sorgen dafür, die Leistungsfähigkeit bestimmter Aufgaben zu erhöhen, auch wenn die CPU-Leistungsfähigkeit in den letzten Jahren exponentiell gestiegen ist. Eine kürzlich von Supermicro durchgeführte Umfrage unter mehr als 400 IT-Fachleuten und Leitern von Rechenzentren ergab, dass eine große Anzahl von Betreibern heute GPUs einsetzt, die für hochparallele Algorithmen die Laufzeit erheblich verkürzen und die Gesamtstromkosten senken.

SSD contra HDD

Festplattenlaufwerke (HDD) sind seit über 50 Jahren der primäre Massenspeicher. Ihre Kapazität ist in den letzten Jahren drastisch gestiegen – die Zugriffszeit blieb jedoch relativ konstant. Der Durchsatz hat sich im Laufe der Zeit erhöht, ebenso wie die HDD-Kapazitäten. Solid State Drives (SDD) sind jedoch schneller beim Datenabruf und verbrauchen weniger Strom als HDDs, obwohl HDDs für die längerfristige Speicherung in einem Unternehmen geeignet sind. M.2-NVMe- und SSD-Laufwerke übertragen derzeit etwa 3 GB/s, was die Zeit, die für Abschluss einer Anwendung mit hohem I/O-Aufkommen benötigt wird, erheblich reduziert. Insgesamt führt diese Leistungsfähigkeit im Vergleich zu anderen I/O-Techniken zu einem geringeren Energieverbrauch über der Zeit, die zum Abschluss einer Aufgabe benötigt wird.

Effizienzsteigerung mit Multi-Nodes und Blade-Systemen

Serversysteme können so konzipiert werden, dass sie Ressourcen gemeinsam nutzen, was zu einer besseren Gesamteffizienz führt. Durch die gemeinsame Nutzung von Netzteilen oder Lüftern durch mehrere Knoten/Nodes verringert sich die Notwendigkeit, diese Komponenten für jeden Knoten zu duplizieren. Systeme mit mehreren Knoten können Netzteile und Lüfter gemeinsam nutzen, was die Effizienz erhöht. Damit lassen sich größere Lüfter und effizientere Netzteile nutzen, was den Stromverbrauch senkt, sobald auf allen Knoten Anwendungen laufen.

Ein weiteres Beispiel, um Ressourcen einzusparen, ist ein System, bei dem mehrere unabhängige Server zusätzlich zu den Netzteilen und Lüftern auch das Netzwerk gemeinsam nutzen. Mit einer höheren Rechnerdichte und integrierten Switches mit gemeinsam genutzten Netzteilen lässt sich nicht nur der benötigte Platz im Rack, sondern auch eine erhebliche Menge an Kabeln einsparen.

Highest Density SuperBlade® for HPC Applications| Supermicro
Blade-System mit hoher Dichte und gemeinsam genutzten Netzteilen und Lüftern

Eine weitere Methode, den Energieverbrauch bei der Luftkühlung eines Servers zu senken besteht darin, auf Probleme bei der Verkabelung zu achten und diese zu beseitigen. Strom- und Netzwerkkabel, die den Luftstrom behindern, führen dazu, dass die Lüfter mit höherer Drehzahl arbeiten und mehr Strom verbrauchen. Eine sorgfältige Platzierung dieser Kabel innerhalb und außerhalb des Gehäuses verringert dieses Problem. Außerdem hat ein Server, der aus Blades mit integriertem Switching besteht, generell weniger Kabelverbindungen zwischen den einzelnen Systemen, da diese über eine Backplane erfolgen.

Vergleicht man 20 1HE-Rackmount-Server mit einem modernen Blade-System in einem 8HE-Gehäuse mit 20 Blades, verringert sich die Anzahl der Kabel um 95%. Dies verbessert die Luftzirkulation und verringert den Stromverbrauch des Systems in Bezug auf die Lüfterdrehzahl.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Upgrade von Komponenten in Serversystemen 

Die Hauptkomponenten von Servern werden in Bezug auf Preis und Leistungsfähigkeit ständig verbessert. Da Anwendungen immer mehr Daten verwenden – sei es für KI-Training, höhere Auflösung oder mehr I/Os (wie bei Content-Delivery-Netzwerken) – können neueste Server mit den fortschrittlichsten CPUs, Speichern, Beschleunigern und Netzwerken erforderlich sein. 

Jedes der Subsysteme entwickelt sich jedoch unterschiedlich schnell weiter. Da die Aktualisierungsraten Schätzungen zufolge zwischen fünf und drei Jahren liegen, müssen nicht mehr ganze Server entsorgt werden, was zu mehr Elektronikschrott beiträgt. Bei einem disaggregierten Ansatz können die Komponenten oder Subsysteme eines Servers ersetzt werden, sobald neuere Technik eingeführt wird. Ein gut konzipiertes Gehäuse ist in der Lage, eine Reihe von Technologiezyklen für elektronische Bauteile aufzunehmen, was den Austausch von Komponenten ermöglicht. Ist ein Gehäuse für zukünftige Leistungssteigerungen bei CPUs oder GPUs ausgelegt, muss es nicht ausrangiert werden, sobald neue CPUs am Markt verfügbar sind. 

Server können so konzipiert werden, dass sie eine Reihe von CPUs und GPUs aufnehmen. Bei bestimmten Serverdesigns lassen sich neue Komponenten austauschen, was wiederum Elektroschrott reduziert, anstatt dass ein kompletter Server auf einer Mülldeponie landet oder über einen zertifizierten Recyclingspezialisten entsorgt wird.

Es gibt also es mehrere Möglichkeiten, den Stromverbrauch auf Serverebene zu senken. Ein Ansatz sind anwendungsoptimierte Server mit der für die Ausführung bestimmter Workloads erforderlichen Technik. Multi-Node- oder Blade-Server, die einige Komponenten gemeinsam nutzen, senken den Stromverbrauch ebenfalls. Letztlich kommt es darauf an, die Systemtechnik zu verstehen und sich über das richtige System für die richtige Aufgabe zu informieren.

Michael McNerney
Michael McNerney

Michael

McNerney

Supermicro -

Vice President Marketing & Network Security

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.