Supermicro Nvidia H100: Performance-Server mit Nvidia-GPU

Supermicro Nvidia H100: Performance-Server mit Nvidia-GPU

Supermicro kommt mit einer neuen Nvidia-zertifizierten Server-Serie: Die auf Performance ausgelegten »NVIDIA H100« sind mit dem gleichnamigen Grafikprozessor ausgestattet und sind optimiert für KI-Anwendungen, AI/ML-, HPC- und Inferencing-Workloads. Die Familie besteht aus über 20 Building-Block von 8U bis 1U und Tower-Modell.

Mit der NVIDIA H100-Serie kündigt Supermicro neue Server an, die für NVIDIA H100 Tensor Core-Grafikprozessoren optimiert sind und über 20 Produktoptionen umfassen. Die Bandbreite reicht vom 8U-Rackmount-System für High-Performance-Computing (HPC) und leistungshungrige Anwendungen bis hin zu einer Power-Workstation im Tower-Format. Ausgestattet sind die Server mit Nvidias H100 PCIe– bzw. H100 SXM-GPUs.

Anzeige

Zum Lieferumfang gehört jeweils auch die Cloud-basierte End-to-End-Suite NVIDIA AI Enterprise, die für die KI-Nutzung in Unternehmen optimiert ist. Die Kombination KI- und Datenanalyse-Software mit einem darauf abgestimmten Grafikprozessor soll speziell in der KI-Entwicklung ein Mehr an Leistung Sicherheit und Skalierbarkeit bieten. Laut Hersteller soll sich beispielsweise die KI-Trainingsleistung um das 9-fache steigern lassen.

Supermicro will zudem ausgewählte Systeme der aktuellen Generation mit den Nvidia-H100-GPUs zertifizieren. Dazu gehören unter anderem die GPU-Server SYS-420GP-TNR, SYS-420GP-TNR2 und die Workstation SYS-740GP-TNRT.

Laut Charles Liang, Präsident und CEO, bietet Supermicro das umfangreichste Server-Angebot der Branche und legt mit den H100-GPU-basierten Servern nun nochmal einen drauf: »Wir können diese Systeme in verschiedenen Größen liefern, darunter 8U-, 5U-, 4U-, 2U- und 1U-Optionen. Wir bieten auch die neuesten GPUs in unseren SuperBlades, Workstations und den Universal GPU-Systemen. Kunden können bei bestimmten KI-Anwendungen mit einer bis zu 30-fachen Leistungssteigerung bei KI-Inferencing im Vergleich zu früheren GPU-Beschleunigergenerationen rechnen. Das innovative Luftstromdesign unserer GPU-Server führt zu geringeren Lüftergeschwindigkeiten, geringerem Stromverbrauch, niedrigerem Geräuschpegel und niedrigeren Gesamtbetriebskosten.«

»Nvidia H100 ist der nächste große Schritt in unserer Accelerated-Computing-Plattform«, ergänzt Kevin Connors, Vice President of Nvidia Worldwide OEM Accounts. »Supermicros breite Palette an H100-Servern kann Workloads in jeder Größenordnung beschleunigen und Unternehmen dabei helfen, eine schnellere Markteinführung zu erreichen, indem sie drastische Leistungssteigerungen bei gleichzeitiger Kostenreduzierung bieten.«

Weiterführende Links

Karl Fröhlich, speicherguide.de

Karl Fröhlich

speicherguide.de -

Chefredakteur

Anzeige

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.