Supermicro erweitert NVIDIA Blackwell-Portfolio um HGX B300-Systeme

Flüssigkeitskühlung ermöglicht bis zu 40 % Energieeinsparung

(Auszug aus der Pressemitteilung)

Anzeige
  • Einführung der flüssigkeitsgekühlten NVIDIA HGX B300-Systeme 4HE und 2-OU (OCP OpenU-Standard) für den Einsatz in Hyperscale- und KI-Fabriken mit hoher Dichte, unterstützt von Supermicro Data Center Building Block Solutions mit DLC-2- bzw. DLC-Technologie.
  • Die flüssigkeitsgekühlten NVIDIA HGX B300 4HE-Systeme sind für Standard-19-Zoll-EIA-Racks mit bis zu 64 GPUs pro Rack ausgelegt. Sie fangen bis zu 98 % der Systemwärme durch DLC-2-Technologie (Direct Liquid-Cooling) ab.
  • Kompaktes und stromsparendes 2-OU (OCP) NVIDIA HGX B300 8 GPU System, das für die 21-Zoll OCP Open Rack V3 Spezifikation (ORV3) mit bis zu 144 GPUs in einem einzigen Rack entwickelt wurde.

Supermicro (SMCI), ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage sowie 5G/Edge, Supermicro gab heute die Erweiterung seines Portfolios an NVIDIA-Blackwell-Architektur-Systemen mit der Einführung und Verfügbarkeit neuer flüssigkeitsgekühlter NVIDIA HGX B300 Systeme mit 4HE und 2OU (OCP) bekannt. Diese neuesten Ergänzungen sind ein wichtiger Bestandteil der Data Center Building Block Solutions (DCBBS) von Supermicro und bieten eine noch nie dagewesene GPU-Dichte und Energieeffizienz für Hyperscale-Rechenzentren und KI-Fabriken.

„Da die Nachfrage nach Infrastruktur für künstliche Intelligenz weltweit immer schneller wächst, bieten unsere neuen flüssigkeitsgekühlten NVIDIA HGX B300-Systeme genau die Leistungsdichte und Energieeffizienz, die Hyperscaler und KI-Fabriken heute brauchen“, sagte Charles Liang, Präsident und CEO von Supermicro. „Wir bieten jetzt die kompaktesten NVIDIA HGX B300-Lösungen der Branche an. Diese ermöglichen bis zu 144 GPUs in einem einzigen Rack. Gleichzeitig senken sie den Stromverbrauch und die Kühlungskosten durch unsere bewährte Direct Liquid Cooling-Technologie (DLC). Mit unserem DCBBS ermöglicht Supermicro seinen Kunden den großflächigen Einsatz von KI: eine schnellere Markteinführung, maximale Leistung pro Watt und eine End-to-End-Integration vom Entwurf bis zur Bereitstellung.

Das flüssigkeitsgekühlte 2-OU (OCP)-System NVIDIA HGX B300, das nach der 21-Zoll OCP Open Rack V3 (ORV3) Spezifikation gebaut wurde, ermöglicht die Unterbringung von bis zu 144 Grafikprozessoren pro Rack und erreicht damit eine maximale GPU-Dichte für Hyperscale- und Cloud-Anbieter, die platzsparende Racks benötigen, ohne die Wartungsfähigkeit zu beeinträchtigen. Das Rack-Design bietet Blind-Mate-Manifold-Verbindungen, eine modulare GPU/CPU-Tray-Architektur sowie hochmoderne Lösungen zur Flüssigkeitskühlung der Komponenten. Das System nutzt KI-Workloads mit acht NVIDIA Blackwell Ultra-Grafikprozessoren, die jeweils bis zu 1.100 W TDP haben. Gleichzeitig wird der Platzbedarf und der Stromverbrauch im Rack drastisch reduziert. Ein einzelnes ORV3-Rack unterstützt bis zu 18 Nodes mit insgesamt 144 GPUs und skaliert nahtlos mit NVIDIA Quantum-X800 InfiniBand-Switches sowie Supermicros 1,8-MW-Kühlmittelverteilungs-einheiten (CDUs) in der Reihe. Acht NVIDIA HGX B300 Compute-Racks, drei NVIDIA Quantum-X800 InfiniBand Networking-Racks und zwei Supermicro In-Row CDUs bilden zusammen eine skalierbare SuperCluster-Einheit mit 1.152 GPUs.

Als Ergänzung zum 2-OU (OCP)-Modell bietet das flüssigkeitsgekühlte Front-I/O 4HE System HGX B300 die gleiche Rechenleistung in einem herkömmlichen 19-Zoll EIA Rack Formfaktor und ist somit ideal für den Einsatz in großen KI-Fabriken geeignet. Das 4HE-System nutzt die DLC-2-Technologie von Supermicro, um bis zu 98 % der erzeugten Wärme¹ durch Flüssigkeitskühlung abzuführen. Dadurch wird eine überragende Energieeffizienz bei geringerer Geräuschentwicklung und besserer Wartungsfreundlichkeit für dichte Trainings- und Inferenz-Cluster erreicht.

Die Supermicro NVIDIA HGX B300 Systeme ermöglichen mit 2,1 TB HBM3e GPU-Speicher pro System erhebliche Leistungssteigerungen, um größere Modellgrößen auf Systemebene zu verarbeiten. Vor allem aber bieten sowohl die 2HE- (OCP) als auch die 4HE-Plattformen erhebliche Leistungssteigerungen auf Clusterebene. Der Compute-Fabric-Netzwerkdurchsatz wird dabei auf bis zu 800 Gb/s verdoppelt. Dies wird über integrierte NVIDIA ConnectX-8 SuperNICs bei Verwendung von NVIDIA Quantum-X800 InfiniBand oder NVIDIA Spectrum-4 Ethernet erreicht. Dadurch werden KI-Arbeitslasten wie agentenbasierte KI-Anwendungen, das Training von Basismodellen und multimodale, groß angelegte Inferenzen in KI-Fabriken beschleunigt.

Supermicro hat diese Plattformen entwickelt, um die wichtigsten Kundenanforderungen in Bezug auf TCO, Wartungsfreundlichkeit und Effizienz zu erfüllen. Mit dem DLC-2-Technologiestack können Rechenzentren bis zu 40 % Strom einsparen1, den Wasserverbrauch durch den Betrieb mit 45 °C warmem Wasser reduzieren und auf gekühltes Wasser und Kompressoren verzichten. Supermicro liefert die neuen Systeme als vollständig validierte und getestete Racks. Diese stehen vor dem Versand als L11- und L12-Lösungen bereit, wodurch sich die Zeit bis zur Inbetriebnahme für Hyperscale-, Unternehmens- und Regierungskunden verkürzt.

Diese neuen Systeme erweitern das umfangreiche Portfolio von Supermicro an NVIDIA Blackwell Plattformen, zu denen die Modelle NVIDIA GB300 NVL72, NVIDIA HGX B200 und NVIDIA RTX PRO 6000 Blackwell Server Edition gehören. Jedes dieser NVIDIA-zertifizierten Systeme wurde von Supermicro getestet, um die optimale Leistung für eine breite Palette von KI-Anwendungen und -Anwendungsfällen zu gewährleisten – in Kombination mit NVIDIA-Netzwerken und NVIDIA-KI-Software, einschließlich NVIDIA AI Enterprise und NVIDIA Run:ai. Dadurch erhalten Kunden die Flexibilität, eine KI-Infrastruktur aufzubauen, die von einem einzelnen Knoten bis hin zu kompletten KI-Fabriken skalierbar ist.

1 https://www.supermicro.com/en/solutions/liquid-cooling