(Auszug aus der Pressemitteilung)
Supermicro (NASDAQ: SMCI), ein Anbieter von Komplettlösungen für Cloud Computing, KI/ML, Storage und 5G/Edge, hat heute sein kommendes Systemportfolio auf Basis der NVIDIA Vera Rubin-Plattform vorgestellt. Da sich Rechenzentren zu KI-Fabriken wandeln, die Intelligenz in großem Maßstab erzeugen, treiben Agentic Reasoning, Long-Context-KI und Mixture-of-Experts (MoE) Workloads die Nachfrage nach einer völlig neuen Klasse von Rechen- und Storageinfrastrktur voran. Die NVIDIA Vera Rubin NVL72-, NVIDIA HGX Rubin NVL8- und NVIDIA Vera-CPU-Systeme von Supermicro werden unter Verwendung von Supermicros fortschrittlicher Flüssigkeitskühlungstechnologie und der Data Center Building Block Solutions (DCBBS) entwickelt und hergestellt, um die Markteinführungszeit für Kunden zu verkürzen.
„Wir treten in eine neue Ära ein, in der jedes Unternehmen eine KI-Fabrik benötigt, um auf dem Markt erfolgreich zu sein. Die Nachfrage nach Inferenz-Workloads verändert die Anforderungen an die Infrastruktur von Rechenzentren grundlegend“, sagte Charles Liang, President and CEO von Supermicro. „Der DCBBS-Technologie-Stack von Supermicro wird derzeit entwickelt, um die kommenden NVIDIA-Vera-Rubin-NVL72-, NVIDIA-HGX-Rubin-NVL8- und Vera-CPU-Systeme zu unterstützen. Damit ebnen wir unseren Kunden den schnellen und klaren Weg zur groß angelegten Einführung von KI-Fabriken der nächsten Generation. Wir freuen uns, Ihnen einen ersten Einblick in diese Lösungen zu gewähren. Das ist der Beweis dafür, dass wir als Erste die Infrastruktur auf den Markt bringen werden, die die nächste Generation der KI vorantreiben wird.“
Supermicro DCBBS für NVIDIA Vera Rubin- und Rubin-Plattformen
Für die Bereitstellung von KI-Fabrikleistung in großem Maßstab ist weit mehr als nur Rechenleistung erforderlich: Eine nahtlos funktionierende Stromversorgungs-, Kühlungs- und Netzwerkinfrastruktur ist ebenso essenziell. Supermicro bietet Betreibern von Rechenzentren mit dem modularen DCBBS-Ansatz geprüfte, vorgefertigte Rack-Lösungen an. Dadurch ist es nicht mehr nötig, für jedes Projekt eine maßgeschneiderte Infrastruktur aufzubauen. So verkürzt sich die Zeit bis zur Inbetriebnahme, Integrationsrisiken werden minimiert und die Gesamtbetriebskosten bei der Bereitstellung von KI-Fabriken jeder Größenordnung gesenkt.
Die DCBBS von Supermicro wurden speziell für die sich wandelnden Anforderungen in Bezug auf Wärmeableitung, Stromversorgung und Netzwerk entwickelt. Diese sind für eine schnelle und zuverlässige Einrichtung der kommenden NVIDIA Vera Rubin NVL72-, NVIDIA HGX Rubin- und NVIDIA Vera-CPU-Infrastruktur erforderlich. Um den Anforderungen der Vera-Rubin-Plattformen gerecht zu werden, die ab dieser Generation vollständig flüssigkeitsgekühlt sein werden, umfasst die DCBBS eine vollständige Palette geprüfter Flüssigkeitskühlungsinfrastruktur. Diese Erweiterung umfasst Komponenten für den Einbau in Racks und Reihen, wie beispielsweise Kühlmittelverteilereinheiten (Coolant Distribution Units, CDUs), Verteiler und Liquid-to-Air-(L2A)-Sidecar. Darüber hinaus sind Infrastrukturlösungen wie Kühltürme sowie Dienstleistungen zur Planung und Umsetzung der Verkabelung enthalten, die darauf ausgelegt sind, sich nahtlos in das Systemportfolio der nächsten Generation von Supermicro zu integrieren.
Supermicro NVIDIA Vera Rubin NVL72 SuperCluster
Supermicro stattet seine NVIDIA Vera Rubin NVL72 mit neuen DCBBS-Flüssigkeitskühlungskomponenten aus, um die Leistungs- und Wärmeanforderungen auf Rack- und Cluster-Ebene vollständig zu erfüllen. Dazu gehört die Herstellung optimierter NVIDIA-MGX-Racks sowie von In-Rack- oder In-Row-CDUs, RDHx- und L2A-Sidecars, um die Produktion und Bereitstellung des rackbasierten KI-Supercomputers im großen Maßstab zu optimieren. Der Vera Rubin NVL72 fungiert als einzelner Beschleuniger im Rack-Maßstab. Er vereint sechs gemeinsam entwickelte Chips: der Rubin GPU, die Vera CPU, der NVIDIA NVLink 6, der NVIDIA ConnectX-9 SuperNIC, der NVIDIA BlueField-4 DPU und der NVIDIA Spectrum-X Ethernet. Der Vera Rubin NVL72 bietet bis zu 3,6 Exaflops Inferenzleistung. Außerdem hat er 75 TB schnellen Speicher und 1,6 PB/s HBM4-Bandbreite. Damit zielt er auf einen bis zu zehnfachen Durchsatz pro Watt und ein Zehntel der Token-Kosten im Vergleich zu NVIDIA Blackwell ab.
NVIDIA HGX Rubin NVL8-System
Das 2HE HGX Rubin NVL8-System ist die erste HGX-Plattform, die eine größere Flexibilität bei der CPU-Auswahl bietet. Sie umfasst NVIDIA-Vera-CPUs sowie AMD- und Intel-x86-Prozessoren der nächsten Generation. Aufbauend auf der NVIDIA-MGX-Rack-Architektur mit Supermicros „Blind Mate“-Sammelschiene und Verteiler für die werkzeuglose Rack-Integration können Kunden acht Rubin-GPUs mit der CPU-Plattform kombinieren, die am besten zu ihrer Arbeitslast und ihrem Software-Stack passt.
Die Konfiguration unterstützt 9 HGX Rubin NVL8-Systeme pro Rack. Insgesamt sind es bis zu 72 Rubin-GPUs. Damit ist sie für groß angelegtes KI-Training, Inferenz und beschleunigte HPC-Anwendungen geeignet. DCBBS bietet In-Rack-CDUs, In-Row-CDUs, RDHx-Modelle sowie einen optionalen Liquid-to-Air-(L2A)-Sidecar für Kunden, die ihre Lösungen in flüssigkeits- oder luftgekühlten Rechenzentrumsumgebungen einsetzen möchten.
NVIDIA Vera CPU-System mit RTX PRO
Supermicros Vera CPU ist ein agentisches KI-System der nächsten Generation, das als vielseitiger KI-Rechenknoten für Unternehmen entwickelt wird, die auf den Einsatz agentischer KI der nächsten Generation abzielen. Das System verfügt über zwei NVIDIA Vera-CPUs und unterstützt bis zu sechs RTX PRO 4500 Blackwell Server Edition GPUs in einem kompakten 2HE-Gehäuse. Damit bietet es die erforderliche Rechendichte und Energieeffizienz für KI-Inferenz, agentische Workloads, Visualisierung sowie die Erweiterung aller Unternehmens-Workloads um beschleunigte Rechenleistung. Es handelt sich um ein LPDDR5X-Speichersubsystem mit hoher Bandbreite und PCIe-GPU-Beschleunigung auf kleinstem Raum.
NVIDIA BlueField-4 STX Context Memory Storage Platform
Die kommende Context Memory Storage Platform (CMX) von Supermicro führt eine neue Klasse von KI-nativem Speicher für Kontextdaten ein. Sie ist als intelligente Speicherebene auf Pod-Ebene konzipiert, erweitert die Kapazität des GPU-KV-Caches und stellt Inferenzdaten mit langem Kontext mit dem erforderlichen Durchsatz des Vera Rubin NVL72-Super-Pod-Clusters bereit. Das System basiert auf dem NVIDIA BlueField-4-Prozessor, NVIDIA Vera-CPUs, NVIDIA ConnectX-9 SuperNICs, Spectrum-X Ethernet, NVIDIA DOCA und NVIDIA Dynamo. Es bietet die hochbandbreitige, latenzarme Struktur sowie die intelligente Datenpfad-Auslagerung, die groß angelegte KI-Inferenz-Pipelines und RAG-Workloads erfordern.
Supermicro NVIDIA Blackwell Solutions – jetzt erhältlich
Im Zuge der rasanten Entwicklung von Systemen der nächsten Generation befindet sich das aktuelle Portfolio an NVIDIA Blackwell-basierten Systemen von Supermicro bereits in voller Produktion. Dank der Fertigungskapazitäten von Supermicro in den USA und weltweit sind die Systeme sofort einsatzbereit. Somit können Kunden bereits heute eine KI-Infrastruktur für den Produktionsbetrieb aufbauen und skalieren. Supermicro investiert sowohl in seine aktuelle Blackwell-Produktreihe als auch in seine Systeme der nächsten Generation, um sicherzustellen, dass Kunden in jeder Phase dieser Transformation über die richtige Plattform verfügen.


Neueste Kommentare
24. März 2026
24. März 2026
8. März 2026
6. März 2026
4. März 2026
3. März 2026