Supermicro stellt neue flüssigkeitsgekühlte KI SuperCluster vor: 30-fach bessere Inferenzleistung bei 40% weniger Stromverbrauch

(Auszug aus der Pressemitteilung)

Supermicro, Inc. (NASDAQ: SMCI), ein Software-Plattform für die Entwicklung und Bereitstellung von generativer KI optimiert sind, beschleunigt Supermicro die Einführung von generativer KI in Unternehmen aller Branchen. Anbieter von IT-Komplettlösungen für KI, Cloud, Storage und 5G/Edge, hat ein sofort einsatzbereites, flüssigkeitsgekühltes KI-Rechenzentrum vorgestellt, das speziell für Cloud-native Lösungen entwickelt wurde. Mit seinen SuperClustern, die für die Software-Plattform für die Entwicklung und Bereitstellung von generativer KI optimiert sind, beschleunigt Supermicro die Einführung von generativer KI in Unternehmen aller Branchen.

Anzeige

Mit dem flüssigkeitsgekühlten 4U–System von Supermicro kann die kürzlich von NVIDIA vorgestellte Blackwell GPU 20 PetaFLOPS an KI-Leistung auf einer einzigen GPU entfesseln und eine 4-fach bessere KI-Trainings- und 30-fach bessere Inferenzleistung als die bisherigen GPUs demonstrieren, und das bei zusätzlichen Kosteneinsparungen. Im Einklang mit seiner First-to-Market-Strategie hat Supermicro kürzlich eine komplette Produktlinie auf Basis der NVIDIA Blackwell Architektur für die neuen NVIDIA HGX B100, B200 und GB200 Grace Blackwell Superchip GPUs angekündigt.NVIDIA HGX™ B100, B200 und GB200 Grace Blackwell Superchip angekündigt.

„Supermicro bleibt Branchenführer bei der Entwicklung und Bereitstellung von Rack-Lösungen mit Flüssigkeitskühlung für KI-Workloads”, sagt Charles Liang, Präsident und CEO von Supermicro. „Flüssigkeitsgekühlte Rechenzentren können praktisch kostenlos sein und bieten unseren Kunden einen Mehrwert durch die kontinuierliche Senkung des Stromverbrauchs. Unsere Lösungen sind mit der NVIDIA AI Enterprise Software für Kunden in allen Branchen optimiert und wir bieten globale Fertigungskapazitäten mit Spitzeneffizienz. Dadurch können wir die Lieferzeiten für unsere schlüsselfertigen flüssigkeits- oder luftgekühlten Cluster mit NVIDIA HGX H100 und H200 sowie den kommenden Lösungen B100, B200 und GB200 verkürzen. Von Cold Plates über CDUs (Coolant Distribution Units) bis hin zu Kühltürmen – unsere Komplettlösungen für die Flüssigkeitskühlung im Rackmaßstab können den Stromverbrauch von Rechenzentren um bis zu 40% senken.

Auf der COMPUTEX 2024 stellt Supermicro seine neuen, für NVIDIA Blackwell GPUs optimierten Systeme vor, darunter ein luftgekühltes 10HE-System und ein flüssigkeitsgekühltes 4HE-System auf Basis der NVIDIA HGX B200 GPU.

Darüber hinaus – sowie die neuen NVIDIA MGX® Systeme, die NVIDIA H200 NVL PCIe GPUs und die kürzlich angekündigte NVIDIA GB200 NVL2 Architektur unterstützen. Supermicro ein luftgekühltes 8HE NVIDIA HGX B100 System und das NVIDIA GB200 NVL72 Rack mit 72 miteinander verbundenen GPUs und NVIDIA NVLink Switches – sowie die neuen NVIDIA MGX Systeme, die NVIDIA H200 NVL PCIe GPUs und die kürzlich angekündigte NVIDIA GB200 NVL2 Architektur unterstützen.

„Generative KI treibt einen Reset des gesamten Computing-Stacks voran – neue Rechenzentren werden GPU-beschleunigt und für KI optimiert sein”, sagte Jensen Huang, Gründer und Geschäftsführer von NVIDIA. „Supermicro hat hochmoderne NVIDIA Accelerated Computing- und Netzwerklösungen entwickelt, mit denen globale Rechenzentren im Wert von mehreren Milliarden Dollar für das Zeitalter der KI optimiert werden können.”

Die rasche Entwicklung großer Sprachmodelle und die kontinuierliche Einführung neuer Open-Source-Modelle wie Llama-3 von Meta und Mixtral 8x22B machen moderne KI-Modelle für Unternehmen leichter zugänglich. Die Notwendigkeit, die KI-Infrastruktur zu vereinfachen und die Zugänglichkeit auf möglichst kosteneffiziente Weise zu gewährleisten, ist entscheidend, um die derzeitige rasante Geschwindigkeit der KI-Revolution zu unterstützen.

Die Cloud-native KI-SuperCluster von Supermicro schließen die Lücke zwischen dem Komfort der Cloud mit sofortigem Zugriff und der Portabilität. Die Lösungen nutzen NVIDIA AI Enterprise, um KI-Projekte jeder Größe nahtlos von der Pilotphase in die Produktion zu überführen.

Dies bietet die Flexibilität, überall mit sicher verwalteten Daten zu arbeiten, einschließlich selbst gehosteter Systeme oder großer lokaler Rechenzentren.

Supermicro arbeitet eng mit NVIDIA zusammen, um einen nahtlosen und flexiblen Übergang vom Testen und Pilotieren von KI-Anwendungen zum Produktionseinsatz und zur umfassenden Implementierung von KI im Rechenzentrum zu gewährleisten. Erreicht wird dies durch die Optimierung auf Rack- und Cluster-Ebene mit der NVIDIA AI Enterprise Software-Plattform, die einen reibungslosen Übergang von der ersten Erkundung bis hin zur skalierbaren KI-Implementierung ermöglicht.

Managed Services schränken die Infrastrukturauswahl, den Datenaustausch und die Steuerung der Strategie für generative KI ein. NVIDIA NIM Microservices, Teil von NVIDIA AI Enterprise, bieten die Vorteile von gemanagter generativer KI und Open-Source-Implementierung ohne Nachteile. Die vielseitige Inferenz-Laufzeitumgebung mit Microservices beschleunigt die Bereitstellung von generativer KI für eine Vielzahl von Modellen, von Open-Source- bis hin zu NVIDIA Foundation-Modellen. Darüber hinaus ermöglicht NVIDIA NeMo die Entwicklung benutzerdefinierter Modelle mit Datenkuratierung, erweiterter Anpassung und RAG (Retrieval Augmented Generation) für unternehmenstaugliche Lösungen. In Kombination mit Supermicros NVIDIA AI Enterprise ready SuperCluster bietet NVIDIA NIM den schnellsten Weg zu skalierbaren, beschleunigten generativen KI-Implementierungen.

Supermicros aktuelle generative KI SuperCluster-Lösungen im Überblick:

  • Flüssigkeitsgekühlter Supermicro NVIDIA HGX H100/H200 SuperCluster mit 256 H100/H200 GPUs als skalierbare Recheneinheit in fünf Racks (einschließlich eines dedizierten Netzwerk-Racks)
  • Luftgekühlter Supermicro NVIDIA HGX H100/H200 SuperCluster mit 256 HGX H100/H200 GPUs als skalierbare Recheneinheit in neun Racks (einschließlich eines dedizierten Netzwerk-Racks)
  • Supermicro NVIDIA MGX GH200 SuperCluster mit 256 GH200 Grace Hopper Superchips als skalierbare Recheneinheit in neun Racks (einschließlich eines dedizierten Netzwerk-Racks)

Die Supermicro SuperCluster sind NVIDIA AI Enterprise ready mit NVIDIA NIM Microservices und NVIDIA NeMo Plattform für eine durchgängige generative KI-Anpassung und optimiert für NVIDIA Quantum-2 InfiniBand sowie die neue NVIDIA Spectrum-X Ethernet Plattform mit 400Gb/s Netzwerkgeschwindigkeit pro GPU für die Skalierung auf einen großen Cluster mit zehntausenden von GPUs.

Kommende SuperCluster-Lösungen von Supermicro:

  • Supermicro NVIDIA HGX B200 SuperCluster mit Flüssigkeitskühlung
  • Supermicro NVIDIA HGX B100/B200 SuperCluster mit Luftkühlung
  • Supermicro NVIDIA GB200 NVL72 oder NVL36 SuperCluster mit Flüssigkeitskühlung

Die SuperCluster-Lösungen von Supermicro sind für LLM-Training, Deep Learning und Inferenz mit hohem Volumen und hoher Stapelgröße optimiert. Supermicros L11- und L12-Validierungstests und der Vor-Ort-Bereitstellungsservice sorgen für eine nahtlose Kundenerfahrung. Kunden erhalten skalierbare Plug-and-Play-Einheiten für eine einfache Bereitstellung im Rechenzentrum und schnellere Ergebnisse.