ASUS präsentiert Lösungen mit NVIDIA GB300 NVL72 auf der SC25

Vorstellung des kompletten Portfolios auf Basis der NVIDIA Blackwell-Architektur für skalierbares Supercomputing und den Einsatz von KI

(Auszug aus der Pressemitteilung)

Anzeige
  • Rack-Scale-Performance: ASUS XA GB721-E2 mit NVIDIA GB300 NVL72 bietet eine Leistung der 10-Petaflops-Klasse mit Flüssigkeitskühlung und integrierter Netzwerktechnik
  • Beschleunigung für Unternehmen: Der neue ESC8000A-E13X kombiniert acht NVIDIA RTX PRO 6000-GPUs mit 400G SuperNIC für effiziente KI bei großen Modellen und HPC
  • End-to-End-KI: ASUS vereint NVIDIA Blackwell-Plattformen, fortschrittliche Kühlung und professionelle Dienstleistungen für eine skalierbare KI-Infrastruktur

ASUS präsentiert heute auf der Supercomputing 2025 (SC25) sein umfassendes KI-Infrastrukturportfolio, das auf den NVIDIA® Blackwell– und Blackwell Ultra-Architekturen basiert. Getragen von der Strategie „Ubiquitous AI. Incredible Possibilities.” setzt ASUS voll auf KI und möchte mit überragender Rechenleistung die Time-to-Market seiner Kunden beschleunigen. ASUS ist ein Anbieter von ganzheitlichen Infrastrukturlösungen und bietet robuste, skalierbare Cloud- und Vor-Ort-Lösungen für vielfältige KI-Workloads. Dies wird durch die nahtlose Integration der neuesten NVIDIA-Compute-Plattformen mit fortschrittlichen Kühlungs-, Netzwerkorchestrierungs- und groß angelegten Deployment-Funktionen erreicht. Durch die Bereitstellung eines vollständigen Spektrums an KI-Lösungen, von einzelnen Workstations bis hin zu nationalen Supercomputing-Systemen, setzt sich ASUS dafür ein, den Zugang zu leistungsstarken KI-Technologien für alle zu demokratisieren.

Rack-Scale-KI-Infrastruktur mit NVIDIA GB300 NVL72

An der Spitze des Portfolios steht der XA GB721-E2, ein ASUS AI POD auf Basis von NVIDIA GB300 NVL72, der eine bewährte Rack-Scale-KI-Architektur verkörpert, beschleunigt durch 72 NVIDIA Blackwell Ultra-GPUs und 36 NVIDIA Grace-CPUs.

ASUS AI POD Nvidia GB300 NVL72 Systeme

Durch die Kombination eines 100 %igen Flüssigkeitskühlsystems mit integrierten Switch-Einschüben bietet das System eine einsatzfertige, skalierbare und energieeffiziente Performance mit einer Rechenleistung der 10-Petaflops-Klasse für KI-Anwendungen in Unternehmen und nationalen Cloud-Workloads.

Basierend auf dieser starken Plattform stellt der ESC NM2N721-E1, beschleunigt durch NVIDIA GB200 NVL72, einen bedeutenden Fortschritt im Bereich der souveränen KI dar und unterstreicht die Fähigkeit, nationale KI-Plattformen durch vollständig integrierte Storage- und Computing-Architekturen zu unterstützen. ASUS freut sich außerdem, einen wichtigen Meilenstein im Bereich der souveränen KI bekannt zu geben: die erfolgreiche Bereitstellung des ESC NM2N721-E1, der auf der NVIDIA GB200 NVL72-Plattform basiert und die Stärke des Unternehmens bei der Bereitstellung der NVIDIA Blackwell-Architektur für groß angelegte, von der Industrie unterstützte KI-Initiativen erneut unterstreicht.

Das brandneue ASUS ESC8000A-E13X-System mit NVIDIA RTX PRO Server unterstützt NVIDIA ConnectX-8 SuperNIC

Der ASUS ESC8000A-E13X, der auf der SC25 vorgestellt wird, ist ein 4U-NVIDIA RTX PRO™ Server auf Basis von NVIDIA MGX, der zur Beschleunigung von KI- und industriellen HPC-Workloads in Unternehmen entwickelt wurde. Angetrieben von zwei AMD EPYC™ 9005-Prozessoren und beschleunigt durch acht NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs, bietet er eine außergewöhnliche Rechendichte und Effizienz für das Training und die Inferenz großer Modelle. Das System ist mit NVIDIA ConnectX-8 SuperNIC ausgestattet und bietet ultraschnelle 400G NVIDIA InfiniBand/Ethernet-Konnektivität pro QSFP-Port und unterstützt bis zu acht NVMe-Laufwerke für Hochgeschwindigkeits-Storage. Sein optimiertes 4U-Luftkühlungsdesign gewährleistet nachhaltige Leistung und Zuverlässigkeit, selbst unter den anspruchsvollsten KI-Workloads.

Vom Rechenzentrum bis zur Entwicklung eigener KI-Lösungen

ASUS präsentiert außerdem ein umfassendes Sortiment an Produkten, die durch NVIDIA-Technologien beschleunigt werden und alle Bereiche des KI-Computings abdecken – von großen Rechenzentren bis hin zu Einzelplatzsystemen.

Das Herzstück bildet der XA NB3I-E12, der auf dem NVIDIA HGX™ B300-System basiert und bahnbrechende Leistung sowie luftgekühlte Effizienz für KI-Training und HPC-Workloads mit hoher Dichte bietet. Er wurde als Grundlage für den Einsatz in AI Factories entwickelt, unterstützt das Training großer Modelle und die Skalierung mehrerer GPUs über NVIDIA NVLink und ermöglicht es Unternehmen, ihre KI-Entwicklungspipelines von der Simulation und dem Modelltraining bis zur vollständigen Produktion zu beschleunigen. Ergänzend dazu bietet der ESC NB8-E11, der auf dem NVIDIA HGX B200-System basiert, Flexibilität auf Unternehmensniveau für Inferenz- und Cluster-Level-KI-Anwendungen und liefert die Rechendichte und Skalierbarkeit, die für KI-Factory-Edge- und Produktionsumgebungen erforderlich sind.

Das Ökosystem wird auf Kreative und Entwickler ausgeweitet: Der ExpertCenter Pro ET900N G3 Supercomputer, beschleunigt durch den NVIDIA Grace Blackwell Ultra Superchip, bietet professionellen Kreativen leistungsstarke KI-Rechenleistung. Der kompakte ASUS Ascent GX10 Personal AI Supercomputer, beschleunigt durch den NVIDIA GB10 Grace Blackwell Superchip, ermöglicht die Erforschung der nächsten Generation der KI in einem Desktop-Formfaktor.

ASUS Professional Services: Gemeinsam für Deployment und Exzellenz

ASUS unterhält ein starkes Partnernetzwerk, das jede Phase des Lebenszyklus eines Rechenzentrums unterstützt – vom Entwurf über die Validierung bis hin zur Bereitstellung und Verwaltung. Auf der SC25 haben ASUS und Vertiv eine Partnerschaft geschlossen, um Rack-Scale-KI für die NVIDIA GB300 NVL72-Plattformen voranzutreiben. Vertiv ergänzt die ASUS-Plattformen mit dem branchenweit umfassendsten Portfolio an Stromversorgungs- und Kühlungslösungen, darunter auch fortschrittliche CDU-Lösungen. Als Vorreiter mit validierten Grid-to-Chip-Referenzarchitekturen für die NVIDIA GB300 NVL72-Plattform, 800-VDC-Architektur und Gigawatt-Skala NVIDIA Omniverse DSX Blueprint reduziert unsere Zusammenarbeit die Risiken der Kühlungs- und Stromversorgungsintegration. Durch die Partnerschaft wird die Energieeffizienz verbessert, eine Bereitstellung im industriellen Maßstab ermöglicht und die Zeit bis zur ersten Token-Ausgabe für AI Factories verkürzt.

Durch die Kombination der NVIDIA Blackwell- und Blackwell Ultra-Architekturen, fortschrittlicher Kühlung, Storage, Netzwerktechnologie und erstklassiger Hardware-Software-Integration treibt ASUS die Weiterentwicklung der KI- und Supercomputing-Infrastruktur voran, die Innovationen in Unternehmen, Forschung und staatlichen Anwendungen ermöglicht. Über ASUS Professional Services erhalten Kunden Zugang zu fachkundiger Unterstützung in den Bereichen Engineering, Validierung und Bereitstellung, während AIDC und ACC die Einführung, Überwachung und das Lebenszyklusmanagement über Multi-Node- und Multi-Rack-Cluster hinweg optimieren und so Zuverlässigkeit, Skalierbarkeit und eine schnelle Amortisationszeit für jede KI-Bereitstellung gewährleisten. Besuchen Sie uns am SC25-Stand Nr. 3732 und erleben Sie die Zukunft der KI-Infrastruktur.

[shariff backend="on" services="facebook|twitter|googleplus|xing|mailto|info"]