ASUS stellt den neuesten ASUS AI POD mit NVIDIA GB300 NVL72 vor

ASUS sichert sich Großaufträge und baut seine Führungsposition bei KI-Infrastrukturlösungen aus

(Auszug aus der Pressemitteilung)

Anzeige
  • Debüt des ASUS AI POD auf der GTC 2025: KI-Infrastruktur der nächsten Generation mit der NVIDIA GB300 NVL72-Plattform, für die bereits Großaufträge vorliegen
  • Umfassende Präsentation von KI-Lösungen: Vollständiges AI-Server-Portfolio, einschließlich Modellen mit NVIDIA Blackwell, NVIDIA HGX und NVIDIA MGX
  • AI-Deployment für Unternehmen: End-to-End-KI-Lösungen, von der Hardware bis hin zu Cloud-basierten Anwendungen, die eine nahtlose Bereitstellung und Effizienz gewährleisten
  • Bahnbrechender AI-Supercomputer: ASUS Ascent GX10, basierend auf NVIDIA GB10 Grace Blackwell Superchip für AI-Modelle mit bis zu 200 Milliarden Parametern

ASUS präsentierte sich heute auf der GTC 2025 (Stand Nr. 1523) als Diamant-Sponsor und stellte den neuesten ASUS AI POD basierend auf der NVIDIA® GB300 NVL72-Plattform vor. Das Unternehmen ist außerdem stolz darauf, bereits erhebliche Auftragseingänge verzeichnen zu können, was einen bedeutenden Meilenstein in der Technologiebranche darstellt.

Als Vorreiter bei KI-Innovationen präsentiert ASUS auch die neuesten AI-Server der Blackwell- und HGX™-Familie. Dazu gehören der ASUS XA NB3I-E12 mit NVIDIA B300 NVL16, der ASUS ESC NB8-E11 mit NVIDIA DGX B200 8-GPU, ASUS ESC N8-E11V mit NVIDIA HGX H200 und ASUS ESC8000A-E13P/ESC8000-E12P unterstützen NVIDIA RTX PRO 6000 Blackwell Server Edition mit MGX-Architektur. ASUS konzentriert sich stark auf die branchenübergreifende Förderung des Einsatzes von KI und ist in der Lage, umfassende Infrastrukturlösungen in Kombination mit den Plattformen NVIDIA AI Enterprise und NVIDIA Omniverse bereitzustellen, wodurch Kunden ihr Time-to-Market reduzieren können.

ASUS AI POD mit NVIDIA GB300 NVL72

Durch die Integration der immensen Leistung der NVIDIA GB300 NVL72-Serverplattform bietet der ASUS AI POD außergewöhnliche Processing-Fähigkeiten, die es Unternehmen ermöglichen, massive KI-Herausforderungen mit Leichtigkeit zu bewältigen. Der GB300 NVL72 wurde mit NVIDIA Blackwell Ultra entwickelt und läutet mit optimierter Computing-Performance, mehr Speicher und leistungsstarken Netzwerken eine neue Ära der KI ein.

Er ist mit 72 NVIDIA Blackwell Ultra Grafikkarten und 36 Grace CPUs in einem Rack-Design ausgestattet, das eine höhere Anzahl an AI-FLOPs und bis zu 40 TB Hochgeschwindigkeitsspeicher pro Rack bietet. Es umfasst auch die Integration von Netzwerkplattformen mit NVIDIA Quantum-X800 InfiniBand und Spectrum-X Ethernet, SXM7- und SOCAMM-Modulen, die für Wartungsfreundlichkeit ausgelegt sind, ein vollständig flüssigkeitsgekühltes Design und Unterstützung für LLM-Inferenz und -Training mit Billionen von Parametern mit NVIDIA. Diese Markteinführung stellt einen bedeutenden Fortschritt in der KI-Infrastruktur dar und bietet Kunden eine zuverlässige und skalierbare Lösung, um zukünftigen Anforderungen gerecht zu werden.

ASUS hat seine Kompetenz beim Aufbau der NVIDIA GB200 NVL72-Infrastruktur von Grund auf unter Beweis gestellt. Um mit dem Paradigma der Software-Defined-Storage-Architektur eine maximale Recheneffizienz zu erreichen, wird auch der ASUS RS501A-E12-RS12U vorgestellt. Dieser leistungsstarke SDS-Server reduziert effektiv die Latenzzeit beim Datentraining und bei der Inferenz und stellt eine Ergänzung zum NVIDIA GB200 NVL72 dar. ASUS präsentiert ein umfassendes Serviceangebot von Hardware bis hin zu Cloud-basierten Anwendungen, das Architekturdesign, fortschrittliche Kühllösungen, Rack-Installation, umfangreiche Validierung/Bereitstellung und KI-Plattformen umfasst, um sein umfangreiches Fachwissen zu nutzen und Kunden in die Lage zu versetzen, eine herausragende KI-Infrastruktur zu erreichen und ihre Markteinführungszeit zu verkürzen.

Kaustubh Sanghani, Vizepräsident für GPU-Produkte bei NVIDIA, kommentierte: „NVIDIA arbeitet mit ASUS zusammen, um die nächste Innovationswelle in Rechenzentren voranzutreiben. Führende ASUS-Server in Kombination mit der Blackwell Ultra-Plattform werden Training und Inferenz beschleunigen und es Unternehmen ermöglichen, neue Möglichkeiten in Bereichen wie KI-Argumentation und agentenbasierte KI zu erschließen.“

GPU-Server für hohe generative KI-Workloads

Auf der GTC 2025 wird ASUS auch eine Reihe von NVIDIA-zertifizierten Servern vorstellen, die Anwendungen und Workflows unterstützen, die auf den Plattformen NVIDIA AI Enterprise und Omniverse basieren. Diese vielseitigen Modelle ermöglichen eine nahtlose Datenverarbeitung und -berechnung und verbessern die Leistung generativer KI-Anwendungen.

Der ASUS 10U ESC NB8-E11 ist mit dem NVIDIA Blackwell HGX B200 8-GPU für eine unübertroffene KI-Leistung ausgestattet. Der ASUS XA NB3I-E12 verfügt über HGX B300 NVL16 mit höherer AI-FLOPS, 2,3 TB HBM3e-Speicher und die Integration von Netzwerken mit NVIDIA Quantum-X800 InfiniBand und Spectrum-X Ethernet. Blackwell Ultra bietet bahnbrechende Leistung für AI Reasoning, Agentic AI und Video-Inferenz-Anwendungen, um den sich ständig steigenden Anforderungen in jedem Rechenzentrum gerecht zu werden.

Der 7U ASUS ESC N8-E11V Dual-Socket-Server verfügt über acht NVIDIA H200 Grafikkarten, unterstützt sowohl luft- als auch flüssigkeitsgekühlte Varianten und ist für eine effektive Kühlung und innovative Komponenten ausgelegt – bereit, thermische Effizienz, Skalierbarkeit und beispiellose Leistung zu liefern.

Skalierbare Server zur Optimierung von KI-Inferenzen

ASUS präsentiert auch Server- und Edge-AI-Optionen für KI-Inferenzierung – die ASUS ESC8000-Serie ist mit den neuesten NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs ausgestattet. Der ASUS ESC8000-E12P ist ein 4U-Server mit hoher Dichte für acht Dual-Slot-High-End-NVIDIA H200-Grafikkarten und unterstützt die Software-Suite auf NVIDIA AI Enterprise und Omniverse. Außerdem ist er vollständig mit der NVIDIA MGX-Architektur kompatibel, um eine flexible Skalierbarkeit und eine schnelle, groß angelegte Bereitstellung zu gewährleisten. Darüber hinaus unterstützt der ASUS ESC8000A-E13P, ein 4U-NVIDIA-MGX-Server, acht NVIDIA H200-GPUs mit zwei Slots und bietet eine nahtlose Integration, Optimierung und Skalierbarkeit für moderne Rechenzentren und dynamische IT-Umgebungen.

ASUS Ascent GX10, ein bahnbrechender AI-Supercomputer

ASUS kündigt heute auch seinen bahnbrechenden AI-Supercomputer ASUS Ascent GX10 in einem kompakten Format an. Ausgestattet mit dem hochmodernen NVIDIA GB10 Grace Blackwell Superchip liefert er eine Leistung von 1.000 AI TOPS und ist damit ideal für anspruchsvolle Workloads geeignet. Der Ascent GX10 ist mit einer Blackwell-GPU, einer 20-Kern-Arm-CPU und 128 GB Arbeitsspeicher ausgestattet und unterstützt KI-Modelle mit bis zu 200 Milliarden Parametern. Dieses revolutionäre Device bringt die beeindruckenden Fähigkeiten eines KI-Supercomputers im Petaflop-Bereich direkt auf die Schreibtische von Entwicklern, KI-Forschern und Data Scientists auf der ganzen Welt.

Edge-AI-Computer von ASUS IoT wurden ebenfalls auf der GTC vorgestellt und zeigten ihre fortschrittlichen Fähigkeiten in der KI-Inferenz im Edge-Bereich. Der Edge-AI-Computer ASUS IoT PE2100N, der mit den NVIDIA Jetson AGX Orin-System-on-Modulen und dem NVIDIA JetPack SDK betrieben wird, liefert bis zu 275 TOPS und ist damit ideal für generative KI, visuelle Sprachmodelle (VLM) und Large Language Model (LLM)-Anwendungen geeignet. Diese Anwendungen ermöglichen Interaktionen in natürlicher Sprache mit Videos und Bildern zur Event- oder Objekterkennung. Mit geringem Stromverbrauch und optionaler Unterstützung für 4G/5G und Out-of-Band-Technologie eignet es sich perfekt für Smart Cities, Robotik und Anwendungen in Fahrzeugen. Darüber hinaus zeichnet sich der robuste Edge-AI-GPU-Computer ASUS IoT PE8000G, der zwei 450-W-NVIDIA-RTX-PCIe-Grafikkarten unterstützt, durch Echtzeit-KI-Inferenz, -Vorverarbeitung und -Wahrnehmung aus. Mit einem flexiblen 8-48-V-Gleichstromeingang, einer Einschaltstromsteuerung und einer Betriebsstabilität von -20 °C bis 60 °C eignet sich der PE8000G für die Bereiche Computer Vision, autonome Fahrzeuge, intelligente Videoanalyse und generative KI in rauen Umgebungen.

Mit einer hervorragenden Infrastruktur die Effizienz maximieren und Kosten minimieren

ASUS hat es sich zur Aufgabe gemacht, durch innovative KI-Infrastrukturlösungen, die den hohen Anforderungen von High-Performance-Computing (HPC) und KI-Workloads gerecht werden, Spitzenleistungen zu erbringen. Unsere sorgfältig konzipierten Server und Storage-Systeme verbessern die Leistung, Zuverlässigkeit und Skalierbarkeit, um den unterschiedlichen Anforderungen von Unternehmen gerecht zu werden.

Unsere L12-fähigen Infrastrukturlösungen setzen auf nachhaltige Prozesse während des gesamten Lebenszyklus des Rechenzentrums und zeichnen sich durch energieeffiziente Netzteile, fortschrittliche Kühlsysteme, Cloud-Services und Softwareanwendungen aus. Die Wahl eines ASUS-Servers geht über den bloßen Erwerb von Hardware hinaus. Mit der unternehmenseigenen Softwareplattform ASUS Infrastructure Deployment Center (AIDC), die für groß angelegte Bereitstellungen ausgelegt ist, sowie dem ASUS Control Center (ACC), das für die IT-Fernüberwachung und die Unterstützung von NVIDIA AI Enterprise und NVIDIA Omniverse entwickelt wurde, sind wir in der Lage, unseren Kunden ein nahtloses KI- und HPC-Erlebnis zu ermöglichen. Dies reduziert nicht nur die Betriebskosten und den Zeitaufwand, sondern stellt auch sicher, dass hohe Servicelevels konsequent aufrechterhalten werden. Dieser ganzheitliche Ansatz minimiert effektiv die Gesamtbetriebskosten (TCO) und die Energieeffizienz (PUE) und reduziert gleichzeitig die Umweltbelastung erheblich.

Mit 30 Jahren Erfahrung in der Serverbranche hat sich ASUS seit 1995 darauf spezialisiert, Kunden in dieser wettbewerbsintensiven Branche den Weg zu KI-Anwendungen zu ebnen. Unsere innovativen KI-gesteuerten Lösungen ermöglichen ein dynamisches Workload-Management und stellen sicher, dass Rechenaufgaben den effizientesten Ressourcen zugewiesen werden. Durch den Einsatz unserer umfassenden technologischen Fähigkeiten und unserer branchenführenden Expertise unterstützt ASUS Unternehmen dabei, die komplexen Anforderungen von KI-Infrastrukturen zu bewältigen und gleichzeitig Innovation und Nachhaltigkeit voranzutreiben.

ASUS hat es sich zur Aufgabe gemacht, durch innovative KI-Infrastrukturlösungen, die den hohen Anforderungen von High-Performance-Computing (HPC) und KI-Workloads gerecht werden, Spitzenleistungen zu erbringen. Unsere sorgfältig konzipierten Server und Storage-Systeme verbessern die Leistung, Zuverlässigkeit und Skalierbarkeit, um den unterschiedlichen Anforderungen von Unternehmen gerecht zu werden.

Unsere L12-fähigen Infrastrukturlösungen setzen auf nachhaltige Prozesse während des gesamten Lebenszyklus des Rechenzentrums und zeichnen sich durch energieeffiziente Netzteile, fortschrittliche Kühlsysteme, Cloud-Services und Softwareanwendungen aus. Die Wahl eines ASUS-Servers geht über den bloßen Erwerb von Hardware hinaus. Mit der unternehmenseigenen Softwareplattform ASUS Infrastructure Deployment Center (AIDC), die für groß angelegte Bereitstellungen ausgelegt ist, sowie dem ASUS Control Center (ACC), das für die IT-Fernüberwachung und die Unterstützung von NVIDIA AI Enterprise und NVIDIA Omniverse entwickelt wurde, sind wir in der Lage, unseren Kunden ein nahtloses KI- und HPC-Erlebnis zu ermöglichen. Dies reduziert nicht nur die Betriebskosten und den Zeitaufwand, sondern stellt auch sicher, dass hohe Servicelevels konsequent aufrechterhalten werden. Dieser ganzheitliche Ansatz minimiert effektiv die Gesamtbetriebskosten (TCO) und die Energieeffizienz (PUE) und reduziert gleichzeitig die Umweltbelastung erheblich.

Mit 30 Jahren Erfahrung in der Serverbranche hat sich ASUS seit 1995 darauf spezialisiert, Kunden in dieser wettbewerbsintensiven Branche den Weg zu KI-Anwendungen zu ebnen. Unsere innovativen KI-gesteuerten Lösungen ermöglichen ein dynamisches Workload-Management und stellen sicher, dass Rechenaufgaben den effizientesten Ressourcen zugewiesen werden. Durch den Einsatz unserer umfassenden technologischen Fähigkeiten und unserer branchenführenden Expertise unterstützt ASUS Unternehmen dabei, die komplexen Anforderungen von KI-Infrastrukturen zu bewältigen und gleichzeitig Innovation und Nachhaltigkeit voranzutreiben.