(Auszug aus der Pressemitteilung)

- Umfassende NVIDIA-KI-Server-Produktpalette: Enthält ASUS AI POD mit NVIDIA GB200 NVL72 und ESC 8000A-E13P mit MGX sowie viele weitere
- Fortschrittliche Kühllösungen: Von Flüssigkeit-zu-Luft mit Sidecar bis hin zu Flüssigkeit-zu-Flüssigkeit mit in Reihe geschalteter Kühlmittelverteilungseinheit (CDU) für eine Wärmeableitung von bis zu 95 %
- Leistungsstärkstes Rechenzentrum: ASUS unterstützte Ubilink bei der Erstellung eines Rechenzentrums mit einer Kapazität von 45,82 PFLOPS sowie Optionen für grüne Energie für Kunden
ASUS kündigte heute auf der SC24 seine Infrastrukturlösungen der nächsten Generation an und stellte eine umfangreiche Serverpalette und fortschrittliche Kühllösungen vor, die alle darauf ausgelegt sind, die Zukunft der KI voranzutreiben. Die Produktpräsentation wird zeigen, wie ASUS mit NVIDIA und Ubitus/Ubilink zusammenarbeitet, um die immense Rechenleistung von Supercomputern unter Beweis zu stellen. Dabei werden KI-gestützte Avatar- und Roboterdemonstrationen verwendet, die das neu eingeweihte Rechenzentrum nutzen. Es handelt sich um Taiwans größte Supercomputing-Einrichtung, die von ASUS gebaut wurde, und zeichnet sich auch dadurch aus, dass sie Kunden, die dies wünschen, flexible Optionen für grüne Energie bietet. Als Anbieter von Komplettlösungen mit einer nachgewiesenen Erfolgsbilanz im Bereich KI-Supercomputing ist ASUS ständig bestrebt, den Wert für seine Kunden zu maximieren.
Umfassendes KI-Server-Sortiment für alle Arbeitslasten
Um die digitale Transformation in Unternehmen durch Hochleistungsrechnen (HPC) und KI-gesteuerte Architektur voranzutreiben, bietet ASUS ein umfassendes Sortiment an Serversystemen an, die für jedes Szenario geeignet sind. ASUS AI POD, eine komplette Rack-Lösung, die mit der NVIDIA GB200 NVL72-Plattform ausgestattet ist, integriert Grafikkarten, CPUs und Switches in eine nahtlose, schnelle Direktkommunikation, verbessert das Training von LLMs mit Billionen von Parametern und ermöglicht Echtzeit-Inferenz. Sie verfügt über den NVIDIA GB200 Grace Blackwell Superchip und die NVIDIA NVLink-Technologie der fünften Generation und bietet sowohl Flüssig-Luft- als auch Flüssig-Flüssig-Kühloptionen, um die KI-Rechenleistung zu maximieren.
Wir werden auch den ESC8000A-E13P vorstellen, einen HPC-Server, der vollständig mit der modularen NVIDIA MGX-Architektur kompatibel ist und sich schnell in großem Maßstab einsetzen lässt. Er bietet Grafikkarten mit hoher Dichte für verschiedene Anwendungen und unterstützt bis zu acht NVIDIA H200 NVL Dual-Slot-Karten mit jeweils 600 Watt. Der ESC8000A-E13P profitiert außerdem von einer optimierten Serverkonfiguration mit fünf PCIe® 5.0-Slots für NVIDIA ConnectX und die NVIDIA BlueField SuperNICs mit hoher Bandbreite zur Verbesserung des Ost-West-Verkehrs sowie NVIDIA BlueField-3 DPUs für die Verarbeitung von softwaredefinierten Netzwerken, Speicher und Cybersicherheit mit Leitungsgeschwindigkeit.
Für generative KI-Anwendungen bietet ASUS auch eine Reihe fortschrittlicher Lösungen an, darunter ESC N8-E11V mit der NVIDIA HGX H200-Plattform und ESC N8A-E13 mit der neuesten NVIDIA Blackwell-Plattform. Diese Systeme sind so konzipiert, dass sie eine skalierbare Leistung für eine Vielzahl von KI-Workloads und -Anwendungen bieten.
Fortschrittliche Kühllösungen und -dienstleistungen
Ein erheblicher Teil des Stromverbrauchs des Rechenzentrums entfällt auf die Verwaltung und Ableitung von Wärme. Die effektive Reduzierung des PUE-Wertes und die Maximierung der Energieeinsparungen ist die Aufgabe jeder Rechenzentrumsinfrastruktur. ASUS arbeitet mit globalen Anbietern von Kühllösungen zusammen, um Beratungsdienste und adaptive Kühllösungen anzubieten, die sich an unterschiedliche Szenarien und Anforderungen anpassen lassen.
Unsere Lösungen optimieren die Kühleffizienz vom Einzelschrank ASUS AI POD mit NVIDIA GB200 NVL72 über das gesamte Rechenzentrum bis hin zu den Kühltürmen und bieten die Wahl zwischen Flüssigkeit-Luft-Kühlung mit Sidecar oder Flüssigkeit-Flüssigkeit-Kühlung mit Kühlmittelverteilungseinheiten (CDU) in Reihe, wodurch eine Wärmeableitung von bis zu 95 % erreicht wird.
Um sicherzustellen, dass jeder Server in realen Umgebungen optimal funktioniert, berücksichtigt ASUS nicht nur das thermische Design, sondern bietet auch grundlegende Verifizierungs- und Abnahmedienste für den gesamten Softwarestapel an. Dieser Prozess umfasst strenge Prüfungen von Stromversorgung, Netzwerk, GPU-Karten, Spannung und Temperatur, um einen reibungslosen Betrieb zu gewährleisten. Durch umfassende Tests werden Probleme vor der Übergabe behoben und eine zuverlässige Leistung des Rechenzentrums unter Volllast sichergestellt.
ASUS und Ubilink: Bau eines Supercomputing-Zentrums in Taiwan mit Optionen für grüne Energie
ASUS hat in Zusammenarbeit mit Ubilink – einem Unternehmen, das von Foxlink, Ubitus und Shinfox Energy gegründet wurde – den Bau eines weltweit führenden Supercomputing-Zentrums abgeschlossen. Dieses Rechenzentrum von Weltklasse zeichnet sich auch dadurch aus, dass es Kunden die Freiheit bietet, Pakete zu wählen, die ausschließlich auf erneuerbare Energien zurückgreifen. Diese bahnbrechende Leistung wurde in nur drei Monaten realisiert und verfügt über eine beeindruckende Leistungskapazität von 45,82 PFLOPS. Das Zentrum wird öffentliche Cloud-Dienste, KI-Rechenvermietungen und abonnementbasierte Cloud-Dienste anbieten.
Diese Leistung unterstreicht das Engagement von ASUS, Kunden weltweit eine leistungsstarke Infrastruktur und innovative Kühllösungen bereitzustellen. ASUS bietet eine umfassende Palette an KI-Lösungen, von GPU-Servern bis hin zu integrierten Racks, und wird weiterhin mit unseren Partnern zusammenarbeiten, um fortschrittliche Softwareplattformen und maßgeschneiderte Lösungen für alle Arbeitslasten anzubieten, damit Kunden im KI-Wettlauf an der Spitze bleiben können.
ASUS steigert unermüdlich den Wert für seine Kunden, gestaltet eine bemerkenswerte KI-Zukunft und ebnet den Weg für Infrastrukturlösungen der nächsten Generation. Unser rigoroser Ansatz stellt sicher, dass die KI-Infrastrukturlösungen von ASUS eine skalierbare Anpassungsfähigkeit bieten, sich nahtlos an die sich entwickelnden KI-Anforderungen anpassen und eine zukunftssichere Infrastruktur für langfristigen Erfolg bieten.
Neueste Kommentare
24. April 2025
24. April 2025
18. April 2025
15. April 2025
14. April 2025
14. April 2025