(Auszug aus der Pressemitteilung)
Vultr, das weltweit größte privat geführte Unternehmen für Cloud-Infrastruktur, gibt heute in Zusammenarbeit mit SUSE und Supermicro ein strategisches architektonisches Konzept bekannt, das darauf ausgelegt ist, die Komplexität bei der Bereitstellung und dem Betrieb von KI-Workloads in verteilten Umgebungen zu bewältigen.
Da sich die KI immer näher an den Ort der Datenerzeugung heranbewegt – von der Fertigung bis hin zu den Ladengeschäften – stehen Unternehmen vor erheblichen Herausforderungen in Bezug auf Latenzzeiten, Kosten und betriebliche Konsistenz. Diese gemeinsame Initiative bietet eine nahtlose Cloud-to-Edge-Pipeline, die leistungsstarke Hardware, eine lokal angepasste Cloud-Infrastruktur und ein einheitliches Kubernetes-Management miteinander verbindet.
Die Partnerschaft trägt der Tatsache Rechnung, dass es für Echtzeit-KI nicht mehr praktikabel ist, alle Daten an eine zentrale Cloud zurückzusenden. Die Lösung unterteilt die Infrastruktur in drei wesentliche Schichten:
- Die Cloud und Near-Edge – Unternehmen können regionale, auf Kubernetes basierende KI-Cluster näher an ihren Nutzern bereitstellen, indem sie die 33 globalen Cloud-Rechenzentrums-Regionen von Vultr nutzen. Mithilfe der Cluster API (CAPI) können Teams Umgebungen programmgesteuert replizieren und skalieren und dabei leistungsstarke NVIDIA-GPUs für die Inferenz nutzen, wenn die lokalen Edge-Kapazitäten erschöpft sind.
- Die Metro-Edge – Das umfangreiche Portfolio an CPU- und GPU-fähigen Edge-Servern und -Geräten von Supermicro wurde für vielfältige Edge-Umgebungen mit extrem geringer Latenz und geringem Stromverbrauch entwickelt und ermöglicht nahezu maßgeschneiderte Hardware- und Softwarelösungen. Aufbauend auf der engen Partnerschaft zwischen Supermicro und SUSE wurden diese Systeme für den Einsatz mit SUSE Linux Enterprise Server und SUSE Kubernetes Engine (RKE2 und K3s) validiert, um verteilte Agenten und Inferenzprozesse auf Vultr bereitzustellen und zu koordinieren. Diese Systeme verarbeiten Echtzeit-Workloads wie Computer Vision und die Verarbeitung von Sensordaten direkt an der Quelle.
- Die Steuerungsebene – Um Tausende von Standorten ohne manuellen Eingriff zu verwalten, ermöglicht SUSE Edge (zusammen mit SUSE Rancher Prime und Fleet) einen Git-Ops-gesteuerten Workflow über Cloud- und verteilte Edge-Umgebungen hinweg. In Kombination mit SUSE AI wird sichergestellt, dass der gesamte Software-Stack – einschließlich Sicherheitsrichtlinien, Modellaktualisierungen und Konfigurationen – vom zentralen Rechenzentrum bis hin zu den Edge-Geräten einheitlich bleibt. Für Szenarien, die sich auf industrielle Systeme erstrecken, baut SUSE Industrial Edge auf diesem Modell auf, um private Bereitstellungen vor Ort mit einer tieferen Integration in Betriebsumgebungen zu unterstützen.
„Da die KI nun in ihre nächste Phase eintritt, sind Datenhoheit und geografische Nähe die nächsten Herausforderungen“, sagte Kevin Cochrane, Chief Marketing Officer bei Vultr. „Durch die Kombination unserer globalen Reichweite mit regionaler GPU-Beschleunigung unterstützen wir Unternehmen dabei, ihre primären Cloud-Regionen direkt bis an den Rand des Netzwerks auszudehnen. Diese Partnerschaft stellt sicher, dass unabhängig davon, wo Daten entstehen, die souveräne Infrastruktur zu ihrer Verarbeitung bereits vorhanden ist und zur Skalierung bereit steht.“
Rhys Oxenham, Vizepräsident und General Manager für KI bei SUSE, fügte hinzu: „Der Betrieb in großem Maßstab ist die größte Hürde im Edge-Ökosystem. Aufbauend auf dem modularen und verteilten Hybrid-Infrastrukturmodell von SUSE setzen wir SUSE AI auf SUSE Edge auf, um für die Automatisierung zu sorgen, die für die Bereitstellung von Modellen, Updates und Sicherheitsrichtlinien in der gesamten Architektur erforderlich ist. Gemeinsam mit unseren Partnern verwirklichen wir ein wirklich dezentrales, verwaltbares KI-System für moderne Unternehmen.“
Keith Basil, Vizepräsident und General Manager des Bereichs Edge bei SUSE, fügte hinzu: „Da Unternehmen die Intelligenz immer näher an den Ort verlagern, an dem Daten entstehen, wird der Edge-Bereich zu mehr als nur einer Ebene der Infrastruktur – er wird zu einem Betriebssystem. Da SUSE Edge eine einheitliche Grundlage für Cloud- und verteilte Umgebungen bietet und SUSE Industrial Edge dieses Modell mithilfe der Vultr-Infrastruktur und der speziell entwickelten Plattformen von Supermicro auf Vor-Ort-Bereitstellungen ausweitet, können Unternehmen Erkenntnisse in Echtzeit in Maßnahmen umsetzen.“
„Der Edge-Bereich ist eine anspruchsvolle Umgebung, die Hardware erfordert, die auf Echtzeit-Ausfallsicherheit und thermische Effizienz ausgelegt ist. Unsere Systeme sind dafür gemacht, intensive KI-Inferenz-Workloads an Standorten zu bewältigen, an denen herkömmliche Rechenzentren nicht realisierbar sind. In Zusammenarbeit mit Vultr und SUSE bieten wir eine Lösung an, mit der sich die Lücke zwischen Edge-Hardware und nahtlosen Cloud-Erlebnissen schließen lässt“, sagte Vik Malyala, Präsident und Geschäftsführer für EMEA sowie Senior Vice President für Technologie und KI bei Supermicro.
Diese Partnerschaft wird im Mittelpunkt der kommenden Branchendiskussionen stehen, in denen unsere Unternehmen aufzeigen werden, wie die Konvergenz von Kubernetes und spezialisierter Edge-Hardware groß angelegte KI-Implementierungen erstmals praktikabel macht.
Neueste Kommentare
5. Mai 2026
3. Mai 2026
3. Mai 2026
29. April 2026
28. April 2026
23. April 2026