(Auszug aus der Pressemitteilung)
Prag, Tschechien (SUSECON 2026) – 23. April 2026 – SUSE® hat heute Partnerschaften mit globalen Branchenakteuren bekannt gegeben, die darauf abzielen, das Management von Rechenzentren und Clouds zu automatisieren und einen auf KI-Agenten basierenden IT-Betrieb zu ermöglichen. Durch Integrationen mit herausragenden Plattformen wie Amazon Quick, Fsas Technologies, n8n und Revenium sowie Partnern wie Stacklok bietet SUSE eine sichere Möglichkeit, mittels KI-Agenten die Infrastruktur über alle Linux- oder Kubernetes-Distributionen hinweg zu überwachen, zu optimieren und Fehler zu beheben. SUSE ist ein weltweit führender Anbieter von Open Source-Lösungen für Unternehmen.
Zugang zur Infrastruktur für KI-Agenten
Während Unternehmen agentenbasierte KI in rasantem Tempo einführen, fehlt diesen Agenten oft eine sichere, standardisierte Möglichkeit, mit der darunter liegenden Infrastruktur, zum Beispiel Servern und Clustern, zu interagieren. Ohne diese Verbindung bleibt KI-gesteuerte Automatisierung isoliert und riskant. SUSE hilft bei der Lösung dieses Problems, indem es das Model Context Protocol (MCP) in sein gesamtes Portfolio integriert.
Dadurch sind KI-Agenten von Plattformen wie n8n und Revenium in der Lage, sicher mit SUSE Rancher Prime und SUSE Multi-Linux Manager zu kommunizieren, und dies sogar über verschiedene Linux- und Kubernetes-Distributionen hinweg. So können KI-Agenten beispielsweise Systemfehler in Kubernetes-Clustern oder auf Linux-Servern identifizieren, diese mit Systemprotokollen abgleichen und einen Pull Request für einen Patch einreichen, einen Dienst neu starten oder Updates anwenden – und das alles in einer sicheren, kontrollierten Umgebung.
„Kunden stehen unter enormem Wettbewerbsdruck, ihre Effizienz durch KI zu steigern. Agentenbasierte KI weist den Weg in die Zukunft. Doch bisher fehlte der Branche eine Möglichkeit, diese Agenten auf der Infrastrukturebene zu verwalten“, so Rick Spencer, General Manager of Engineering bei SUSE. „Dank unserer 30-jährigen Erfahrung ist SUSE der einzige Partner, mit dem man jede Kubernetes- und jede Linux-Distribution überall verwalten kann. Wir entwerfen nicht nur eine Vision. Sondern wir geben unserer Community und unseren Kunden eine absolut zuverlässige und sichere Möglichkeit an die Hand, mit KI erfolgreich zu sein.“
So starten Unternehmen
- Bestandskunden können sofort damit beginnen, Infrastruktur-Workflows über MCP-fähige Server innerhalb des aktuellen SUSE Portfolios zu automatisieren.
- Neukunden können SUSE Rancher Prime oder Multi-Linux Manager oder beides einsetzen, um eine sichere Grundlage für ihre agentische KI-Strategie in jedem Rechenzentrum oder jeder Public Cloud zu schaffen.
Mikel Elorza Peña, IT-Architekt bei der spanischen Handelskette Grupo Eroski sagt: „Das klare Bekenntnis von SUSE zu offenen Standards wie MCP erleichtert es uns, für jeden Anwendungsfall das am besten geeignete Large Language Model auszuwählen. Anstatt an ein einziges LLM gebunden zu sein, können wir nun für jede Aufgabe das effektivste Tool einsetzen. Dies bietet eine Möglichkeit, die Konnektivität und Effizienz unseres Ökosystems zu verbessern. Der Ansatz von SUSE bei der Implementierung von agentischer KI hilft uns dabei, unsere Denkweise in diesem neuen Gebiet weiterzuentwickeln.“
Verfügbarkeit
Agentische KI-Funktionen sind ab sofort über das SUSE Portfolio verfügbar, darunter SUSE AI, SUSE Linux, SUSE Rancher Prime und SUSE Multi-Linux Manager.
Zitate von Partnern
Fsas Technologies
„Die Kombination aus dem Model Context Protocol (MCP) von SUSE und Fsas Mamoru – unserer Engine für agentisches Infrastrukturmanagement mit autonomer Fehlerbehebung – bietet die integrierte, intelligente Grundlage, die Unternehmen benötigen, um einen wirklich autonomen Betrieb zu erreichen. Durch die Verbindung des sicheren, auf Unternehmen zugeschnittenen agentischen Ökosystems von SUSE mit der Präzision unserer Hardware-Automatisierung stellen wir sicher, dass Kunden heute schon ihre Infrastruktur modernisieren, Multi-Agent-Systeme in Betrieb nehmen und in den komplexesten Umgebungen Effizienzsteigerungen in großem Maßstab erzielen können“, sagt Udo Wuertz, CTO bei Fsas Technologies Europe – einem Unternehmen von Fujitsu.
n8n
„Durch die Nutzung des universellen Model Context Protocol (MCP) können n8n-Nutzer nun die spezialisierten MCP-Server von SUSE, darunter diejenigen für SUSE Rancher Prime, SUSE Multi-Linux Manager und SUSE Linux Enterprise, direkt in ihre benutzerdefinierten Workflows für KI-Agenten integrieren, ohne dass zusätzliche Entwicklungsarbeit oder maßgeschneiderte Integrationen erforderlich sind. Diese Synergien ermöglichen es IT-Teams, ausgefeilte Low-Code-Automatisierungen zu entwerfen, die komplexe Kubernetes-Flotten und Linux-Umgebungen sicher steuern und verwalten können“, sagt Cornelius Suermann, Vice President of Engineering bei n8n.
Revenium
„KI-Agenten treffen finanzielle Entscheidungen schneller, als ein Mensch sie nachvollziehen kann. Durch das Nachverfolgen von Tokens erfahren Sie nur, was Sie ausgegeben haben, jedoch nicht, wofür. Wenn ein Agent einen Cluster hochfährt oder eine App bereitstellt, entstehen innerhalb von Millisekunden erhebliche Kosten. Revenium setzt finanzielle Leitplanken in Maschinengeschwindigkeit durch, bevor die Kosten der Agenten in Ihren Büchern auftauchen“, sagt John Rowell, Chief Executive Officer und Mitbegründer von Revenium.
Stacklok
„Unternehmen, die KI-Agenten produktiv einsetzen wollen, bauen auf bewährter Infrastruktur auf, der sie vertrauen, darunter SUSE Linux und Kubernetes“, sagt Craig McLuckie, CEO von Stacklok und Mitbegründer von Kubernetes. „Bei Stacklok wenden wir diese vertrauten Tools und Muster an, um Unternehmen dabei zu helfen, das Model Context Protocol zu nutzen und ihre KI-Agenten besser zu überwachen und zu steuern. Die Zusammenarbeit mit SUSE bringt einen offensichtlichen Mehrwert. Und unser Verzeichnis geprüfter MCP-Server umfasst den SUSE Multi-Linux Manager, den Unternehmen nutzen, um im Rahmen ihrer agentenbasierten Workflows auf relevante Tools zuzugreifen.“
Neueste Kommentare
23. April 2026
17. April 2026
13. April 2026
13. April 2026
13. April 2026
13. April 2026