Von Las Vegas ins Rechenzentrum – Pure Storage erklärt, was die CES 2026 über die bevorstehende Infrastruktur-Revolution verrät

Auf der CES 2026 war KI allgegenwärtig, was auf eine Infrastruktur-Revolution für Unternehmensrechenzentren hindeutet – dies unterstreicht die Notwendigkeit von KI-fähigen Datenplattformen, die GPUs kontinuierlich mit Daten versorgen können

(Auszug aus der Pressemitteilung)

KI stand auf der vor wenigen Tagen zu Ende gegangenen CES im Mittelpunkt – und die Messe kann eine unerwartete Kristallkugel für Trends in der Unternehmensinfrastruktur sein. Wenn Consumer-Tech-Unternehmen darum wetteifern, KI in alles zu integrieren, von Fernsehern bis zu Toastern, üben sie einen Sog auf die Dateninfrastruktur aus, die all dies ermöglicht. Dieser Sog wird die Unternehmens-IT in einer Weise verändern, auf die die meisten Unternehmen nicht vorbereitet sind.

Anzeige

Die KI-Hardware-Abrechnung: Jeder will den Stack besitzen

Der Auftakt der CES 2026 erfolgte frühzeitig mit der Keynote von Jensen Huang, CEO von NVIDIA, der den Ton für das angab, was die bestimmende Tech-Story des Jahres 2026 sein könnte: die KI-Stack-Revierkämpfe. Huang stellte die Rubin-Computing-Plattformen des Unternehmens vor, die entwickelt wurden, um den enormen Rechenbedarf für KI mit größerer Effizienz zu decken und „KI an die nächste Grenze zu bringen“, so Huang.

Ab hier wird es für Infrastrukturplaner interessant: Laut The Information entwickelt sich 2026 zum „Jahr der Roboter“ für große KI-Unternehmen, wobei Anthropic, Meta, xAI und OpenAI alle vertikal in die Bereiche Hardware, Robotik und humanoide Plattformen expandieren. Alle versuchen, End-to-End-KI-Stacks zu entwickeln – von Silizium über Software bis hin zu tatsächlichen Robotern auf der CES-Ausstellungsfläche.

Dieser Trend zur vertikalen Integration spiegelt ein allgemeineres Muster wider: Wenn Technologie geschäftskritisch wird, wollen Unternehmen den gesamten Stack kontrollieren. Google baut TPUs. Amazon entwickelt Trainium-Chips. Microsoft plante, allein im Jahr 2025 80 Milliarden US-Dollar in die CAPEX für Rechenzentren zu investieren. Der Wettbewerb erstreckt sich über alle Ebenen – Hardware, Cloud-Infrastruktur, Basismodelle und Anwendungen.

Was bedeutet das für die Unternehmens-IT? Der unstillbare Hunger nach KI-Rechenleistung und der damit verbundene Wettlauf um die beste Infrastruktur werden jedes Unternehmen zwingen, sich mit unangenehmen Fragen zu seiner Datenbasis auseinanderzusetzen. Denn obwohl NVIDIA Chips entwickeln und OpenAI Modelle trainieren kann, entsteht ein teurer Engpass, wenn die Speicherebene diese GPUs nicht schnell genug versorgen kann.

Von Consumer-Gadgets zur Realität in Rechenzentren

Berichte von der CES zeigen, dass KI mittlerweile überall Einzug gehalten hat. Der Trend zeigt klar, dass KI sich vollständig von einem hilfreichen Nebenwerkzeug zu einem allgegenwärtigen, im Rampenlicht stehenden Wegbereiter entwickelt hat. Roboter waren natürlich überall zu sehen, aber KI stand auch auf andere, noch wirkungsvollere Weise im Mittelpunkt: indem sie unsichtbar agierte.

KI als Infrastruktur ist nichts Neues, aber ihre Skalierung ist es. Diese Explosion der Consumer-KI schafft eine täuschend einfache Parallele zum Unternehmensbereich: Unternehmen stehen vor der gleichen Herausforderung in großem Maßstab. Die 73 Prozent der Unternehmen, die Bedenken äußern, dass ihre derzeitige Infrastruktur die Anforderungen der KI nicht erfüllen kann, liegen nicht falsch. Und diese Sorge ist durchaus berechtigt, wenn man sich die Zahlen ansieht.

McKinsey prognostiziert, dass bis 2030 Infrastrukturinvestitionen in Höhe von 6,7 Billionen US-Dollar erforderlich sind, um die KI-getriebene Nachfrage zu decken – davon allein 5,2 Billionen US-Dollar für KI-fähige Rechenzentren. Gartner prognostiziert, dass die Ausgaben für Rechenzentrumssysteme bis 2025 um 46,8 Prozent auf 489,5 Milliarden US-Dollar steigen werden, mit einem weiteren Wachstum von 19 Prozent im Jahr 2026. Das ist eine grundlegende Neuberechnung dessen, wieviel Rechenleistung, Netzwerk und Speicherplatz moderne Unternehmen benötigen.

Hier ist die Infrastrukturrealität, die die CES unbeabsichtigt hervorhebt: KI-Workloads verhalten sich nicht wie herkömmliche Anwendungen. Sie sind unvorhersehbar, komplex, multimodal (sie verarbeiten Text, Bilder und Videos gleichzeitig) und erfordern eine massive parallele Datenübertragung, die der GPU-Speicherbandbreite entspricht. Wenn Unternehmen Tausende von GPUs betreiben, die KI-Pipelines durchlaufen, stellt sich nicht die Frage, ob ihr Speicher mithalten kann. Die Frage lautet: Wie schnell können Unternehmen Daten bereitstellen, bevor ihre teuren GPUs in den Leerlauf gehen?​

Die Umstellung auf parallele Dateisysteme, Scale-Out-Architekturen und softwaredefinierten Speicher ist nicht mehr nur ein „Nice-to-have“.

Im Jahr 2026 bestimmen Datenfundamente den Erfolg der KI

Die CES ist der perfekte Wendepunkt, um diese Konvergenz von Consumer-Technologie-Trends, Infrastrukturinvestitionen und Unternehmensprioritäten zu nutzen und einen Blick auf die Zukunft zu werfen. Pure Storage sieht vor allem die folgenden Entwicklungen:

  1. Data Fabric wird geschäftskritisch und ist keine Option mehr
    Die Prognose von Gartner für 2026 betont, dass Data-Fabric-Architekturen, die einen vernetzten, metadatengesteuerten Zugriff über fragmentierte Umgebungen hinweg ermöglichen, sich von einer „hilfreichen“ zu einer geschäftskritischen Infrastruktur für die Autonomie der KI entwickeln werden. Multi-Agent-KI-Systeme, die komplexe Workflows über verschiedene Branchen hinweg automatisieren, erfordern vertrauenswürdige Datenprodukte, aktive Metadaten und Governance auf jeder Ebene. Unternehmen, die Daten als isolierte Silos behandeln, werden Schwierigkeiten haben, mit agentenbasierter KI umzugehen.
  2. Vereinfachung der Infrastruktur durch strategische Konsolidierung
    Die 139 Unternehmen, die „die Bewältigung technischer Komplexität” als oberste Priorität für 2026 nennen, streben keine schrittweisen Verbesserungen an, sondern eine radikale Vereinfachung. Hier liegt der Paradigmenwechsel: Unternehmen sind bereit, sich zu verändern und die Anzahl ihrer Lieferanten zu reduzieren, um im Gegenzug Konsistenz zu erreichen. Dies ist die größte Abkehr von Multi-Vendor-Strategien in jüngster Zeit, die durch die Erkenntnis getrieben ist, dass Lock-in ein geringer Preis für reduzierte Komplexität ist.
  3. Die Speicherleistung bestimmt den ROI der GPU
    Da SSDs von 122 TB auf 256 TB skalieren und Unternehmen Tausende von GPUs einsetzen, wird der Speicherengpass zu einem existenziellen Problem. Die klare Einschätzung von Infrastrukturanalysten ist zutreffend: „Eine 27-Terabyte-Festplatte reicht einfach nicht aus (…) sie hat nicht die erforderliche Kapazität und ist zu langsam.“ Unternehmen, die den Datendurchsatz nicht an die GPU-Kapazität anpassen, werden feststellen, dass ihre teure KI-Infrastruktur ungenutzt bleibt und auf Daten wartet.
    Eine Architektur, die Daten und Metadaten unabhängig voneinander skaliert und eine Leseleistung von 10 TB/s bietet, löst dieses Problem. Wenn Unternehmen Leistungsengpässe aus multimodalen Modellen beseitigen und auf Zehntausende von GPUs skalieren können, ist Storage kein Hindernis mehr, sondern ein Wegbereiter.
  4. Die Effizienz der KI-Infrastruktur wird zum Unterscheidungsmerkmal
    Angesichts steigender Rechenkosten und des Energieverbrauchs, der zu einem betrieblichen Problem wird, entwickelt sich nachhaltiges Computing von einer Initiative zur Unternehmensverantwortung zu einer zwingenden Anforderung. Unternehmen werden KI-optimierten Energieverbrauch, CO2-bewusste Lastverlagerung und Hardware mit geringerem CO2-Fußabdruck priorisieren. Die Infrastruktur, die eine bessere KI-Leistung pro Watt bietet, gewinnt.
  5. Cyber-Resilienz-Architektur übertrumpft Cyber-Versicherungen
    Da Ransomware-Taktiken immer ausgefeilter werden – mit KI-gestütztem Social Engineering, doppelter Erpressung und Angreifern, die Cyberversicherungspolicen stehlen, um Lösegeldforderungen zu benchmarken – reicht eine Versicherung allein nicht mehr aus, um sich zu schützen. Echter Cyber-Schutz beginnt mit einer resilienten Infrastruktur: unveränderliche Daten, schnelle Wiederherstellung und kontinuierliche Überprüfung, dass saubere Kopien vorhanden sind.

Unternehmen, die sich dank KI-gestützter Datenanalyse fünfmal schneller erholen, haben nicht einfach nur Glück – sie haben ihre Architektur von der Speicherebene an auf Resilienz ausgelegt. Im Jahr 2026 lautet die Frage bei Audits nicht mehr „Haben Sie eine Cyberversicherung?“, sondern „Wie schnell können Sie den Betrieb wiederherstellen, ohne Lösegeld zu zahlen?“

Die Schlagzeile der CES: Die Zukunft kommt schnell und Infrastrukturen müssen sich anpassen

Die KI-gestützte Zukunft ist da. Unterhaltungselektronik-Unternehmen integrieren KI überall, weil die Technologie funktioniert, der Wert greifbar ist und sich die Erwartungen der Kunden dauerhaft verändert haben. Die Entwicklung in Unternehmen verläuft ähnlich, nur mit höheren Einsätzen und längeren Beschaffungszyklen. Wenn NVIDIA persönliche KI-Supercomputer ankündigt, Autohersteller LLM-gestützte Fahrzeuge auf den Markt bringen oder große KI-Unternehmen um die Entwicklung humanoider Roboter wetteifern, dann schaffen sie keine spekulativen Prototypen. Sie demonstrieren die Infrastrukturanforderungen, die sich innerhalb weniger Monate auf die Unternehmens-IT auswirken werden.

Pure Storage ist überzeugt: Unternehmen, die die Modernisierung ihrer Infrastruktur als dringende strategische Priorität betrachten, werden 2026 bereit sein, die Zukunft zu unterstützen. Unternehmen, die dies aufschieben, werden ihren Führungskräften erklären müssen, warum KI-Initiativen durch Speicherarchitekturen blockiert werden, die für eine Welt vor der KI entwickelt wurden.