Jahresausblick 2026 von WD: HDDs, NVMe-over Fabrics und Disaggregierter Speicher

(Auszug aus der Pressemitteilung)

Mit dem raschen Fortschritt von Künstlicher Intelligenz steigen die Anforderungen in Sachen Datenspeicherung an Unternehmen ebenso wie die Unsicherheiten. Workloads der neuen Generation (z.B. KI) sind datenhungrig, erfordern immer mehr Kapazität, Leistung sowie Skalierbarkeit und müssen dabei effizient bleiben. Die Lösung für diese Herausforderung können skalierbare, KI-fähige Speicherarchitekturen sein. Vor diesem Hintergrund erläutert Uwe Kemmer, Director EMEA Field Engineering bei WD, drei wichtige Trends, die die Zukunft der Datenspeicherung im KI-Zeitalter prägen.

Anzeige

1. HDDs: Das Fundament von und für KI

Das rasante Wachstum von KI, generativer KI und maschinellem Lernen verbraucht und generiert beispiellose Datenmengen. Laut IDC wird sich das Volumen an weltweit kreierten Informationen innerhalb von fünf Jahren mehr als verdreifachen – von 173,4 Zettabyte im Jahr 2024 auf 527,5 Zettabyte in 2029.

Um mit diesem Tempo mithalten zu können, benötigen Rechenzentren enorme, skalierbare Kapazitäten für die Speicherung und Verarbeitung von Daten, Bildern, Videos und mehr. Im Zeitalter der KI geht es jedoch nicht mehr nur darum, endlos neue Kapazitäten hinzuzufügen. Das käme angesichts der täglichen Informationsflut einer Sisyphusarbeit gleich, die schnell zu Engpässen in Bezug auf Wirtschaftlichkeit, Ressourcen und Platzbedarf führen kann. Stattdessen müssen IT-Entscheidungsträger ihre Infrastrukturen von Anfang an intelligent planen und dabei die jeweiligen Workloads berücksichtigen.

Eine Workload-orientierte Denkweise beim Aufbau einer Speicherarchitektur hilft dabei, die richtige Balance zwischen den Speichermedien zu finden. Während SSDs für „heiße“ Daten (Hochleistungsaufgaben mit geringer Latenz) nach wie vor wichtig sind, werden eine große Menge der Workloads in Rechenzentren weiterhin auf HDDs verbleiben. Das liegt daran, dass die meisten Aufgaben in Rechenzentren keinen sofortigen Zugriff erfordern und daher als „warm“ und/oder „kalt“ eingestuft werden. In diesen Szenarien sind die Gesamtbetriebskosten (TCO) wichtiger als eine geringe Latenz, und HDDs mit hoher Kapazität sind bei großem Umfang deutlich wirtschaftlicher als Flash-Speicherlösungen. Tatsächlich berichtet IDC von einem 5- bis 10-fachen Preisaufschlag pro TB für SSDs gegenüber HDDs. HDDs bieten zuverlässigen, effizienten Speicher in großem Maßstab, weshalb IDC davon ausgeht, dass HDDs bis 2028 einen Anteil von fast 80 % der installierten Basis für Hyperscale-/Cloud-Rechenzentren behalten werden.

WDC Gold PC HDD 3.5 26TB

Die Vorteile von HDDs bei Kapazität, Wirtschaftlichkeit und Nachhaltigkeit werden durch bewährte Innovationen wie Heliumfüllung, ePMR (energieunterstützte senkrechte Magnetaufzeichnung) und SMR (Shingled Magnetic Recording) ermöglicht. In Kombination mit Aufzeichnungstechnologien der nächsten Generation, wie Heat-Assisted Magnetic Recording (HAMR) und Heat-Dot Magnetic Recording (HDMR), werden hochkapazitive HDDs noch dichter und ermöglichen so noch mehr Effizienz in Hyperscale-Umgebungen.

2. Die Zukunft gehört netzwerkgebundenen Festplattengehäusen auf Ethernet-Basis

Die Speicherarchitektur von Unternehmen wird sich in den kommenden Jahren voraussichtlich verändern. SAS (Serial Attached SCSI), die gängigste Massenspeicherschnittstelle in Rechenzentren, stößt zunehmend an ihre Leistungsgrenzen. In Bezug auf Latenz und Durchsatz kann der Standard nicht mit NVMe/PCIe-Ansätzen mithalten und wird zunehmend zu einem Engpass für KI-Anwendungen und andere bandbreitenintensive Workloads.

Eine Alternative zu SAS sind Ethernet-basierte Speicher-Fabrics. Der Vorteil dieser Technologie besteht darin, dass alle Arten von Speichern – Dateisysteme, Datenbankblöcke und Objektspeicher – auf einer einheitlichen Infrastruktur betrieben werden können. Dies erleichtert die Planung, den Betrieb und die Skalierbarkeit. Anstatt jedoch jede einzelne Festplatte direkt über Ethernet anzuschließen, ist es wirtschaftlich sinnvoller, auf intelligente Gehäuse mit hoher Dichte zu setzen. Diese Speicherplattformen können viele Festplatten bündeln und verwalten, fungieren aber auch selbst als Ethernet-Schnittstellen. WD geht davon aus, dass netzwerkgebundene Gehäuse mit hoher Dichte in den kommenden Jahren das Rückgrat zukunftssicherer und KI-fähiger Speicherarchitekturen bilden werden.

Mit der entsprechenden Software tragen diese netzwerkfähigen Gehäuse auch dazu bei, die Verwendung von Shingled Magnetic Recording (SMR) zu demokratisieren. SMR-HDDs sind aufgrund ihrer hohen Speicherdichte für KI-Workloads attraktiv. Allerdings sind sie aufgrund überlappender Spuren schwieriger zu steuern und langsamer zu überschreiben. Ein Fabric-Attached-Gehäuse kann diese Herausforderungen kompensieren. Mit Hilfe von Software-Defined Provisioning fungiert es als Vermittler zwischen der Anwendung und der HDD. Es nimmt viele kleine, zufällige Schreibzugriffe entgegen und bündelt sie im Hintergrund zu großen, sequenziellen Schreibströmen, die SMR-HDDs besonders effizient verarbeiten können. Angepasst an den jeweiligen Workflow, verteilt die Software dynamisch Kapazität und Schreibbandbreite – so reguliert sie gleichzeitig den Energieverbrauch.

3. Disaggregierter Speicher wird zum Effizienz-Booster

Herkömmliche IT-Infrastrukturen (DAS, SAN und NAS) wurden nicht für den Durchsatz und die Skalierbarkeit entwickelt, die moderne Unternehmen benötigen. Aus diesem Grund hat sich das Modell der hyperkonvergenten Infrastruktur (HCI) in den letzten Jahren zu einer beliebten Alternative entwickelt, die einen einheitlichen Weg zur Beschleunigung der Leistung und Skalierung in Rechenzentren bietet. Die rapide Zunahme von KI-Workloads stellt jedoch die Effizienz und Flexibilität dieser einzelnen Infrastrukturmodelle in Frage, die mit dem Risiko von Engpässen verbunden sind.

Disaggregierte Speicherarchitekturen können dabei helfen, diese Herausforderung zu bewältigen. Durch die Entkopplung von Speicher und Rechenleistung können Unternehmen ihre Ressourcen separat skalieren und somit flexibel sowie effizient auf KI-Workloads reagieren. Dies verhindert unnötige Investitionen und teure Überprovisionierung, erhöht die Effizienz und trägt zu niedrigeren Gesamtbetriebskosten bei. Dementsprechend sagen aktuelle Studien voraus, dass sich der Markt für disaggregierte Speicher bis 2033 mehr als verdoppeln wird.

KI wird auch 2026 die Anforderungen an die Dateninfrastruktur weiter verändern, und Speicher mit hoher Kapazität bleiben die wirtschaftliche und nachhaltige Grundlage für diese Workloads der nächsten Generation. Der Schlüssel zur vollständigen Ausschöpfung ihres Potenzials liegt darin, Lösungen an die Workload-Anforderungen anzupassen und skalierbare Systeme aufzubauen, die auch im großen Maßstab effizient arbeiten. Der Weg in die Zukunft besteht nicht nur darin, Kapazitäten hinzuzufügen, sondern Systeme zu entwickeln, die Leistung, Kosten und Nachhaltigkeit im Zettabyte-Zeitalter in Einklang bringen.