In der Welt der Hochleistungschips klafft aktuell eine gewaltige Lücke: Auf der einen Seite steht der kostengünstige, aber limitierte GDDR-Speicher, auf der anderen der extrem performante, aber sündhaft teure HBM. Micron arbeitet nun Berichten zufolge an einer Architektur, die genau dazwischen ansetzt – durch vertikales Stapeln von GDDR-Dies.
Die Anforderungen an moderne Speicherlösungen wachsen durch den KI-Boom exponentiell. Während Nvidias Blackwell-GPUs und ähnliche Beschleuniger für das Training gigantischer Sprachmodelle fast ausschließlich auf High Bandwidth Memory (HBM) setzen, könnte Micron bald eine effizientere Brücke für den Massenmarkt schlagen. Branchenberichten zufolge entwickelt das Unternehmen eine neue Architektur auf Basis von vertikal gestapeltem GDDR.
Die Idee hinter „Stacked GDDR“ ist so simpel wie genial: Mehrere Speicher-Dies werden innerhalb eines einzigen Gehäuses (Package) übereinander gestapelt. Damit verfolgt Micron zwei Hauptziele: Höhere Dichte und Bandbreite mit mehr Speicher auf gleichem Raum, der für deutlich mehr Kapazität pro Modul sorgt, sowie Kosteneffizienz, den im Gegensatz zu HBM benötigt gestapelter GDDR keine komplexen und teuren Silizium-Interposer. Das macht das Design skalierbarer und deutlich günstiger in der Produktion.
Warum ist das wichtig? Während das Training von KI-Modellen maximale Bandbreite benötigt, sieht es bei der Inferenz – also dem Ausführen bereits trainierter Modelle – anders aus. Hier kommt es oft mehr auf die Speicherkapazität und ein gesundes Preis-Leistungsverhältnis an.
Aktuell dominiert GDDR zwar noch bei Gaming-Grafikkarten und kleineren KI-Inferenz-Beschleunigern, stößt dort aber zunehmend an seine Kapazitätsgrenzen. Stacked GDDR könnte hier der „Sweet Spot“ werden: genug Leistung für professionelle Grafikkarten und Mid-Range-KI-Hardware, ohne die astronomischen Kosten von HBM-Lösungen.
Sollte Micron das Vorhaben erfolgreich umsetzen, könnte dies den Markt für Speicherlösungen ordentlich aufmischen. Die Konkurrenz von Samsung und SK Hynix wird genau beobachten, ob sich hier ein neuer Standard zwischen dem Premium-Segment (HBM) und dem klassischen GDDR-Speicher etabliert.
Bis wir die ersten Chips in Aktion sehen, ist allerdings noch Geduld gefragt. Ein erster Prototyp wird für das Jahr 2027 erwartet. Es handelt sich also um ein langfristiges Projekt, das jedoch einen klaren Trend in der Industrie markiert: Die Suche nach hybriden Wegen, um den unersättlichen Hunger nach Speicher für KI und High-Performance-Computing (HPC) nachhaltig und bezahlbar zu stillen.
Quelle: IT Home (China)


Neueste Kommentare
24. März 2026
8. März 2026
6. März 2026
4. März 2026
28. Februar 2026
26. Februar 2026