News | Nvidia GeForce GTX Titan X2 im April?

Hier könnt ihr unsere News und Artikel kommentieren.
Die News werden laufend aktualisiert ins Forum geschrieben.
Benutzeravatar
Newsbot
Hartware.net
Beiträge: 9144
Registriert: 06.07.2009, 04:02
Kontaktdaten:

News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von Newsbot » 27.01.2016, 06:48

Grafikkartenfreunde kommen dieses Jahr auf ihre Kosten, denn mit AMD Polaris und Nvidia Pascal erwarten wir von beiden Herstellern neue Generationen mit viel Leistung und hoher Energieeffizienz. Bislang hieß es jedoch, dass wir bis mindestens Mitte dieses Jahres darauf warten müssen, doch jetzt wird berichtet, dass Nvidia schon im April das erste High-End Modell vorstellen wird.


http://www.hartware.de/news_64901.html

lowkres
Deckschrubber
Beiträge: 5
Registriert: 28.12.2012, 13:36

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von lowkres » 27.01.2016, 07:45

Hmm.... also um ehrlich zu sein glaube ich diesem Gerücht überhaupt nicht. AMD scheint wie von vielen schon vermutet einige Monate vorsprung gegenüber Nvidia zu haben. Wie sollen dann die Grafikkarten zeitgleich mit AMD rauskommen? Dann noch der Titan X2 schon im April???? WTF Aprilscherze beginnen schon im Januar oder what??? :P

Benutzeravatar
g1n
Lt. Commander
Beiträge: 204
Registriert: 20.12.2009, 23:20

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von g1n » 27.01.2016, 08:05

klingt für mich bis dato erstmal nach temporärem papiertiger ;)

b_fiek
Ensign
Beiträge: 21
Registriert: 17.11.2012, 13:33

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von b_fiek » 27.01.2016, 08:42

ich gehe einfach mal stumpf der Annahme nach dass Nvidia die Karten schon zu 90% fertig hat und nur auf den Start der neuen AMD-Generation wartet..

DarkBlooster
Commander
Beiträge: 349
Registriert: 03.03.2014, 14:24

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von DarkBlooster » 27.01.2016, 12:48

So schick und kompakt die dargestellte Karte auch aussieht, so sehr stört mich aber, dass ich keine Anschlussmöglichkeit auf den Bildern erkennen kann. Soll das ein PCB sein, was mit einem Träger-PCB verlötet wird, was wiederum dieselben Bohrungen aufweist? Wenn das Endprodukt aber tatsächlich in dieser Form verbaut wird, kann man endlich auf einheitliche Wasserkühler hoffen. Bzw. muss ich mit meinem GPU-only-Kühler kein schlechtes Gewissen mehr haben, dass mir der Speicher evtl. mal zu warm wird, auch wenn mein Mainboard anders herum verbaut ist und sich dort somit keine Hitze stauen kann.

Aber bzgl. AMDs Vorsprung - ich habe mir die Unterschiede zwischen GDDR5X und HBM2 jetzt nicht angeschaut. Aber rein technologisch glaube ich, dass da keine wirklichen Unterschiede sind (vielleicht die Betriebsspannung, k.A. - das stellt aber keinen technologischen Unterschied dar, genauso wenig wie Taktraten, Latenzen, physische Bandbreite usw.). Somit denke ich, dass es kein großer Umstand ist, eine GPU innerhalb kurzer Zeit darauf umzudesignen, wenn die Spannungsversorgung in großzügiger Form zur Verfügung gestellt wird. Und da hier lediglich das Spitzenmodell damit versorgt wird, was ohnehin extrem hochpreisig ist, kann man die Spannungsversorgung auch etwas "verschwenderisch" auslegen. Das gibt den Käufern hinterher zumindest auch den Mehrwert, dass sie gut taktbar ist. Und NVidia hat Zeit, bis zur nächsten Generation auszuloten, wie die Bauteile "wirtschaftlich sinnvoll" dimensioniert werden müssen, um dann auch die reguläre Highend- und gehobene Mittelklasse damit auszustatten.

Benutzeravatar
Made
Lieutenant
Beiträge: 91
Registriert: 29.03.2012, 12:52

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von Made » 28.01.2016, 07:41

Dann solltest du dir mal die technischen Unterschiede zu Gemüte führen ;)

HBM ist nicht nur etwas an der Spannung drehen...
http://www.amd.com/de-de/innovations/so ... logies/hbm
http://www.computerbase.de/2015-06/amd- ... -x-test/2/
Zuletzt geändert von Made am 28.01.2016, 07:43, insgesamt 1-mal geändert.

DarkBlooster
Commander
Beiträge: 349
Registriert: 03.03.2014, 14:24

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von DarkBlooster » 29.01.2016, 04:53

@Made: Das mit dem geringem Takt ist mir neu, lässt aber erfreulicherweise zu, dass die Latenzen erheblich gesenkt werden können, was zusätzlich noch anderweitig große Vorteile bringen könnte. Das erklärt mir jetzt auch, weshalb die Energieeinsparung dahinter so groß ausfallen soll, auch wenn ich die Thematik noch gar nicht auf dem Schirm hatte.
Aber ich lese dort nichts von technologischen Unterschieden in der Art, wie die CPU/GPU mit dem Speicher kommunizieren muss bzw. wie dieser angebunden ist. Lediglich die technische (!!!) Anbindung fällt deutlich breiter aus, was aber in der Natur der Sache liegt. Nur hatte ich bislang 1kBit Bandbreite im Hinterkopf (für alle 4 DIEs zusammen). Die CPU/GPU muss deutlich mehr Datenleitungen für den Speicher bereitstellen, was durchaus einen erheblichen Eingriff darstellen kann, sofern sich das mit alten Chips nicht vielleicht "einfach" quasi per Seriell2Parallel-Wandler umsetzen lässt (wodurch aber zwangsläufig die Latenz erhöht wird). HBM macht nichts anderes, als mehr Speicherchips parallel unter einem Dach für die CPU/GPU zur Verfügung zu stellen. Aus technologischer Sicht dürfte es sich dabei auch nur um DDR-RAM im herkömmlichen Sinn handeln. Aber die von Dir aufgeführten Seiten tauchen leider auch nicht ein bisschen in das Thema ein, sondern zeigen nur die gröbsten Unterschiede. Nur interessiert mich die Thematik jetzt auch nicht sooo sehr, dass ich mir entsprechende wissenschaftliche Abhandlungen darüber reinziehen werde.
Hohe Taktraten über viele Leitungen durch ein PCB zu führen, bedarf weit mehr Erfahrungen und Tests, als wenn sich das alles auf recht kleinem, überschaubarem Gelände abspielt, wo auf darüber- und/oder darunterliegenden Layern nicht noch irgendwelche anderweitigen kritischen Störfrequenzen eingestreut werden.
So oder so, ich freue mich auf den Zeitpunkt, wo CPUs vielleicht mit einem großzügig dimensioniertem L4-Cache dieser Art ausgestattet werden, der vielleicht auch ermöglicht, ohne Speicherriegel arbeiten zu können, sofern einem der L4-Cache reicht. Bis dahin wird sich bei mir sicher auch irgendwann eine Grafikkarte mit HBM"2" (hab ja was beim Lesen gelernt :-D ) im Rechner einfinden :-)

Benutzeravatar
Wildfire
Fleet Captain
Beiträge: 1206
Registriert: 24.01.2011, 11:07

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von Wildfire » 29.01.2016, 07:22

Die Art wie der Speicher angebunden werden muss ist eine komplett andere. Bei GDDR5(x) sitzen mehrere Chips auf der Platine verteilt, jeder Chip wird über max. 32 Adressleitungen angebunden. Das benötigt entsprechend viel Platz. Logisch fasst du mehrere Chips zusammen, z.B. zu einem 256 Bit breiten Bus. Bei HBM(2) sitzen GPU und RAM auf einem gemeinsamen Interposer. Ein RAM-Chip ist intern ein Stapel aus mehreren Chips, ein Stapel wird mit einem bis zu 1,024 Bit breiten Bus angebunden.

Das ändert sowohl die Bausweise der Karte als auch das Speicherinterface der GPU. Wenn das für dich keine technologischen Unterschiede sind, was dann?

Auf High-Level ist alles irgendwie "RAM". Wenn du es auf dieser Ebene betrachtest wirst du nie Unterschiede finden. In der Realität ist es so: GDDR5 kann man quasi direkt durch GDDR5x ersetzen, für HBM/HBM2 brauchst du einen Interposer, damit verbunden ein anderes Design der Karte und ein geändertes Speicherinterface.

Auf einer günstigen Einsteigerkarte wirst du HBM/HBM2 daher vorerst nicht finden. Zum einen ist er (noch) sehr teuer, und die Idee den Interposer durch ein zusätzliches S2P-Bauteil irgendwie zu umgehen... naja :D Ich baue doch keinen Speicher mit breitem Bus ein um den dann durch ein "Getriebe" dazwischen wieder auf brauchbare Busbreite runterzudrehen. Wenn du 1,024 Bit zu 256 Bit umwandelst bräuchtest du auf der schmalen Seite den 4-fachen Takt damit alles was ankommt mit derselben Geschwindigkeit abtransportiert wird.
DarkBlooster hat geschrieben:... hatte ich bislang 1kBit Bandbreite im Hinterkopf ...
Bandbreite ist eine Geschwindigkeitsangabe, also Irgendwas/Sekunde. Was du da nennst ist die Breite des Buses. Ein GDDR5-Chip (32 Bit) liefert bis zu 7 Gb/s ein HBM-Stapel (1,024 Bit) bis zu 125 Gb/s.

Tipp: Absätze steigern die Lesbarkeit.

DarkBlooster
Commander
Beiträge: 349
Registriert: 03.03.2014, 14:24

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von DarkBlooster » 30.01.2016, 22:31

@Wildfire: Sorry für die falsche Verwendung des Wortes Bandbreite! Natürlich handelt es sich dabei um eine Angabe einer möglichen Menge innerhalb eines üblicherweise direkt mit angegebenen Zeitraums. Asche auf mein Haupt!
Und Absätze werden gesetzt, wenn sie angebracht sind - also lediglich dann, wenn ich umsteige. Die Lesbarkeit ist dabei irrelevant.

Ich glaube, Du verwechselst Unterschiede in der Technologie mit Unterschieden in der technischen Anbindung, bzw. stellst beide Definitionen gleich.

Ich glaube, hier ist mal wieder ein Kfz-Vergleich angebracht, zumal Du selbst von einem Getriebe gesprochen hast:
Verbrennungs- und Elektromotoren -> zwei unterschiedliche Technologien. Die technische Anbindung an die Räder ist "dieselbe", sofern man den Antrieb als Ganzes betrachtet. Die technische Anbindung des Fahrers ist momentan auch noch "dieselbe", aber da wird ja gerade an eifrig an einem Technologiewechsel geforscht. Der Unterschied zwischen Diesel- und Benzin-Verbrenner ist definitiv auch noch als technologischer Unterschied anzuerkennen, da beide Verfahren zwar das selbe Resultat schon innerhalb des Motorblocks erzeugen, aber der Weg dorthin ein anderer ist.

Kommen wir auf GPUs zurück:
Der Wechsel von spezialisierten Shadern auf die Unified Shader ist ganz eindeutig kein Technologiewechsel, sondern lediglich ein technischer Wechsel, wie sie angesprochen werden und welches Aufgabengebiet sie abhandeln können. Mit ganz viel gutem Willen und fest zugedrücktem Auge kann man es evtl. noch als technologischen Wechsel (im Sinne der Evolution, und um Diskussionen über fehlinterpretierte Wortdefinitionen zu vermeiden) durchwinken.

CPUs:
Mehrere Kerne auf einer CPU, egal ob sie sich das Silizium teilen, oder jeder dieser Kerne ein separates Stück Silizium darstellt, ist kein Wechsel der Technologie. Einzig und allein die Art der Kommunikation der einzelnen Kerne untereinander hat, wenn ich mich nicht täusche, einen Technologiewechsel erfahren. Das wäre dann beim Kfz vergleichbar mit dem Unterschied zwischen den Getriebearten. Desweiteren wurde mit dem L3-Cache eine weitere Technologie eingebunden, die vorher einfach nicht da war.
Der Wechsel von SDR- auf DDR-RAM kann auch hier, wie bereits bei den Unified Shadern, mit viel gutem Willen noch gerade so als technologische Weiterentwicklung betrachtet werden.

Mehr geht immer - ob GPU-/CPU-Kerne, Shader, Datenleitungen, Zylinder, Gänge oder was auch immer. Aber damit ist es noch lange keine neue Technologie. Dass dies eine Neuentwicklung oder Anpassung eines Teils der Technologie zur Folge hat, ist dabei ganz normal. Und dass S2P-Wandler eine Latenz mitbringen, hatte ich ja bereits erwähnt. Es ist nur einfach eine Möglichkeit, um einen niedriger getakteten breiten Bus an einen hochgetakteten schmaleren Bus anzubinden, sodass zum testen der technologische Teil -> die vorhandenen, begrenzten Datenleitung der GPU <- nicht angepasst/erweitert werden muss. Ob die Dinger nun auf einem Interposer direkt neben der GPU sitzen und dadurch kürzere Datenleitungen angewandt werden können, ändert nichts daran, dass hier vermutlich (!!!) weiterhin dieselbe DDR-Technologie eingesetzt wird -> nur eben ein paar mehr davon (Stichwort Multi-CPU/-GPU). Denn meine Aussage geht in die Richtung, dass bspw. eine Titan vermutlich wunderbar an einen dieser HBM-Chips angebunden werden kann, ohne irgendwelche nennenswerten Änderungen durchzuführen. Dass dann ein Teils des Chips brach liegt und der angebundene Teil dann quantitativ etwas mager ausfällt, spielt keine Rolle.
Insofern müsste man auch hier das Auge fest zudrücken, um es als neue Technologie anzuerkennen.

Benutzeravatar
Wildfire
Fleet Captain
Beiträge: 1206
Registriert: 24.01.2011, 11:07

Re: News | Nvidia GeForce GTX Titan X2 im April?

Ungelesener Beitrag von Wildfire » 31.01.2016, 10:25

DarkBlooster hat geschrieben:Und Absätze werden gesetzt, wenn sie angebracht sind - also lediglich dann, wenn ich umsteige. Die Lesbarkeit ist dabei irrelevant.
Lesbarkeit ist, aus meiner Sicht, das A und O. Außer du führst gerne Selbstgespräche. Ich fand den Betrag davor auf jeden Fall sehr mühevoll zu lesen. Normal ignoriere ich solche Textwände einfach.
DarkBlooster hat geschrieben:Ich glaube, Du verwechselst Unterschiede in der Technologie mit Unterschieden in der technischen Anbindung, bzw. stellst beide Definitionen gleich.
Ja, ich gebe zu, dass ich die beiden Begriffe nicht klar trenne. Auf hoher Ebene sind es primär technische Unterschiede, die Technologie (Arbeitsspeicher) ist dieselbe. Die Art und Weise wie der Speicher angebunden werden muss stellt aber sehr wohl eine neue Technologie dar und erfordert entsprechende Änderungen am Design der Karte. Ein GDDR benötigt keinen Interposer. Ein GDDR erlaubt nicht mehrere Speicher zu stapeln und zu einen Chip zusammenzufassen.
DarkBlooster hat geschrieben:Ich glaube, hier ist mal wieder ein Kfz-Vergleich angebracht, zumal Du selbst von einem Getriebe gesprochen hast:
Verbrennungs- und Elektromotoren -> zwei unterschiedliche Technologien. Die technische Anbindung an die Räder ist "dieselbe", sofern man den Antrieb als Ganzes betrachtet. Die technische Anbindung des Fahrers ist momentan auch noch "dieselbe", aber da wird ja gerade an eifrig an einem Technologiewechsel geforscht. Der Unterschied zwischen Diesel- und Benzin-Verbrenner ist definitiv auch noch als technologischer Unterschied anzuerkennen, da beide Verfahren zwar das selbe Resultat schon innerhalb des Motorblocks erzeugen, aber der Weg dorthin ein anderer ist.
Ich habe mir die Unterschiede zwischen Benziner und Elektromotor jetzt nicht angeschaut. Aber rein technologisch glaube ich, dass da keine wirklichen Unterschiede sind (vielleicht die Übersetzung, k.A. - das stellt aber keinen technologischen Unterschied dar, genauso wenig wie Art des Treibstoffs, Drehmoment, Getriebe usw.).

Der Elektromotor wandelt Energie aus einem (chemischen) Energiespeicher in mechanische Energie um. Meinetwegen ist die Art des Anschlusses ein wenig anders, andere Drehzahl und Übersetzung, aber im Endeffekt bringen alle Motoren durch Energie etwas zum rotieren und man bewegt sich damit auf der Straße fort. Also, alles dieselbe Technologie nur die Technik dahinter ist eine andere. Wenn du andere Technologie willst solltest du wohl einen Raketenantrieb heranziehen ;)

Wie oben schon gesagt, ist es eine Sache der Betrachtungsebene. Ja, die Technologie ist, auf hoher Ebene betrachtet, exakt dieselbe. Tatsache ist, dass du GDDR nicht einfach durch HBM ersetzen kannst. Genauso wie du einen Verbrenner nicht einfach durch einen E-Motor ersetzen kannst.

Antworten