16.06.2008: Nvidia GeForce GTX 260 und 280
- han_solo
- Chef Hartware.net
- Turtleboard Veteran
- Beiträge: 4822
- Registriert: 08.12.2003, 21:51
- Wohnort: Taiwan
- Kontaktdaten:
16.06.2008: Nvidia GeForce GTX 260 und 280
Ursprünglich hätte an dieser Stelle ein Testbericht der neuen GeForce GTX 280 stehen sollen, aber leider steckt das von Nvidia versprochende Testmuster wohl irgendwo zwischen Paketverteilzentrum und Zoll statt in unserem Testsystem. Deshalb haben wir die Zeit genutzt, einen Blick auf die Neuerungen von GeForce GTX 260 und 280 sowie die Unterschiede zu den bisherigen GeForce-Generationen zu werden. Was die neuen Grafikkarten mit sich bringen, klärt der Report.
http://www.hartware.de/report_424.html
http://www.hartware.de/report_424.html
tut sie leider nicht. schau mal auf tomshardware vorbei. die 9800GX2 outperformt die 280 selbst in crysis öfter als sie sollte.
die 260 ist definitiv die einzige lohnenswerte karte. mal auf ATi warten.
für mich war das erbärmlich, was NV hier als neue serie abliefert. keineswegs wie G80 zu G70/G71 war.
die 260 ist definitiv die einzige lohnenswerte karte. mal auf ATi warten.
für mich war das erbärmlich, was NV hier als neue serie abliefert. keineswegs wie G80 zu G70/G71 war.
Ehrlich gesagt empfinde ich die Testergebnisse bei Computerbase relativ ernüchternd.
Selbst die HD 3870 X2 kann mit der GeForce GTX 280 sowohl von der Leistung (Framerate....von den üblichen Crossfire Problemen mal abgesehen) als auch vom Stromverbrauch her noch relativ gut mithalten und ist dabei sogar noch etwas leiser. Ich rechne jetzt damit das die kommende ATI Generation (HD 4870?) in etwar mit der jetzigen HD 3870 X2 mithalten kann und wenn man dann noch bedenkt das es davon ebenfalls eine doppelchip Karte geben soll.....na dann gute nacht.
Selbst die HD 3870 X2 kann mit der GeForce GTX 280 sowohl von der Leistung (Framerate....von den üblichen Crossfire Problemen mal abgesehen) als auch vom Stromverbrauch her noch relativ gut mithalten und ist dabei sogar noch etwas leiser. Ich rechne jetzt damit das die kommende ATI Generation (HD 4870?) in etwar mit der jetzigen HD 3870 X2 mithalten kann und wenn man dann noch bedenkt das es davon ebenfalls eine doppelchip Karte geben soll.....na dann gute nacht.
Meine Vermutung ist ganz einfach....die HD 4870 wird etwas langsamer als die GTX 280 sein aber die GTX 280 sieht gegen die X2 kein Land mehr....solange Crossfire funktioniert.
Man hat sich bei der GTX 280 warscheinlich auf andere Sachen konzentriert. Auf einen direkten Vergleich zwischen den neuen Karten bin ich allerdings auch schon gespannt.
Man hat sich bei der GTX 280 warscheinlich auf andere Sachen konzentriert. Auf einen direkten Vergleich zwischen den neuen Karten bin ich allerdings auch schon gespannt.
Also mit 55nm dürfte auch die 280gtx interessant werden... mit der veralteten 65nm-technik werden die wohl hoffentlich keine gx2-version rausbringen, ansonsten kann man sich ja gleich nen *was beliebiges lautes einsetzen* in den rechner einbauen :-P
bei computerbase wurden allerdings auch nur (auf ati-seite) catalyst 8.3er eingesetzt, ich finde das macht die tests etwas unglaubwürdig... vor allem da der 8.3er in verbindung mit der x2 noch nicht wirklich ausgereift war...
@hartware.net: bitte nehmt für euren test doch den 8.5er für die radeons =)
bei computerbase wurden allerdings auch nur (auf ati-seite) catalyst 8.3er eingesetzt, ich finde das macht die tests etwas unglaubwürdig... vor allem da der 8.3er in verbindung mit der x2 noch nicht wirklich ausgereift war...
@hartware.net: bitte nehmt für euren test doch den 8.5er für die radeons =)
- han_solo
- Chef Hartware.net
- Turtleboard Veteran
- Beiträge: 4822
- Registriert: 08.12.2003, 21:51
- Wohnort: Taiwan
- Kontaktdaten:
Test muss leider noch warten, erst steht Urlaub an. Ist dieses Jahr dumm gelaufen mit der Terminplanung. Eigentlich hätte alles noch vor meinem Urlaub erledigt sein sollen, aber dann kamen die Verschiebungen und dann kam die Karte nicht und nun kann ich die neuen Karten erst alle im Juli testen. Bad luck.
- Zappenduster
- Fleet Captain
- Beiträge: 2004
- Registriert: 08.03.2004, 17:38
- Wohnort: München
- Kontaktdaten:
-
- Deckschrubber
- Beiträge: 2
- Registriert: 26.06.2008, 16:42
- Wohnort: Pfalz
Also für meine Wenigkeit klingt die 280er GTX doch garnicht so schlecht. Das kommt aber hauptsächlich daher, dass ich mit einem 24 Zöller liebäugele und wenn man bei dessen Auflösung noch AA + AF nutzen möchte, dann kann man nicht genug Power haben.
Die Zwei-Chip-GraKas sind für mich eher keine Option, solange Mikroruckler ein Thema sind. Außerdem hätte ich die Grafikpower gerne in jedem Spiel zur Verfügung. Ich ziehe gelegentlich mal einen alten (persönlichen) Liebling aus dem Regal (Homeworld 2 u.ä.) und es hat einen blöden Beigeschmack, wenn dabei ein zweiter Chip nur Däumchen dreht.
Einzig und alleine ein wirklich gutes P/L-Verhältnis einer kommenden ATI X2 - mit dem angeblich so toll skalierenden und somit Mikroruckler beseitigenden neuen Brückenchip für XFire - könnte mich umstimmen, sollte damit flüssiger Spielgenuß mit aktuelleren Geschichten (Crysis) auf einem 24er hinzubekommen sein. Homeworld 2 fürfte ja selbst mit nur einem Chip noch ansprechend genug aussehen...
Die Zwei-Chip-GraKas sind für mich eher keine Option, solange Mikroruckler ein Thema sind. Außerdem hätte ich die Grafikpower gerne in jedem Spiel zur Verfügung. Ich ziehe gelegentlich mal einen alten (persönlichen) Liebling aus dem Regal (Homeworld 2 u.ä.) und es hat einen blöden Beigeschmack, wenn dabei ein zweiter Chip nur Däumchen dreht.
Einzig und alleine ein wirklich gutes P/L-Verhältnis einer kommenden ATI X2 - mit dem angeblich so toll skalierenden und somit Mikroruckler beseitigenden neuen Brückenchip für XFire - könnte mich umstimmen, sollte damit flüssiger Spielgenuß mit aktuelleren Geschichten (Crysis) auf einem 24er hinzubekommen sein. Homeworld 2 fürfte ja selbst mit nur einem Chip noch ansprechend genug aussehen...
Es gibt keine Frage die so dumm ist, als dass man nicht eine noch dümmere Antwort geben könnte.
@DreamCatcher
Na ja, ich behaupte einfach mal das die Microruckler Geschichte überbewertet wird. Ich bin selbst von einer HD 2900XT auf eine HD 3870 X2 umgestiegen und die X2 war nicht zuletzt in hohen Auflösungen (1920x1200) definitiv deutlich schneller. Wo die Spiele vorher gerne mal an der einen oder anderen Stelle ins stocken gerieten (Quake4 usw.) lief es nach dem Wechsel flüssig.
Zum Thema Homeworld 2....in der Auflösung reicht wohl so ziemlich jede Grafikkarte der aktuellen, gehobenen Leistungsklasse. Das letzte mal wo ich dabei die Aufrüstung bemerkt hatte war beim Wechsel von einem Athlon XP 2500+ auf einen Athlon64 3500+. Gerade die Szene mit dem Kampf um das Portal, also wo seeehr viele Schiffe zum Einsatz kommen, ist extrem Leistungsfressend im Bezug auf den Prozessor. Da das Spiel höchstwarscheinlich nur einen Prozessorkern anspricht zählt hierbei dann auch die Rechenleistung des einzelnen Kernes.
Da ist dann Beispielsweise der Phenom 9550 dann höchstwarscheinlich gerade mal so schnell wie ein oller Athlon64 4000+.
PS: ob die Microruckler gesichte mit der kommenden X2 wirklich erledigt ist wird sich erst noch zeigen müssen....Tests dazu sind ja wohl noch nicht existent.
Na ja, ich behaupte einfach mal das die Microruckler Geschichte überbewertet wird. Ich bin selbst von einer HD 2900XT auf eine HD 3870 X2 umgestiegen und die X2 war nicht zuletzt in hohen Auflösungen (1920x1200) definitiv deutlich schneller. Wo die Spiele vorher gerne mal an der einen oder anderen Stelle ins stocken gerieten (Quake4 usw.) lief es nach dem Wechsel flüssig.
Zum Thema Homeworld 2....in der Auflösung reicht wohl so ziemlich jede Grafikkarte der aktuellen, gehobenen Leistungsklasse. Das letzte mal wo ich dabei die Aufrüstung bemerkt hatte war beim Wechsel von einem Athlon XP 2500+ auf einen Athlon64 3500+. Gerade die Szene mit dem Kampf um das Portal, also wo seeehr viele Schiffe zum Einsatz kommen, ist extrem Leistungsfressend im Bezug auf den Prozessor. Da das Spiel höchstwarscheinlich nur einen Prozessorkern anspricht zählt hierbei dann auch die Rechenleistung des einzelnen Kernes.
Da ist dann Beispielsweise der Phenom 9550 dann höchstwarscheinlich gerade mal so schnell wie ein oller Athlon64 4000+.
PS: ob die Microruckler gesichte mit der kommenden X2 wirklich erledigt ist wird sich erst noch zeigen müssen....Tests dazu sind ja wohl noch nicht existent.