VGA: Mehr Strom bei 2 Monitoren

Nvidia erklärt, warum Taktraten bei 2 Monitoren nicht abgesenkt werden

Letzte Woche hatte Hartware.net vom höheren Stromverbrauch aktueller Grafikkarten berichtet, wenn zwei oder mehr Monitore parallel betrieben werden. Der Grund ist ganz einfach: Die Taktraten werden z.B. bei Radeon HD 5800 und GeForce GTX 200 nicht mehr so weit reduziert, wenn mehr als ein Monitor angeschlossen ist. Warum das so ist, hat uns Nvidia auf unsere Anfrage hin erklärt.

Anzeige

Nach Auskunft von Nvidia besitzen ihre Grafikchips zwei sogenannte Displayheads, die nicht synchronisiert sind und unabhängig voneinander arbeiten. So ist der Betrieb von zwei völlig verschiedenen Monitoren an einer Grafikkarte möglich.
Der Wechsel in einen niedrigeren Takt geschieht in den sogenannten Blankphasen der Monitordarstellung, also wenn gerade kein Bild an den Bildschirm geschickt wird. Da das in modernen Systemen „nur“ 60 Bilder pro Sekunde sind, ist dafür genügend Zeit für High-End-Grafikchips.
Wird dies aber beim Betrieb mehrerer Monitore durchgeführt, entsteht in vielen Fällen auf dem zweiten Monitor ein Flackern, weil die beiden Diplayheads eben nicht synchronisiert sind.
Hauptsächlich ist hierfür der Speichertakt entscheidend, weshalb in der Vergangenheit z.B. bei den Radeon HD 4800 und GeForce 8 Serien ganz auf die Absenkung des Speichertaktes verzichtet wurde, auch bei nur einem Monitor. Bei den neueren Modellen wie Radeon HD 5800 und GeForce GTX 285, die im Desktop-Betrieb (Idle) sowohl Chip- als auch RAM-Takt reduzieren, ist der Unterschied bei einem oder zwei Bildschirmen deshalb viel größer. Ähnliches hatten die Kollegen von HardTecs4U vor einiger Zeit ebenfalls festgestellt.
Warum der Chiptakt z.B. der GeForce GTX 285 beim Anschluss von zwei Monitoren nicht gesenkt wird, konnte Nvidia nicht beantworten, aber es dürfte am Zusammenspiel von Chip- und Speichertakt liegen. Die andere Architektur der Radeon HD 5000 Serie erlaubt es offenbar, denn eine 5850 beispielsweise arbeitet auch mit zwei Bildschirmen bei einem reduzierten Chiptakt. Allerdings ist dieser bei zwei Monitoren nicht ganz so niedrig wie mit nur einem.

Leider hat AMD trotz Nachfrage von Hartware.net bislang nicht Stellung zu diesem Thema bezogen, aber man darf davon ausgehen, dass der Grund für den höheren Stromverbrauch im Multi-Monitor-Betrieb trotz anderer Chiparchitektur ähnlich sein wird.

Quelle: Eigene

Frank Schräer

Herausgeber, Chefredakteur und Webmaster

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.