Nvidia GeForce: Treiber-Bug führt zu hoher Leistungsaufnahme ab 144 Hertz
Untersuchungen haben gezeigt, dass Nvidia-Grafikkarten beim Betrieb mit einem G-Sync-Monitor bei einer Bildwiederholrate von 144 Hertz oder mehr im Leerlauf höher takten und somit deutlich mehr Strom benötigen. Nvidia hat diesen Umstand als Treiber-Bug bestätigt und eine Behebung des Fehlers versprochen.
Ryan Shrout von PC Perspective hatte nach Hinweis eines Lesers das Problem untersucht. Eine GeForce GTX 980 Ti wurde zusammen mit dem G-Sync-Monitor PG279Q von Asus betrieben, der Bildwiederholraten (Refresh Rates) auch jenseits von 144 Hertz erlaubt. Gemessen wurde die Leistungsaufnahme vom Monitor sowie des Gesamtsystems im Leerlauf bei verschiedenen Refresh Rates. Es zeigte sich, dass der Energiebedarf beim Wechsel von 60 auf 100 und 120 Hertz nur leicht zunahm. Bei 144 Hertz stieg jedoch die Leistungsaufnahme des Systems von 77 auf 134 Watt und damit deutlich an und erreichte bei 165 Hertz sogar hohe 201 Watt im Leerlauf.
Als Ursache wurde die Taktrate der GeForce-GPU ausgemacht, die nur bis 120 Hertz Display-Frequenz bei geringen 135 MHz lag, ab 144 Hertz jedoch auf hohe 885 MHz anstieg, was sich entsprechend in der Leistungsaufnahme des Systems niederschlug. Ein Gegentest mit einer AMD-GPU und einem FreeSync-Monitor zeigte dieses Verhalten nicht.
Nvidias Presseabteilung bestätigte den Umstand gegenüber PC Perspective und sprach von einem Fehler in der Art und Weise „wie unsere GPU Frequenzen für G-Sync und sehr hohe Bildwiederholraten verwaltet“. Abhilfe soll ein kommender Treiber schaffen, wobei kein konkreter Termin genannt wurde.
Ob der Fehler alle G-Sync-Monitore betrifft oder generell bei Nvidia-Grafikkarten auftritt, geht aus den Informationen nicht hervor. Allerdings gab es auch schon viel früher Berichte über eine hohe Leistungsaufnahme bei Nutzung von 144 Hertz in Verbindung mit einer Nvidia-Grafikkarte und auch mit einem Monitor ohne G-Sync.