News Nvidia GeForce: Treiber-Bug führt zu hoher Leistungsaufnahme ab 144 Hertz

@MechanimaL: Hab ich leider schon gemacht, deswegen wurde die Karte im Idle auch erst lautlos :) allerdings kann ich die Kurve nicht noch niedriger anlegen, sonst wird sie zu heiß bei 144hz Desktop.
 
Pilstrinker schrieb:
Und das Problem der ebenfalls exorbitanten Idle-Leistungsaufnahme beim Betrieb von 3 oder mehr nicht völlig identischen Monitoren ist Nvidia seit Jahren bekannt und passiert ist...nix!
Jetzt aber mal halblang. AMD hatte die gleiche Problematik mit 2 Monitoren. Und das einzige was jetzt hilft, ist eine neue Grafikkarte von AMD aus der Fiji Reihe zu kaufen.
 
Eben, 2 Monitore sind 100x verbreiteter und da wiegt das Problem bei AMD deutlich schwerer (über viele Generationen steigender Dual Head Verbrauch...) , lediglich die Fiji tritt hier sparsam auf. Gerade auch im Business Umfeld hat man oft 2 Bildschirme vor sich.

Beide Hersteller haben hier diverse Probleme.
 
Zuletzt bearbeitet:
Es geht nicht darum, ob ein anderer Hersteller auch so seine Probleme haben mag oder auch nicht, es geht darum, dass Nvidia seit Jahren nichts tut, um der Sache Herr zu werden.
 
Das stimmt natürlich. Die meisten haben bloß einen, vielleicht zwei Monitore. Das die Zielgruppe für einen solchen fix recht klein ist, stimmt mich negativ bzgl. einer evtl. Verbesserung. :-/ Na mal schauen was die Zunkunft bringt. :)
 
Wie waer es mit einem extra Gaming 144hz treiber von nvidia.

Aber diesmal dann so machen das nur leute die sich per post ident verfahren verifizieren diesen treiber runterladen können.
Am besten auch noch gleich nur menschen zulassen die auch noch ihre letzte lohn abbrechnung dazu packen.
 
Wenn ich mir einen Monitor für 850€ leisten kann und möchte, dann interessiert mich ein etwas höherer Stromverbrauch - zumindest finanziell - eher weniger. Ich sehe hier also das große Problem nicht, lediglich ein nice to have bezüglich der Anpassung.
 
Sorry, aber das ist ja nicht wirklich neu. Ich besitze seit 2 Jahren einen 144Hz Monitor und das Problem bestand schon damals, darum habe ich im Desktopbetrieb nur auf 120hz gestellt.
 
Wenn die den Bug schon ausmerzen, könnten sie auch mal dafür sorgen, dass meine 980ti im 3 Monitorbetrieb nicht mehr so hoch taktet. Kann doch nicht sein, dass man da immernoch auf externe Tools angewiesen ist, die beweisen, dass es ja möglich ist ;)
 
Idon schrieb:
Wenn ich mir einen Monitor für 850€ leisten kann und möchte, dann interessiert mich ein etwas höherer Stromverbrauch - zumindest finanziell - eher weniger. Ich sehe hier also das große Problem nicht, lediglich ein nice to have bezüglich der Anpassung.

Naja, das hat nichts mit Geld zu tun. Das ist einfach nur eine fehlerhafte Implementierung.
Schlimm wärs eigtl. nur wenn man es aufgrund der Architektur nicht beheben kann, aber hierzu wird es definitiv und 10x garantiert keine weitere Stellungnahme mehr geben. Wenn überhaupt, dann wird es aus Feature angepriesen, kennt man ja schon ;)

mfg,
Max
 
Arkada schrieb:
Ich würde allen Betroffenen raten kurzfristig auf eine AMD zu wechseln bevor die böse Überraschung auf der Jahresendabrechnung eures Stromanbieters kommt!

Bei 20€/Jahr Ersparnis wird sich der Kauf einer neuen Grafikkarte natürlich sofort amortisieren!
 
Pilstrinker schrieb:
Es geht nicht darum, ob ein anderer Hersteller auch so seine Probleme haben mag oder auch nicht, es geht darum, dass Nvidia seit Jahren nichts tut, um der Sache Herr zu werden.

na na Moment, dein Post davor zielte genau auf den Vergleich ab, deswegen brachtest du ja AMD ins Spiel.

Die Frage ist was Nvidia hier tun kann. Die AMD Karten haben das DualHead Problem ja genauso, was quasi identisch ist da die Karten (ink. R9 39X) bei 2 Monitoren meines Wissens nicht richtig in den idle Modus wechseln (schon damals bei der HD6950 der Fall, auch bei identischen Displays). Takt ist eins, auch die Spannung muss runter.
Und das geht auch seit Jahren so - wäre das einfach über SW zu lösen gäbs da vielleicht schon lang Abhilfe.

Vielleicht wird aber auch nicht die 100% Stabilität gehalten wenn man hier etwas forciert.

Deswegen darf man wohl gespannt sein ob Nvidia das überhaupt aus der Welt schaffen kann / wird.
 
crazy_tomcat schrieb:
Vielleicht sollte man erst mal lesen bevor man schreibt.
Wieviele haben den einen bedeuted in Deutsch :Wieviele Menschen den überhaupt einen 144 hz Monitor haben ,und nicht ob überhaupt 1 einziger verkauft wurde .Ich weiss Deutsch ist manchmal schon schwierig

Meinst du "denn" mit 2 "n" oder "den" mit einem "n"? Ich habe nur gelesen was du geschrieben hast, wenn du der deutschen Rechtschreibung nicht mächtig bist, ist der Fehler nicht bei mir zu suchen.
Wie war das mit deutsch und schwierig?
 
meine 980 taktekt im single moni betrieb runter, wie sie soll. (144Hz Monitor)
schalte ich allerdings meinen zweit minitor dazu (60HZ), geht sie mit dem takt hoch auf 961,5 MHz und der VRam geht hoch auf 1752,8 MHz.
und die temp geht hoch auf 50°C.

GPUZ 1 Monitor.PNG GPUZ 2 Monitore.PNG

warum gibt es da jetzt soviele unterschiede, wie es sich auf verschiedene systeme auswirkt?
 
Idon schrieb:
Wenn ich mir einen Monitor für 850€ leisten kann und möchte, dann interessiert mich ein etwas höherer Stromverbrauch - zumindest finanziell - eher weniger. Ich sehe hier also das große Problem nicht, lediglich ein nice to have bezüglich der Anpassung.

Wenn aber die Grafikkarte, nur weil sie bei 144Hz zuviel Leistung verbrät, dauernd genau an der Temperaturgrenze rumschrammt, die über Lüfter an oder Lüfter aus entscheidet, dann kann so ein Fehler schon nerven, egal ob einem der Stromverbrauch egal ist oder nicht.
 
Andybmf schrieb:
meine 980 taktekt im single moni betrieb runter, wie sie soll. (144Hz Monitor)
schalte ich allerdings meinen zweit minitor dazu (60HZ), geht sie mit dem takt hoch auf 961,5 MHz und der VRam geht hoch auf 1752,8 MHz.
und die temp geht hoch auf 50°C.

Anhang anzeigen 524596 Anhang anzeigen 524597

warum gibt es da jetzt soviele unterschiede, wie es sich auf verschiedene systeme auswirkt?
Bei mir gibts auch keine probleme auf 970mini (1920x1200 + 1600x1200):
Untitled.jpg



Aber ich würde mir das Thema mal ein bishen ausleihen, weil ich ein paar unbeantwortete fragen habe.

1. Wird es in der zukunft 2016 g-sync TVs geben ?
2. Was ist/wird SLI 3.0 ?
3. Lauft g-sync auch im SLI schon ?
 
Nebenbei interssiert mich auch mit einem 750€ Monitor der Stromverbrauch der Karte. Auf's Jahr gerechnet sind das immerhin über 50€.

Allerdings stört mich der Bug jetzt nicht so sehr, da es eben den relativen komfortablen Workaround mit 120Hz auf dem Desktop gibt. Zwischendurch habe ich übrigens auch den Tweak via Nvidia Inspector's Multi Monitor Power Safer versucht, der hier im Thread erwähnt wurde. Dabei ist nach einem Reboot der Bildschirm größtenteils schwarz geblieben. Das könnte aber auch damit zusammenhängen, dass meine 780 ti undervolted ist.
 
Zurück
Oben