News Nvidia GeForce: Treiber-Bug führt zu hoher Leistungsaufnahme ab 144 Hertz

Bei meiner HD7870 bleibt die GPU bei 144hz zwar auf 2D Takt, dafür taktet der Speicher hoch, bei 120hz aber reiner 2D Takt. Ist aber bekannt und laut AMD ist der 2D Takt am Speicher für 144hz zu wenig.
Mein Problem aber, will die Karte im idle nicht hören und das funktioniert im 144hz modus nicht, deswegen läufts auf 120hz.
Hat jemand einen einfachen Weg gefunden, mit einer AMD schnell zwischen 120 und 144hz zu wechseln, wenn ich zwischen Spiel und Desktop wechsle?
 
ich hatte mit 144 hz mit amd auch, dass die grafikkarte bei einem wert (ich glaub es war die vram clock) nicht mehr in den 2d modus wechselte. mit 120 hz war aber alles gut, deshalb bin ich bis jetzt bei 120hz geblieben.

@guggi4: dann stell doch einfach ne eigene lüfterkurfe ein mit speedfan, oder ändere die der grafikkarte via bios edit.
 
Gute Sache jetzt sollte Nvidia nur endlich zu Potte kommen und ne bessere Kompatibilität fürn Dualscreen Setup à 60Hz + 144Hz bringen.

Ich kann auf je nach Spiel den 60Hz Monitor nicht mehr benutzen, weil mein 144Hz Monitor dann mit 160 FPS anfängt zu ruckeln wie Sau :/...
 
Mr.Seymour Buds schrieb:
Muss hier deutlich widersprechen! ;) Ich brauche alles, außer GeForce Experience.
Meine Erfahrung lehrt eigentlich, dass fast nur diejenigen CUDA überflüssig oder schlecht finden, die noch nie damit gearbeitet haben.
 
SavageSkull schrieb:
AMD macht das halt, sobald man mehr als einen Monitor aktiv betreibt. Es ist nicht so, dass Nvidia etwas scheiße macht, es ist leider so, dass alle nicht perfekt hin bekommen.

Fiji kann sogar drei Monitore im Idle-Takt betreiben. Aber gut, ich mit meinem großen 60HZ Display da da herstellerunabhängig raus.

Nai schrieb:
Meine Erfahrung lehrt eigentlich, dass fast nur diejenigen CUDA überflüssig oder schlecht finden, die noch nie damit gearbeitet haben.

Die wenigsten hier werden damit arbeiten. Für den gemeinen Zocker ist es relativ überflüssig.
 
Zuletzt bearbeitet:
iBankai schrieb:
Wird auch niemals gefixt. Gleiches gilt für das Problem mit zu hohem Takt der Grakas beim Multi-Monitor Setup. ^^
So lange Nvidia auch mit der Mentalität "Kunden sind mir scheißegal, kauft eh jeder meine Produkte" profitabel fährt, wird sich daran auch niemals etwas ändern.

Warhead schrieb:
würde amd nicht so einen hardwaremurks bauen inkl noch viel schlimmer vermurkster treiber und deutlich kurzlebiger hardware, wäre ich schon gewechselt...

Mit drei Displays geht in Leistungsaufnahme bei Nvidia erst richtig nach oben. Das wurde leider nie gefixt. AMD bekommen das seit den Hawaii Chips wesentlich besser hin. Deshalb nutze ich im Moment eine R9 290.

Aber solange die treudoofen Nvidia Liebhaber lieber FUD und Urban Legends über AMD verbreiten, statt Nvidia mal zu erzählen was sie von Nvidia ja halten, wird sich nichts ändern ;-)
 
Knuddelbearli schrieb:
Das ist doch schon seit Monaten ( bzw glaub sogar über n Jahr )bekannt wieso kommt hier die News erst jetzt? ...

wenn das seit einem jahr nicht behoben ist, ist das ja allemal eine news wert. bei amd würde das schon in jedem 2 forumseintrag stehen. gut 150 Watt im leerlauf ist ja wohl der hammer. und da spricht noch irgend jemand von sparsam in zusammenhand mit maxwell.
 
Hi,
dass es nicht bei allen ist, kann ich bestätigen, habe selber einen PG279Q mit einer GTX980. Allerdings keine weiteren Monitore, die hängen an der internen Intel P4600. Und genau wegen der hohen Leistungsaufnahme im Multimonitorbetrieb wollte ich immer zusätzlich die interne Intel haben.
 
chb@ schrieb:
G-Sync GameWorks CUDA GeForce Experience - alles Dinge die niemand braucht.

Teilweise ja. IMHO alles Dinge, die man gut brauchen kann und die die Spielerfahrung positiv beeinflussen. Leider sind es alles proprietäre Technologien und es fehlt der offene Standard. Man sagt, Konkurrenz belebt das Geschäft, aber in manchen Dingen sollten die Hersteller ihren Futterneid abstellen und gemeinsame Sache machen.
 
Kann das sein, dass der "Bug" nur bei Auflösungen größer als Full-HD auftritt ?
Hab jetzt mehrmals im Internet gelesen, dass bei einigen auch mit 144 Hz weiterhin 135 MHz Takt anliegt. Der ein oder andere hatte dabei auch seine Auflösung genannt und die lag bei 1.920 x 1.080...
z.B. hier: http://www.overclock.net/t/1578675/...raw-surprising-amounts-of-power#post_24555522

Denn der getestete Monitor hat ja ne höhere Auflösung von 2.560 × 1.440 Pixeln...
 
Zuletzt bearbeitet:
Und das Problem der ebenfalls exorbitanten Idle-Leistungsaufnahme beim Betrieb von 3 oder mehr nicht völlig identischen Monitoren ist Nvidia seit Jahren bekannt und passiert ist...nix!

Ein Armutszeugnis für Nvidia.
 
Shadow Complex schrieb:
Den einen 144 Hz Monitor? Es gibt schon ein paar mehr, als nur den einen Monitor.
Vielleicht sollte man erst mal lesen bevor man schreibt.
Wieviele haben den einen bedeuted in Deutsch :Wieviele Menschen den überhaupt einen 144 hz Monitor haben ,und nicht ob überhaupt 1 einziger verkauft wurde .Ich weiss Deutsch ist manchmal schon schwierig
 
Ich würde allen Betroffenen raten kurzfristig auf eine AMD zu wechseln bevor die böse Überraschung auf der Jahresendabrechnung eures Stromanbieters kommt!
 
tek9 schrieb:
Mit drei Displays geht in Leistungsaufnahme bei Nvidia erst richtig nach oben. Das wurde leider nie gefixt. AMD bekommen das seit den Hawaii Chips wesentlich besser hin. Deshalb nutze ich im Moment eine R9 290.

Aber solange die treudoofen Nvidia Liebhaber lieber FUD und Urban Legends über AMD verbreiten, statt Nvidia mal zu erzählen was sie von Nvidia ja halten, wird sich nichts ändern ;-)

So schauts aus, und ich habe 4 Displays :D Und dann kommt Oely mit seinen verhaltensoriginellen Kommentaren.
Ich liebäugel auch wieder mit Radeon (AMD) :D Warscheinlich wird HBM2 bei mir einzug halten.

Smagjus schrieb:
Nochmal, es gibt Ausnahmen, wo bestimmte Systemzusammenstellungen ausdrücklich nicht unter dem Problem leiden. Hier taktet die Karte im Idle auch mit 144Hz auf dem Desktop herunter.

Warum ist mir schleierhaft, aber ich habe schon viele Schilderungen von Nutzern gelesen, die zu dieser Gruppe gehören.

Sorry, habe deinen Kommentar erst jetzt gelesen. Wie gesagt: 4 Monitore alle mit 60Hz und bei mir taktet die Karte auf über 963MHz. Dank dem Tool (sogar) nur noch 135MHz-405MHz, wie ich gerade sehe. Im Stromverbrauch sind das bis zu ~100 Watt Unterschied. (geöffnetem Browser und VLC-Wiedergabe)
Es gibt mit Sicherheit Ausnahmen. Aber es wäre schön zu wissen weshalb es dort funktioniert, fals es das wirklich tut. :)

@IndianaX
Unter Last ist die Leistungsaufnahme wurscht, man will ja viele fps. Aber im Idle bzw. niedriger Last muss die Effizienz stimmen. Für mich zumindest.^^
 
Zuletzt bearbeitet:
Interessiert hier wirklich jemand der Stromverbrauch der eine solche Ausrüstung hat?
Das klingt für mich so wie wenn man sich ein 2.0l VW Diesel kauft um umweltfreundlich zu sein ;)
 
hmmm das errinnert mich so etwas an den Bug der AMD Karten bei erweiterten Desktop, wo die Karten bei 2 und mehr Monitoren mehr als 100 W schluckte. Musste künstlich eingebremste werden mit z.B. MSI Afterburner und selbst da was noch ein erhöhter Verbrauch da der Takt nich auf das Niveau vom einen Singlemonitor im Desktop Betrieb runterging.

Was haben das die Nvidia Leute sich drüber ausgelassen. :freak:

Diesen Bug hat aber AMD seit der Hawaii Reihe beseitigt, villeicht sogar schon eher (hatte erst seit Hawaii nen Strommesser).
 
IndianaX schrieb:
Interessiert hier wirklich jemand der Stromverbrauch der eine solche Ausrüstung hat?
Das klingt für mich so wie wenn man sich ein 2.0l VW Diesel kauft um umweltfreundlich zu sein ;)

Letztendlich geht es dabei nicht nur um den Stromverbrauch, sondern auch um die Lautstärke. Eine 980Ti läuft im Idle mit deaktiviertem Lüfter, ist somit also lautlos. Sobald man aber über 120Hz geht, taktet die Karte höher und erzeugt je nach gewähltem Modell auf jeden Fall ein Geräusch. In meinem Silent PC auf jeden Fall deutlich hörbar und deshalb ärgerlich.
 
Zurück
Oben