Leserartikel Nvidia GeForce 8800 GT (G92) - Cool & Quiet

Keine Ahnung.
Es klingt gemein. aber das HowTo erhebt auch leider nicht den Anspruch, mit allen Nvidias zu funktionieren. Es wurde primär für die 8800 GT geschrieben.
 
So...hab noch ein wenig getestet und neue Erkenntnisse gesammelt. Bei ATITool funktionieren beide Quellen nicht richtig (Treiber und Statistics Server). Wenn ich aber 3DMark06 laufen lasse, funktionert es, wenn man als Quelle den Statistics Server, also "Default", wählt. Wählt man den Treiber als Quelle bleibt der Wert bei 1.00.
Außerdem ist mir aufgefallen, dass die Messung der HwAcc nicht direkt an eine 3D-Darstellung gekoppelt ist. Wenn ich die 3DMark Tests unterbreche, bleibt der Wert auf 1.00, bis man auch die Anwendung schließt (diesen Übersichtsbildschirm).

Meine Vermutung ist also, dass der Statistics Server erkennt, wenn eine Direct3D oder OpenGL Anwendung gestartet wird. Die HwAcc bleibt dann solange auf 1.00, bis diese Anwendung wieder geschlossen wird; egal ob dabei etwas in 3D läuft oder nicht. Das würde auch die Ergebnisse von kugel erklären, warum die HwAcc nicht runter geht, wenn man mit Tab oder dem TaskManager aus einem Spiel rausgeht.

Deine Anleitung funktioniert also auch tadellos für G80-Karten unter XP, wenn man den Statistics Server nutzt. Die Ausnahmen bzw. Begrenzungen liegen demzufolge nicht an der Karte oder dem Treiber, sondern an Rivatuner.

Mit dem Nvidia-Treiber als Quelle funktioniert es wie gesagt gar nicht, da bleibt der Wert immer auf 1.00.
 
Wenn man sich nicht auf ATITool und 3DMark06 beschränkt, scheint das HowTo also einwamdfrei zu funktionieren. ;)
 
Mit meiner 640er GTS und der GTX gehts unter XP problemlos mit VRAM als auch HW-Acceleration :)

cYa
 
Die Frage kam sicherlich schon, aber ich habe jetzt nicht alle Beiträge einzeln lesen wollen:

Wie vertragen sich Under-Volting und Over-Clocking? ;) Geht mir durch das Heruntersetzen der GPU-Spannung Übertaktungspotenial verloren? Oder anders herum gefragt: wenn ich die Spannung für die GPU erhöhe, habe ich dann auch mehr Potential für's Übertakten (ähnlich wie bei normalen CPUs)?

Und wie gefährlich ist die Anhebung des GPU-Spannung? Wieviel Volt verträgt die GPU problemlos?

[EDIT]: Noch eine Frage: wenn ich nur die GPU-Spannung herabsetze, die Taktungen aber auf Standard lasse - müsste das nicht auch schon einen geringeren Verbrauch nach sich ziehen?
 
Zuletzt bearbeitet:
Deine Vermutungen sind allesamt korrekt. Und das Anheben der Spannung über das BIOS ist ungefährlich, weil maximal von 1,05 V auf 1,1 V erhöht werden kann, was z.B. bei der 8800 GTS 512 die Standardspannung ist. Diese hat den gleichen Chip, den G92, wird nur besser gekühlt. Kühlung ist also das einzige Problem, um das man sich in diesem Fall Gedanken machen muss.
 
Irgendwie kann ich das Profil für 2D nicht anlegen, weil der Button für "Save overlocking profile" nicht reagiert, sobald ich die Taktraten verändere. Er ist sozusagen "grau".

Habe RivaTuner 2.09 und Foreware 175.16, also von beiden das Neuste.


Weiß wer eine Lösung?


Edit: Ok, habs jetzt einfach so gemacht, indem ich die Settings für 2D eingestellt habe -> OK und nochmal "System Tweaks" geöffnet habe und nun konnte ich das Profil speichern. Schon komisch, aber scheint normal zu sein.
 
Zuletzt bearbeitet:
Nein, das scheint nicht normal zu sein - was Du vergisst ist, noch dem Einstellen einer Taktfrquenz auf Übernehmen zu klicken. Nach dem Übernehmen ist die Schaltfläche nicht mehr grau. Der von Dir beschriebene Weg über OK geht zwar auch, ist aber ein Umweg.
 
Achja, nächstes Problem:

Nibitor erkennt keine Grafikkarte, wenn ich das Bios auslesen möchte. Es erscheint der Error: "Cant connect to to [ja 2x to] Service Manager!" und dann erscheint ein leeres Fenster mit "Available Nvidia graphic devices".


Übrigens: Ist das eigentlich normal, dass meine Grafikkarte im Idle 39°C warm ist und unter Last nur 50-55°C?
 
Zuletzt bearbeitet:
Du solltest ein paar mehr Angaben zu dieser Grafkkarte machen, damit sich die Temperaturwerte diskutieren lassen.
Was NiBiTor angeht, muss man den Fehler wohl hinnehmen.
 
Also ich hab die Ceres 8800 GT (ist ziemlich unbekannt).

Hier ein Bild:

http://www.forumdeluxx.de/forum/showthread.php?t=434849&page=19/#544


Ist auch ziemlich leise, aber hörbar. Ich wollte mal austesten, wie weit man den Fan runterregeln kann, wie sich das auf die Lautstärke auswirkt und wie sich die Temperaturen verhalten.


Hab mein CPU Lüfter (Xigmatek HDT-S1283) auf 900 RPM und Gehäuselüfter auf 600 RPM und auch ordentliche Temperaturen. Bei einem E2200 @ 2,75GHZ idle 21/23°C Core Temperatur und Last bissl was über 40°C. Und wollt jetzt noch den Fan der Graka ein wenig regeln.



Achja: Unter Hardware monitoring beim Rivatuner steht 29,8% Fan duty cycle, auch wenn ich z.B. WC3 spiele ändert sich das nicht. Bedeutet das, dass sich der Lüfter der Grafikkarte mit ca. 30% dreht?
 
Zuletzt bearbeitet:
Beim E2200 solltest Du pauschal noch 15 °C drauf rechnen. Welche Version von CoreTemp benutzt Du?

Die Temperaturen der Karte könnten mit dem Kühler stimmen.

Achso, also Du kannst versuchen, das BIOS in DOS mit nvFlash auszulesen. Dann könnte man mal der Lüftersteuerung auf den Zahn fühlen.
Befehl lautet: nvflash.exe backup name.rom
 
CoreTemp 0.96, 0.98 und 0.99, sowie Everest 4.5 zeigen mir alle die selben Kerntemperaturen an.
 
Und sind alle falsch, die Werte kommen insbesondere idle wohl kaum hin. Wie kalt sollte es bitte in Deinem Raum sein wenn die Kerne eines Prozessors, der idle noch ein paar Watt aufnimmt und in einem Gehäuse sitzt, das bereits einige Kelvin über Umgebung liegt?

Aber das Thema hat schon vor Monaten ellenlange Threads gefüllt: https://www.computerbase.de/forum/threads/temps-bei-den-e4xxx-richtig-auslesen.289075/


Mir ist noch eingefallen, dass man auch mit GPU-Z das BIOS auslesen kann.
 
Mein Funkwecker, der direkt neben mir steht, zeigt 20.8°C Raumtemperatur an. Die CPU Temperatur wird bei Everest im Idle mit 33°C angegeben. Unter Prime ist diese Temperatur auf etwas über 50°C angestiegen. Auch wenn das die Echte wäre, könnte ich damit leben :).


Oki danke, ich konnte mit GPU-Z die Biosversion auslesen und mit Nibitor 4.0 einlesen. Ich folge dann nun mal deinen Guide weiter.
 
Ich kann es nur immer wiederholen. Es gibt KEINE Möglichkeit bei aktuellen Intel Desktop CPUs die Kerntemperaturen auszulesen. Das einzige was ausgelesen werden kann ist die Differenz zur von Intel spezifizierten Maximaltemperatur, die aber niemand kennt. Nach meinem Verständnis der Intel Dokumente weicht diese sogar bei CPUs des gleichen Modells ab.
Die Differenz wird von allen Programmen, egal ob CoreTemp, Everest, Speedfan etc. vollkommen identisch ausgelesen und ist das einzige, woran man sich halten kann.
 
Das Verfahren ist ja nicht so übel, wenn die Programmierer nicht mit falschen Werten hantieren würden. Meiner Erfahrung nach müssen bei den Allendales 15 K dazu gerechnet werden.

Bei den 33 °C CPU-Temperatur liegt u.a. das Problem, neben den 20,8 Raumtemperatur. Letztere wird kaum Kerntemperaturen von gut 20 °C zulassen - thermodynamisch sehr unrealistisch.

Die 33 °C CPU-Temperatur zeigen ebenfalls, dass die ausgelesenen Core-Temps falsch sind, denn die liegen immer über der CPU-Temperatur. Dazu aus dem oben verlinkten Thread folgende Erklärung:

Die Energie, die über den Heatspreader abgeführt wird, mag über der eines einzelnen Kerns liegen (denn er führt ja die zweier Kerne, nich nur eines Kerns ab). Die CPU-Temperatur wird aber niemals höher sein als die Temperatur der Kerne.

Das hängt damit zusammen, dass Heatspreader (HS) und Cores in ständiger Wechselwirkung stehen und sich maximal ein Ausgleich der Temperaturen erzielen lässt. Da man den HS aber kühlt, wird dieser Ausgleich nie erreicht. Wenn er erreicht werden würde, würden Kern- und CPU-Temperatur gem. dem "nullten" Hauptsatz der Thermodynamik einer gemeinsamen Temperatur entgegenstreben.

Auch wenn dem HS nun die Energie beider Kerne zur Verfügung steht (keine Kühlung statt findet), kann er deswegen nicht heißer als die einzelnen Kerne werden, sie würden nämlich das Gleichgewicht anstreben. Das ist wie gesagt schon der krasseste und vor allem nur theoretisch denkbare Fall. In der Praxis lässt sich dieser Fall allein schon wegen natürlicher Konvektion nicht mehr realisieren (das System 'Kerne <-> Heatspreader' müsste 'adiabat' sein) und schon gar nicht, wenn ein Kühlkörper aufsitzt.
 
Wie gesagt die Werte sind leider alle potentiell falsch, egal ob man 15K dazu addiert oder nicht. Die 15K kommen nur durch die unterschiedlichen Annahmen über die Maximaltemperatur zustande (meistens 85 und 100°C).
Diese Annahmen sind allerdings vollständig unbegründet und orientieren sich lediglich an den angegebenen Maximalwerten für mobile Intel CPUs.
 
So, die Lüfter der Grafikkarte drehen nun mit 15% und das läuft recht gut, 38°C im Windows. Mal schaun ob ich die noch weiter runter drehe. Erstmal Lasttemperaturen testen.

Aber noch ein Problem:

Irgendwie will Rivatuner beim windows startup nicht mitstarten. Habe Vista 64 bit. Außerdem fragt mich Vista jedes mal, ob ich Statistics Server die Erlaubnis gebe zum Starten, obwohl ich schon eingestellt habe, dass er das Programm als Administrator ausführt. Bin leider noch nicht so gut bewandert auf dem Gebiet Vista und wäre sehr nett, wenn mir hier jemand helfen könnte.
 
Zurück
Oben