Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Leserartikel Nvidia GeForce 8800 GT (G92) - Cool & Quiet
- Ersteller Sebastian
- Erstellt am
Moros
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.350
So...hab noch ein wenig getestet und neue Erkenntnisse gesammelt. Bei ATITool funktionieren beide Quellen nicht richtig (Treiber und Statistics Server). Wenn ich aber 3DMark06 laufen lasse, funktionert es, wenn man als Quelle den Statistics Server, also "Default", wählt. Wählt man den Treiber als Quelle bleibt der Wert bei 1.00.
Außerdem ist mir aufgefallen, dass die Messung der HwAcc nicht direkt an eine 3D-Darstellung gekoppelt ist. Wenn ich die 3DMark Tests unterbreche, bleibt der Wert auf 1.00, bis man auch die Anwendung schließt (diesen Übersichtsbildschirm).
Meine Vermutung ist also, dass der Statistics Server erkennt, wenn eine Direct3D oder OpenGL Anwendung gestartet wird. Die HwAcc bleibt dann solange auf 1.00, bis diese Anwendung wieder geschlossen wird; egal ob dabei etwas in 3D läuft oder nicht. Das würde auch die Ergebnisse von kugel erklären, warum die HwAcc nicht runter geht, wenn man mit Tab oder dem TaskManager aus einem Spiel rausgeht.
Deine Anleitung funktioniert also auch tadellos für G80-Karten unter XP, wenn man den Statistics Server nutzt. Die Ausnahmen bzw. Begrenzungen liegen demzufolge nicht an der Karte oder dem Treiber, sondern an Rivatuner.
Mit dem Nvidia-Treiber als Quelle funktioniert es wie gesagt gar nicht, da bleibt der Wert immer auf 1.00.
Außerdem ist mir aufgefallen, dass die Messung der HwAcc nicht direkt an eine 3D-Darstellung gekoppelt ist. Wenn ich die 3DMark Tests unterbreche, bleibt der Wert auf 1.00, bis man auch die Anwendung schließt (diesen Übersichtsbildschirm).
Meine Vermutung ist also, dass der Statistics Server erkennt, wenn eine Direct3D oder OpenGL Anwendung gestartet wird. Die HwAcc bleibt dann solange auf 1.00, bis diese Anwendung wieder geschlossen wird; egal ob dabei etwas in 3D läuft oder nicht. Das würde auch die Ergebnisse von kugel erklären, warum die HwAcc nicht runter geht, wenn man mit Tab oder dem TaskManager aus einem Spiel rausgeht.
Deine Anleitung funktioniert also auch tadellos für G80-Karten unter XP, wenn man den Statistics Server nutzt. Die Ausnahmen bzw. Begrenzungen liegen demzufolge nicht an der Karte oder dem Treiber, sondern an Rivatuner.
Mit dem Nvidia-Treiber als Quelle funktioniert es wie gesagt gar nicht, da bleibt der Wert immer auf 1.00.
Moros
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.350
Eigentlich ja auch für 3DMark. ATITool nutzt wahrscheinlich kein Direct3D oder OpenGL??
Bei Spielen hat man das Phänomen mit dem verzögerten Absinken der HwAcc ja nicht, da es direkt in 3D startet und auch nie irgendwas in 2D läuft.
@edit
Man könnte das HowTo also auch auf die G80-Karten ausdehnen
Bei Spielen hat man das Phänomen mit dem verzögerten Absinken der HwAcc ja nicht, da es direkt in 3D startet und auch nie irgendwas in 2D läuft.
@edit
Man könnte das HowTo also auch auf die G80-Karten ausdehnen
King_Rollo
Commander
- Registriert
- Feb. 2006
- Beiträge
- 3.023
Die Frage kam sicherlich schon, aber ich habe jetzt nicht alle Beiträge einzeln lesen wollen:
Wie vertragen sich Under-Volting und Over-Clocking? Geht mir durch das Heruntersetzen der GPU-Spannung Übertaktungspotenial verloren? Oder anders herum gefragt: wenn ich die Spannung für die GPU erhöhe, habe ich dann auch mehr Potential für's Übertakten (ähnlich wie bei normalen CPUs)?
Und wie gefährlich ist die Anhebung des GPU-Spannung? Wieviel Volt verträgt die GPU problemlos?
[EDIT]: Noch eine Frage: wenn ich nur die GPU-Spannung herabsetze, die Taktungen aber auf Standard lasse - müsste das nicht auch schon einen geringeren Verbrauch nach sich ziehen?
Wie vertragen sich Under-Volting und Over-Clocking? Geht mir durch das Heruntersetzen der GPU-Spannung Übertaktungspotenial verloren? Oder anders herum gefragt: wenn ich die Spannung für die GPU erhöhe, habe ich dann auch mehr Potential für's Übertakten (ähnlich wie bei normalen CPUs)?
Und wie gefährlich ist die Anhebung des GPU-Spannung? Wieviel Volt verträgt die GPU problemlos?
[EDIT]: Noch eine Frage: wenn ich nur die GPU-Spannung herabsetze, die Taktungen aber auf Standard lasse - müsste das nicht auch schon einen geringeren Verbrauch nach sich ziehen?
Zuletzt bearbeitet:
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Deine Vermutungen sind allesamt korrekt. Und das Anheben der Spannung über das BIOS ist ungefährlich, weil maximal von 1,05 V auf 1,1 V erhöht werden kann, was z.B. bei der 8800 GTS 512 die Standardspannung ist. Diese hat den gleichen Chip, den G92, wird nur besser gekühlt. Kühlung ist also das einzige Problem, um das man sich in diesem Fall Gedanken machen muss.
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
Irgendwie kann ich das Profil für 2D nicht anlegen, weil der Button für "Save overlocking profile" nicht reagiert, sobald ich die Taktraten verändere. Er ist sozusagen "grau".
Habe RivaTuner 2.09 und Foreware 175.16, also von beiden das Neuste.
Weiß wer eine Lösung?
Edit: Ok, habs jetzt einfach so gemacht, indem ich die Settings für 2D eingestellt habe -> OK und nochmal "System Tweaks" geöffnet habe und nun konnte ich das Profil speichern. Schon komisch, aber scheint normal zu sein.
Habe RivaTuner 2.09 und Foreware 175.16, also von beiden das Neuste.
Weiß wer eine Lösung?
Edit: Ok, habs jetzt einfach so gemacht, indem ich die Settings für 2D eingestellt habe -> OK und nochmal "System Tweaks" geöffnet habe und nun konnte ich das Profil speichern. Schon komisch, aber scheint normal zu sein.
Zuletzt bearbeitet:
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Nein, das scheint nicht normal zu sein - was Du vergisst ist, noch dem Einstellen einer Taktfrquenz auf Übernehmen zu klicken. Nach dem Übernehmen ist die Schaltfläche nicht mehr grau. Der von Dir beschriebene Weg über OK geht zwar auch, ist aber ein Umweg.
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
Achja, nächstes Problem:
Nibitor erkennt keine Grafikkarte, wenn ich das Bios auslesen möchte. Es erscheint der Error: "Cant connect to to [ja 2x to] Service Manager!" und dann erscheint ein leeres Fenster mit "Available Nvidia graphic devices".
Übrigens: Ist das eigentlich normal, dass meine Grafikkarte im Idle 39°C warm ist und unter Last nur 50-55°C?
Nibitor erkennt keine Grafikkarte, wenn ich das Bios auslesen möchte. Es erscheint der Error: "Cant connect to to [ja 2x to] Service Manager!" und dann erscheint ein leeres Fenster mit "Available Nvidia graphic devices".
Übrigens: Ist das eigentlich normal, dass meine Grafikkarte im Idle 39°C warm ist und unter Last nur 50-55°C?
Zuletzt bearbeitet:
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
Also ich hab die Ceres 8800 GT (ist ziemlich unbekannt).
Hier ein Bild:
http://www.forumdeluxx.de/forum/showthread.php?t=434849&page=19/#544
Ist auch ziemlich leise, aber hörbar. Ich wollte mal austesten, wie weit man den Fan runterregeln kann, wie sich das auf die Lautstärke auswirkt und wie sich die Temperaturen verhalten.
Hab mein CPU Lüfter (Xigmatek HDT-S1283) auf 900 RPM und Gehäuselüfter auf 600 RPM und auch ordentliche Temperaturen. Bei einem E2200 @ 2,75GHZ idle 21/23°C Core Temperatur und Last bissl was über 40°C. Und wollt jetzt noch den Fan der Graka ein wenig regeln.
Achja: Unter Hardware monitoring beim Rivatuner steht 29,8% Fan duty cycle, auch wenn ich z.B. WC3 spiele ändert sich das nicht. Bedeutet das, dass sich der Lüfter der Grafikkarte mit ca. 30% dreht?
Hier ein Bild:
http://www.forumdeluxx.de/forum/showthread.php?t=434849&page=19/#544
Ist auch ziemlich leise, aber hörbar. Ich wollte mal austesten, wie weit man den Fan runterregeln kann, wie sich das auf die Lautstärke auswirkt und wie sich die Temperaturen verhalten.
Hab mein CPU Lüfter (Xigmatek HDT-S1283) auf 900 RPM und Gehäuselüfter auf 600 RPM und auch ordentliche Temperaturen. Bei einem E2200 @ 2,75GHZ idle 21/23°C Core Temperatur und Last bissl was über 40°C. Und wollt jetzt noch den Fan der Graka ein wenig regeln.
Achja: Unter Hardware monitoring beim Rivatuner steht 29,8% Fan duty cycle, auch wenn ich z.B. WC3 spiele ändert sich das nicht. Bedeutet das, dass sich der Lüfter der Grafikkarte mit ca. 30% dreht?
Zuletzt bearbeitet:
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Beim E2200 solltest Du pauschal noch 15 °C drauf rechnen. Welche Version von CoreTemp benutzt Du?
Die Temperaturen der Karte könnten mit dem Kühler stimmen.
Achso, also Du kannst versuchen, das BIOS in DOS mit nvFlash auszulesen. Dann könnte man mal der Lüftersteuerung auf den Zahn fühlen.
Befehl lautet: nvflash.exe backup name.rom
Die Temperaturen der Karte könnten mit dem Kühler stimmen.
Achso, also Du kannst versuchen, das BIOS in DOS mit nvFlash auszulesen. Dann könnte man mal der Lüftersteuerung auf den Zahn fühlen.
Befehl lautet: nvflash.exe backup name.rom
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
CoreTemp 0.96, 0.98 und 0.99, sowie Everest 4.5 zeigen mir alle die selben Kerntemperaturen an.
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Und sind alle falsch, die Werte kommen insbesondere idle wohl kaum hin. Wie kalt sollte es bitte in Deinem Raum sein wenn die Kerne eines Prozessors, der idle noch ein paar Watt aufnimmt und in einem Gehäuse sitzt, das bereits einige Kelvin über Umgebung liegt?
Aber das Thema hat schon vor Monaten ellenlange Threads gefüllt: https://www.computerbase.de/forum/threads/temps-bei-den-e4xxx-richtig-auslesen.289075/
Mir ist noch eingefallen, dass man auch mit GPU-Z das BIOS auslesen kann.
Aber das Thema hat schon vor Monaten ellenlange Threads gefüllt: https://www.computerbase.de/forum/threads/temps-bei-den-e4xxx-richtig-auslesen.289075/
Mir ist noch eingefallen, dass man auch mit GPU-Z das BIOS auslesen kann.
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
Mein Funkwecker, der direkt neben mir steht, zeigt 20.8°C Raumtemperatur an. Die CPU Temperatur wird bei Everest im Idle mit 33°C angegeben. Unter Prime ist diese Temperatur auf etwas über 50°C angestiegen. Auch wenn das die Echte wäre, könnte ich damit leben .
Oki danke, ich konnte mit GPU-Z die Biosversion auslesen und mit Nibitor 4.0 einlesen. Ich folge dann nun mal deinen Guide weiter.
Oki danke, ich konnte mit GPU-Z die Biosversion auslesen und mit Nibitor 4.0 einlesen. Ich folge dann nun mal deinen Guide weiter.
Moros
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.350
Ich kann es nur immer wiederholen. Es gibt KEINE Möglichkeit bei aktuellen Intel Desktop CPUs die Kerntemperaturen auszulesen. Das einzige was ausgelesen werden kann ist die Differenz zur von Intel spezifizierten Maximaltemperatur, die aber niemand kennt. Nach meinem Verständnis der Intel Dokumente weicht diese sogar bei CPUs des gleichen Modells ab.
Die Differenz wird von allen Programmen, egal ob CoreTemp, Everest, Speedfan etc. vollkommen identisch ausgelesen und ist das einzige, woran man sich halten kann.
Die Differenz wird von allen Programmen, egal ob CoreTemp, Everest, Speedfan etc. vollkommen identisch ausgelesen und ist das einzige, woran man sich halten kann.
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Das Verfahren ist ja nicht so übel, wenn die Programmierer nicht mit falschen Werten hantieren würden. Meiner Erfahrung nach müssen bei den Allendales 15 K dazu gerechnet werden.
Bei den 33 °C CPU-Temperatur liegt u.a. das Problem, neben den 20,8 Raumtemperatur. Letztere wird kaum Kerntemperaturen von gut 20 °C zulassen - thermodynamisch sehr unrealistisch.
Die 33 °C CPU-Temperatur zeigen ebenfalls, dass die ausgelesenen Core-Temps falsch sind, denn die liegen immer über der CPU-Temperatur. Dazu aus dem oben verlinkten Thread folgende Erklärung:
Bei den 33 °C CPU-Temperatur liegt u.a. das Problem, neben den 20,8 Raumtemperatur. Letztere wird kaum Kerntemperaturen von gut 20 °C zulassen - thermodynamisch sehr unrealistisch.
Die 33 °C CPU-Temperatur zeigen ebenfalls, dass die ausgelesenen Core-Temps falsch sind, denn die liegen immer über der CPU-Temperatur. Dazu aus dem oben verlinkten Thread folgende Erklärung:
Die Energie, die über den Heatspreader abgeführt wird, mag über der eines einzelnen Kerns liegen (denn er führt ja die zweier Kerne, nich nur eines Kerns ab). Die CPU-Temperatur wird aber niemals höher sein als die Temperatur der Kerne.
Das hängt damit zusammen, dass Heatspreader (HS) und Cores in ständiger Wechselwirkung stehen und sich maximal ein Ausgleich der Temperaturen erzielen lässt. Da man den HS aber kühlt, wird dieser Ausgleich nie erreicht. Wenn er erreicht werden würde, würden Kern- und CPU-Temperatur gem. dem "nullten" Hauptsatz der Thermodynamik einer gemeinsamen Temperatur entgegenstreben.
Auch wenn dem HS nun die Energie beider Kerne zur Verfügung steht (keine Kühlung statt findet), kann er deswegen nicht heißer als die einzelnen Kerne werden, sie würden nämlich das Gleichgewicht anstreben. Das ist wie gesagt schon der krasseste und vor allem nur theoretisch denkbare Fall. In der Praxis lässt sich dieser Fall allein schon wegen natürlicher Konvektion nicht mehr realisieren (das System 'Kerne <-> Heatspreader' müsste 'adiabat' sein) und schon gar nicht, wenn ein Kühlkörper aufsitzt.
Moros
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.350
Wie gesagt die Werte sind leider alle potentiell falsch, egal ob man 15K dazu addiert oder nicht. Die 15K kommen nur durch die unterschiedlichen Annahmen über die Maximaltemperatur zustande (meistens 85 und 100°C).
Diese Annahmen sind allerdings vollständig unbegründet und orientieren sich lediglich an den angegebenen Maximalwerten für mobile Intel CPUs.
Diese Annahmen sind allerdings vollständig unbegründet und orientieren sich lediglich an den angegebenen Maximalwerten für mobile Intel CPUs.
mastermind6
Cadet 4th Year
- Registriert
- Apr. 2008
- Beiträge
- 90
So, die Lüfter der Grafikkarte drehen nun mit 15% und das läuft recht gut, 38°C im Windows. Mal schaun ob ich die noch weiter runter drehe. Erstmal Lasttemperaturen testen.
Aber noch ein Problem:
Irgendwie will Rivatuner beim windows startup nicht mitstarten. Habe Vista 64 bit. Außerdem fragt mich Vista jedes mal, ob ich Statistics Server die Erlaubnis gebe zum Starten, obwohl ich schon eingestellt habe, dass er das Programm als Administrator ausführt. Bin leider noch nicht so gut bewandert auf dem Gebiet Vista und wäre sehr nett, wenn mir hier jemand helfen könnte.
Aber noch ein Problem:
Irgendwie will Rivatuner beim windows startup nicht mitstarten. Habe Vista 64 bit. Außerdem fragt mich Vista jedes mal, ob ich Statistics Server die Erlaubnis gebe zum Starten, obwohl ich schon eingestellt habe, dass er das Programm als Administrator ausführt. Bin leider noch nicht so gut bewandert auf dem Gebiet Vista und wäre sehr nett, wenn mir hier jemand helfen könnte.