Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das BIOS sieht komisch aus. PNY baut soweit ich weiß eine 8800 GT nach Nvidia-Referenz. Aber so sieht Dein BIOS nicht aus. Keine Voltages und beim Takt Profile für 2D und 3D?
Kannst Du bitte mal ein orignial BIOS, also unverändert, posten?
Habe jetzt mal, wie von dir erwünscht, das normale BIOS hochgeladen!
Lese das mit Nibitor 3.8 aus.
Meine Absicht ist es, in Windows bzw. 2D das Minimalste an Spannung und Taktrate und unter Last bzw. 3D das Maximalste an Takt und Spannung herauszukitzeln.
Nutze sonst nur das Runter- und Hochtakten, sowie das Steuern des Lüfters der Karte mit Rivatuner 2.06. Funktioniert tadellos.
Mit der normal vorliegenden Spannung komme ich auf diese stabilen Werte: 720/1800/920.
Das original BIOS bestätigt das ,was ich bereits vermutet hatte - Du versuchst über das BIOS 2D / 3D-Settings zu erzwingen und das funnktioniert bei der 8800 GT nicht. Du bist an die Sparte "Extra" gebunden. Aus dieser Problematik heraus ist mein HowTo z.T. überhaupt motiviert.
Um es kurz zu machen, Dein BIOS-Mod ist so nicht ok und wird nicht richtig funnktionieren. Im BIOS einer 8800 GT muss man sich für eine globale Einstellung entscheiden. Deswegen schlage ich üblicherweise vor, im BIOS nur die Spannung zu reduzieren und die Lüftersteuerung zu bearbeiten.
Der Rest muss m.H. von RivaTuner geschehen (2D / 3D-Taktsteuerung).
Ja, kannst Du machen. Einfach im Reiter Voltages in der Sparte Extra die Spannung auf 1,1 Volt setzen. Danach mit RivaTuner Core- und Shadertakt separat auf Maximum testen. Das ist meist sinnvoller, als den Shadertakt in Abhängigkeit vom Coretakt hochzuziehen.
Klar, kannste hier posten, werds mir ansehen. Da die 8800 GT mit 1,1 Volt und Overclocking was wärmer wird, macht es allerdings kaum noch Sinn, die Lüftersteuerung zu verändern. Die würde ich erst mal so lassen, wie sie ist.
Allerdings hab ich festgestellt, dass die Hardware Beschleunigung bzw. die Erkennung dieser nicht zufriedenstellend ist. Abgesehen davon, dass man damit anscheinend nicht bei rausge-alt-tab-ten Spielen runtertakten kann, hängt die Erkennung sehr oft, und bleibt bei 1 (also hardware-beschleunigt stehen).
Allerdings hab ich festgestellt, dass man "P-States" mit der Local videomemory usage sogar noch viel besser unterscheiden kann, da er geleert wird, wenn man alt-tab macht.
Ich hab bis 10MB 2D und drüber 3D, und aufm Desktop is der lokale Videomemory immer <10MB.
Ja, der Trick mit dem Videomemory ist präziser, aber unter Vista läuft der Nicht. Zudem habe ich bislang keine der beschriebenen Probleme mit der Hardware Acceleration. Es stimmt allerdings, dass sie bei minimierten 3D-Anwendungen weiter läuft.
Mir fällt noch ein Vorteil ein, man braucht den StatisticsServer dafür nicht. Ich finde, dass es zumindest erwähnt werden sollte, dass es für XP einen besseren Weg gibt.
Ach, wegen Vista, ist Aero nicht hardware beschleunigt? Dann funzt das doch sowieso nicht, oder?
Ich hab jedenfalls heftige Probleme mit der Hardware-Beschleunigung Methode. Vielleicht liegts ja auch am Treiber (hab 169.12).
Was ist übrigens mit dem einen Plugin, das auch Hardwarebeschleunigung liefert (benutzt glaub ich die Erkennung von nVidia, braucht jedenfalls auch nicht den StatisticsServer). Hat bei mir jedenfalls auch nicht gefunzt.
Es funktioniert wie gesagt ganz gut unter Vista, auch mit Aero.
Könntest ja mal nen aktuelleren Treiber nutzen. Das besagte Plugin kenne ich nicht.
Den Statistics Server hab ich eigentlich ganz gerne an, wegen dem OSD.
Das HowTo zeigt, was möglich ist, aber letzten Endes darf jeder selbst entscheiden, wie er es nutze möchte.
Beim Hardware Monitor kann man unten links bei Plugins HwAccel aktivieren, mann muss dann noch den Data Provider von der Hardwarbeschleunigungsmessung ändern.
Habe das gleiche Problem wie kugel. Da die automatischen unabhängigen 2D/3D Taktprofile bei der 8800GTS (G80) mit neueren Treibern (nach 168.75) nicht mehr funktionieren, hab ich's jetzt wie im Tutorial beschrieben eingestellt. Die Hardware Acceleration bleibt bei 1.00 stehen.
Werd's mal mit mit der Abhängigkeit vom genutzen VRAM testen.
@edit
Funktioniert perfekt. Ich dachte schon, dass ich mit aktuellen Treibern auf dieses tolle Feature verzichten muss und jetzt kann ich sogar den VRAM lastabhängig kontrollieren...einfach nur genial. Vielleicht tritt das Problem mit der Hardware Acceleration ja nur mit G80-Karten auf?! Naja, die Option mit der Abhängigkeit vom VRAM ist auf jeden Fall erwähnenswert.
Hier mal ein Screenshot (hab den Artefakt Scan von ATITool genutzt, weshalb die VRAM-Auslastung so gering ist):
Das Triggern über den VRAM ist eigentlich sogar ein alter Hut. Das war jedenfalls ursprünglich die Idee - über den VRAM zu triggern. Das erkennt man auch an den ersten paar Seiten des Kommentar-Threads, als es so noch im Tutorial stand. Das Triggern über die Hardware Acceleration erschien nach einem entsprechenden Hinweis jedoch sinnvoller, da die Belegung des VRAM unter Vista gar nicht ausgelesen werden kann.
Wenn ich Zeit hab, werd ich halt im Tutorial erwähnen, dass man prinzipiell jede Art von Messwert für den Threshold nutzen kann und dass sich da insbesondere noch der VRAM zumindest unter XP anbietet, aber eben nur da und nicht unter Vista.
Weißt du denn zufällig, ob es das Problem mit der Hardware Acceleration bzw. G80-Chips auch unter Vista gibt? Sonst wäre das Prozedere für die "alten" Karten ja nicht anwendbar. Denn mir fällt spontan nichts ein, was man noch zum triggern nutzen könnte.
Ich kann Eure Probleme bislang nicht nachvollziehen - die Hardware Acceleration spricht bei dem G92 einer 8800 GT sowohl unter XP als auch Vista sehr sauber und zuverlässig an. Ich habe keinen G80 zur Verfügung, um die besagten Probleme zu untersuchen.
Schau mal auf den oben geposteten Screenshot. Da sieht man, dass sich zwar Taktraten, und VRAM-Auslastung verändern, die HW-Acceleration aber immer auf 1.00 bleibt. Anfangs stand sie übrigens auf 0.5 und blieb dann nach dem ersten Lauf mit ATITool bei 1.00.
@edit
Hab nochmal ein wenig getestet. Wenn ich für das HWAcc Plugin Nvidia als Data Provider angebe, dann bleibt die Anzeige auf 1.00. Wenn ich Default angebe, was ja dem Statistics Server entsprechen sollte, bleibt die Anzeige auf 0.00. Beide Anzeigen verändern sich allerdings nicht unter Last.
@edit2
Heißt das nicht, dass sowohl der Treiber als auch der Statistics Server die HWAcc nicht richtig auslesen?