Bericht Bericht: Nvidia ForceWare 163.67

Ich kann berichten, dass mit einer 8800 GTS 320 der VRAM-Bug in Colin McRea Dirt ziemlich zuverlässig auftritt. Reproduzierbar brechen die Frames ab einer bestimmten Stelle auf der Strecke ein. Mit dem 163.44 soll der Fehler immerhin etwas später auftreten.
 
hi,

mal ne blöde frage, macht so ein Treiber Update bei mir noch Sinn.
Besitze eine in die Jahre gekommene, BLISS 7800GS+ (läuft im OC Modus als ne echte 7900GT) auf einem AGP Board.
Zu Zeit ist immer noch, ForceWare 94.24 drauf.

mfg...
 
acmilan1899 schrieb:
@3: ein simplen ein spiele test ist ja mal mehr als lächerlich.....

wenn man nur nachweisen will ob der vram bug weg ist, dann reicht 1 test bei einem spiel wo er sonst auftritt sehr wohl.

und in dem fall, wenn er weg WÄRE, dann hätte man auch noch andere spiele testen können.

so machts keinen sinn. Der neue Treiber bringt praktisch nix was interessant genug wäre einen Artikel darüber zu bringen. Weder ist er schneller, noch gibts irgentwelche Neurungen.
 
Hallo CB-Redaktion,

der Artikel gefällt mir zwar grundsätzlich, ist aber meiner Meinung nach
noch nicht fertig. DX10 hin oder her, ich vermisse den Vergleich zum
aktuellen WinXP-Treiber 162.18. Sowohl DX9-Performance als auch
Features (Stichwort Purevideo, ...).

Gruss,
JfT.
 
bis jetzt ist der 163.67 der erste treiber, der sich noch nicht zurückgesetzt hat.
von daher :daumen:
 
Oh man Leute.

Ich verstehe euch nicht. Letzendlich geht es in dem Artikel nicht nur um den VRAM Bug. Ich bin echt froh über den Test. Da ich jetzt ein wenig schlauer bin. Und wenn es nicht eine sehr große Mühe für das CB-Team war, wieso nicht? Es gibt eben nicht nur Fachexperten hier. Ich z.B. kenne mich überhaupt nicht gut mit Grafikkarten etc. aus. Für "unwissende" war dieser Test (so wie für mich) sehr hilfreich und interessant.

Also ein dickes Lob an dem CB-Team ! Macht weiter so.

Ich hätte da eine Frage.

Der neue Treiber ist ja ein Beta-Treiber, würde es sich lohnen ihn für meine GeForce 8600 GTS Grafikkarte zu installieren?

MfG
J.D.
 
erwähnenswert ist die erhöhte temperatur unter idle. immerhin um die 5 grad unterschied, da ich ein heisses brett erwischt hatte damals trifft das mich besonders mit 68 grad idle bei 150 MHZ gpu / 200 mhz memory takt. selbst andere wärmeleitpaste bringt keine entscheidenen vorteile, darum kann ich es nicht nachvollziehen wie andere nur 50 grad im idle haben können derzeit im standardtakt. ob ein schnellerer 120mm fan da abhilfe schafft in solcher großen dimension bezweifele ich sehr. zukunft wird es zeigen.
 
Hallo!

Ich finde die Idee SUPER eine Serie aus den Treibertests zu machen. Habe gehofft, dass sowas noch kommt :D Manchmal birgt sowas doch die eine oder andere Überraschung.

Nur weiter so ;D

IT
 
Hallo

Habe den 163.67 drauf sobald ich SLI anmache war beim 163.44 nicht wird der Bildschirm schwarz
was kann das sein habe 2 8800GTX im SLI laufen und bei verschieden Games sind Bildstörung da in der Art von Streiffen.

Grüße Rocco75
 
Gut dan lade ich mir den 163.67 Patch runter und installiere den für meine GeForce 8600GTS@512 MB.

Das Problem war, ich habe den neusten Patch 162.18 installiert. Das Problem war dann, dass ich nach einiger Zeit immer nen BlueScreen bekommen habe. Die Datei nv4_disp.dll oder so hat ein Fehler verursacht. Habe dan direkt im Forum nachgefragt, woran es liegen kann. Alle meinten es wären die neuen NVIDIA Treiber, die sehr verbuggt wären. Habe dan die 152.xx installiert und bis jetzt funktioniert alles super. Also deswegen wusste ich nicht genau ob ich den BetaTreiber installiere soll. Aber wenn ich wieder zu Hause bin, dann versuche ich die Treiber mal.

Danke.


Mit freundlichen Grüßen
J.D.
 
Der 158.18 war doch iirc noch kein Stalker-Treiber. Die Optimierungen für das Spiel kamen doch erst mit dem 158.24 iirc.
Wie ists dann möglich, dass der 158.18 genauso schnell ist wie die aktuellen Treiber in Stalker?!
 
Hallo,

Danke für diesen Test CB. Ich begrüße sollche Treibertests sehr, da mir das viel Zeit und Arbeit erspart diverse neue Treiber selbst zu testen um am Ende festzustellen das der "Neue" eh nicht viel bringt. So reicht mir ein Blick in diese Tests um zu sehen ob der "Neue" mich und meine Graka glücklich machen kann ;)
Weiter so!

Gruss ENI
 
Der Treiber ist wie alle anderen Treiber nichts neues, subjetives empfinden. Alledings funktioniert die NVDIA Systemsteuerung nicht bei mir. Einige Einstellungen in den Reitern verabschieden sich mit einer Fehlermeldung von Windoff..

Mfg Selflex
 
Blöde Frage am Rande, wo kann ich den downloaden?? ja ne www.nvidia.com is klar, aber ich find bei allen Produkten (7er und 8er Reihe, XP und Vista) nur 162.22 :(
 
Das ist ein Beta-Treiber, dann sollte man auch auf Beta klicken, wenns einem angeboten wird im Menü. ;)

oder direkt auf www.nzone.com gehen. (Offizielle nvidia-Seite)
 
bluebebe schrieb:
erwähnenswert ist die erhöhte temperatur unter idle. immerhin um die 5 grad unterschied, da ich ein heisses brett erwischt hatte damals trifft das mich besonders mit 68 grad idle bei 150 MHZ gpu / 200 mhz memory takt. selbst andere wärmeleitpaste bringt keine entscheidenen vorteile, darum kann ich es nicht nachvollziehen wie andere nur 50 grad im idle haben können derzeit im standardtakt. ob ein schnellerer 120mm fan da abhilfe schafft in solcher großen dimension bezweifele ich sehr. zukunft wird es zeigen.

Ich glaube das liegt einfach daran, dass nVidia ab dem 163.67 die Shaderdomain von der ROP Domain unabhängig takten kann, wenn jetzt aber mit Tools wie bspw. dem RivaTuner die clocks reduziert werden, bleibt der Takt der Shaderdomain auf dem default Wert. Das würde sowohl die höhere Temperatur als auch eine schlechtere Performance unter OC gegenüber anderen Treibern erklären.

Unwinder schrieb:
Guys, I've got very good news for G80 owners. I've just examined overclocking interfaces of newly released 163.67 drivers and I was really pleased to see that NVIDIA finally added an ability of independent shader clock adjustment. As you probably know, with the past driver families the ForceWare automatically overclocked G80 shader domain synchronicallly with ROP domain using BIOS defined Shader/ROP clock ratio. Starting from 163.67 drivers internal ForceWare overclocking interfaces no longer scale shader domain clock when ROP clock is adjusted and the driver now provides completely independent shader clock adjustment interface. It means that starting from ForceWare 163.67 all overclocking tools like RivaTuner, nTune, PowerStrip or ATITool will adjust ROP clock only.
However, new revisions of these tools supporting new overclocking interfaces will probably allow you to adjust shader clock too. Now I've played with new interfaces and upcoming v2.04 will contain an experimental feature allowing power users to definie custom Shader/ROP ratio via the registry, so RT will clock shader domain together with ROP domain using user defined ratio.
And v2.05 will give you completely independent slider for adjusting shader clock independently of core clock.

Note:

By default this applies to Vista specific overclocking interfaces only, Windows XP drivers still provide traditional overclocking interface adjusting both shader and ROP clocks. However, XP drivers also contain optional Vista-styled overclocking interfaces and you can force RivaTuner to use them by setting NVAPIUsageBehavior registry entry to 1.

Tiger.
 
Schon eine Schande, dass ein großer Hersteller wie nVidia unfähig zu sein scheint, einen groben Fehler wie den VRAM-Bug zu beheben. Wann kriegen die das endlich auf die Reihe? Unglaublich...

Danke für den Test, btw.
 
Zurück
Oben