HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Ich habe mich an das HowTo gehalten und der Mod hat:

  • funktioniert (ich bin begeistert)

    Stimmen: 96 64,9%
  • nicht funktioniert (aktivierte Units sind defekt)

    Stimmen: 39 26,4%
  • nicht funktioniert (das HowTo ist fehlerhaft)

    Stimmen: 13 8,8%

  • Umfrageteilnehmer
    148
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

@ nbb:
eigentlich ein völliger humbug das ganze! (also die sache an sich, nicht deine lösung)
weil ich ja im laufenden betrieb, auch die ramtaktung ändern kann, aber egal.

@ topic:
mal was ganz anderes:
ist außer mir schon mal jemanden hier aufgefallen, daß wenn man den gpu takt auf 350mhz anhebt, dann fällt die gpu temperatur um ca. 5-8°C im idle.
kein witz. dieses phänomen wurde im zusammenhang mit der gigabyte 6800 mit passivkühler in anderen foren schon bis zu erbrechen durchexerziert.
aber bis jetzt konnte noch niemand eine wirklich einleutende antwort darauf geben.
hat irgend jemand hier vielleicht irgend ne vernünftige erklärung dafür?

gruß der lachendehans
 
jo ich habe nun 3833 3D marks ! und hatte mit power strip übertaktet !

ich weiß nicht ich bin laie geht da noch was?? bestimmt ! (siehe Bild 1)

wann wird es kritisch ?? und welche rolle spielt die themperatur ?

Unbenannt-1%20Kopie.jpg



gruß aus Hamburg: Eismonster
 
Installier mal CoolBits und lass über den nVidia Treiber das Maximum finden (Optimale Taktrate ermitteln). Ich denke, 350/800 sind locker drin.
 

Anhänge

  • nvidia.jpg
    nvidia.jpg
    111,9 KB · Aufrufe: 707
Zuletzt bearbeitet:
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

also die coolbits funktion halte ich für äußerst ungeeignet, da sie die maximalen taktraten nach irgend einem seltsamen algorithmus auswürfelt.
wenn ich 3 mal messen lasse, schwanken die werte zwischen 330 und 420 mhz für die gpu.

lad dir das ati tool 0.25beta7 runter und probiers mit dem.
taktraten erhöhen -> artefakte scannen ... wenn er dir fehler anzeigt einfach ein bischen zurrück (5mhz) gehen und gut ists.
 
Ich habe eben CoolBits 5 mal testen lassen. Das Ergebnis, war eigentlich ganz annehmbar:

1.) 356/811
2.) 379/856
3.) 362/823
4.) 360/818
5.) 360/819

avg. 363/825

Übrigens kann man mit 3DMark05 auch sehr schön Artefakte finden. Ich hatte mir mal die Mühe gemacht und bin in 10er Schritten im Takt hochgegangen und habe das mit 3DMark05 gegengetestet. Ergebnis war eine maximale Taktung ohne Fehler von 390/825. (GDDR: 820 & 830 MHz gleiche Anzahl 3DMarks u. keine Fehler -> 825 MHz)
Bedenkt man, dass CoolBits die optimale und nicht die maximale Taktrate findet, so ist auch der um knapp 30 MHz geringere Coretakt vertretbar, denn die Karte soll ja noch was leben. Der Speicher ist da afaik weniger empfindlich und ist mit den 825 gut bedient.

@derlachendehans:
Hast Du die 425MHz Coretakt eigentlich ohne Volterhöhung erreicht? Bzw. wieviel VGPU gibt Dein Grafik-BIOS?
 
Zuletzt bearbeitet:
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

ich glaub dir schon, daß es bei dir funktioniert, aber die werte bei mir waren mir etwas zu weit gestreut.
ja 3d mark funktiioniert auch ganz gut. mein persönlicher favorit ist immer noch der mother nature test aus 03 -> da sehe ich artefakte am schönsten.

für die 425mhz, hab ich nix an der spannung der gpu gemacht, die kriegt vom bios her glaub ich 1,25volt (speedfan zeigt zumindest so was um den dreh an), mal schauen vielleicht geht, da ja noch mehr :)
der rechner ist mir aber auch ein paar mal durchgestartet. was denk ich mal daran lag.

die 425/850 hab ich auch nur kurzfristig zum benchen getestet.
nomalerweise läuft die karte bei mir 380/780 im 3d und 350/780 im 2d (weil sie wirklich 8° kühler wird bei 350mhz). temperaturmässog paßts mit den einstellungen auch unter last.
ich krieg zwar nur 45° unter last angezeigt (wahrscheinlich ein auslesefehler), aber die temperaturunterschiede zwischen idle und last sind wohl schon richtig.
 
also ich finde dieses coolbits dingens ziemlich kompliziert ! wenn ich auf optimal taktfrequenz gehe ändern sich die Einstellungen nicht !

ich glaube ich bleibe bei powerstrip

die 425/850 hab ich auch nur kurzfristig zum benchen getestet.
nomalerweise läuft die karte bei mir 380/780 im 3d und 350/780 im 2d (weil sie wirklich 8° kühler wird bei 350mhz). temperaturmässog paßts mit den einstellungen auch unter last.
ich krieg zwar nur 45° unter last angezeigt (wahrscheinlich ein auslesefehler), aber die temperaturunterschiede zwischen idle und last sind wohl schon richtig.


ich glaube die einstellung nehme ich denn auch !


behindern sich eigentlcih coolbits und Powerstrip !

ich meine wenn ich bei Powerstrip eine einstellung speicher ! dann steht bei coolbits ja immer noch was anderes ! hat das was zu gedeuten ??
 
also ich haube nun verschiedene Test mit unterschiedlich einstellungen gemacht

nur coolbits (mit automatisch suchen= 3708 3Dmarks

coolbis (automaisch) +powerstrip ( einstellungen wie bild oben ) = 3716 3Dmarks

aber an den wert den ich nur mit powerstrip erreicht habe komme ich nicht dran (einstellung bild oben ) das waren ja 3833 3D marks

ich versuche nun noch mal powerstrip mit einer etwas angehobenen eistellung (coolbits aus )

Powerstrip einstellung: Grafikchip-Takt: 357Mhz
Seicher takt : 772 Mhz 3Dmark: 3937 3Dmarks !
 
Zuletzt bearbeitet:
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Hallo ich bin neu hier und hab einige fragen an euch :)
ich hab mir die A400 TDH GeForce6800 128mb bestellt,wenn ich die karte habe möchte ich auch alle pipelines und vertex wenn ich glück habe freischalten.

die karte läuft mit der standard spannung 1.2 V
standard takt 300/700

sind die einstellungen in ordnung 350/750
standard spannung 1.2 V
ich will nicht viel übertreiben
weil ich die karte lange behalten will :)

oder kann ich mehr???

mfg Xtro
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Papa Schlumpf schrieb:
Also ich habe mit sämtlichen 77.xx Treibern von Nvidia immer die Probleme das mir die Menüs Leistungs- & Qualitätseinstellungen nicht mehr angezeigt werden, deshalb benutze ich den 72.14 Treiber, da geht es einwandfrei!

Ich würde natürlich liebend gerne die neueren Treiber verwenden aber mir fehlen da die Einstellmöglichkeiten!

Ich hatte auch schon in diversen Threads hier bei CB gepostet gehabt woran das wohl liegen könnte, aber keiner weiß hier offenbar eine echte Lösung, eher das man mich mit dummen Sprüchen nur vertröstet....

Komischer Weise habe ich das Problem auf insgesamt 4 Rechnern bisher gehabt, mit den verschiedenstens Grafikkarten (GeForce 3Ti200, FX-5200, FX-5900XT und auch bei der 6800LE) daher bleibe ich bei den älteren Treibern!

Warum dieser Bug bei meinen Systemen immer auftritt weiß ich nicht, ich muß aber dazu sagen kenne ich mich mit Computersystemen eigentlich auch sehr gut aus!

Ich habe Windows XP Prof. installiert mit allen Updates, Firewall etc. mein Rechner ist auch sehr flott und läuft perfekt...

Bin sogar mal als Netzwerkadministrator tätig gewesen, aber dieses Problem übertrifft doch leider meine Lösungsmöglichkeiten....! :(

Hallo Community,

ich möchte mich noch einmal auf diesen von mir getätigen Beitrag beziehen und bitte eventuell für eine Lösung meines Problems!

Ich habe mittlerweile den Fehler gefunden wieso die kompletten Menüs Leistungs- & Qualitätseinstellungen nicht mehr bei mir angezeigt werden.

Das hat schlicht und einfach damit zu tun wenn ich mir Coolbits in die Registry importiere um das verstecke Übertaktungsmenü und das Menü zum Überschreiben der einzelnen Bildwiederholfrequenzen (welches mir persönlich besonders wichtig ist, da ich sonst ständig in Spielen nur 60Hz fahren kann) freizuschalten versuche diese Menü dann komplett nicht mehr verfügbar ist!

Dieses Problem habe ich allerdings nur bei Treibern die über die 72.14 Treiber hinausgehen, derzeit habe ich den 78.03 Treiber installiert mit dem ich auch sehr zufrieden bin, allerdings habe ich ohne Coolbits leider das Menü für die Bildwiederholfrequenzen dann nicht integriert!

PowerStrip möchte ich nicht verwenden und mit dem RivaTuner 15.7 welchen ich installiert habe für die Piplines-Freischaltung, bekomme ich den 60Hz Bug nicht gelöst...

Meine Frage: Also wie bekomme ich nun diese Probleme in den Griff, da ich davon ausgehe das die Coolbits Registryeinträge bei neuern Treiberversionen nicht einwandfrei funktionieren, es werden zwar verstecke Menüs zusätzlich freigeschaltet aber das Leistungs- & Qualitätseinstellungen Menü verschwindet dann komplett...! :(
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Papa Schlumpf schrieb:
Meine Frage: Also wie bekomme ich nun diese Probleme in den Griff, da ich davon ausgehe das die Coolbits Registryeinträge bei neuern Treiberversionen nicht einwandfrei funktionieren, es werden zwar verstecke Menüs zusätzlich freigeschaltet aber das Leistungs- & Qualitätseinstellungen Menü verschwindet dann komplett...! :(


Deine Annahme ist falsch. Die Coolbits funktionieren mit allen Treibern und es verschwinden auch keine Menues dadurch. Selbst getestet mit 77.72, 77.77. 81.26 (derzeit).
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

kisser schrieb:
Deine Annahme ist falsch. Die Coolbits funktionieren mit allen Treibern und es verschwinden auch keine Menues dadurch. Selbst getestet mit 77.72, 77.77. 81.26 (derzeit).

Ich glaube jetzt habe ich den Fehler endlich eingrenzen können *freu*!

Wenn ich einen neuen Nvidia Treiber installiere, muß ich erst den Rechner sofort komplett neu starten und erst danach darf ich Coolbits in die Registrierung einfügen!

Ich habe den Fehler gemacht das ich sofort nach der neuen Treiber-Installation gesagt habe Rechner nicht neu starten, dann habe ich erstmal Coolbits eingefügt und dann erst neu gestart, das ist der Fehler, der zu diesem Bug führte.

Jetzt läuft alles wieder einwandfrei und alle Menüs sind da! :D
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Papa Schlumpf schrieb:
Ich glaube jetzt habe ich den Fehler endlich eingrenzen können *freu*!

Wenn ich einen neuen Nvidia Treiber installiere, muß ich erst den Rechner sofort komplett neu starten und erst danach darf ich Coolbits in die Registrierung einfügen!


So mache ich das halt normalerweise.:)
Aber ich glaube dieses Verhalten war nicht immer so, da wurde also evtl. schon etwas im Treiber geaendert (muesste man mit einem alten Forceware mal ueberpruefen, Freiwillige vor:D).
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

kisser schrieb:
So mache ich das halt normalerweise.:)
Aber ich glaube dieses Verhalten war nicht immer so, da wurde also evtl. schon etwas im Treiber geaendert (muesste man mit einem alten Forceware mal ueberpruefen, Freiwillige vor:D).

Also ich hatte bei den alten Treiber nie Probleme damit gehabt, bevor ich den Rechner neu gestartet habe eben noch Coolbits gleich mit zu installieren, offenbar hat sich da wirklich etwas dran geändert gehabt!

Aber zum Glück weiß ich ja für die Zukunft dann bescheid das ich es jetzt immer anders mache! :D
 
AW: HowTo - Wie schalte ich bei meiner GeForce 6800/6800LE die Pixel-/Vertex-Units frei ?

Hi Leute!

Ich habe mir letztens für meine NVidia Geforce 6800 (256mb) PCI-E von MSI einen Grafikkartenkühler gekauft (Arctic Cooler Rev.5).

Habe zunächst die Taktraten auf 410/800 geschraubt und dann mit nem Benchmark getestet! Läuft alles super und wollte mich jetzt ans freischalten der Pipelines und Shader machen.

Habs versucht, doch unter dem Kästchen HW Masked steht kein "yes", heisst es, dass ich nichts freischalten kann? Habe ein Bild angehängt...

http://www.mitglied.lycos.de/bling112/bild1.JPG

Ebenso lese ich, dass die Leute hier bessere Benchmarks haben mit ähnlichen Karten wie ich!
Habe nur 3250 Punkte. Habe auch Antialiasing auf Anwendungsgesteuert. NForce 78.01
Mein System: Athlon64 3200+, Asus A8N SLI Deluxe, 1024 mb Corsair Speicher...

Meine Fragen sind jetzt, warum habe ich solch schlechte Werte und kann ich jetzt keine Pipelines freischalten oder geht es dennoch vielleicht mit einer älteren Rivatuner Version.

cia0
 
Die PCIe 6800 hat hardwareseitig nur 12/5 Pipes. Da lässt sich leider nichts mehr freischalten.
 
ahso ok!

danke für die antwort. :)

nach nem Neustart war der Benchmarktest auch positiver ausgefallen mit 3960 Punkten.
 
Hallo zusammen,

da ich mich nun erstmalig mit dem Tunen von Grafikkarten befassen möchte, habe ich mich hier im Forum neu angemeldet.

Ich habe mir über Ebay eine Leadtek Winfast A400 TDH 128 MB mit GeForce 6800 zugelegt und die Rivatuner Beschreibung befolgt.

Vor dem Tunen wurde die Karte als A1,12x1,5vp angezeigt. Nach dem Tunen als A1,16x1,6vp. Leider habe ich nach dem Tunen bei dem 3DMark2001 SE Test sehr deutliche Grafikfehler, ohne Tunen aber keine Fehler.

Lässt sich die Karte also nicht tunen, oder müssen NVida-Treiber und Rivatuner genau zu einander passen (die richtigen Versionsnummern haben)?. Oder können die Bildfehler durch weitere Einstellungen beseitigt werden?

Besteht ohne Freischaltung der Units die Möglichkeit am Takt zu tunen?

Cu, Dragonscout
 
Ich gehe mal stark davon aus, dass die Grafikfehler eindeutig auf defekte Pipes zurückzuführen sind und nicht mit Treiberversionen oder der Version des RivaTuner zusammenhängen.

Übertakten kannst Du aber auch so und das tendenziell sogar besser als mit mehr Pipes, wegen der niedrigen Spannung der 6800. Du kannst ohne Bedenken mit 350 MHz (GPU) / 400 MHz (GDDR) beginnen und ab da in 10er Schritten hoch gehen. Wenn es Dir zu heikel erscheint mit 350/400 einzusteigen, kannst Du auch mit CoolBits die optimale Taktrate ermitteln lassen und von da aus weitertakten (Coolbits ausführen und dann im nVidia Treibermenü auf Taktraten gehen). Generell empfiehlt sich CoolBits, da es sich unauffällig einfach im nVidia Treiber mit einem neune Taktratenreiter bemerkbar macht.

Treten Grafikkfehler beispielsweise im 3DMark05 auf, ist das Maximum erreicht. Dann wieder 10Mhz zurücgehen und fertig!
 
Zurück
Oben