8800 GT Overclocking

vantage weist eine cpu score und eine gpu score aus.
ja nur dx10 und vista
 
Wieso komme ich beim FluidMark mit E6750 @ 3.6GHz und einer 8800GT mit Standardtakt (650/ 1625/ 950) auf über 9700 Punkte? Mit 782/ 1998/ 1080 habe ich über 11000 Punkte.
Liegt das nur an WinXP?

unbenannt-jpg.106638


unbenannt4-jpg.106639
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    237,1 KB · Aufrufe: 838
  • Unbenannt4.jpg
    Unbenannt4.jpg
    238,3 KB · Aufrufe: 846
Das wäre ja mal traurig.:(
Nicht nur CPU-, sondern auch noch OS-abhängig. Na toll.:rolleyes:

Ich hab unter Vista64 gebencht.

Edit:
Benchmarks durchgeführt. Vorläufige Ergebnisse siehe Sig.
 
Zuletzt bearbeitet:
@Michi was deine fragen zum SLI anbelangt... es spielt keine rolle welche Hersteller du mischt, da es immer ein un die selbe karte ist! die hersteller machen nur ein paar mod. und kleben ihren kleber rauf, oder eben flashen das bios und geben es al OC version raus.

ich habe auch 2 8800ultras im sli eine von ASUS eine von XFX. Takt spielt keine rolle, du musst nur GENAU den gleichen Grafikchip haben(G80, G84, G90. G92....) und es müssen gleich viel VRAM vorhanden sein, also kannst du nicht eine 256mb version mit einer 512mb version laufen lassen...

greez
 
@ oMID: naja wenn du das fenster über den rand des monitors schiebst hast du schnell so viele punkte :D

oder hast du im fullscreen getestet, dann mach mal im window mod, bracuht mehr leistung ....

greez
 
@Domidragon
Das ist nicht ganz richtig und Komplett. Da die OC Karten teils mit vorsortierten Chips gefertigt werden.
D. h. eine OC Karte die mit 740 takten läuft kannst du mit einer default-karte auch nur bis zu deren max Takt (z. b. 680 Mhz) auch nur auf der Taktung des "schwächsten Gliedes" laufen lassen.
DH mit unter dass zB eine hochübertaktete Single G92 GPU mehr 3D Puinkte bekommt als ein default SLI Gespann, ergo kein Vorteil zu erlangen ist.

Weiterhin, haben die Karten auch (wenn Sie gleichen Herstellers, aber unterschiedlichen PRoduktionsdatums sind) unterschidliche Bios einstellungen zB für 2D und 3D Betrieb.

Die ersten 8800 GT von Ende 2007 sind alle auf kontinuierlichen 600 MHZ in allen Modi. Einige der neueren schalten im 2D Betrieb auf eine geringere Taktrate zurück um die Temperaturen und den Verbrauch geringer zu halten.

Ich habe dieses Problem bei mir gehabt und musste beide Bios synchron flashen, damit nicht die eine Karte die andere "mitzieht" wenn sie automatisch zurücktaktet.

Aber Du hast recht, wenn Du sagst, prinzipiell braucht man nur 2 gleiche Chips. Alles andere ist handarbeit zum Anpassen bis es läuft.
 
@domidragon
manche Karten, *hust* wie meine, haben auch eine 3-phasige Spannungsversorgung, was sonst soweit ich weiß nur GTS haben.
 
Mmhh...

Wenn ich jetzt an SLI mit Voltmod denke,...

Da läuft dem Benchmarker glatte der Sabber von´ner Backe.:D

PS: Hab heute endlich die 16K Marke im 06er geknackt.:cool_alt:
 
@ domidragon: egal ob ich fullscreen oder custom window size anklicke, mit meinen 24/7 setting bekomme ich immer um die 10000 Punkte.

@ ZeroCoolRiddler: Glückwunsch! Vieviel Volt hast du dem Luder gegeben?
 
Danke.:D

Das "Luder" zieht ziemlich viel. 1,315V unter Volllast!:eek:

Werde die nächsten Tage mal nen OCP-Mod machen, da diese mir ab und zu schon dazwischenfunkt.:stock:

Mal sehen was mit 1,4-1,45V so geht...:freak:
 
Fluidmark macht bei mir ca. 8-8ooo Punkte mit SLI (bei 3DMark sind es 17K) . Jedoch bleicbt der Bilschirm schwarz während dessen schwarz. Ist das normal (mit dem schwarbleiben meine ich)?
 
Robmain schrieb:
Fluidmark macht bei mir ca. 8-8ooo Punkte mit SLI (bei 3DMark sind es 17K) . Jedoch bleicbt der Bilschirm schwarz während dessen schwarz. Ist das normal (mit dem schwarbleiben meine ich)?

Nö, ist eigentlich nicht normal.

Normalerweise sollte da ne Kugel zu sehen sein die von ner Fontaine her mit Zeugs berieselt wird. Eben genau so wie auf der HP von den Herstellern zu sehen ist.

8000 Punkte im SLI find ich zudem ned wirklich berauschend. Hatte selbst mit nur einer auf 700MHz GPU auch knapp über 8000 ;)

MfG Kennedy
 
So ich hab meine "8800GT" auch mal kurz getestet.. bei 1150MHz Speichertakt fingen die Fehler an bzw. sah mal Artifakte in LFS (Autosim). Bis 750MHz Coretakt kann ich im Rivatuner wählen, das macht er auch, aber nur wenn der RAM-Takt unter 1000 MHz ist. Mit 750/950 ist er aber langsamer wie 720/1050 deshalb hab ich's so gemacht. Hab nur einmal den 3DMark2001 durchlaufen lassen den ich noch drauf hatte. Scheint also halbwegs stabil zu sein.

fx3700.jpg
nvidia-quadrofx-3700.jpg
 
Mhh... Das is ja mal interessant! :)

Das die Chip's fürn Gaming-Bereich auch für CAD eingesetzt wurden is mir bekannt. Die Sache mit der geringeren Taktung ist auch noch verständlich.
Mich wundert allerdings, dass GPU-Z nix vonwegen PCI-E 2.0 anzeigt. Sollte dies bei der Quadro-Version etwa deaktiviert worden sein?!?

Ansonsten ist ein gutes Ergebnis und entspricht dem Durchschnitt würd ich mal sagen. Spitze ist, dass der Speicher trotzdem so hoch geht. Wenn der nur für 800MHz gedacht ist, können die da leicht mise Chips verbaun :freak:
Würd auch mal überprüfen was für ne GPU-Spannung im Bios eingetragen ist. Evtl ist da weniger als die normalen 1.05V eingetragen. Dann könnt da noch mehr gehen mit der Karte ohne große Eingriffe ;)
Würd ausserdem noch mit nem andren Tool testen. FurMark, ATI-Tool oder dergleichen. 3DMark2001 dürft wenig aussagekräftig sein :rolleyes:

MfG Kennedy
 
Das PCI-E 2.0 fehlt auf anderen Screens teilweise auch hab ich gesehn, hier z.B.

http://www.abload.de/img/13614v9h.jpg

Liegt vielleicht am Vendor der Karte.

Zur Spannung:

https://www.computerbase.de/2008-01/nvidia-praesentiert-quadro-fx-3700-mit-g92/

Zitat:

Der Quadro FX 3700 basiert auf dem Grafikchip G92 und ähnelt in großen Teilen einer GeForce 8800 GT. Mit einem Stromverbrauch von unter 80 Watt ist er jedoch deutlich genügsamer als das Desktop-Derivat mit etwa 110 Watt. Verantwortlich für die geringere Leistungsaufnahme könnten sowohl eine Reduzierung der Taktraten als auch der Betriebsspannung der GPU sein.

Kann also gut sein dass da weniger Spannung anliegt. NVidia soll ja die besonders guten Chips in die teuren Quadro-Karten stecken, vielleicht geht deshalb trotz weniger Spannung der Chiptakt so halbwegs ordentlich hoch.

Werd mir daheim mal den Nibitor laden und schauen was er sagt..
 
tommy_v6 schrieb:
Das PCI-E 2.0 fehlt auf anderen Screens teilweise auch hab ich gesehn, hier z.B.

http://www.abload.de/img/13614v9h.jpg

Schau mal genauer hin ;)

Auf dem verlinkten Screenshot von dir steht "PCI-E 2.0 x16 @ x16" was soviel heißt wie dass die Karte PCI-E 2.0 unterstützt aber damit nicht läuft.
Bei dir hingegen wird bloß "PCI-E x16 @ x16" angezeigt. Denk das dürft am Bios der Karte liegen. Soweit ich weiß gibts von manchen Herstellern Bios'se, die die Unterstützung von PCI-E 2.0 deaktiviern. Brauch man ggf. für ältere Boards die damit Probleme haben.

Spannung ist jedenfalls ne interessante Sache. Die solltest du mal prüfen. Hoffe das Nibitor was mit der Karte anfangen kann, denk aber schon.
 
Naja ich hab nen Opteron 170 @2800MHz auf nem alten A8N32 SLI Board.. kann sein dass es kein 2.0 unterstützt wobei ich nicht wüsste was das an Leistung bringen soll. X16 hab ich ja.. und die Werte im Vergleich zu ner 8800GT anderer Leute hier mit ähnlichen Systemen sind recht identisch.

Also Nibitor hab ich offen, bei Voltages "Exact Mode" steht Extra 0,95V. 3D und Thrtl ist bei mir leer! Und bei 2D stehen auch 0,95V drin. Bei VID Mode auf dem zweiten Reiter stehen halt vier Spannungen von 1,1V über 1,05V, 1V und 0,95V.

Was heißt das jetzt für mich? Hab von dem Tool keine Ahnung, davon abgesehen dass ich weiß was es - theoretisch - tut.

Kann man denn 1,1 Volt einstellen und flashen? Oder geht da nix ohne Voltmod an der Hardware? Weil ich sag mal von 0,95V auf 1,1 ist schon ne gute Steigerung.. da sollte schon noch was gehen. Mehr wie 85° Volllast hab ich auch noch nie gehabt, ab da dreht der Lüfter denn ordentlich auf.

Andererseits hab ich natürlich Angst als Laie mir meine nicht billige Karte zu zerschießen wenn ich was falsches einstell und nach dem flashen der Bildschirm schwarz bleibt..

Edit: Grad gefunden bezüglich Unterschied PCIE 1.0 vs. 2.0.. bringt in der Praxis wohl fast nix..

,D-Y-71782-15.jpg


Quelle: http://www.tomshardware.com/de/Graf...16-x8-x4-Crossfire,testberichte-239907-5.html
 
Zuletzt bearbeitet:
So, Update, habe gerade Bios mit 1,05 Volt Spannung geflasht. Habe jetzt das Problem dass ich im Rivatuner auf maximalem Core-Takt bin und nicht weiß wie ich höher komme, jemand ne Idee? :lol:

http://home.tiscali.de/t.antal/oc.jpg

Nach rechts scrollen, da ist der Rivatuner..
 
Jo, was den Leistungsunterschied zwischen PCIe 2.0 und 1.1 bzw 1.0 angeht haste natürlich recht. Das macht den Bock ned fett ;) . Trotzdem wird auf meinem P35-Board das ebenfalls kein 2.0 macht auch die 2.0-Sache in GPU-Z angeigt. Daher meine Vermutung, dass bei den Quadro-Karten dies deaktiviert ist. Wie auch immer, ist ja egal :rolleyes:

Zu den Taktraten die du erreichtst: Boah, spitze :cool_alt: Da kann man schonmal ned meckern :D
Da scheint NV wirklich welche von den besseren G92 zu kastrieren und auf die Quadro FX 3700 zu verpflanzen :freaky:

Zu deinem Problem mit dem Rivatuner: Unter "Power User" --> "Rivatuner \ Overclocking \ Global" gibt die Punkte "MaxClockLimit" und "MinClockLimit". Wenn du da entsprechende Werte einträgst sollte dir ein größerer Bereich zur Verfügung stehen.
Leider funktioniert das gerade bei mir nicht richtig :( . Wenn ich da Werte eintrag, egal Welche, dann hab ich freie Auswahl zwischen 450MHz und 4GHz :freaky:

MfG Kennedy

*edit*
Hab nochmal genauer in den Rivatuner reingeschaut ;) In die Felder die ich genannt hab muss man Prozentangaben eintragen (wieder was gelernt *g*). Normalerweise lässt der Treiber bloß bis zu 150% zu. Wenn du dort also 200 einträgst, solltest du volle Auswahl bis zu 1GHz haben :D
 
Zuletzt bearbeitet:
Zurück
Oben