Test Test: nVidia GeForce 8600 GTS (SLI) und 8600 GT

Wenn mann Crysis, auf einer 7900GT gut spielen kann, und die GTS IN ETWA gleich auf liegt, bei DX9 Spielen, wtf sollte dann die GTS mit DX10 das nicht können? Ich kapiers nicht warum ihr darauf rumhacken müsst. Wenn der Leistungsunterschied zw DX9 und 10 e nur so gering ist, warum wurde dann DX10 entwickelt??? Aus Spaß weils e nix bringt?
 
Damits besser aussieht, aber dieses besser aussehen kostet auch leistung. Leistung die die 8600 evtl. gar nicht hat um damit die DX10 pracht darzustellen. mit einer 7600 kann man ja auch nicht Oblivion mit allen Qulitätseinstelungen auf hoch spielen, verzichtest du auf HDR verzichtest du praktisch auf SM 3.0. Wenn du auf SM 4.0 bei der 8600 verzichten mußt da es sonst nicht läuft brauchst du auch kein DX10
 
DX10 bringt wenig neues aber vieles besser. Und von der matschigen 7900GT wollen wir net reden. Es ist nur unssinig von so einer auf eine 8600GT/S umzusteigen, da es kein wirklicher Schritt nach vorn ist.
Ausserdem für diesen Preis zu unattraktiv. ATi´s Radeon X1950XT gibt es schon für 250€ (und die ist weitaus Potenter - wenn auch ohne SM4.0).


bye Hübie
 
Eben, Iceman bringts auf den Punkt.
Oder vergleiche mal den Launch von GeForce FX: Zu lahm für DX9! Launch von GF6? 6600GT war viel zu lahm für SM3 - Effekte und selbst die 6800U hatte Probleme!
Also ich sage einfach, die Leistung der 8600er reicht niemals für DX10-Effekte @High aus, da kann mans auch lassen... (Ruckeln ja schon DX9-Spiele auf der 8800GTX (Stalker, TDU, R6Vegas))
 
HugeXL schrieb:
Eben, Iceman bringts auf den Punkt.
Oder vergleiche mal den Launch von GeForce FX: Zu lahm für DX9! Launch von GF6? 6600GT war viel zu lahm für SM3 - Effekte und selbst die 6800U hatte Probleme!

Das ist ja wohl mal absoluter Quark. Eine 6600 oder 6800 arbeitet SM3 Shader genau so schnell ab wie SM2 Shader. Der Vorteil von SM3 ist, dass man bestimmte Shader in einem Pass berechnen kann, während man bei SM2 dafür mehrere bräuchte. Und da ist der SM3 Shader dann schneller als wenn man denselben Effekt mit SM2 berechenen würde.

/edit:
siehe bensen: der hat es verstanden. SM3 dient der Effizienssteigerung, es gibt dadurch keine neuen Effekte.
 
Zuletzt bearbeitet:
kisser schrieb:
siehe bensen: der hat es verstanden. SM3 dient der Effizienssteigerung, es gibt dadurch keine neuen Effekte.

Wobei man sagen muss, das die Entwickler aufgrund der Effizienzsteigerung auch gerne die Effekte erweitert haben. Z. B. Gothic 3, dort sieht das Wasser mit SM3 deutlich besser aus als mit SM2 - und deswegen kostet die Einstellungen SM3 auch mehr Leistung - auch wenn das gar nicht das Prinzip von SM3 wäre. ;)
 
HugeXL schrieb:
(Ruckeln ja schon DX9-Spiele auf der 8800GTX (Stalker, TDU, R6Vegas))

hä?? dann machst aber was falsch oder du fährst auf 2560x1600
 
@bensen:
Mit SM3 Effekte meine ich in diesem Fall "HDRR".
Ich weiß, SM3 bietet keine neue Effekte, es erleichtert jedoch den Einsatz eben dieser. HDRR würde auch ohne SM3 gehen, doch haben NV und die Spielehersteller es so gemacht, dass FP16 HDRR nur mit SM3 Karten geht.
Deshalb ist für mich im "flapsigen" Wortlaut HDRR ein SM3-Effekt, weil eben nur Karten mit SM3 diesen darstellen können, wollen, was weiß ich ^^

@rayne:
Nope, die oben genannten Spiele @ 1280er Auflösung mit HDRR wenn möglich / 4xFSAA / 16xAF und TSSAA, sonst eigentlich nichts. Vegas hat drops bis unter 20fps (schlecht programmiert) und bei Stalker gibts auch ab und an derbe Einbrüche wenn viel los ist im Untergrund.
 
das ist für dich ruckeln? wenn hin und wieder drops auf 20 fps sind mit dieser quali....
naja wie schon mal gesagt, manche sind echt verwöhnt was leistung und fps angeht
 
Ich verstehe das positiv bewertete Fazit nicht, die Karte ist doch absoluter Nonsence im Vergleich zu den ATI Konkurrenten? Es sei denn sie kann bei DX10 die 15% wieder rausholen, was man schonmal bezweifeln kann.
 
r4yn3 schrieb:
Ich spiele nur in 1024 weil ich die Details hoch halte und mir die Auflösung eher egal ist.
Deine Signatur sagt was von nem CRT, damit ist es absolut ohne Aussagekraft was bei dir besser aussieht, da bei nem TFT einen nicht-native Auflösung ganz anders rüberkommt als bei nem CRT.

Du kannst das hier weiter schönreden, aber die 8600er liegen sowohl in Punkto Leistung als auch beim P/L-Verhältnis weit hinter den Erwartungen zurück.
btw, meine Definition von flüssig bedeutet konstant über 30 fps. Im Schnitt wird man dann sicher so um die 50fps haben. Hier wurden die average fps gemessen und selbst da scheitern beide oft an der 30er-Marke. Ich kann nur hoffen, dass es ATI besser macht.
 
Haha :D

Wie geil dass ich mir im November eine 1950pro geholt hab,
das ganze shice warten auf die G80 hätte sich nicht gelohnt :D
 
HugeXL schrieb:
@bensen:
Mit SM3 Effekte meine ich in diesem Fall "HDRR".
Ich weiß, SM3 bietet keine neue Effekte, es erleichtert jedoch den Einsatz eben dieser. HDRR würde auch ohne SM3 gehen, doch haben NV und die Spielehersteller es so gemacht, dass FP16 HDRR nur mit SM3 Karten geht.
schon mal drangedacht das es nicht mit dem shadermodel zu tun hat?
auch haben spielehersteller dieses "hdrr" nicht auf sm3 karten begrenzt

ist einfach ein dummer zufall das die r4xx familie kein fp16 filterung/blending unterstützt und kein sm3
 
GeneralHanno schrieb:
was mich stutzig macht:
G84 = 32 shader
G80 = 128 shader
G80 (beschnitten) = 96 shader

klingt fast so, als wollte nvidia noch einen chip dazwischen bringen mit 64 shadern o.ä.

das wird die 8600 ultra werden mit 64 shadern, 500mhz core, 1400mhz ram, <512mb ram, 256bit ram bus fuer $179.


die frage ist nur ob und wann die kommt...

cheers
 
Genau, das Loch zwischen 8800GTS 320 - 8600GTS ist ziehmlich groß, da sollte
schon noch was kommen. Obwohl man preistechnisch wiederum nicht davon ausgehen
kann. Wenn ATI die neuen VGA's bringt, wird die 8800GTS 320 sicherlich auch noch nen
Stück günstiger. Da passt dann nicht mehr viel dazwischen, vom Preis her.
 
bensen schrieb:
schon mal drangedacht das es nicht mit dem shadermodel zu tun hat?
auch haben spielehersteller dieses "hdrr" nicht auf sm3 karten begrenzt

ist einfach ein dummer zufall das die r4xx familie kein fp16 filterung/blending unterstützt und kein sm3

Du hast meinen Post schon gelesen, oder? :rolleyes:
Steht doch, dass der Effekt mit SM3 nix zu tun hat, aber es ist halt "allgemein" so der Wortlaut, dass HDRR nur mit SM3 Graka geht, weils eben der Zufall so wollte (oder auch wer anders). Das HDRR ist begrenzt auf SM3 Karten bzw. Karten, die FP16 darstellen. Es gibt auch imho keine Karte, die SM3 hat und FP16 nicht beherrscht und keine Karte, die SM2 hat und es beherrscht.

Aber das ist jetzt hier eigentlich nicht das Thema. Was ich ausdrücken wollte habe ich verständlich ausgedrückt, wenn du meinst, du musst jetzt mit political correctness die Aussagen zerpflücken, die Intention kannst nicht beeinflussen, fertig.
 
erazor82 schrieb:
so hätte die 8600gts doch Laune gemacht:

64 Skalar Processoren
192bit Speicherinterface mit 2.0GHZ

damit wäre Karte 20-30% schneller gewesen..wenn nicht mehr..


Ich denke, wir können fest davon ausgehen, dass eine Karte mit solchen oder ähnlichen Werten noch nachgeschoben wird, sobald ATI ihre Modelle auf den Markt geworfen haben. Die 7900GS kam z.B. auch nach.


Sofern die 8600 GTS ordentlich im Preis fallen, die 8800 GTS - vor allem mit 320MB RAM - weniger, gibt es durchaus noch ein interessantes Einsatzfeld für die 8600 GTS: Selbige kann passiv gekühlt werden.

Ein SLI-Verbund aus zwei 8600 GTS ist in etwa so schnell wie eine 8800 GTS. Es lässt sich also ein (quasi-)lautloser PC bauen, der die Grafikleistung EINER High-End Karte entfaltet.
 
Also, von der 8600GT hätt ich mehr erwartet, schade.
Und die 8600GTS, naja, ist auch nicht grad der Überflieger.
Vielleicht holt man noch was mit den Treibern raus,
glaube aber nicht wirklich daran.

Gruss Seft
 
Naja aber meiner Erfahrung nach sind multi-GPU/VPU-Lösungen auf Dauer Unsinn. Ich hab jetzt schon ne Weile CF am laufen.
So nun ist die 8800GTX aber meistens schon schneller als meine beiden. Spätestens mit der HD2900 wird sich meine Spielerei nicht mehr lohnen.
Dann doch lieber eine highend-Karte und eventuell nen anderen Lüfter rauf (AC soll bald welche bringen).


bye Hübie
 
Zurück
Oben