Test Test: nVidia GeForce 8600 GTS (SLI) und 8600 GT

Wenn man hier die meisten Komments liest wird einem ja schlecht.

Das einzige was kommt, das die Karte schrott ist.
Dem ist aber noch lange nicht so, die Karte bietet eine gute Performance das einzige Problem ist der Preis. Der wird aber noch fallen!!

Ich komme mit meinem Athlon 64 3800+ und 7600GT noch super aus! C&c3 , CSS, Need for Speed Carbon alles läuft gut auf 1280 x 1024. Manche sind hier echt zu verwöhnt.
 
Bin ganz deiner Meinung. Wenn ich mir vorstelle meine 7600GT mit nochmal mehr Bums, das wären mir schon 150€ Wert (für die GTS wohlbemerkt)
Und von wegen die Meinungen "Wenn sogar die X1950 schneller ist, dann reißt die 8600 in DX10 umso weniger"
Wie kommt ihr darauf? Es gibt einen grund warum DX10 entiwckelt wude.....
 
Ich guck mir noch die neuen ATIs an, wenn da auch nix taugt holle ich mir die 8800GTS 320MB, die ist ja für 60€ mehr beinahe doppel so schnell wie die 8600GTS. Ansonsten kommt mir ne ATI in die Kiste.
Ich weiss nicht, was Nvidia sich mit dieser Preispolitik gedacht hat. Mehr als 150€ ist die 8600GTS nicht Wert.
 
so hätte die 8600gts doch Laune gemacht:

64 Skalar Processoren
192bit Speicherinterface mit 2.0GHZ

damit wäre Karte 20-30% schneller gewesen..wenn nicht mehr..
 
Rasemann schrieb:
Die Benches sind für den A...
Weil Äpfel mit Birnen bzw. Qualität mit Speed oder besser AA mit dem saulangsamen TSSAA verglichen wird.

Entweder es werden in Zukunft alle Karten mit den gleichen Einstellungen getestet, oder gar nicht.
wie bist du denn drauf?
was soll denn nicht gleich gewesen sein?
winkelabhängiges af kannste schlecht bei den G8x einstellen
und bei der kantenglättung ist wohl AAA gleich gut/langsam wie tsaa

ich finde nur das benchen generell mit transparenz AA öfters sehr suboptimal
 
Hallo an alle

Warum ist 8600 GTS SLI so schlecht?
Ich kann es einfach nicht glauben... Vorallem nicht, wenn ich mir die FPS Zahl bei Oblivion im 8600 GTS SLI gespann ansehe.
Sind die Spielebenchmarks schlicht weg "falsch", oder gibt es eine vernünftige Erklärung dafür?

Dazu habe ich fast alles nochmals auf einen Blick zusammengetragen.
(bassiert auf 1280x1024 4xAA/16xAF nach dem Spielebenchmarks inkl. Testsystem)

Oblivion
8800 GTS 320 - 28,6 fps
8600 GTS - 16,0 fps
8600 GTS SLI - 12,6 fps

warum ist sli langsamer?

Call of Duty 2
8800 GTS 320 - 30,5 fps
8600 GTS - 17,3 fps
8600 GTS SLI - 20,2 fps

warum ist sli nur 3 fps schneller?

The Chronicles of Riddick
8800 GTS 320 - 78,7 fps
8600 GTS - 40,9 fps
8600 GTS SLI - 82,3 fps

warum ist das SLI gespann auf einmal schneller wie 8800 GTS 320?

Splinter Cell 4
8800 GTS 320 - 29,0 fps (Grafikfehler)
8600 GTS - 13,1 fps
8600 GTS SLI - 22,0 fps

Prey
8800 GTS 320 - 67,5 fps
8600 GTS - 34,3 fps
8600 GTS SLI - 67,3 fps

Anno 1701
8800 GTS 320 - 15,0 fps
8600 GTS - 7,7 fps
8600 GTS SLI - 15,0 fps

Company of Heroes
8800 GTS 320 - 29,5 fps
8600 GTS - 17,4 fps
8600 GTS SLI - 27,8 fps

Doom 3
8800 GTS 320 - 115,7 fps
8600 GTS - 56,9 fps
8600 GTS SLI - 111,9 fps

F.E.A.R.
8800 GTS 320 - 71,0 fps
8600 GTS - 37,0 fps
8600 GTS SLI - 62,0 fps

HL2: Lost Coast
8800 GTS 320 - 89,2 fps
8600 GTS - 43,2 fps
8600 GTS SLI - 73,9 fps

Gothic 3 (1280x1024 16xAF)
8800 GTS 320 - 36,2 fps
8600 GTS - 18,7 fps
8600 GTS SLI - 33,7 fps

Rainbow Six Vegas (1280x1024 ohne AA/AF)
8800 GTS 320 - 38,6 fps
8600 GTS - 19,0 fps
8600 GTS SLI - 33,5 fps
 
An die Preise wird man sich gewöhnen müssen sollte ATI mit der neuen Generation keinen Erfolg haben, was ich inständig nicht hoffe.
 
hoffentlich macht ati ordentlich druck :D
 
JenniferGomez schrieb:
Hallo an alle

Warum ist 8600 GTS SLI so schlecht?
Ich kann es einfach nicht glauben... Vorallem nicht, wenn ich mir die FPS Zahl bei Oblivion im 8600 GTS SLI gespann ansehe.
Sind die Spielebenchmarks schlicht weg "falsch", oder gibt es eine vernünftige Erklärung dafür?

Dazu habe ich fast alles nochmals auf einen Blick zusammengetragen.
(bassiert auf 1280x1024 4xAA/16xAF nach dem Spielebenchmarks inkl. Testsystem)

Oblivion
8800 GTS 320 - 28,6 fps
8600 GTS - 16,0 fps
8600 GTS SLI - 12,6 fps

warum ist sli langsamer?

Call of Duty 2
8800 GTS 320 - 30,5 fps
8600 GTS - 17,3 fps
8600 GTS SLI - 20,2 fps

warum ist sli nur 3 fps schneller?

The Chronicles of Riddick
8800 GTS 320 - 78,7 fps
8600 GTS - 40,9 fps
8600 GTS SLI - 82,3 fps

warum ist das SLI gespann auf einmal schneller wie 8800 GTS 320?

Splinter Cell 4
8800 GTS 320 - 29,0 fps (Grafikfehler)
8600 GTS - 13,1 fps
8600 GTS SLI - 22,0 fps

Prey
8800 GTS 320 - 67,5 fps
8600 GTS - 34,3 fps
8600 GTS SLI - 67,3 fps

Anno 1701
8800 GTS 320 - 15,0 fps
8600 GTS - 7,7 fps
8600 GTS SLI - 15,0 fps

Company of Heroes
8800 GTS 320 - 29,5 fps
8600 GTS - 17,4 fps
8600 GTS SLI - 27,8 fps

Doom 3
8800 GTS 320 - 115,7 fps
8600 GTS - 56,9 fps
8600 GTS SLI - 111,9 fps

F.E.A.R.
8800 GTS 320 - 71,0 fps
8600 GTS - 37,0 fps
8600 GTS SLI - 62,0 fps

HL2: Lost Coast
8800 GTS 320 - 89,2 fps
8600 GTS - 43,2 fps
8600 GTS SLI - 73,9 fps

Gothic 3 (1280x1024 16xAF)
8800 GTS 320 - 36,2 fps
8600 GTS - 18,7 fps
8600 GTS SLI - 33,7 fps

Rainbow Six Vegas (1280x1024 ohne AA/AF)
8800 GTS 320 - 38,6 fps
8600 GTS - 19,0 fps
8600 GTS SLI - 33,5 fps

das liegt einfach daran, dass spiele unterschiedlich hardwarehungrig sind. f.e.a.r. zb. benötigt eine gute grafikkarte um gut zu laufen...da ist dann der unterschied zwischen nem e6300 und nem e6800ee einfach zu gering. und so haben die verschiedenen spiele einfach verschiedene anforderungen.
im fazit steht ja auch, dass die 8600 gts in shaderlastigen spielen der konkurenz wirklich davon ziehen.
kann natürlich auch vom sli treiber abhängen....

so long
 
kann natürlich sein. aber ich glaube eher das es sich um tippfehler handelt.

es sollte doch wirklich in etwa so aussehen

Oblivion
8800 GTS 320 - 28,6 fps
8600 GTS - 16,0 fps
8600 GTS SLI - 12,6 fps - richtig 22,6 fps

Call of Duty 2
8800 GTS 320 - 30,5 fps
8600 GTS - 17,3 fps
8600 GTS SLI - 20,2 fps - richtig 30,2 fps

The Chronicles of Riddick
8800 GTS 320 - 78,7 fps - richtig 88,7 fps
8600 GTS - 40,9 fps
8600 GTS SLI - 82,3 fps
 
Also schlecht finde ich die Karten keinesfalls, wäre ja ne Alternative wie Leute für mich. Hab ja ne 7600GT und bin voll zufrieden. Eine 8600 ist sogar fast immer schneller als eine 7900GT. Wo liegt dann das Problem ? :)

SLI find ich jedoch bissen enttäuschend.
 
Ich glaube Nvidia wird nach Vorstellung der Midrange ATI-Grafikkarten auch noch eine Geforce 8700 GT/GTS bringen.

Eine 8500 GT gibt es ja auch (eine 7500 gab es [offiziell] ja auch nie)
Eine Geforce 8700 GT/GTS mit 64 Stream Prozessoren und 256bit Speicherinterface wird noch kommen. Die Lücke zwischen 8800GTS (96 SP) und 8600GTS (32 SP) ist leistungsmäsig einfach zu groß und die 8700 GT/GTS nur logisch.

Oder hat Nvidia die Lücke extra so groß gelassen um 5 Monate später eine 9600 GT/GTS mit 64 Streamprozessoren und 256bit Speicherinterface in 65 nm bringen zu können?

Wir werden sehen. Die ATI Karten sollte man aber auf jeden Fall abwarten, wenn man unbedingt eine DX10 Karte haben will... Allein schon wegen den Preisen...
 
Für eine 9xxx-Serie müssten allerdings die High End Karten kommen. Die Release Termine würden sehr eng zusammenfallen. Aber vll machts man so wie AMD, nur geheim ^^
Der aspekt das der Unterschied zu groß ist ist allerdings wahr.....abwarten und Tee trinken :)

@A 7150
Hat doch der G80 auch, warum also auch nicht der G84?
Liegt eben an der neueren Technik, und Winkelunabhängien AF etc. (Bin bei den Details nicht ganz so belehrt)
 
Zuletzt bearbeitet:
Kann mir mal jemand erklären, warum die X1950Pro, laut Fazit, eine schlechtere Bildqualität gegenüber der 8600GT haben soll?
 
Weil nvidias neuer Anisotroper Filter besser ist als der von der Ati.

In Meinen Augen: Total beschissen!

Früher:
100% Leistung Geforce TI 4600 400€
80% Leistung Geforce TI 4200 170€

Jetzt
100% 8800GTX ~450€
45% 8600 GTS ~ 300€

Einfach zu lächerlich!
Midrange wird zum Lowcostmarkt.
Wer spielen will muss 270€+ ausgeben.

130€ für ne 1950 pro sind auch etwas gut gemeint, dadurch schlägt sie sich viel besser als die 7900GS im Preisleistungsrating, wo dera abstand imho nicht so gross ist.

Danke Für die Artikel und die Arbeit!
 
Zuletzt bearbeitet:
Der ganze test ist doch quastsch.
Mainstream karte heisst : kleien auflösung kein aa, kein as.
Das war schon immer so und wird auch so bleiben.
Wird der test bei einer auflösung von 1280x1024 durchgeführt und aa und as ausgeschaltet (so wie wahrscheinlich 70% der leute ihr spiel spielen) läuft die karte recht fix.

benchmarks sind so ein unsinn.
 
Fassen wir also zusammen:
NVidia versucht neue Mainstream-Grafikkarten rauszubringen die für 150-200 Euro nicht in der Lage sind auch nur ein aktuelles Spiel in einer normalen Auflösung flüssig darzustellen, von AF oder FSAA mal ganz zu schweigen.

Kein wirklich großes Tennis
 
Äh??? Ich Spiel mit meiner 7600GT, alle aktuellen Spiele in 1024x768 mit 2AA/8AF mit moderaten Frames. Für höhere Auflösungen sind Midrangekarten NICHT gedacht.
Wth sind für dich nomale Auflösungen? 1600x1200?? Die meisten hier sind echt verwöhnt von den Grafikkarten im 250-300€ Segment....
 
Zurück
Oben