Test Test: nVidia GeForce 8600 GTS (SLI) und 8600 GT

Charger_x schrieb:
Der ganze test ist doch quastsch.
Mainstream karte heisst : kleien auflösung kein aa, kein as.
Das war schon immer so und wird auch so bleiben.
Wird der test bei einer auflösung von 1280x1024 durchgeführt und aa und as ausgeschaltet (so wie wahrscheinlich 70% der leute ihr spiel spielen) läuft die karte recht fix.

benchmarks sind so ein unsinn.

Also charger_x, was du hier so für Sprüche vom Stapel lässt, finde ich unter alle Kanone.

Es wurde - wie du es halbstark forderst - ohne AA/AF getestet bei den relevanten Auflösungen (1280x1024 ist heute Standard, weil die meisten TFTs diese als native Auflösung haben).
"Recht fix" läuft die Karte damit durchaus, aber eben im Vergleich zur preisgünstigeren Konkurrenz deutlich langsamer.
Die Benchmarks sind auch kein Unsinn, nur weil sie dir nicht passen. Hier wurden echte Spiele mit echten Szenarien getestet. Was genau würdest du machen, um Grafikkarten zu vergleichen?

Deinen Aussagen bzgl Stromverbrauch kann auch niemand nachvollziehen. Die X1950 Pro und die 8600GTS geben sich nun wirklich nicht viel.

Bleibt als einziges Argument für die neuen Karten DX10. So ganz zieht das aber nicht, denn die neuen DX10-Spiele dürften die arme Karte überfordern und man muss die Effekte dann doch wieder abschalten.


Speedy_2
 
r4yn3 schrieb:
Wth sind für dich nomale Auflösungen? 1600x1200?? Die meisten hier sind echt verwöhnt von den Grafikkarten im 250-300€ Segment....


Wieso immer gleich in Extreme verfallen? Das machen meist nur Leute, die auf haltlosen Positionen stehen.
Heute ist 1280x1024 "modern", weil das die meisten TFTs als native Auflösung haben. Da liegt im Test auch richtigerweise der Fokus. Karten aus dem Jahr 2007 für 200 Euro sollten sehr wohl in der Lage sein, das zu bringen. Insbesondere wenn die High-End-Karten inzwischen so schnell sind, dass man sie an sündhaft teuren Displays (1920er Auflösung) betreiben muss, um sie überhaupt auslasten zu können.

Speedy_2
 
r4yn3 schrieb:
Äh??? Ich Spiel mit meiner 7600GT, alle aktuellen Spiele in 1024x768 mit 2AA/8AF mit moderaten Frames.
Ich gehe jetzt von den Spielen die hier getestet wurden aus, Doom3 und HL2 lass ich mal weg, zu alt.
Eigentlich jeder aktuelle Monitor über 100 Euro (also 17Zoll aufwärts) läuft idR bei mind. 1280 x 1024 und gerade bei TFTs sehen 1024x768 oft schlichtweg scheiße aus.

Und wer 200 Euro für ne Graka ausgibt und noch keinen TFT >= 17 Zoll oder CRT >=19Zoll hat, der hat eindeutig am falschen Ende gespart
 
@Speedy_2
Sind 1600x1200 extrem? Nur kenn ich niemanden mit ner Midrange Karte der in 1600x1200 spielt. 1280x1024 sind für Midrange e normal, so gesehen versteh ich deinen Post nicht.

@Blutschlumpf
Meinst etwa die Spiele spiel ich nicht in der Auflösung oder wie? Doom3 ist kindergeburtstag das sogar eine 6600GT auf UQ packt. Ich spiele nur in 1024 weil ich die Details hoch halte und mir die Auflösung eher egal ist. Aber mit ner 8600GTS ginge locker 1280.
 
Hi Leute,

wenn es mal interessiert, Ihr kennt ja alle noch den zwischenfall von www.au-ja.de, welche ein bisschen stress hatte mit NVidia und den zur verfrühten Launch der 8600GT.
Nun ja und die schrieben ja, das Sie einen Treiber haben welches eine erhebliche abweichung bringen sollte,

Bitte schaut selbst, die benutzen in Gegensatz zu CB einen neueren Treiber WHQL Forceware 101.02, und erhalten in 3DMark 06 gleich 2000 punkte mehr, bei der 8800GTS 320MB und der 8600GTS Variante!

http://www.au-ja.de/review-club3d8600gts-4.phtml

Scheint da wirklich was dran zu sein mit den Zaubertreibern :evillol:

Und CB, wieso habt Ihr den die neuen Treiber nicht erhalten? Und wieso kann man die niergends Downloaden :freak:

Mfg Selflex
 
Zuletzt bearbeitet:
naja in Spielen ist sie trotzdem nicht grad eine Kanone - Im Fazit steht ja auch das sie mit einer 1950Pro/7900GT gleichzieht.
die leistung ist schon halbwegs in Ordnung, aber keines falls ist die Karte ein P/L Hit.
Von den 3DMarks kann man sich auch nichts kaufen.
 
Hallo Raceface,

nun ja, das liegt wohl ehe daran das die Schnittstelle limitiert. Aber wir sollten nicht vergessen das CB einen übertakteten Intel Core 2 Extreme X6800 mit 3,44 Ghz zum Test heran gezogen hat und au-ja wahrscheinlich nur einen Standard Takt für selbige verwendet hat.

Mich interessiert einfach mal wie der Treiber sich auf die 8800GTS und GTX auswirkt. Die 7er und die Pro1950 interessieren mich da weniger ;)

Mfg Selflex
 
ich bereue nichts:D hab mir im winter sehr günstig eine neue x1900gt gekauft, die im schnitt 5% langsamer als die x1950pro ist und bin mit ihr sehr zufrieden...da kommt für mich im moment keine dx10 karte von nvidia in frage....
ist doch vielleicht eher was für die vista nutzer, die auf ein paar % lestung verzichten können und umbedingt dx10 grafik haben müssen...
 
Dieses Bandbreitengejaule...

Die Bandbreite der 8600GTS (32GB/sec) wird bei 1280x1024 ohne AA/AF mit Sicherheit nicht das Problem sein. :rolleyes:
Auch mit Normal Mapping und allem anderen Pipapo.
Aber das ist nicht mein Spezialgebiet. Wo steckt kisser, der kann das doch sicher mal ausrechnen. ;)

btw: Die X1900GT schaufelt auch nur 6GB mehr...
 
Was ich mir gerade denke, bei dem Au-Ja Tests:
3dMark 06:
1280x1024:
8800GTS: Au-Ja = 8300, CB 8900. gut ok, liegt vll am CPU
8600GTS: Au-Ja = 5400, CB 5800. Vll auch CPU
7900GT: Au-Ja = 3990, CB 4700??

Dann fällt mir aber auf das Au-Ja aber mit 4AA/8AF Testet....also
8800GTS: Au-Ja = 8300, CB 5900. gut ok CB Testet auch mit 16xAF
8600GTS: Au-Ja = 5400, CB 3100. Soviele Punkte nur durch Treiber?

Irgendwas kommt mir daran komisch vor, wenn man die Werte von Au-Ja mit den CB Test ohne AA/AF vergleicht sind sie fast identisch, mit AA/AF allerdings überhaupt nicht mehr.....
Gut über 3d Mark lässt sich streiten, aber da ist doch wo ein Haken oder?

Kann mich da jemand aufklären?
 
5400 Punkte hat Au-ja mit der übertakteteten 8600GTS

Nicht übertacket hat Geforce 8600GTS bei Au-ja 5050 Punkte.

Ist 1280x1024 bei 3-D Mark 06 Standandard? Bei Au-ja steht ja die Auflösung nicht bei, sondern nur die AA AF Einstellungen.

5050 Punkte wären immer noch "etwas" zu hoch bei 1280x1024 mit AA und AF...
Oder das 16x AF bei CB-Test frißst wirklich so viel Ressourcen. Die Karte ist für solch hohe AF Einstellungen gar nicht optimiert.
 
Zuletzt bearbeitet:
Ich würde sagen für 50€ mehr die GTS 320, hat man fast 70% Mehrleistung als bei der GTS.
Damit ist diese Midrange-Gen für Nvidia wohl gestorben, für mich zumindest keine gute Karte dabei. Man waren das Zeiten mit der GeForce 2 MX, da war günstig auch noch gut:freak:
 
Das TSSAA von CB nicht zu vergessen ... trotzdem sind die Differenzen hoch. Vielleicht hat Au-Ja in 1024x768 getestet.
 
Ich kann da r4yn3 nur zustimmen, ich spiele CNC3 mit meiner 7600GT auf 1680x1050 und das ohne Problem... Stalker geht so, aber da ist die Auflösung dann doch ein Stück zu hoch.
 
Kann mir kaum vorstellen das Sie den Benchmark mit 1024x768 Auflösung betrieben haben, Standard ist 1280x1024 und die haben einen 19" CRT Monitor für den Test benutzt.

Frage, wo bekomme ich den Treiber her?

Mfg Selflex
 
Klasse Test, endlich ein sehr schnelles Testsystem, dann sieht man die wahre Performance der Karten!

Die 8600er enttäuscht mich aber schon, Preis (noch zu hoch), Leistung unterhalb der X1950Pro...
Aber Größe, Kühlsystem und Stromverbrauch sind sehr gut für ne Mittelklassekarte.
Ich denke, wenn der Preis auf ca. 160€ für die GTS gefallen ist, wird sie langsam interessant, wobei man DX10 wirklich noch nicht als Pluspunkt werten kann.. gibt noch keine Spiele und imho ist die 8600er zu langsam für die Effekte.

Bleibt auf eine "Ultra" mit 64 Shadern zu hoffen, das könnte die Mittelklasserakete werden.
 
Ich versteh das gelaber nicht von wegen "8600 zu lahm für DX10"
Woher wollt ihr das wissen? Wenn Crysis auf einer 7900GT gut laufen soll mit mittleren Details. Und DX10 ermöglciht es Effekte einfacher zu berechnen. Man muss ja schließlich bei DX10 ned alles auf HQ drehen. Ich bin mir sicher, DX10 @ medium Details wird geiler als DX9 mit HQ ^^
 
Ich bin mir sicher, DX10 @ medium Details wird geiler als DX9 mit HQ ^^

Das halte ich für ein Gerücht. ;)

Gerade heutzutage wird doch eher Filterspezifisch programmiert, da wird Medium
sicherlich beschissener aussehen als High, egal ob SM3 oder 4.

Die 86er sind ein Witz.
 
DX10 kann längere Instruktionen in einem Schritt abarbeiten. Das ist nicht gleichbedeutend mit "mehr". ;)
Und bei beschränkten shadern ist das wohl ne Bremse.


bye Hübie
 
Zurück
Oben