Test GeForce 9600 GSO im Test: Nvidia stellt HD-3850-Gegner mit reduziertem Speicher

Karten im low end segment sind sowieso sinnlos.
die sind eher für den alten zweitrechner oder schwache office pcs gedacht
für jmd, der akzeptable grafikkleistung will, kommt sowieso erst ne karte ab 150€ in frage
 
Oder für Leute die es nicht einsehen jedes Jahr 300 Euro für ne neue Grafikkarte zu vergeuden.
 
Eine 8800GS/9600GSO als Low-End zu bezeichnen ist besonders sinnlos. Hd3850/9600GT/9600GSO bieten alle eine ähnliche Leistung und mit denen kann man auch bei mittleren bis hohen Details auf 1280er Auflösung zocken. Für mich ist Low-End sowas wie ne Matrox Mystique ;)
Ich habe nur für 2 Grafikkarten mehr als 100€ ausgegeben, das war früher für 450DM für die Voodoo2, was sich wirklich gelohnt hat und später der Sprung von 4200TI auf 6800GT für 300€, was sich meiner Meinung nach nicht gelohnt hat. Ich dachte bei der 6800GT fällt mir die Kinnlade runter, wie bei der Voodoo2, aber von dem Fortschritt war ich doch eher enttäuscht. Auch heute hat sich nicht so viel getan, dass ich mehr als 100€ für eine neue Grafikkarte ausgeben würde, es gibt einfach zu wenig Neuerungen die einen wirklich beeindrucken. Deswegen ist die 8800GS genau das richtige für mich, um mal Quake Wars mit allen Details zocken zu können und der Wertverlust ist nicht so hoch wie bei den ganzen anderen Karten über 150€, wenn ich nur an die 350€ für eine Zotac Amp 8800GT zu Weihnachten denke :)
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
Sorry, aber das ist in etwa so wie mit nem Auto anzugeben was 10 Liter bei 90 auf der Autobahn braucht, klingt nicht sehr überzeugend sofern du da keine sinniger Erklärung hast (8 Platten wäre eine, hungriger Quad, NVidia-Chipsatz oder SLI nicht ;)).
Meins braucht übrigens idle irgendwas zwischen 80 und 90 Watt, imo ist das schon viel zu hoch, das Ziel muss sein deutlich unter 50 Watt zu kommen.

btw, die 3850 hab ich mir schon vor knapp nem halben Jahr gekauft als NVidia noch Probleme hatte ohne Last in der Leistungsregion auch unter 100 Watt zu kommen, die hat sich schon bewährt, da brauch ich nichts mehr schönreden. :evillol:

Ob du willst oder nicht, bei aktuellen Spielen sind max Details mit 1600x1200 und 8xAA/AF nicht drin, ob da kann ich am ehesten auf AA/AF verzichten.
Wenn ich was von 2006 zocke reicht inzwischen fast jede Karte.

Ähm..rechne Dir mal bitte den "angeblichen" Mehrverbauch aus.

Der getestete Wert kann so nicht stimmen,entweder hat CB mist gebaut oder der Graka Hersteller.

Aber selbst WENN die Karte sagen wir mal 20W mehr verbraucht,sind das pro Jahr 72,8 KWH (bei 10Std laufzeit,was wohl auch Utopisch ist),bei 0,20€ Strompreis per KWH hast Du eine Ersparnis von 14,50€ pro Jahr.

Dafür bekommt man einer Kühlere,in AA/AF 1280 Performantere,OC Freudigere Karte mit 128MB mehr Speicher.

Ob es das jemand Wert ist,muß er selber entscheiden ;)

Les mal meine Posts,ich sagte vorher schon das sich wohl keiner ne 256/384MB Karte bei Auflösungen über 1280er Auflösung holt.

Weil Leute mit solchen TFTs haben wohl genug Geld für ne 8800GT ;)

/Edit: Achja,Du hast übrigens noch etwas überlesen: https://www.computerbase.de/news/grafikkarten/geforce-9600-gt-schneller-als-geforce-8800-gs.21148/

Und nun? Tauschte jetzt Deine HD gegen ne 8800GS? ;)

Was spricht jetzt noch für die HD? Langsamer,heisser,verbraucht mehr Strom,weniger Speicher,teurer...achja...das 256Bit SI...nur wo genau zieht die Karte daraus jetzt genau die Vorteile? *g*

Aber die 9600GSO ist ne ganz pöse...zu blöd,das es im Grunde genau die selbe Karte wie die GS ist...o_O
 
Zuletzt bearbeitet:
Mightydax schrieb:
Aber selbst WENN die Karte sagen wir mal 20W mehr verbraucht,sind das pro Jahr 72,8 KWH (bei 10Std laufzeit,was wohl auch Utopisch ist)
10 Std Utopisch? Es gibt genug Leute, die sogar über 14 Stunden den PC laufen lassen. Dafür gab es hier bei CB eine Umfrage:
https://www.computerbase.de/forum/threads/wie-lange-spielt-ihr-und-wie-lange-laeuft-pc.285387/
Da kannst du sehen wie lange der PC bei den Gamern hier aus dem CB-Forum läuft. Mein Vorschlag war es auch, dass CB die Stromkosten auf die Garantiezeit=2 Jahre mit ins Preis-Leistungsverhältniss einbaut. Leider hat CB den Thread aber erfolgreich ignoriert. Die Umfrage ist aber dennoch sehr interessant un für dein Rechnung nützlich....


Mightydax schrieb:
Dafür bekommt man einer Kühlere,in AA/AF 1280 Performantere,OC Freudigere Karte mit 128MB mehr Speicher.
nVidia Karten brauchen auch mehr Grafikspeicher, da sie sonnst einbrechen, von daher gleicht sich das wieder aus... und Kühl ist die Karte nur, weil die Lüfterreglung nicht funktioniert und die Karte deswegen viel zu laut ist. Den je mehr Strom eine Karte verbraucht, desto mehr wird auch als Wärme abgegeben ;)
 
Zuletzt bearbeitet:
Mightydax schrieb:
Ähm..rechne Dir mal bitte den "angeblichen" Mehrverbauch aus...
Mehr Energie = mehr Wärme = mehr lärm. Ob die jetzt 3 Euro mehr oder weniger auf 2 Jahre kostet ist da imo zweitrangig. Aber auch mit 14 Euro pro Jahr kommste in der Lebenszeit der Karte von geschätzten 2 Jahren schon auf höherer Kosten als bei der 3850. Mir gehts primär um Ruhe und jetzt im Sommer um möglichst wenig Raum-Aufheizung (Fenster im Südosten = eh schon ganztägig unschön warm).
btw, 10h am Tag sind imo nicht utopisch. Ich bin faul, ich mach den Rechner an wenn ich ihn benutze und aus wenn ich ins Bett gehe, das sind idR. 4h in der Woche und 16h an freien Tagen. Als Schüler würd ich die 10h z.B. locker packen.

Dafür bekommt man einer Kühlere,in AA/AF 1280 Performantere,OC Freudigere Karte mit 128MB mehr Speicher.
Dann bleib ich lieber bei der leisen, ohne AA/AF schnelleren Karte die im Normaltakt einfach problemlos läuft.

Les mal meine Posts,ich sagte vorher schon das sich wohl keiner ne 256/384MB Karte bei Auflösungen über 1280er Auflösung holt.

Weil Leute mit solchen TFTs haben wohl genug Geld für ne 8800GT ;)
Geld ist bei mir ehrlich gesagt nicht das Problem, aber was bringts mir wenn ich mir alle 3 Monate bei Alienware ne Kiste für 5k Euro zusammenstelle, so kurz isser nicht, dass ich kompensieren müsste :D

/Edit: Achja,Du hast übrigens noch etwas überlesen: https://www.computerbase.de/news/grafikkarten/geforce-9600-gt-schneller-als-geforce-8800-gs.21148/

Und nun? Tauschte jetzt Deine HD gegen ne 8800GS? ;)
Muss ich das jetzt verstehen ? Die dürfte im Schnitt übers Jahr gerechnet exakt den gleichen Verbrauch haben.
Tauschen wäre eh absolut sinnlos, aber bei ner Neuanschaffung würde ich die evtl. ins Auge fassen.

Was spricht jetzt noch für die HD? Langsamer,heisser,verbraucht mehr Strom,weniger Speicher,teurer...achja...das 256Bit SI...nur wo genau zieht die Karte daraus jetzt genau die Vorteile? *g*
Hast du jetzt nen anderen Test gelesen ? Welches Speicherinterface und so blabla interessiert mich nicht, für mich (19 Zoll TFT, 1280x1024) ist
- die 3850-256 1% schneller: https://www.computerbase.de/artikel...-gso.815/seite-22#abschnitt_performancerating
- die 3850 14W sparsamer: https://www.computerbase.de/artikel...-gso.815/seite-25#abschnitt_leistungsaufnahme
- mit 83 Euro genau 1 Euro in der Anschaffung teurer als die 9600GSO (günstigster Preis lieferbar laut Geizhals)

Wenn mich mehr Speicher aufgeilt leg ich ein paar Euro drauf und kauf mir die 512er, die mich in Anbetracht von Energierersparnis und höherem Wiederverkaufwert auf 1-2 Jahre immer noch günstiger kommt als die 9600GSO hier.
 
Zuletzt bearbeitet:
für 50 euro ne überlegung wert, wenn der pc aber auch mal über nacht läuft mit so ner karte drinnen, hätte man die gesparten 50 euro zu ner HD3850 aber im Nu wieder verpulvert, insofern: Garnicht!

laut, hungrig und zu wenig speicher, nene, danke!

Hätten sich die Karte auch sparen können, die 9600GT kostet fast gleichviel und bringt mehr leistung bei weniger verbrauch(wobei der auch noch immer zu hoch ist, speziell im idle).

Es ist klar, wenn mami und papi die Stromrechnung zahlen, ist einem die Leistungsaufnahme egal(AUF IDLE ACHTEN!) - den vorteil hab ich aber nicht, und ich finde stromverschwendung sowieso schrecklich, egal ob ich den zahle oder jemand anderes!
 
Zuletzt bearbeitet:
Vendetta schrieb:
für 50 euro ne überlegung wert, wenn der pc aber auch mal über nacht läuft mit so ner karte drinnen, hätte man die gesparten 50 euro zu ner HD3850 aber im Nu wieder verpulvert, insofern: Garnicht!

Jo, so 5 Jahre sind im Nu rum. Du zahlst deinen Strom anscheinend nicht selber, sonst wüsstest du was kWh bedeutet und wie teuer sowas ist :)
 
Blutschlumpf schrieb:

Sorry,aber liest und verstehst Du überhaupt einen meiner Post und die Links darin?

Oder siehst Du durch Deine Rosarote ATI Brille überhaupt nichts mehr? o_O

Die Karte KANN defakto diesen Stromverbrauch nicht haben.

Es ist und bleibt eine 8800GS,also im Prinzip ne GT mit niedrigeren Taktraten,weniger SI,weniger Speicher,weniger Shadern usw.

Ich poste Dir den Link auch gerne noch ein 3. mal:

https://www.computerbase.de/news/grafikkarten/geforce-9600-gt-schneller-als-geforce-8800-gs.21148/

Und Du bzw CB wollen mir erzählen,das die Karte aus irgenwelchen uminösen Gründen,die nicht mal gerpüft wurden,mehr als ne 8800GT verbraucht?

Sorry,aber entweder läuft die Karte mit 2V statt mir 1,1V,oder Sie hat DDR2 statt DDR3 Speicher die so extrem geoced wurden,das sie keine Ahnung wieviel Voltage brauchen...

Oder aber den Weihnachtsmann gibt es wirklich...

Sorry,aber nicht der erste grobe Schnitzer von CB (ich sag nur den Test der 9600GT mit unterschiedlichen Treibern...aber klar,die Karte ist schneller als ne 8800GTX...is richtig).

Aber von Dir mit 10K Posts hätte ich etwas mehr "Objektivität" erwartet...

@XP_Home: Die Mehrheit ist meines Errachtens unter 10 Std...oder sehe ich da was falsch?
 
Zuletzt bearbeitet:
Mightydax schrieb:
Und Du bzw CB wollen mir erzählen,das die Karte aus irgenwelchen uminösen Gründen,die nicht mal gerpüft wurden,mehr als ne 8800GT verbraucht?
Ich will dir nichts erzählen, ich quote nur Messergebnisse.
Gründe ? Wayne ?
Messgerät dran, was unten rauskommt zählt. Warum soll ich mir da irgendwelche Gründe suchen ? Das warum ist völlig irrelevant.
Ob die Karte jetzt ne Macke hatte, die falsch getaktet war, der Treiber nicht funktioniert hat, anderer Speicher als bei deiner verbaut wurde, das alles ist für den User imo in etwa so interessant wie ein Sack Reis der in China umfällt.
Und wenn da unterm Strich nachher mehr verbraucht wird, dann taugt die Karte einfach nichts und ich komme zum simplen Schluss, dass die nicht zu empfehlen ist.

Ich bin Pragmatiker, das Ergebnis zählt, der Weg ist nicht das Ziel, wars nicht und wirds auch nie sein.
 
Blutschlumpf schrieb:
Ich will dir nichts erzählen, ich quote nur Messergebnisse.
Gründe ? Wayne ?
Messgerät dran, was unten rauskommt zählt. Warum soll ich mir da irgendwelche Gründe suchen ? Das warum ist völlig irrelevant.
Ob die Karte jetzt ne Macke hatte, die falsch getaktet war, der Treiber nicht funktioniert hat, anderer Speicher als bei deiner verbaut wurde, das alles ist für den User imo in etwa so interessant wie ein Sack Reis der in China umfällt.
Und wenn da unterm Strich nachher mehr verbraucht wird, dann taugt die Karte einfach nichts und ich komme zum simplen Schluss, dass die nicht zu empfehlen ist.

Ich bin Pragmatiker, das Ergebnis zählt, der Weg ist nicht das Ziel, wars nicht und wirds auch nie sein.

Sorry,aber Du erzählst nur Müll.

Du würdest Dir wahrscheinlich auch ne Mercedes S Klasse kaufen wenn Du irgendwo Ergebnisse siehst,das er weniger verbraucht als nen Fiat Uno...das er vllt nur den Berg runter gerollt ist,ist Dir wohl völlig egal,oder?

"Mehr Energie = mehr Wärme = mehr lärm"

Da frage ich mich dann,warum die HD3850 im Test wärmer wird,bei Deiner tollen Rechnung?

Ebenfalls schreibst Du,Du seist zu faul den PC aus zu machen,und kommst dann damit,das Dich der "angebliche" Verbrauch stört?

Sorry,aber das ist nen Witz...

Ich klinke mich hier aus,jeder normale Mensch wird wissen und verstehen,was ich meine und Dir ist scheinbar nicht mehr zu helfen o_O
 
Mightydax schrieb:
Da frage ich mich dann,warum die HD3850 im Test wärmer wird,bei Deiner tollen Rechnung?
Weil die Lüftersteuerung da offenbar funktioniert und der Lüfter nur so schnell dreht wie er muss.
Wenn du auch nur ein wenig physikalisches Grundverständnis hättest, dann wüsstest du, dass die Temperatur des Chips kein Indikator für die Wärmeabgabe oder Wärmeumwandlung ist und würdest nicht so nen Mist schreiben.

Ebenfalls schreibst Du,Du seist zu faul den PC aus zu machen,und kommst dann damit,das Dich der "angebliche" Verbrauch stört?
Wenn ich hier Faulheit gegen Verbrauch abwäge siegt evtl. die Faulheit, wenn ich aber eine Karte auswählen kann die ohne Einschränkungen für mich oder meine Faulheit Energie spart, dann nehme ich die doch gerne.

Machst du das Licht im Wohnzimmer aus um Strom zu sparen wenn du ne Minute in der Küche was zu trinken holst ? Vermutlich nicht.
Benutzt du im Wohnzimmer ne Energiesparlampe um Energie zu sparen ? Evtl. schon.

Ich rede nicht davon den Rechner nachts laufen zu lassen oder wenn ich nicht da bin sondern dass ich den tagsüber wenn ich nur ne Stunde vom Rechner weg bin den trotzdem nicht ausschalte.
 
Also da muss man kein Hellseher sein um zu wissen das NVidia das Stromsparen nicht erfunden hat. Ich habe selber die HD3850 (bissl getuned) und eine andere Karte mit dem Leistungsniveau und dem Stromverbrauch gibt es momentan nicht.
 
Unter Volllast ist das Performance/Watt Verhältnis der 3850 schlecht.
 
Nur idelt man halt deutlich mehr als das man zockt ;)

cYa
 
Die 9600 GSO ist doch nur eine billige Masche um Geld zu machen... so wie eigentlich alle 9000er Karten aus dem Hause nVidia. Ich sehe schon die gnazen armen Schweine, die immer das beste vom besten habeb wollen und ihre 8800 Ultra verkaufen um sich eine 9800 GTX anzuschaffen...
 
Ja nvidia könnte die teildefekten G92 auch wegschmeissen.
Käme den Kunden, die eine 8800GTS kaufen sicher zugute, wenn diese mal eben 30€ teurer wird. :)
 
Erzähl nicht so ein Unsinn Unyu

Die 8800 GTS kostet so viel, weil sie derzeit für so viel Geld gut absetzbar ist. Wenn nVidia den teildefekten G92 wegschmeißt, kann nVidia im Gegenzug nicht einfach die 8800 GTS treuerer machen, sondern wird einfach nur weniger Gewinn machen. Wenn ich mir die letzten Rekordgewinnquartale anschaue, dann ist das etwas um was ich mir keine Sorgen mache^^
 
Klar ich erzähl Unsinn. :rolleyes:

Schon rein freundlich von Nvidia einen 334mm² Chip so billig anzubieten, während der 192mm² AMD Chip für den Kunden kaum billiger ist, aber nur einen Bruchteil in der Produktion kostet.

Ist jetzt auch nicht so neu, teildefekte Chips nicht wegzuschmeissen, das machen so ziemlich alle Firmen.
 
Zurück
Oben