Test GeForce GTS 250 im Test: Nvidias neue Grafikkarte ist nur eine 9800 GTX+

"Es gibt keine GTX+/1G mit 1,1 GHz Speichertakt *g*"
Das ist total latte, die 100MHz mehr VRam takt bingt so gut wie nix.
GTX+ 1G macht jede Karte 1100 mit bei OC.
 
royal_flush schrieb:
Guter Artikel, aber nVidia machts sich sehr einfach, einfach die GTX+ in eine GTS 250 umlabern. :-)

nicht ganz erst bringt nvidia einen G80 refresh namens G92 dieser kommt auf 112 shadern beschnitten auf eine 8800GT einen Monat später kommt dass erstemal ein vollaktivierter G92 chip auf einer 8800GTS ein paar monate später kommt eine umgelbelte und leicht übertaktete version mit dem namen 9800GTX ein paar wochen später nimmt nvidia zwei G92 chips und klebt sie auf 2 PCBs die 9800 GX2 wurde geboren ein paar monate später shrinkt nvidia den G92 zum G92b dieser wird erstmals auf der 9800GTX+ verbaut ein paar wochen später kommt der G92b beschnitten auf das PCB einer 8800GT und wird 9800GT genannt nun nimmt nvidia den G92b verbaut ihn auf ein 8800GTS PCB und vermarktet es als GTS250 :rolleyes::rolleyes::freak::freak::mad::mad:
Edit: es sollte nicht mt etwas salz aufgewärmt heißen sondern bereits zum 7 mal mit etwas salz aufgewärmt heißen :D es ist total versalzen :D
 
Zuletzt bearbeitet:
Nach wie vor fehlen mir Antworten. Was macht denn die GTS250 so viel schlechter als die GTX+? Wo kostet sie denn mehr als eine gleichwertige GTX+? Wer von euch erleidet einen Schaden dadurch?

Der G92b ist ein sehr guter Chip, jetz sogar noch mit effektiver Stromsparfunktion, so what?
Von mir aus gibts den Chip auch noch bei der GTS350, sofern er um 5% schneller ist, und 20W weniger braucht, bei selbem Preis der alten Karten.

Sollen sie ernsthaft alle G92b wegwerfen? Denn heult wieder jemand weil nVidia keinen Umsatz macht.

@ovverdrive: Ein Bench, von nem Spiel, das in nem Monat released wird, großes Kino, aber gut, ich machs mal wie die Konkurrenz...

Ey, das is doch Unfair, das Spiel is doch auf ATI Optimiert, schließlich hat die XBox ne ATI Karte...zudem wurde nicht mit dem neuen 182.10 gebencht, so kann man den Test gar nicht gelten lassen.

E: @Pyradonis: Ja gut, vllt schlecht formuliert von mir. Ich meinte nicht direkt das CB das pushen sollte. Aber generell sollte man öfter den Schritt zu 1GB wagen. Leider gibts keine zwischenschritte (bis auf G80 ausnahmen)
Und bei höher aufgelösten Texturen + ner weile Spielzeit sind 512MB je nach Spiel schon "knapp"

Klar, das Fazit von CB ist zu vertreten, allerdings sollte angemerkt werden, das wenn man höhere Auflösungen und/oder Qualität fährt, sich 1GB auch als nützlich erweisen können....was dann eher dem Fazit bei PCGH entspricht.

E2: Böse böse Lübke xD
 
Zuletzt bearbeitet:
wenn ich so seriöse posts wie von ovverdrive schon sehe :rolleyes:

wenn du dich auf sein niveau herablassen willst, dann zeig ihm diesen link:
https://www.computerbase.de/artikel/grafikkarten/geforce-180-47-in-fuenf-spielen-test.918/seite-4
der "beweist" dann, das eine 4870 1gb gegen eine 9800gtx+ mit nur 512mb elendig abstinkt^^

noch so ne zote:
war doch immer so. je länger ne ati aufm markt ist, desto schneller wird die im vergleich zur nvidia aufgrund der hohen rohpower von ati.
weil einmal architekturbedingt (und nicht wie gern behauptet treiberbedingt) mal eine bestimmte ati auf eine bestimmte nv aufgeholt hat, wird das mal einfach pauschal als allgemeine tatsache hingestellt. dass die 8800gt der 3870 mehr und mehr davonzieht wird einfach mal ignoriert und andere fakten ebenso. hauptsache rumtrollen :rolleyes:

am besten ignoriert man wohl solche posts...
 
Zuletzt bearbeitet:
Also ich weiß ja nicht. Umlabeln hin oder her.

Aber nur mal rein vom Leistungsniveau ist die nicht übertaktet GTS 250 etwas über (~5%) der 4850 und etwas unter (~10%) der 4870 zu finden. Insbesondere bei hohem AA bricht die GTS weg. Die alte 9800 GTX+ ist Leistungsmäßig praktisch mit der HD 4850 identisch. Ohne hohe Details meist schneller mit 4xAA 16x AF meist etwas langsamer.

Selbst die Übertaktete GTS 250 AMP kommt praktisch nie ganz an die 4870 ran.

Ob man nun Karten noch selbst übertakten etc. kann spielt für mich erstmal nicht so die Rolle - interessant ist was die Karten ab Haus können oder nicht. Alle anderen Modifikation die ich selbst mache sind nämlich auch auf eigenes Risiko und das machen nur ein paar Hardware cracks die meistens in Online foren wie hier rumlaufen.

Außerdem hat CB die 1024 MB GTS 250 getestet und nicht die 512 MB Version. Das vergessen offenbar viele in der Preisleistungsdiskussion. Und vor allem bei der Performance diskussion. Meine Vermutung die 512 MB GTS 250 bricht bestimmt noch stärker ein grade bei 8x AA oder sogar schon bei 4x AA oder bei 1680x1050 etc.

Nehmen wir mal die aktuellen Marktpreise:

HD 4850 512 MB ab 115€
9800 GTX+ 512 MB ab 127€
GTS 250 512 MB ab 140€
GTS 250 1024 MB ab 155€
HD 4870 512 MB ab 158€
HD 4870 1024 MB ab 173€

Die übertaktete hab ich nicht gefunden.

Fassen wir zusammen laut CB-Test selbst ne 512 MB 4870 ca 10% besser als die GTS 250. Kosten aber das gleiche - Die 4870 hat den höheren Stromverbrauch imho ist die doch sparsamere GTS 250 für Gelegenheitszocker da interessanter.

ABER als Gelegenheitszocker würd ich doch gleich zur 4850 greifen. Kostet deutlich weniger und hat nur 5% weniger Leistung als die GTS 250 mit 1.024MB oder vermutlich sogar etwas mehr Leistung als die GTS 250 512MB (die ja nicht getestet wurde).

IMHO ist die Karte nur dazu da entweder Leute übern Tisch zu ziehen die keine Ahnung haben - oder wirklich so viel IDLE Zeit haben dass der Mehrverbrauch der HD4850 die Mehrkosten einer GTS 250 rechtfertigt oder für nVidia Jünger die sowieso nie eine ATI karte kaufen werden und sei es die sind 50% besser und kosten die Hälfte.

Naja, insgesamt find ich die als GTS 250 relaunchde 9800 GTX+ ein besseres Paket als die alte 9800GTX+ gerade wegen dem niedrigen Stromverbrauch. Andererseits - wer sich da nicht doch lieber eine HD 4850 kauft ist selber schuld IMHO.

Iscaran
 
Endlich mal ein vernünftiger Post, danke.

Klar hat die 4850 wohl ein besseres P/L, aber gabs das nicht schon immer, das obwohl manche Karten ein schlechteres P/L haben, trotzdem zu ihnen gegriffn wird, auch wenns nur durch sympathie ist. Das gabs vorher schon, und wirds auch später noch geben egal ob ATI oder NV.
 
die preise werden sich wohl in den kommenden wochen auf niveau der 9800gtx+ einpendeln. vergesst nicht, die gts250 ist der nachfolger und die 9800gtx+ entfällt. im grunde ist dies ja teil der namensangleichung von nv (was sie hätten gleich machen sollen -.-)
positiv finde ich, dass in sachen verbrauch nachgebessert wurde. aktuell ist die gts aber noch zu teuer...
 
r4yn3 schrieb:
Nach wie vor fehlen mir Antworten. Was macht denn die GTS250 so viel schlechter als die GTX+? Wo kostet sie denn mehr als eine gleichwertige GTX+? Wer von euch erleidet einen Schaden dadurch?

Der G92b ist ein sehr guter Chip, jetz sogar noch mit effektiver Stromsparfunktion, so what?
Von mir aus gibts den Chip auch noch bei der GTS350, sofern er um 5% schneller ist, und 20W weniger braucht, bei selbem Preis der alten Karten.

Seh ich genauso. Ist doch völlig wurscht wie die Karte heisst - bevor ich eine kaufe schau ich mir eh Benchmarks/Tests an. Nur nach der Produktbezeichnung kaufen hat imo noch nie so viel gebracht - schließlich will die Marketingabteilung auch leben ;)
 
Junge, hier geht es ja wieder hoch her.:D
Abgesehen von der (wieder mal) zu lauten Kühlung im Idle finde ich persönlich die Karte als Nachfolger der 9800GTX gar nicht mal so schlecht. Vorausgesetzt, die Marktpreise pendeln sich etwa auf dem Niveau der 4850 von ATI ein.
Viele, die sich hier über Nvidia aufregen, sollten nicht vergessen, daß die Masche, ein Produkt mit kleinen Veränderungen unter neuem Namen zu verkaufen, alles andere als neu ist.;)
Und schlußendlich ist Nvidia eine Firma wie alle anderen auch, deren oberstes Ziel es ist, möglichst hohe Umsätze und Gewinne bei möglichst niedrigem Einsatz zu erzielen.
 
Iscaran schrieb:
Naja, insgesamt find ich die als GTS 250 relaunchde 9800 GTX+ ein besseres Paket als die alte 9800GTX+ gerade wegen dem niedrigen Stromverbrauch.
Iscaran

Hmm

CB Test schrieb:
Im 2D-Modus taktet sich die GeForce GTS 250 laut Nvidia auf 300 MHz (TMU-Domäne), 600 MHz (Shaderdomäne) beziehungsweise 100 MHz (Speicher) herunter.

Ne 9800GTX+ 55nm taktet im IDL auch auf 300/600/100 ... (Gainward)
Stromverbrauch is da kein Argument, eher der werkseitige höhere VRAM, der aber nicht wirklich Sinn macht - unter gewissen Filtersettings.
 
Ein solches Kommentar sagt mehr als 1000 Worte.
:rolleyes: Erstens ist dir wohl das *g* entgangen und zweitens habe ich recht - mir gehts schlicht um die Korrektheit der Aussage. Eine GTS 250 ist nicht identisch mit einer GTX+/1G.

cYa
 
@THC:

Ne 9800GTX+ 55nm taktet im IDL auch auf 300/600/100 ... (Gainward)
Stromverbrauch is da kein Argument, eher der werkseitige höhere VRAM, der aber nicht wirklich Sinn macht - unter gewissen Filtersettings.

Ich habe lediglich die Werte aus dem CB-Test genommen und ich nehme an dass es sich dabei um die für mich relevanten werksseitigen Einstellungen handelt. Demnach verbraucht die GTS 250 bezogen auf das Gesamtsystem im idle gemäß Werkseinstellung 135W (Gesamtsystemleistung) Die 9800 GTX+ 163 W (Gesamtsystemleistung). Da der Rest des Systems identisch ist nehme ich an dass der Mehrverbrauch ausschliesslich auf die Grafikkarte zurückzuführen ist.

Die Differenz sind also 28 W.

Das man mit Tools etc. viel rausholen kann - weiß ich finde ich steht hier aber nicht zur Debatte da 90-99% der Grafikkarten user das nicht machen/nutzen. Das kann man aber auch mit allen anderen Modellen die hier zur Diskussion standen und afaik kommt die HD 4850 auch noch deutlich im Verbrauch runter im idle wegen dem bekannten Powerplay Problemen.

Wie gesagt ich finde werksseitige Einstellungen relevant. Man kann zwar jederzeit sagen "Hey mein getunter VW Golf schlägt aber jeden Werks-BMW um längen !" Ist aber meiner Meinung nach nicht relevant denn jeder getunten Werks-BMW wird wiederum den Golf schlagen.

Daher betrachte ich persönlich Grafikkarten erstmal unter diesem Gesichtspunkt - für ein Nischenpublikum das sich mit Tuning auskennt mag die Karte durchaus noch andere Sekundäre Kaufargumente haben - diese sollten aber meines Erachtens nach eben nicht verallgemeinert werden.
 
Ich kann absolut nicht verstehen, warum die Karte so laut ist. Was bringt es, die Karte im 2D Modus auf 34 Grad zu kuehlen?

Es ist bezeichnend, dass wirklich saemtliche Karten der 200er Serie von nvidia im 2D Modus erschreckend laut sind. Damit leider voellig unrbauchbar.

Zur vierten Generation mit dem selben Chip sag ich besser nichts. Immerhin suggeriert der name dieses mal nicht, dass die karte in einer hoeheren klasse spielen wuerde (so wie bei 88GTS zu 98GTX).

lg
Lion
 
Das man mit Tools etc. viel rausholen kann - weiß ich finde ich steht hier aber nicht zur Debatte da 90-99% der Grafikkarten user das nicht machen/nutzen.

Der IDL Takt ist bei der Gainward Standard ;)
 
@StuffedLion:

wo sind die NV GTX200 im 2D Modus zu laut frag ich mich gerade?

Wie kommst Du auf sowas?

mfg
 
Meine 260er ist im 2D auch nicht zu hören (35%). Da machen die Gehäuselüfter mehr Lärm. Im 3D wäre sie auch nicht zu hören, habe aber manuell auf 50% gestellt, da mir die Lebensdauer der Karte wichtiger ist, wie die Lautstärke...

2D - ca. 40°C
3D - max. 65°C
 
ParaDee schrieb:
Meine 260er ist im 2D auch nicht zu hören (35%). Da machen die Gehäuselüfter mehr Lärm.
Das ist ja mal ne Begründung. Mein Delta EHE ist unhörbar weil ich in ner Disco mit 120dB sitze. :evillol:
 
Hmm, wollt sagen, dass die Gehäuselüfter (2x 120mm, 2x 80 mm) kaum hörbar sind, und damit entsprechend die 260er gar nicht. Besser formuliert? ;)
 
Lautstärke subjektiv zu vergleichen können wir uns eh sparen. Ohne Messgerät ist ein Vergleich quatsch und was ein Vergleich per Messgerät ergibt kann jeder im Cbase Test nachlesen.

So langsam sollte es sich bei Nvidia rumgesprochen haben, dass die Kunden nicht auf laute Karten stehen und trotzdem schert sich NV nicht drum. Das kann nur damit zu tun haben das sie diese niedrigen Temperaturen brauchen, sei es um bestimmte Taktraten zu erreichen, eventuell billige Komponenten am leben zu halten die keine höheren Temps ertragen würden oder den Stromverbrauch möglichst niedrig zu halten.

Sollte jedem zu denken geben der meint, dass man ganz easy den Lüfter manuell herunterstellen kann. Das ist deutlich was anderes als bei ATI manuell die Taktraten herunterzunehmen, das entlastet nämlich die Karte und erhöht die Lebenszeit.
 
Zurück
Oben