News GeForce GTS 250 1.024 MB ab 160 Euro lieferbar

killuah schrieb:
Früher ja, aber die G92 hat mit aktuellen Treibern nochmals Abstand zum G80 gewonnen (soweit ich richtig informiert bin, habe es so mehrmals gelesen)

Also ich weiss ja nicht, mag ja das ein oder andere Game geben, aber ich muss sagen, dass meine Möhre in Lost Planet Colonies, hier unter 1680*1050 4AA und 16AF keine Probleme hat mit ner GT250 mitzuhalten, und das obwohl ich nur nen DualCore AMD 5200+2M L2 Cache im Einsatz habe. Es ist ehr so, dass auch die G80 von akutelleren Treibern mit profitiert, dass jedoch meist untergeht, da kaum eine Testwebsite der alten Karte nochmal einen Nachtest mit akltuellen Treibern gönnt

https://www.computerbase.de/2009-03/test-nvidia-geforce-gts-250/

Müsst mir mal rein aus Neugier Farcry2 zulegen, denn so wie es aussieht profitiert die Gt250 ordentlich von dem Mehrspeicher, wäre interessant zu sehen, wie es da bei der G80 mit 768MB aussieht
 
Zuletzt bearbeitet:
Iwi find ich das Gestreite hier schon wieder mehr als lächerlich, denn im Endeffekt kommt es für Otto Normalverbraucher nicht auf irgendwelche fadenscheinigen Argumente von Fanboys an, sondern auf die absolut unbrauchbaren MM-Prospekte:lol:

Ganz ehrlich, wieviel Prozent der User informieren sich im Vorab über ihren neuen PC?
Ich behaupte, dass es eine verschwindend geringe Zahl ist - von demher muss man sich auch keine Gedanken über PhysX oder dergleichen machen.

Erstens, weil der Normaluser seine Grafiktreiber sowieso nicht aktualisiert und dadurch entstandene Vorteile (besseres AA, Physics-Support ausgeweitet usw. usf.) sowieso nicht nutzt und ihn diese auch zweitens gar nicht interessieren.

Es mag ja sein, dass ihr das jetzt ganz besonders wichtig findet, aber sich wegen Schmankerln in Form von popligen Performancevorteilen bei zwei Spielen in DX10.1 - oder eben einer Technik, die zwar offensiv beworben wird (und von NV-Fanbubbis auch gerne als Argument benutzt wird), aber kaum im Einsatz ist (außer bei Mirrors Edge, was ich aber persönlich als nicht gelungen einstufe:p) aufzuregen, ist meiner Meinung nach völlig unnötig.

Fakt ist jedenfalls, dass die 250GTS eine gute Karte für Umsteiger/Einsteiger ist (also 7xxx-Reihe oder auch 85oo oder 86oo) und für "normale" Settings (1280*1024 oder 1680*1050, teilweise auch AA/AF) auch absolut ausreicht. Ebenfalls ein Pluspunkt ist die gelunge Leistungsaufnahme der Karte in allen Modi. Einstellungen wie 2560*1600 spielt fast keiner und wenn er sich schon so nen Bildschirm kauft, dann wird er sicher nicht die 250GTS kaufen (solche Auflösungen schaffen aktuell nur SLi/CF-Lösungen der besseren GraKa-Gattung).

Ich persönlich würde sie mir nicht kaufen, aber für den Mainstream-Markt finde ich sie durchaus gelungen, auch wenn die Namensgebung NVidia-mäßig ausfällt (kann gerne auch durch andere Adjektive ersetzt werden).

MfG
püpatz

@alle Fanboys, die wahrscheinlich wieder Physix/DX10.1/Spulenfiepen/hitzige GraKas/schlechten Treibersupport etc. als Argumente aufführen - Bitte trollt euch in die Fanboy-Threads und gut is:)
 
Also ich weiß nicht was manche hier haben, natürlich ist das Teil letztendlich nur ein umgelabelter G92. Aber das ändert doch nichts an der Tatsache, dass die Karte für User, die nicht mehr als 200Euro für ein Grafikkarte ausgeben wollen und die hauptsächlich in 1280*1024 zocken eine sehr gute Wahl ist. Und da sie bereits ab 155Euro verfügbar ist, braucht sie sich auch P/L-technisch nicht vor den ATI´s verstecken.

http://geizhals.at/deutschland/a408540.html
 
püpatz schrieb:
@alle Fanboys, die wahrscheinlich wieder Physix/DX10.1/Spulenfiepen/hitzige GraKas/schlechten Treibersupport etc. als Argumente aufführen - Bitte trollt euch in die Fanboy-Threads und gut is:)
Eine sachliche Diskussion über solche Aspekte ist doch durchaus legitim. Ein großes Hardwaremagazin, das z.B. weder PhysX, noch DX10.1, noch Treiberunterschiede oder Bauteilgeräusche genauer untersucht, wäre für mich in Bezug auf das Thema Grafikkarten uninteressant. Das läuft dann nämlich auf den Computerbild-Schwachfug raus: Die Grafikkarte schafft 70 fps (Settings und Spiel egal) und ist supergeil für Spiele geeignet.
 
Ich finde es immer lustig wenn manche mit diesen Benchmarkbalken der 2560x1600 Auflösung kommen...

Ich finde, dass diese Tests genau das Gegenteil davon aussagen, was einige behaupten. Schließlich sind das Gesamt-Performanceratings die sich nicht nur auf ein, sondern auf alle dort getesteten Spiele beziehen (14 Stück). Wenn man sich die Tests genauer ansieht, dann wird man merken, dass z.B. 50% Mehrleistung bei solchen Mega Auflösungen etwa 0.1FPS - 3FPS pro Spiel beträgt. Und ob ich jetzt ein Aktuelles Spiel bei der Mega Auflösung mit AA/FF mit 3FPS oder mit 12FPS (100% Mehrleistung) spiele, macht keinen Unterschied, beides ist unspielbar. Schaut besser mal auf die einzelnen Spiele Benchmarks und nicht auf die Gesamt-Performance.
 
Zuletzt bearbeitet:
Nach wie vor ein Rätsel, wo man die Karte als schlecht oder uninteressant bezeichnen kann :freak:
Nur weil man kein Fan von nVidias Vorgehen ist?

Alle die meinen die Karte ist uninteressant/unnütz, für die war die GTX+ vorher auch schon unbrauchbar.

Allerdings sollten mir die 5€ Mehrpreis zumindest eine neue Verpackung und Aufkleber gewährleisten ^^

Aber alles wo ihr schon wieder ausschweift, Performancevergleiche, DX10.1 ja/nein, PhysX bla bla bla....was ihr immer für Probleme habt.
Sie stellt einen einfach Nachfolger der GTX+ dar, basta. Wem die GTX+ schon nicht gefallen hat, dem gefällt auch die nicht.
 
was soll denn dass dauern dass sich leute über die gts250 aufregen
so schlecht is die karte nun auch nich
und der preis wird sicher noch sinken
bei 150euro oder unter 150 wird sie auf jedenfall interresant
 
@Theorist:

Ich will hier ja auch nich das Niveau absenken oder sowas in der Art.
Aber das, was hier wieder abgezogen wird, is eine echte deutsche Unart, welche man auch als "Jammern auf hohem Niveau" bezeichnet.

Es ist ja nicht so, dass man DX10.1 ernsthaft bräuchte (Stalker is zumindest mal kein Argument, ob 10fps oder 15 is mir bei Shootern egal - die fliegen von der Platte, so kann man nicht spielen) oder PhysX aktuell iwi zu gebrauchen wäre (klar, es hätte Potenzial, aber aktuell gibts nur ein sehr mäßiges Spiel).
Spulenfiepen kann ich abschalten (Vsync) und das Hitzeproblem der 48xx-Reihe lässt sich durch nen einfachen VoltMod oder Rivatuner umgehen.

Mir passts nur nicht, dass Leute wie ww2warlord jeden NVidiaNews-Thread zupflastern mit den ewig gleichen Kommentaren. Mir ist inzwischen klar, dass die 4870 ein sehr gutes P/L-Verhältnis hat, aber vielleicht will ich die halt einfach nicht? Anstatt Werbung zu machen, könnte man doch einfach was sinnvolles schreiben, oder nicht?!

Mehr kann/muss ich nicht sagen, hab vorher schon nen Roman geschrieben:p
 
AlphaGoku schrieb:
Ohh man bist bist blind was?
Wie wäre es wenn du auf der Seite zu der du gelinkt hast etwas runterscrollst.
https://www.computerbase.de/2009-03...250/20/#abschnitt_performancerating_qualitaet

Selbst die alte 260er hat da 27,8% mehr

Nur, dass man als Nvidia user 8 fach AA nicht benützt (da es einfach nur unützig viel leistung benötigt und an der bildqualität sich nichts verändert, auch wenns hier ein interner vergleich ist, 4fach AA ist da einfach wesentlich praxis näher) und der vergleich daher hinten und vorne hinkt, von daher hat unyu schon recht mit dem was er sagt.
Interessant, wäre ein vergleich in den speziellen AA modis die Nvidia noch bietet, aber das wird ja auf CB nicht getestet :(

mfg
 
Der günstigste Online-Shop verlangt für eine Grafikkarte von Sparkle 160 Euro, wobei es nur einen Händler gibt, der die Karte als lieferbar kennzeichnet.

Mindfactory bietet sie schon seit einer Woche für 155€ an und sie ist gerade nochmal auf 150€ gesunken. Ich würde dies eher als Indiz werten, wohin der Preis der Karte gehen wird, ist erst mal eine wirklich breite Verfügbarkeit gegeben.
 
Meint ihr die karte ist besser als eine 9600 GT im SLI Modus?
 
Jede einzelne Karte die schneller als eine einzelne 9600GT ist, ist besser.
Du weisst doch SLI heisst S(ense)L(ess) I(nnovation).
 
the witcher schrieb:
Nur, dass man als Nvidia user 8 fach AA nicht benützt (da es einfach nur unützig viel leistung benötigt und an der bildqualität sich nichts verändert, auch wenns hier ein interner vergleich ist, 4fach AA ist da einfach wesentlich praxis näher) und der vergleich daher hinten und vorne hinkt, von daher hat unyu schon recht mit dem was er sagt.
Interessant, wäre ein vergleich in den speziellen AA modis die Nvidia noch bietet, aber das wird ja auf CB nicht getestet :(

mfg

Ohh man ich weiß gar nicht mehr wer der größere "Gegensprecher" von euch beiden ist , wollt ihr euch nicht gegen mich verbünden? Lol

Also nochmal beide Texte lesen, denken, dann posten!

Es ging darum ob die GTX260 ihren Mehrpreis von 14% auch in der Leistung rechtfertigen kann.
Und ja sie kann es!

Fast überall sind es nämlich ÜBER 14%
Aber dir ging es doch eh darum mir zu widersprechen, von daher kann man es nicht übel nehmen
 
Hätte mal ne Frage
Und zwar handelt es sich ja bei der GTS 250 mehr oder weniger nur um eine umgelabelte 9800 GTX+ & das wiederrum ist eine in der Struktur verkleinerte, mit schnelleren Taktraten betriebene 9800 GTX
Kann man also eine ganz normale 9800 GTX mit einer GTS 250 im SLI betreiben?
Handelt sich ja eig. nach wie vor um den gleichen Chip etc....
müsste dohc also eig. gehn - odeR?
 
Ich denke mal nicht das da dazwischen irgendwas SLI kompatibel ist. Glaub das da der Forceware n Riegel vorschiebt. Gibt imo nicht umsonst n neuen Treiber für Support der GTS.
 
hm schade..
aber lustig wärs trotzdem :)
aber gtx+ mit gtx geht tortzdem oder? (ich weiß gehört jetzt nich hierher aber kurzes ja wäre trotzdem toll :))
 
Towely91 schrieb:
Hätte mal ne Frage
Und zwar handelt es sich ja bei der GTS 250 mehr oder weniger nur um eine umgelabelte 9800 GTX+ & das wiederrum ist eine in der Struktur verkleinerte, mit schnelleren Taktraten betriebene 9800 GTX
und die 9800GTX ist wiederum eine mehr oder weniger umgelabelte 8800 GTS 512MB :D
8800 GTS 512MB = 9800GTX = 9800GTX+ = GTS250 :rolleyes:
 
@über mir:

Das ist mir dann doch zuviel des Sarkasmus...es mag sein, dass sich zwischen den Karten, die du hier aufzählst nicht sonderlich was geändert hat (wie zB von 7xxx auf 8xxx), aber das es die gleichen sind, kannst du vllt iwelchen ATi-Fanboys erzählen.

Wie erklärst du dir sonst die Mehrleistung und den geringeren Verbrauch einer GTS 250 im Vergleich zu einer 8800 GTS ?
Die Mehrleistung einer 9800GTX+ im Vergleich zur 8800GTS ist schon nennenswert und dazu kommt dann der Vorteil der 250er in höheren Auflösungen/Settings und der Verbrauch.

Auch wenn die Steigerung langsam kommt, sie ist auf jeden Fall da.
Und wenn ich mir jetzt ne neue Karte kaufe als Kunde, dann kaufe ich mir eben die GTS 250.
Ist mir doch sche***egal, ob ne 8800GTS nur 20% langsamer ist und trotzdem schon rech alt.
Die 250 GTS ist besser und sparsamer und das zählt.

MfG
püpatz
 

Ähnliche Themen

Zurück
Oben