Test Test: Nvidia GeForce GT 240

Status
Für weitere Antworten geschlossen.
Welche Entwicklung? Wenn Fermi hält was er verspricht ist das Teil eine Granate bei GPGPU also PhysX. Die Idle Stromschleudern ala HD 4870/4890 waren imo die wahren Sünden der letzen Zeit. Solche negativen Hammer sehe ich bei NV überhaupt nicht. Erst mit GDDR 3 einen perfekten Idle Strompar Mode bei allen Modellen eingeführt(auf kosten des eigenen Gewinns durch größere SIs) und jetzt mit GDDR5 geht es weiter in die richtige Richtung, keine Ausrutscher!. Viel zum Meckern gibt es nicht. Der Preis ist ja der Startpreis, wird bei Verfügbarkeit sinken, oder denkst du die HD 5870 bleibt ewig bei 400€.

Des weiteren ist die Verfügbarkeit besser wie bei der HD 4770 am Start. Und das ist auch viel wert wenn man nicht ewig auf die Verfügbarkeit warten muss.

Von den besseren Treibern fang ich jetzt mal nicht an...
 
Kasmopaya schrieb:
Welche Entwicklung? Wenn Fermi hält was er verspricht ist das Teil eine Granate bei GPGPU also PhysX.

Das muß er erstmal, und den Beweis sind sie uns Schuldig. Von der reinen GPGPU Leistung (abgesehen von der Programmiermöglichkeit, und dem ECC z.B.) steht die 58x0 den Fermi Daten im übrigen nicht großartig nach, im Gegenteil, nur eben bei Dingen die GPGPU betreffen fehlt es (es sei denn, die haben ein anderes Design für die Stream Karten).
Von daher, weniger spekulieren, geduldiger warten.

Aber wenn du so heiß auf Spekulationen bist, solltest du hier nachlesen: http://vr-zone.com/articles/fermi-in-trouble-/8054.html?doc=8054

:P
Kasmopaya schrieb:
Die Idle Stromschleudern ala HD 4870/4890 waren imo die wahren Sünden der letzen Zeit. Solche negativen Hammer sehe ich bei NV überhaupt nicht.

Dann scheinst du ein sehr löchriges Gedächtnis zu haben, die hoch gezüchteten G80, sprich die GTX und Ultra, waren nämlich auch kein Kind von Traurigkeit, und haben im Idle mit der GTX gleich gezogen, und der Ultra mal locker übertrumpft (und das schon ne gute Zeit vorher).

Nvidia hat halt mit dem G92 zumindest ein wenig bessere, und dem G200 dann eine Generation früher sehr gute Idle Werte hinbekommen, wie ATI.

Kasmopaya schrieb:
Erst mit GDDR 3 einen perfekten Idle Strompar Mode bei allen Modellen eingeführt(auf kosten des eigenen Gewinns durch größere SIs) und jetzt mit GDDR5 geht es weiter in die richtige Richtung, keine Ausrutscher!.

lol :) mann kann aus fehlern natürlich auch siege machen, und sie feiern. Aber bitte lass doch wieder dieses abutschen auf die Fanboy schiene, das muß net sein.

Kasmopaya schrieb:
Viel zum Meckern gibt es nicht. Der Preis ist ja der Startpreis, wird bei Verfügbarkeit sinken, oder denkst du die HD 5870 bleibt ewig bei 400€.

Der Startpreis sind derzeit 100€, die erwähnten 75€ muß die DDR5 Karte erstmal erreichen, und SELBST DANN ist sie noch weit zu teuer, für die erbrachte Leistung. Aber ja, sollte sie mal die 50-60€ erreichen, und sollten bis dahin die LowEnd 5000er Karten noch nicht verfügbar sein, dann könnte sie als kleine HTPC Karte für gelegentliches Spielen oder ähnliches gut sein (vorrausgesetzt sie ist Passiv zu betreiben, und ich meine Passiv, nicht mit nem halben dutzend Gehäuselüftern).

Kasmopaya schrieb:
Des weiteren ist die Verfügbarkeit besser wie bei der HD 4770 am Start. Und das ist auch viel wert wenn man nicht ewig auf die Verfügbarkeit warten muss.

Was nützt die Verfügbarkeit einer Karte, die keiner haben will, weil zu teuer, und bessere alternativen? :)

Kasmopaya schrieb:
Von den besseren Treibern fang ich jetzt mal nicht an...

Ja, bitte lasses. So langsam nervt das wirklich.

Edit: Sorry für das zerpflücken, aber du servierst es einem ja quasi auf dem Tablet. :(
 
Zuletzt bearbeitet:
Das neue Fazit passt.
Und bis die Retail günstiger wird wird die GT 240 ohnehin ein Zuhause in vielen OEM Rechnern finden.
 
mit der Zotacvariante hat man sich natürlich das schlechteste Modell der GT240 ausgesucht. Der kleine Lüfter zerstört die Bewertung der Karte extrem. Gut das andere Hersteller nicht auf so einen kleinen Krachmacher setzten.
 
Die geringe Leistungsaufnahme ist sehr erfreulich, die Kühllösung von Zotac ist eine Frechheit.
Die GT 240 von Point of View wird derzeit für 85-90 € angeboten und damit ist die Karte natürlich viel zu teuer, denn eine wesentlich stärkere HD4770 gibt es bereits für 80,- Euronen.

Wenn der Preis für die GT 240 (DDR5) bei Marktgerechten sechzig Euro liegt, kann man sie Gelegenheitsspielern empfehlen, die bei schwachem Netzteil von der OnBoard Grafik aufrüsten möchten.
 
Besten Dank für das überarbeitete Fazit. Dieses ist nun deutlich stimmiger und schildert den Sachverhalt perfekt. Super gemacht!
 
"ATi-Schergen"?

:rolleyes:

Die die arme hübsche blonde Nvidia-Prinzessin gefangen halten, in einem feurigen Verlies? :evillol:
 
Sorry für das folgende Pamphlet mit einem gereizten Unterton. Ich weise vorsorglich daraufhin. Bitte nicht persönlich nehmen, der Kaffee ist mir nicht bekommen ;)

Was mich interessiert ist, wieso so viele auf "CUDA/Physx" verweisen und das als Kaufgrund angeben? Ich kann mit meiner Grafikkarte auch die Suppe umrühren oder sie als Frisbee herumwerfen, nur warum sollte ich so etwas machen?

Mit OpenCL gibt es doch einen herstellerunabhängigen Ansatz für GPU-Beschleunigung, der aber Directx11-Nativität erfordert - und, ich vergaß, die GT 240, neu auf dem Markt, kann das ja gar nicht. whooopsi! Dann muss man ja unbedingt daraufhinweisen, dass man die zum GPGPU einsetzen kann, verstehe. :rolleyes:

Sicher gibt es Applikationen die von CUDA profitieren, nur dann hat man es mit deutlich geänderten Prioritäten zu tun. Sprich Leistung(!) die kostet (siehe TESLA und FERMI GPGPU Lösungen von nvidia im mittleren bis oberen 4-stellligen Dollarbereich).

Und wer Spiele mit der Handvoll Physx Unterstützung nutzen will, entschließt sich garantiert nicht erst heute, weil so schönes Wetter ist, sondern hat seit mehrern Monaten die Entwicklung im Auge und weiß, dass seine alte NV-Karte den Physx-Part locker übernehmen kann. Also was soll immer dieser bescheuerte Hinweis? Gibt es denn aussagekräftige Empirie die anzeigt, wie die Verteilung der Physx-dedizierten Karten im Verhältnis zur Grafikausgabe ist? Ich nehme an, dass die Physx-Beschleunigung eher von einer Vorgängergeneration (z. B. die 8???er oder 9???er) übernommen wird, die vorher zur Grafikbeschleunigung in Spielen eingesetzt worden ist. Der Einsatz von Karten zwecks Physx-Beschleunigung würden also weitesgehend organisch verlaufen. Das sollte man einfach mal beim Herumblubbern berücksichtigen.

Ein weiteres Argument gegen GPGPU via CUDA als Empfehlung ist, dass Windows 7 draußen ist, OpenCL Unterstützung anläuft und in den nächsten Monaten hierzu Applikationen veröffentlich werden. Wer also auf CUDA verweist sollte ebenfalls erwähnen, dass CUDA genau wie ATI-Stream Auslaufmodelle sind. Wenn ich also eine 9600GT o.ä. in meinem Rechner habe (die durch die 240 ersetzt werden soll lt Nvidia), dann habe ich bereits meine CUDA/Physx-Karte (wenn es denn sein muss) und genügend alte Technologie (ob Directx9 oder 10.1 ist sowas von Latte, da Karten in diesem Segment kaum als Techdemo herhalten können).

Die GT 240 Karte mag ihre Zielgruppe haben. Aber dieses, excuse me French, völlig dümmliche Gequatsche "als Zusatzkarte für CUDA/Physx", wird dadurch nicht richtiger, nur weil man es in jedem zweiten Post wiederholt. Zwischen Theorie und Praxis liegt noch immer die deduzierende Realität.
 
Zuletzt bearbeitet:
@tick-tock:
Mit OpenCL gibt es doch einen herstellerunabhängigen Ansatz für GPU-Beschleunigung, der aber Directx11-Nativität erfordert - und, ich vergaß, die GT 240, neu auf dem Markt, kann das ja gar nicht.

das ist nicht korrekt. open cl ist ein konkurrenzprodukt zu dx11, kann bei ati aber ebenfalls seit der hd5k eingesetzt werden. bei nvidia wurde open cl über cuda realisiert, weshalb jede nvidia karte ab der gf8 diese fähigkeit besitzt. https://www.computerbase.de/2009-09/nvidia-bringt-ersten-oeffentlichen-opencl-treiber/ da stellt sich eher die frage, warum man bei nvidia nicht auf open cl rumreitet ;)

und das physx erwähnt wird, hat den gleichen sinn wie die erwähnung von dx11. auch da sollte jeder mitbekommen haben, dass die hd5k das kann und die gtx200 nicht. ;) zu dem ist physx derzeit verbreiteter als dx11 und die meisten leute kaufen sich in einem jahr ohnehin eine neue karte.

dass cuda eine auslaufmodell ist bezweifle ich, da der fermi auf cuda optimiert wurde. und der ist ja noch nicht einmal auf dem markt.

die 9600gt ist schon eine relativ leistungsstarke karte und die meisten leute haben etwas kleineres/älteres im rechner (nein nicht hier im forum, aber um die paar leute gehts auch gar nicht). die gt240 wird sogar eine sehr große zielgruppe haben. das ist die klasse, in der das meiste geld bei gamerkarten gemacht wird.
 
Zuletzt bearbeitet:
Lübke schrieb:
@tick-tock:

das ist nicht korrekt. open cl ist ein konkurrenzprodukt zu dx11, kann bei ati aber ebenfalls seit der hd5k eingesetzt werden. bei nvidia wurde open cl über cuda realisiert, weshalb jede nvidia karte ab der gf8 diese fähigkeit besitzt. https://www.computerbase.de/2009-09/nvidia-bringt-ersten-oeffentlichen-opencl-treiber/ da stellt sich eher die frage, warum man bei nvidia nicht auf open cl rumreitet ;)

Vielen Dank für den Hinweis. In den Quellen, die ich dazu bisher gelesen habe, blieb dieser wichtige Unterschied unerwähnt. Werde mich mal neu belesen (müssen).
 
Kasmopaya schrieb:
. Erst mit GDDR 3 einen perfekten Idle Strompar Mode bei allen Modellen eingeführt(auf kosten des eigenen Gewinns durch größere SIs) und jetzt mit GDDR5 geht es weiter in die richtige Richtung, keine Ausrutscher!

Was?! lebst du noch oder Fanboyst du schon ? Ich kann mich nur an einen Startpreis von nahe an der 500€ Grenze bei der G200 Reihe erinnern. Erst durch AMD's Grafikkarten musste Nvidia die Preise drastisch senken. Geplant war also garnichts auf eigene Kosten :rolleyes:. Nur schön das die rote Konkurrenz da ein Strich durch die Rechnung gemacht hat.

Oder hast du das schon vergessen ? Das 2 Nvidia Boardpartner in den U.S.A Käufern einen Teil des Geldes zurückgegeben haben, weil innerhalb von 1 Monat die Preise der Nvidiakarten dermaßen fielen..... Soviel zu deinem null Fehler prinzip, der Fehler war man hat die roten unterschätzt.
 
Zuletzt bearbeitet:
wobei die dumpingpreise sicherlich nicht ganz unschuldig an der abkehr nvidias vom spielemarkt sind. und um diese preise zu erreichen, mussten auch bei der qualität abstriche gemacht werden.
es hat eben alles zwei seiten.
die alte preisstrucktur war eigentlich in ordnung, solange es eine gescheite mittelklasse gab. die 8800gtx war ja damals dermaßen imba, dass die "mittelklasse" 8600gts daneben wie billige officekarten aussahen, obwohl sie ans highend der vorgeneration ranreichten.

gut war das verhältnis bei gf6 und gf7, wo die 6600gt/7600gt schon ordentliche leistung brachten, zu ordentlichen preisen und es trotzdem für diejenigen mit größerem budget nochmals einen vernünftigen mehrwert für mehr geld zu kaufen gab. im grunde wurden hier nur die 48x0 und gtx200 zur mittelklasse degradiert und es fehlt aktuell eine oberklasse (gtx295 und 5970 mal außen vor, da multi-gpu).
für den moment bedeutet das für uns kunden mehr leistung fürs geld, langfristig aber die entwicklung von billigprodukten, weg von optimierten top-karten.
 
Ist ja alles schön und gut und du magst auch Recht haben Aber 500 - 600€ für eine Grafikkarte zum spielen wie zu Geforce 8 Zeiten ? das ist krank und das weisst du auch. Ich will nicht sagen das die Hersteller absolute billig Produkte auf den Tisch legen sollen. Aber die sollten mal nicht übertreiben mit so hohen Preisen. Es gibt immer einen Mittelweg mit den alle zufrieden sind und damit leben können.
 
na dann schau mal, was die x1900xtx, x1800xt, x850xt pe, 9800xt... gekostet haben ;)

das waren keine nvidia-exklusiven preise...

dieses reduzieren auf reine fps um jeden preis hat wohl durch das ungleichgewicht 8800gtx zu 2900xt angefangen. die 1950xtx hatte deutlich besseres af als die 2900xt. bei letzterer wurde dann schon zu gunsten der fps an der quali gespart. imho wird uns das gleiche auch bei nvidia ins hause stehn.
ich habe nichts gegen karten für 500,- € oder gar 1000,- €. warum auch? ich muss sie ja nicht kaufen. ich will was gescheites für mein geld. dazu muss ich nicht mit dem "längsten" protzen können. meine 3850 war noch nie die schnellste karte, na und? aber sie war sparsam und vollkommen ausreichend für alles. der 2d-sparmodus war sehr innovativ.
bei nvidia war hybrid-sli ne sehr gute idee, aber das wurde ja sofort wieder wegrationalisiert. imho auch ne kosten/nutzen-frage. dann das theme mit dem spulenfiepen...

wenn enthusiasten mit dem kauf teurer karten die entwicklung neuer, innovativer technologien finanzieren, die dann "meiner" mittelklassekarte mit zu gute kommen, find ich das ne gute sache.

also ich will lieber ne ausgereifte, qualitativ hochwertige mittelklassekarte als ne qualitativ schlechte, billig-highend-karte, die zwar viele fps bringt, aber ansonsten einfach nur billig ist. das ist u. a. auch ein grund, warum ich von dual-gpu-karten nichts halte.
 
Zuletzt bearbeitet:
Lübke schrieb:
zu dem ist physx derzeit verbreiteter als dx11 und die meisten leute kaufen sich in einem jahr ohnehin eine neue karte.

Ich würde mich mit solchen Aussagen Schönredungen von unproprietären Standards mal etwas zurückhalten.
Deine Glaubwürdigkeit in diesem Forum ist meiner Meinugn nach, nach den letzten Posts von dir stark zurückggegangen.
Diese Lobreden auf Physx und ständige Wiederholungen, dass Physx derzeit sinnvoller wäre als Directx11 ist derzeit wirklich nicht angebracht.
Es gibt bis März alleine schon 5Titel die auf directx11, welche allegemein bekannt bestimmt besser sind als die Titel mit Graka-Physx.
Die GT240 ist wirklich keine schlechte Karte, aber das mit der großen Zielgruppe ist Schwachsinn.
Vielmehr heißt die Zielgruppe Verträge mit OEM´s und da es in den Geschäften grade noch so stinkt von OEM-rechnern mit ner GT240, welche dann noch als Gamer-Karten hingestellt werden glaube ich eher, dass die Karten der Zielgruppe aufgezwungen werden. Anstatt, dass sie eine große Zielgruppe ansprechen.
Die Werbung mit directx10.1 gekoppelt mit Windows 7 ist sowieso unsinnig.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben