Test Test: Gainward GeForce GT 240 mit DDR3

Ist halt schade, das nicht z.b. die 60€ Point of View GT 240 mit 512MiB GDDR3 getestet wurde.
Deutlich billiger und 900Mhz statt 790Mhz GDDR3.

toxik schrieb:
GeForce GT 240 mit DDR3 ist foch viel zu langsam zum spielen!
Natürlich.
Die Geschichten, das man damals mit einer Geforce 1 gespielt hat sind allesamt erlogen?

Kasmopaya schrieb:
Ich find auch das die Karte hier quasi nur als PhysX Karte zu gebrauchen ist
Oder abseits des Spielealltags.
Oder für die, die auch bei sehr fordenden Titeln auf Effekte verzichten können.
 
Ist es Absicht, dass einer einmal von DDR3 schreibt und der nächste wieder von GDDR3 und ich mich nicht des Eindruckes erwehren kann, dass das dann verglichen wird?
 
Zum Thema Physix:
Schaun wir mal, wie lange es sich Nvida noch leisten kann, diese Physixprojekt künstlich am Leben zu halten. Die Mittel werden sicher knapper, da ists dann auch nimmer so einfach, die über 1000 für Spieleentwickler abgestellten Mitarbeiter zu bezahlen.
Ich hoffe, der Kunde merkt, dass er da extrem abgezockt wird. Es gibt Alternativen. (DX11-Cumputeshader) Mit diesem Standard können ATI und Nvidia gleich arbeiten, falls Nvidia endlich einsieht, das auch das TWIMTBP-Proj. gescheitert ist. Gott sei Dank, hat es Nvidia nicht geschafft, ATI komplett vom Markt zu stoßen.

Ah schön. Ein Ati-Jünger^^
Ich habe hier ein paar Sachen zu bemängeln an deinem Text.
1. PhysX (nicht PhysiX)
2. PhysX ist eine Engine, keine Schnittstelle (DX11, Stream, CUDA sind Schnittstellen; PhysX und Havok eine Engine/Physik-Bibliothek)
3. PhysX @ CPU ist, wenn ich mich recht entsinne, die verbreitetste Physik-Engine die es gibt. PhysX @ GPU ist da eine andere Geschichte.
4. Wo werden die Kunden da abgezockt?!?
5. Wo sollte das TWIMTBP-Project gescheitert sein? Ich finde es gut, dass nVidia die Spiele-Entwickler mit Geld/Entwicklern zur Seite steht, solange nur optimiert wird und nicht, wie manche hier behaupten, die Konkurenz ausbremst.
6. Ach. Du kennst sicher zufälligerweise die Mitarbeiteranzahl, die nVidia für Games abgestellt hat. :lol:
Dann kannst du mir sicher auch schnell sagen wie viele an Fermi gearbeitet haben und wie viele Stunden sie insgesammt daran gearbeitet haben.
 
Dankeschön! Endlich die kleinen Grakas hier :-) ...habe die mit DDR5 und läuft leise einwandfrei alle Games über 30fps ;-)
 
stoneeh schrieb:
nö tut er nicht, denn das tust du schon

1gb vram werden derzeit so gut wie gar nicht gebraucht, 512mb ist noch immer bei weitem ausreichend. und leute wie du werden es auch nie verstehen (und wollen es auch nicht verstehn) dass chipleistung und speicherleistung in der praxis bei weitem mehr ausmachen als zusätzliche speichergrösse

Köstlich - wusstest du das der, den du da verteidigst, aktuelle Karte mit mit 1024MB VRAM als Speicherkrüppel bezeichnet? :D

Es hätte dich keine 2 Minuten gekostet um zu recherchieren das du die 512MB VRAM einer 9800GT problemlos ausfüllen kannst (man beachtet auch die Benches von Crysis, UT3 und COD4 im jeweiligen Klapptext).
Ich habe nirgends behauptet, das VRAM eine Grafikkarte schneller macht, noch das jede Einsteiger Karte mit mehr als 512 MB Sinn macht, jedoch zu behaupten eine Karte (von Nvidia) der Leistungsklasse 9800 GT mit 1GB VRAM wäre überflüssig ist ganz einfach falsch.
Und bei dem Artikel haben sie die 1920x1080 gar nicht getestet.

Die Karte hat genug Rohleistung, um von 1024MB zu profitieren.

LuXon schrieb:
4. Wo werden die Kunden da abgezockt?!?
Hier wird der Kunde abgezockt. Denn scheinbar sind GPU PhysX Titel nicht nur schlecht auf die CPU optimiert, anscheinend wird es sogar künstlich benachteiligt, um den Vorteil der GPU gegenüber CPU größer erscheinen zu lassen (als er wirklich ist).

Im Grunde wird der Kunde bei den meisten der Karten "abgezockt", da sie ein riesen PhysX Logo überall drauf kleben.
Das von den vielleicht 4 oder 5 brauchbaren, der gerade einmal 12 GPU PhysX Games (nach 2 Jahren), nur Mirrors Edge mit einer 'normalen' Konfiguration mit PhysX Spielbar ist, ist doch der Witz an Implementierung überhaupt;
Bei Sacred 2 reicht selbst ne GTX 285 nicht aus, für PhysX + Qualität Settings, bei Batman Arkham Asylum hast du ohne Dedicated PhysX GPU Frame Dops bis unter 25 FPS, und das bei Dark Void selbst ne GTX 260 als dedicated nicht wirklich auszureichen scheint, spricht für sich selbst.

Nach meiner persönlichen Meinung, wenn mir wer PhysX anbietet, ich dafür eine Grafikkarten Kombination von ca. 350-400€ samt SLI Brett bereit stellen muß, und das für gerade mal 4-5 Titel, von denen ich die eine hälfte schon gespielt habe, und die andere hälfte mich nicht interessiert, dann kann ich darüber nur lachen.

PhysX wird total überbewertet - leider, denn man könnte sehr viel mehr daraus machen. Vor allem wenn es nicht mehr Hardwareabängig ist.
 
Unyu schrieb:
Ist halt schade, das nicht z.b. die 60€ Point of View GT 240 mit 512MiB GDDR3 getestet wurde.
Deutlich billiger und 900Mhz statt 790Mhz GDDR3.

Sieh dir mal den Chart "Übertakten" an und leite dir entsprechende Vergleichswerte ab.
Man müsste ferner anmerken, dass der Einfluss von CB, welcher Boardpartner ihnen gerade Samples zur Verfügung stellt, eingeschränkt ist.
 
Fetter Fettsack
Danke für den Hinweis.

Die getestete Gainward soll DDR3 verbaut haben.
Meine vorgeschlagende 512MiB PoV GT 240 soll GDDR3 vebaut haben.

Gainward verstößt übrigens gegen die Spezifikation, es sind 900Mhz DDR3 und nicht 790Mhz DDR3 vorgesehen: http://www.nvidia.com/object/product_geforce_gt_240_us.html
Stattdessen liegt der Preis über dem anderer 900Mhz Karten.

MacPok
Im "Übertakten Abschnitt" wird nicht nur der Speichertakt auf über das von Nvidia vorgesehenen 900Mhz Niveau gebracht, sondern auch der Chiptakt über das vorgesehene Niveau.
Ich bezog mich viel mehr auf den Preis und die darausfolgenden Schlüsse.
Diese Gainward ist teurer und gleichzeitig schlechter als andere Versionen.
 
Ich finde die Diskussion hier, ob 1024 MB Speicher sinnvoll sind oder nicht, als nicht gegeben. Wenn, dann sollte der direkte Vergleich mit der gleichen Karte mit 512 MB DDR3 Speicher vorliegen. So vergleicht man aberr Äpfel mit Birnen.

Und nochwas, erst wenn eine Karte mit mehr Speicher langsamer ist, als die gleiche Karte mit weniger (gleichem) Speicher sehe ich einen Diskussionsbedarf.
 
Schaby schrieb:
Und nochwas, erst wenn eine Karte mit mehr Speicher langsamer ist, als die gleiche Karte mit weniger (gleichem) Speicher sehe ich einen Diskussionsbedarf.

Du hast den Faktror Preis vergessen. Wenn eine Karte aufgrund von mehr Speicher teurer ist und nicht schneller, dann ist der zusätzliche Speicher bereits das fünfte Rad am Wagen. Stattdessen hätte man bei dem Preis dann vielleicht lieber schneller getakteten Speicher nehmen sollen... oder einfach den Preis niedriger ansetzen können.
 
Ich finde das gar nicht so schlecht. Die Karte ist klein, leise, Kühl, hat im Vegleich zum Preis eine recht große Anzahl an Shaderprozessoren und es gibt sie (zumindest mit 512MB) mit GDDR3 für etwa 60€.
Selbst wenn sie nicht für Hardcore-Gamer geeignet ist (wer hat so was überhaupt erwähnt) ist sie doch super für HTPCs oder Leute die gerne für wenig Geld von CUDA profitieren wollen.

Und ja, die 1024MB sind übertrieben und sinnlose Preiserhöhung!
 
Schöner Kurzbericht :)
Trotzdem ist ATi in dem Segment besser aufgestellt.
 
silent-efficiency schrieb:
Wieso überraschenderweise? Die GT 240 hat mehr GFlops als die GeForce 9600 GT, kann aber mit GDDR5 nur gleichziehen, weil die nur über einen 128 bit Speicherinterface verfügt, während die GeForce 9600 GT über einen 256 bit-breiten Interface verfügt. Bei mehr FLOPs nicht mehr Leistung? -> Speicherbandbreite ist der limitierende Faktor.

Wenn die Gleichung so einfach wäre...

Die Speicherbandbreite einer GT240 ist mit 54,4 zu 57,6 GB/s nur unwesentliche 5% geringer als die der 9600GT.
Zudem belegt ja dieser Test, dass es der GDDR5-Variante nicht an Bandbreite fehlt.
Würde das so sein, würde bei einer Verdopplung der Bandbreite einiges Mehr an FPS-Gewinn rausspringen, als die im Verhältnis geringen 14%, die der Test uns liefert.
Die 14% sagen eig. eher aus, dass die Bandbreite der GDDR5-Variante überdimensioniert ist.
(Zudem, mit diesen Zahlen hochgerechnet auf die 5% höhere Speicherbandbreite der GT9600, wäre bei linearer Skalierung der FPS-Gewinn durch die Bandbreite bei 0,7%. Allerdings verläuft die Skalierung nicht linear, weshalb man von noch weniger ausgehen muss.)

Einige Gründe (aus meiner Sicht), warum die GT240-512MB-GDDR5 gegen die 9600GT-512MB trotz höherer theoretischer Flopszahlen (die sich aber auch nicht 1zu1 vergleichen lassen) den Kürzeren zieht.

die 9600GT hat:

- satte +136% Pixelfüllrate
- gute + 19% Texturfüllrate
- weniger, dafür aber höher getaktete Shader, die im Mittel immer besser ausgelastet werden können, als viele niedrig getaktete. Das relativiert den 25% Flopsvorsprung der GT240, der zwar in der Theorie vorhanden ist, in der Praxis aber nie in diesem Maße dauerhaft ausgenutzt werden kann.

5% Speicherbandbreite mehr oder weniger spielen hier keine Rolle.

Gruß
Raubwanze
 
bei der GT240 kann man nicht mehr fps rausholen, da die auf 75W begrenzt ist. Eine 9600GT hat zusätzlichen Stromanschluß, passt bei mir deswegen auch nicht rein. Welche Graka also> richtig schnelle GT240 DDR5 für ca. 50,-euro rein und gut is.

p.s. finde auch die Skalierung und die Details von DX10.1 sind auch etwas besser als DX10.0. Das sollte man hier auch nicht vergessen.
 
GrayFoxHard schrieb:
Selbst wenn sie nicht für Hardcore-Gamer geeignet ist (wer hat so was überhaupt erwähnt) ist sie doch super für HTPCs oder Leute die gerne für wenig Geld von CUDA profitieren wollen.

Wo würdest du den "Cuda-Vorteil" in einem HTPC mit dieser Karte sehen bzw. nutzen?

@ milamber!
WOW, thx für den Link. Da hat nVidia ja ne schöne CPU Bremse eingebaut für PhysX. Echt unglaublich. Ich denke ich hatte sogar immer noch eine zu gute Meinung von dem Grünen ***haufen :mad:
Vermutet wurde das ja schon länger und ich hab mich gewundert, warum keiner so einen Test rausbringt. Da wird wohl auch schön dagegen gearbeitet worden zu sein. Erinnert mich ja fast an den Testparcours den nVidia mal bei den Benchmarks vorgegeben hat was CB damals auch so übernommen hat, ohne das zu erwähnen. Da bin ich auch aus allen Wolken gefallen. Geil war, wie schnell das hier im Forum mit vereinten Kräften aufgedeckt wurde.
 
Zuletzt bearbeitet:
die karte ist vermutlich fuer leute die wenig spielen wollen (und wenn dann eher ein aelteres spiel, bzw ein neues mit geringeren details) gar nicht so schlecht. die lautstarke ist klasse und die leistungsaufnahme passt auch - wobei man nicht vergessen sollte, dass mit mehr rechenpower eben auch mehr verbrauch einhergeht. da die karte nicht besonders schnell ist, wunedert das ja nicht besonders.
DX11 ist vermitlich bei einer karte dieser leistungsklasse ohnehin nicht notwendig.

das was wirklich stoert ist der preis. wenn eine vergleichbare 240er von einem anderen hersteller guenstiger ist, stellt sich jedoch die frage ob die lautstaerke aehnlich niedrig ist - denn das ist vermutlich ein hauptgrund zu der karte zu greifen.
allerdings wuerde es mich nicht wundern, wenn eine andere 5670er (z.b.: http://www.heise.de/preisvergleich/a497740.html ) deutlich leiser ist als das hier aufgefuehrte ATI modell - dann kommt man an der wohl doch nicht vorbei...
 
na weil jemand der spielen will das vielleicht auch noch in 2, 3 jahren moechte. da es nicht gerade viele leute gibt die sich jedes jahr eine neue graka holen wollen, wird die karte eine zeitlang verbaut bleiben. leider ist es nunmal so, dass die spiele immer mehr ressourcen verschlingen.
wer aufs geld schauen muss, der hat ohnehin keine grosse alternative zu diesem segment. wenn jemand z.b. 30 euro mehr ausgeben kann, wird er z.b. mit einer 5770 sicher laenger seinen spass haben.

wer wie meine wenigkeit ab und an mal ein olles strategiespiel wie WC3 auspackt (und sonst nix), dem reicht auch ne GF4200Ti :D
 
und die des Speichers auf 790 MHz. Damit sind die Taktraten identisch mit denen des Referenzdesigns.

zum einen sprecht ihr von DDR3 und dann mal wieder von GDDR3. was ist denn nun richtig? zum anderen heißt es auf der homepage von nvidia:

Speichertakt (MHz): 1700 MHz GDDR5, 1000MHz GDDR3, 900MHz DDR3

in wie weit entsprechen dann 790 MHz dem Referenzdesign?
 
LuXon schrieb:
Ah schön. Ein Ati-Jünger^^
Ich habe hier ein paar Sachen zu bemängeln an deinem Text.
1. PhysX (nicht PhysiX)
2. PhysX ist eine Engine, keine Schnittstelle (DX11, Stream, CUDA sind Schnittstellen; PhysX und Havok eine Engine/Physik-Bibliothek)
3. PhysX @ CPU ist, wenn ich mich recht entsinne, die verbreitetste Physik-Engine die es gibt. PhysX @ GPU ist da eine andere Geschichte.
4. Wo werden die Kunden da abgezockt?!?
5. Wo sollte das TWIMTBP-Project gescheitert sein? Ich finde es gut, dass nVidia die Spiele-Entwickler mit Geld/Entwicklern zur Seite steht, solange nur optimiert wird und nicht, wie manche hier behaupten, die Konkurenz ausbremst.
6. Ach. Du kennst sicher zufälligerweise die Mitarbeiteranzahl, die nVidia für Games abgestellt hat. :lol:
Dann kannst du mir sicher auch schnell sagen wie viele an Fermi gearbeitet haben und wie viele Stunden sie insgesammt daran gearbeitet haben.


Recht hast du,

muss sagen das mir PhysX in manchen Spielen sehr gut gefällt...

Aber anscheinend schreiben bei einen Gt240 Test nur Ati Jünger ;)


PS: Kennt jemand ein Game bei dem Ati in der Vorschau vorkommt ?
 
@ Fl_o

Du solltest dir auch mal die Links ansehen welche gepostet werden um Argumentationen zu untermauern (CPU Bremse für PhysX): http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Darüber hinaus noch der Fakt, dass eine dedizierte!!! GTX260 nur für PhysX für die paar Effekt in Dark Void gerade mal reichen könnte. Und wenn du mal genau guckst wird dir auffallen, dass ich nicht der einzige mit NV Karte bin der das auch so sieht ;-) Nur weil ich eine grüne Karte muss ich noch lange nicht gut finden was die Jungs teilweise so abziehen.

Kleine Erinnerung:
https://www.computerbase.de/2008-11/test-geforce-180.47-in-fuenf-spielen/
(Hier war sogar eine Stellungname von CB nötig weil NV auf vielen Testseiten eine PR Kampagne als unabhängiger"Test" verkaufen wollte. Lies dir die Kommentare durch, wenn du Bescheid wissen willst. Was in der NDA stand können wir nur vermuten, aber die Resultate lassen es erahnen.
 
Zurück
Oben