Test Test: Nvidia GeForce GTS 450 (SLI)

Schinzie schrieb:
Aber Schwachstellen werden da schön weggelassen, genau das, was in einem guten Test erwähnt werden sollte.
gruß
Glaubst du ATi erwähznt in ihrem Guide die eigenen Schwachstellen? Oder auch nur ein einziger Hersteller? Diese wollen logischerweise sicher nicht, dass massenhaft ihre Schwachstellen getestet werden. Untersagen würde das aber keiner.
 
Das habe ich ja auch gar nicht behauptet. ich wollte nur aufzeigen, dass ein Guter Test, wie meiner Meinung nach der hier diskutierte, kritisch sein muss.

Und wenn man sich an dieses Guides hält, egal ob AMD oder Nvidia, dann kommt im Test keine größere Kritik vor. Selbst der Guide der GTX 470/GTX480 hat diese als Überkarte dargestellt. Genau das ließt man auch im Review von Hardwareluxx. Hier nicht.. usw.


gruß
 
y33H@ schrieb:
PhysX hat keine Zusatzkosten.

:lol: Dann guck dir nochmal genau an, welche Anforderungen an die Grafikkarte gestellt werden, wenn du so richtige PhysX Kracher mit maximalen Details darstellen willst. Die Min-Frames sind richtig schön.

Lord Sethur schrieb:
Ach, ich packs nicht mehr... ein paar Wochen nicht wirklich "aktiv" in der HW-Welt und schon hab ich keinen Plan mehr, was so abläuft.

Kein Ding, ich hab die NI, SI Konfusion auch nur mitgekriegt weil mich die Bezeichnungen in den Treibern so verwirrt haben und ich wissen wollten was jetzt Sache ist.

Sontin schrieb:
DX11 - kein Einfluss auf die Spielumgebung. Entzweite den PC-Spiele-Markt. Performance-Einbusen. Unrealistische, übertriebende Effekte. .

Noch so ein Schmarrn. Die Schnittstelle ist also Schuld wenn irgendwo übertriebene Effekte eingesetzt werden. Also ist auch Photoshop schuld wenn wiedermal einer seine Bilder überschärft oder mit zu viel Kontrast ausstattet. Klar, PS ist Müll deswegen.
Kein Einfluss auf die Spielumgebung!? Aha, keine Ahnung was das heißen soll....
Performance Einbußen? :lol: Logisch! Wenn nicht gerade übertriebene DX11 Features verwendet werden laufen die Games bei gleichen Features und Effekten schneller (weil effizienter) als in DX10. Darüber hinaus gibts noch DirectCompute und Direct 2D wurde auch eingeführt. Beides wird sich demnächst massiv verbreiten.
Entzweite den PC-Spiele Mark? Erklär mir mal den Unterschied zu bisherigen neuen DX Versionen die neue Features gebracht haben. Vor DX11 gabs übrigens auch immer wieder ziemliche Kracher die exklusiv nur mit den neuen Versionen liefen.
 
@ DvP

PhysX hat keine Zusatzkosten. Du kannst es aktivieren, die Fps sinken - aber du bist nicht gezwungen mehr Geld auszugeben. Für Eyefinity brauchst du 1-2 zusätzliche Monitore - das kostet Geld.
Schinzie schrieb:
Selbst der Guide der GTX 470/GTX480 hat diese als Überkarte dargestellt. Genau das ließt man auch im Review von Hardwareluxx.
Hat Luxx die Lautstärke und die Leistungsaufnahme nicht kritisiert? Doch, haben sie :rolleyes: Was willst du denn noch?!
Negative Aspekte der NVIDIA GeForce GTX 480:

• hoher Verbrauch unter Last
• hoher Verbrauch im Idle-Betrieb
• hohe Lautstärke unter Last
 
Zuletzt bearbeitet:
@ y33H@

Ist das nicht ein klein wenig Haarspalterei die du betreibst? Wenn du mit den vollen PhysX Effekten spielen willst, reicht die Graka bei weitem nicht mehr um anständige Frameraten darstellen zu können, wie es ohne der Fall wäre. Also muss man mehr Geld in die Hand nehmen, damit man es wirklich nutzen kann. Zur Erinnerung: Auch eine GTX 480 reicht nicht immer und das mit all den Einschränkungen die man mit dem Monster sowieso schon hat, abgesehen vom Preis.
Ich behaupte ja nicht, dass Eyefinity kein Geld kostet, aber im Endeffekt ists bei PhysX auch der Fall.
 
Schinzie schrieb:
[...] Selbst der Guide der GTX 470/GTX480 hat diese als Überkarte dargestellt.

Na, wer wenn nicht der Hersteller selbst, wird die Produkte wohl als super tolles non-plus-ultra darstellen?
Das nennt sich Werbung und ist zumindest für mich ein alltägliches Phänomen.

@DvP

Wenn es einem zu wenig fps werden, hat man immer noch die Möglichkeit die Effekte anzupassen. Dein Ganz-oder-gar-nicht Szenario hat jetzt auch nicht wirklich viel mit der Realität zu tun.
 
Zuletzt bearbeitet:
@ DvP

Was ist teurer: Eine GTX 460 statt einer GTS 450 oder drei 22-Zöller statt einem zusammen mit einer HD5770? ;-)

Noch mal: PhysX hat keine zusätzlichen Anschaffungskosten und eine GTS 450 packt beispielsweise Mafia II mit max. Details ohne AA und Medium-PhysX.
 
@ DvP

- das ist bisher allerdings NUR bei einem titel der fall .... nämlich Mafia 2.
alle anderen physX-games lassen sich sehr sehr gut mit einer primary-card,
ab der leistungsklasse 98GTX+ - 250GTS - 260GTX, zocken !

die herstellerangaben suggerieren i.d.R. was anderes ... real reichen die
genannten karten für physX jedoch völlig aus.
pers. kann ich sagen, dass sich Mafia2 mit tweak auch mit einer karte @ physX-med
sehr gut spielen läßt ( DarkVoid lass ich mal bewusst weg).

- verstehe die ganze " grundsatzdiskusiion " nicht ... denn wie @y33H@ schon schrieb,
ist das feature optional ... also kein must have ... sondern ein nice2have !
 
y33H@ schrieb:
Hat Luxx die Lautstärke und die Leistungsaufnahme nicht kritisiert? Doch, haben sie :rolleyes: Was willst du denn noch?!

hm, irgendwie hatte ich das anders im Kopf. Dass sie den Verbrauch und die Lautstärke kritisieren ist ja obligatorisch zwingend notwendig.
Hab mir grad das Fazig nochmal durchgelesen, doch nicht ganz so positiv wie ichs im Kopf hatte. Ich weiß nur, auch aus der Printed Ausgabe, dass die GTX480 dort mit massiven Abstand die schnellste Karte ist. In Wirklichkeit ist der Abstand nicht so massiv. Das liegt aber primär an der Testumgebung.

trotzdem muss ich meine aussage revidieren, da sie schlicht falsch war, danke^^.


gruß
 
SuddenDeathStgt schrieb:
- verstehe die ganze " grundsatzdiskusiion " nicht ... denn wie @y33H@ schon schrieb,
ist das feature optional ... also kein must have ... sondern ein nice2have !

Ok, grundsätzlich gebe ich euch da schon recht. Aber mit einer ATI kann ich mir immer noch eine kleine NV für PhysX dazustecken und hab das heiß geliebte PhysX und Eyefinity ebenso. Die Option fehlt mir mit NV komplett.
Für die meisten wird Eyefinity auch nice2have sein und die wenigsten werden die Option zum Zocken verwenden, wobei es vor allem bei Rennspielen der Überhammer ist.

Ich finde die PhysX Effekte schon auch schön, aber ich würde keinen einzigen € zusätzlich dafür ausgeben, allein weil ich die Politik dahinter nicht fördern will und ich nicht einsehe warum die (meist überforderten) Grafikkarten das auch noch mitmachen müssen wärend sich bei den meisten die CPU cores langweilen. Mit etwas optimierten CPU code (zumindest SSE und multicore), würden alle diese Effekte auch @ CPU laufen, alle hätten was davon und die Grafikkarten könnten das machen wofür sie eigentlich da sind.

Jetzt weißt du auch wie bei mir eine Grundsatzdiskussion aus dem Thema wurde ;)
 
@ Schinzie

Was heißt in Wirklichkeit? In deren Parcours ist sie eben so schnell. Punkt. Was gibt's da zu meckern? Wo anders ist sie halt langsamer ... wäre das nicht so, könnte man auch einfach die IHV-Folien online stehen. Reviews leben von unterschiedlichen Parcours und Schwerpunkten, die Mischung macht's. Aber nur, weil einer vom "Mittel" abweicht, ist der Test nicht pro einem IHV oder unobjektiv oder sonst was. Auch wenn viele Fanbois das gerne hätten. Und für's nächste Mal: Test erneut lesen, dann posten. Und nicht posten und dann nach Nachfrage feststellen, das man vermeidbaren "Müll" geschrieben hat.
 
wadenbeisser schrieb:
Und ja, selbst die dicksten Grafikkarten reichen derzeit nicht aus um in der Auflösung kompromislos eine flüssiges Spielen bei jedem Spiel zu ermöglichen aber zumindest bei den meisten.

Ja, genau da ist der Punkt:
Bei den meisten Spielen reichen auch HD 5750 und GTS 250 aus, um auf 1920x1080(/1200) mit sehr hohen oder maximalen Einstellungen flüssig zu spielen (siehe meine unvollendete Liste).
Die Karten dafür nicht geeignet zu nennen, ist einfach ziemlich willkürlich und entspricht der Einstellung eines Enthusiasten, der nicht nur die neuesten und zugleich optisch schönsten Spiele sofort spielen will, sondern dabei auch nicht bereit ist, kleine grafische Kompromisse einzugehen - weshalb er eine High-End-Karte benötigt.
So eine Einstellung würde prima für das Hardwareluxx passen, denn das richtet sich an Enthusiasten.

Hier hielte ich es für angebrachter (aber das ist nur meine bescheidene Meinung), man würde den Lesern nicht vermitteln, dass sie bei normalen Ansprüchen unbedingt eine HD5850 oder GTX 460 1 GB aufwärts brauchen, um Spiele auf Full HD in guter Optik flüssig spielen zu können.
Aber gut jetzt, ändern wird man das hier nicht, die uninformierten Leser, von denen ich auch welche kenne, werden weiterhin denken, sie bräuchten die größten Grafikkartenkaliber für ihre 24-Zöller und können froh sein, dass sie mich kennen, der ihnen sagt, dass sie nicht 100 € und mehr wegen einseitiger Darstellungen (orientiert an den 5 Hardwarefresser-Games) zum Fenster rausschmeißen müssen.
 
DvP schrieb:
Mit etwas optimierten CPU code (zumindest SSE und multicore), würden alle diese Effekte auch @ CPU laufen, alle hätten was davon und die Grafikkarten könnten das machen wofür sie eigentlich da sind.

NVIDIA will aber nicht, das PhysX über Intel oder AMD CPUs läuft.
Sie wollen dieses Feature nur über ihr eigenes Produkt verkaufen.
Sie selber hätten ja nichts davon, wenn sich jetzt Jeder, wegen PhysX eine stärkere CPU zulegen würden.
Dann lieber eine extra NVIDIA-Karte. So gesehen wie jetzt bei MafiaII.
Und es klappt sogar. Die Leute wollen sich GTX480 im SLI und zusätzlich eine PhysX-Karte besorgen.
Da wird dann keine einzige CPU von Intel oder AMD verkauft.
Darum geht es schlussendlich.
NVIDIA will mit PhysX, ihre Karten verkaufen.
MafiaII sorgt offenbar, mit seinem übertriebenen PhysX, für den Verkauf von Altkarten.

y33H@ schrieb:
@ Schinzie

Was heißt in Wirklichkeit? In deren Parcours ist sie eben so schnell. Punkt. Was gibt's da zu meckern?

Genau da liegt doch das Problem !
So ein Guide ist nur eine Richtlinie für die Redakteure. Sie müssen sich nicht daran halten.
Aber man kann natürlich die Best-Case-Szenarien, bestimmter Hersteller, verwenden und die des andern Herstellers, ignorieren.
Liegt alles im Rahmen des Ermessungsspielraumes. ;)

Ich frag mich nur, warum dieser Test als SLI-Variante aufgeführt wird.
Jeder weiß doch, das SLI in diesem Bereich, recht sinnbefreit ist.
Aber so lässt sich halt eine menge Performance suggerieren und ein Produkt, durch Blendung, besser vermarkten.

Das merkt man doch auch an den ganzen Kommentaren hier.
SLI ist plötzlich wieder top und wird als die ultimative Performancekrone gehypt.
Das man dazu natürlich gleich 2x GTS450 kaufen muss, ist selbstverständlich und NVIDIA freut sich auch sehr darüber. :cool_alt:

Bin mal gespannt, was als nächstes getestet wird.
NVIDIA GTS440 im Trippel-SLI oder GTS430 im Quad-SLI. :D
 
Pickebuh schrieb:
Genau da liegt doch das Problem !
So ein Guide ist nur eine Richtlinie für die Redakteure. Sie müssen sich nicht daran halten.
Aber man kann natürlich die Best-Case-Szenarien, bestimmter Hersteller, verwenden und die des andern Herstellers, ignorieren.
Liegt alles im Rahmen des Ermessungsspielraumes. ;)

Das kann man auch ohne so einen Guide erreichen.
Aber so ist Werbung nun mal, in wie weit man sich von ihr beeinflussen lässt, ist individuell unterschiedlich. Auch bei Redakteuren, die sich mit Hardwaretests auseinandersetzen.

Diese aufgesetzte Naivität einiger Leute ist ja bald nicht mehr zu ertragen!
 
Pickebuh schrieb:
Das merkt man doch auch an den ganzen Kommentaren hier.
SLI ist plötzlich wieder top und wird als die ultimative Performancekrone gehypt.
Das man dazu natürlich gleich 2x GTS450 kaufen muss, ist selbstverständlich und NVIDIA freut sich auch sehr darüber. :cool_alt:

Bin mal gespannt, was als nächstes getestet wird.
NVIDIA GTS440 im Trippel-SLI oder GTS430 im Quad-SLI. :D


Du meinst sowas, wobei man schnell sieht das x3 crossfire besser unterstützt wird als x4 crossfire?

http://www.guru3d.com/article/powercolor-radeon-5770-single-slot-quad-crossfirex-review/1
PowerColor Radeon 5770 Single slot Quad CrossfireX review
 
@Y33h

es ist nicht Inhalt dieses Threads über den Benchparcour anderer Seiten zu diskutieren, aber wenn man wissentlich Szenarien und Spiele zum Benchen nimmt, die bekanntlich der einen Architektur besser liegen, und neure und repäsentativere Tests ignoriert, ist mein geschriebenes alles andere als Müll!

Es ist der Beruf eines Redakteurs der angeblich neutrale Tests pupliziert sich um Repräsentativität zu bemühen.

Wie sind solche Unterschiede zu fast allen Seiten zu erklären? Zufällig die günstigeste Stelle für Nvidia heraus gesucht?

http://www.hardwareluxx.de/index.ph...leiner-bruder-oder-grosser-wurf.html?start=16

https://www.computerbase.de/2010-04...-470/12/#abschnitt_colin_mcrae_dirt_2_dx9dx11

Die GTX470 30% schneller als eine HD5870 bei Luxx und bei CB sinds bei selben Settings nur noch 9%. Und das durchgehend.

In CB ist wiederum bei Crysis die HD5870 22% schneller als die GTX470, bei Luxx sinds nur noch 0,6%

Da muss sich ein mündiger Leser doch gewisse Fragen stellen ob da noch eine repräsentativer und neutraler Test stattgefunden hat?

Und Y33h kleiner Tipp fürs nächste mal. Erstmal Test lesen und sich Fragen stellen, bevor man andere belehrt und Partei ergreift.

Ich seh grad beim GTS460 Test das selbe. Dort konkuriert die GTS450 nicht zwischen HD5750 und HD5770 sondern eine Stufe höher zwischen HD5770 und HD5830 und schlägt letztere sogar öfters...
 
Zuletzt bearbeitet:
@ Schinzie

Ich habe "Müll" bewusst in Anführungszeichen gesetzt.

Da Luxx nicht sagt, wie sie CMRD2 vermessen (DX11? Strecke? Dauer? Autos? Fraps? Zeit?) ... tja, kann man auch keine Aussagen treffen. Wobei die GTX 470 schon extrem schnell ist, so habe ich das noch nirgends gesehen. Die Kollegen von Luxx haben es offenbar verpennt, den DX11-Modus auf der GTX 470/480 zu aktivieren. Ob Absicht oder Inkompetenz, nun - dazu sage ich nichts. Ich ergreife keine Partei für Luxx, ein solcher Fehler darf nicht passieren - der CMRD2 Benchmark ist damit nutzlos und irreführend.

Also komm mal wieder runter.
Es ist der Beruf eines Redakteurs der angeblich neutrale Tests pupliziert sich um Repräsentativität zu bemühen.
Sicherlich und ich für meinen Teil bemühe mich. Allerdings ist Repräsentativität so eine Sache, für sich ist jeder korrekt durchgeführte Bench repräsentativ. Auch wenn er in diesem Spiel/Szene eine Architektur klar in Front sieht. In genau diesem Fall ist das eben so. Nur sollte ein Review nicht nur aus solchen Spielen/Szenen bestehen, das verzerrt.
 
Zuletzt bearbeitet:
Das Problem ist halt nur, wenn auf der einen Seite die Produkte eines Herstellers andauernd besser abschneiden, als dies in objektiven Tests der Fall ist. Klar man kann mal daneben liegen, Fehler passieren. Wenn dies aber ständig (was somit Vorsatz nahelegt) zum Vorteil eines Herstellers geschieht, gibt es dafür genau einen zutreffenden Begriff: Schleichwerbung

Insofern lobe ich mir schon die objektivität von CB.
 
Nur weil ein Produkt besser abschneidet, sind Test wo es schlechter abschneidet nicht gleich "objektiver". Es wurden eben andere Spiele/Sznen genutzt. Overall-Abweichungen von 5% [+/- 2%] zB zwischen GTX 480 und HD5870 sind völlig normal und im Rahmen und keine Schleichwerbung. Wer etwas anderes behauptet, hat keine Ahnung von Benchmarks. Bei PCGH etwa stand der Parcours schon lange, bevor Fermi kam - Vorsatz unmöglich. Zumal es ein extremer Aufwand wäre, Spiele und Szenen zu suchen, die immer einen IHV vorne sehen. Wer ernsthaft glaubt, jemand macht so etwas, der ist verrückt. Und wer so etwas tatsächlich macht, hat kein Leben.

Wenn es so wie bei Luxx in CMRD ist, dann sollte man sich Gedanken machen. Hier würde DX11 auf der GTX 480/470 "vergessen".
 
Zuletzt bearbeitet:
Ich habe nur gesagt, wenn so etwas ständig zugunsten eines Herstellers passiert, legt es den Verdacht Nahe, dass es sich um Absicht hadelt. Und damit ist es dann Schleichwerbung. Also lies bitteschön meine Post GENAU und interpretiere nicht irgendetwas hinein was dort nicht steht. Danke :D
 
Zuletzt bearbeitet:
Zurück
Oben