Test Grafikkarten 2009: Kaufempfehlungen von 70 Euro bis 400 Euro

Ich frage mich was ein solch trainiertes Auge mit den derzeitigen 3D-Lösungen macht die mit Shutter-Brillen arbeitet. Würde derjenige auch sagen, dass die Nvidia Brille völlig überteuerter Unfug ist? :p
 
Schaffe89 schrieb:
Was hat das damit zu tun?
Ganz einfach: Man kann es nicht sehen oder man will es nicht sehen. Ersteres spart Geld und ist schade, zweites ist einfach nur lächerlich.
 
y33H@ schrieb:
Was ist daran subjektiv, wenn Samples gespart werden?Das ist kein Fakt, sondern schlicht falsch.

samples die den otto normal user niemals interessiert haben und niemals interessieren werden.

was reg ich mich eigentlich auf? du hast recht und ich habe meine ruhe. :evillol:
 
y33H@ schrieb:
Ich füge hinzu: xS-Modi.


Ja stimmt, aber mir würden gute Treiber schon genügen, wo man Optimierungen und Bugfixes getrennt einstellen kann.


AYAlf schrieb:
die treiberqualitaet ist echt mal subjektiv.

von mir aus haeng dich an deiner filterqualitaet (hq) auf. fakt ist, man sieht es nicht im spiel.. also egal!


Doch, das sieht man. Kommt natürlich drauf. Manchmal gibt es keine Unterschiede, manchmal deutliche oder manchmal flimmert es auf der AMD sichtbarer. Da wo NVIDIA den HQ Modus hat, hat Ati nichts. AI Disabled ist auch keine Lösung.
 
Schön und gut ich mach nen Test und setz mich vor die 2Bildschirme und vergleiche krampfhaft.
Nach 2 Stunden gucken kommt dann raus, ja die ATI Karte flimmert da und da geringfügig mehr.
Und das soll jetzt ein Nachteil sein. Und wers nicht sieht, der hat Augenprobleme oder schlechte Augen.?^^
DAs ist doch wirklich die gleiche Polemik wie wenn jemand sagt, da gibt es überhaupt keinen Unterschied.
Die Warheit liegt wohl wie immer irgendwo dazwischen.
@y33H@ Ich glaub kaum, dass es dir beim normalen "zocken" auffällt. Wenns nämlich so ein doller Kritikpunkt wäre hättest du dir nie ne HD5k gekauft.
 
HD4k-AF gegen GTX200-HQ-AF sieht man gescheiten Texturen sofort, etwa in Crysis.
Ich glaub kaum, dass es dir beim normalen "zocken" auffällt.
Ich zocke mit SGSSAA und verschobenem LOD, da wird das Flimmern des AF mitgebügelt und man siehts daher praktisch nicht mehr :D
 
Dann wunderts mich aber, warum du dann nicht wegen der zu geringen FPS meckerst.^^:D
Das LOD verschiebt sich doch von selbst oder?
 
Schaffe89 schrieb:
Schön und gut ich mach nen Test und setz mich vor die 2Bildschirme und vergleiche krampfhaft.
Nach 2 Stunden gucken kommt dann raus, ja die ATI Karte flimmert da und da geringfügig mehr.
Und das soll jetzt ein Nachteil sein. Und wers nicht sieht, der hat Augenprobleme oder schlechte Augen.?^^
DAs ist doch wirklich die gleiche Polemik wie wenn jemand sagt, da gibt es überhaupt keinen Unterschied.
Die Warheit liegt wohl wie immer irgendwo dazwischen.
@y33H@ Ich glaub kaum, dass es dir beim normalen "zocken" auffällt. Wenns nämlich so ein doller Kritikpunkt wäre hättest du dir nie ne HD5k gekauft.


Und wenn ich dir jetzt von einem Spiel ein Bild von der Ati und ein Bild von NVIDIA zeige. Was sagst du dann, wenn dort Unterschiede sichtbar sind? Dann gehts bestimmt genauso weiter, ist ne Ausnahme, sieht man nur mit der Lupe, das Spiel ist alt/irrelevant usw. Das hilft auch niemanden weiter.
 
@ Schaffe89

Seit dem 9.12 automatisch, ja. Machs aber lieber manuell. Fps sind in 1680 mit 4x SGSSAA meist ok, in 1920 seltener.
 
Schöner Test, danke.
Wie immer gibt es aber eine Sache zu bemängeln:
Und zwar wäre ein weiteres Testsystem mit einem Phenom II nicht schlecht,
denn es hat ja nun nicht jeder einen Core i7 Extreme :P
 
Ist das schon jemanden aufgefallen?

Anno 1404 - 2560x1600 4xAA/16xAF:
HD 5850: 26,2 FPS
HD 4890: 22,3 FPS

Anno 1404 - 2560x1600 8xAA/16xAF:
HD 5850: 24,8 FPS
HD 4890: 27,7 FPS

Wahrscheinlich stimmen die Messwerte sogar, deckt sich zumindest dann mit dem Gesamtrating: Rating - 2560x1600 8xAA/16xAF
HD 5850 genau gleich schnell wie eine HD 4890. Schon lustig, wir haben immer noch keine genauen Fakten warum die HD 5800 mit 8AA gegenüber der alten Generation so stark einbrechen. Die werden ja nicht nur langsamer, sondern kämpfen ja teilweise damit überhaupt schneller zu sein, oder wie im Fall Anno einfach ein ganzes Stück langsamer. Wo bleiben die 2GB Karten, ich wills endlich wissen. :confused_alt:
 
@meee
denke die starke cpu braucht man, dass man wenn man grakas testet von seiten der cpu her keine beschränkung hat, sodass leistungseinbrüche eindeutig auf die andere graka zurückzuführen sind
 
Kasmopaya schrieb:
Ist das schon jemanden aufgefallen?

Anno 1404 - 2560x1600 4xAA/16xAF:
HD 5850: 26,2 FPS
HD 4890: 22,3 FPS

Anno 1404 - 2560x1600 8xAA/16xAF:
HD 5850: 24,8 FPS
HD 4890: 27,7 FPS



Also was da erstmal auffällt, ist, dass die 4890 mit 8xAA 5,4 fps schneller rechnet als mit 4xAA. Das kann ich erstmal so nicht glauben, bei den anderen ist das ja auch nicht so.
 
Also was da erstmal auffällt, ist, dass die 4890 mit 8xAA 5,4 fps schneller rechnet als mit 4xAA. Das kann ich erstmal so nicht glauben, bei den anderen ist das ja auch nicht so.
Gabs schon öfter solche Werte. Da gibts dann schöne Frameverläufe im Test, aber nicht mit den Settings die richtig interessant währen.

Das währs doch, die Frameverläufe in den 2 Auflösungen und Settings mit Anno, dann könnte man vielleicht eingrenzen warum das ganze so ausschaut. Ich denke man wählt die Frameverläufe sowieso jedes mal extra einzeln abgestimmt auf die Games und nicht immer die gleichen.
 
y33H

ich habe keine idee, wie du spiele spielst, aber mir fällt bei den wenigsten spielen (eigetnlich gar nicht) ein flimern auf. ich bin viel zu sehr beschäftigt zu spielen, als auf so etwas zu achten. aber hey...wir wissen ja du liebst ati.
und nvidia ist ja noch immer mit seiner gtx285 besser oO
 
^^ nvidia ftw^^ wollte eigentlich ne GTX 285, warte jetzt aber doch auf Fermi ;)
 
@ Kasmopaya Äußerst komisch. Generell brechen die HD58xx bei den Einstellungen derbe ein, außer die HD5970.
An der Bandbreite scheints also nicht zu liegen. Und am V-Ram auch nicht. Die HD5970 hat ja auch nur 1GB und weniger Bandbreite zieht aber deutlich davon.
Für mich ein Rätsel.
Könnte da mal jemand Stellungnehmen? Vielleicht Volker oderWolfgang wäre echt nett.=)
 
Schinzielein hat es dir doch schon mal erklärt bzw. 1000mal.

Die HD 5970 hat viel mehr Bandbreite als du denkst. Und genau daran liegt es ziemlich sicher unter anderem. Der extra CB Test mit der Bandbreite ist ein glatter Fail(sorry ist einfach so) weil eben solche Bandbreitenfordernden Auflösungen bzw. Settings nicht getestet wurden.

Anno 1404 - 2560x1600 4xAA/16xAF:
HD 5970: 45,6 FPS
HD 5870: 31,2 FPS

Anno 1404 - 2560x1600 8xAA/16xAF:
HD 5970: 48,7 FPS
HD 5870: 29,3 FPS

Nehmen wir mal die 2560x1600 8xAA/16xAF als Ausgangspunkt. Die HD 5970 muss 2x 24,5FPS unregelmäßig ausspucken um auf 48,7FPS zu kommen. Wobei bei den 24FPS der HD 5970(2x HD 5850 1GB) jeweils die volle "HD 5850 Bandbreite" zur Verfügung steht. Die HD 5870 hingegen muss für saubere, konstante 29,3 FPS nur mit der Bandbreite einer HD 5870 auskommen. Beide Karten haben 1GB Vram.

Fake FPS hin oder her, das sind deutliche Indizien für ein Bandbreitenlimit der HD 5800er...

PS: Die HD 5970 wird übrigens mit 8AA auch schneller gegenüber 4AA. Definitiv kein Messfehler...
 
Zuletzt bearbeitet:
Zurück
Oben