Test Grafikkarten 2009: Kaufempfehlungen von 70 Euro bis 400 Euro

Vielleicht skaliert ja CF besser unter extremeren Umständen? Ich erinnere an SGSSAA benches auf PCGH. Die HD5850 hat ja etwas mehr Bandbreite als eine HD4890 und fällt trotzdem zurück. Kann das vielleicht jemand mal antesten? Also den Speichertakt bei ner Monsterauflösung mit 8xAA erhöhen?
@ y33H@ was sagst du dazu?
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Nehmen wir mal die 2560x1600 8xAA/16xAF als Ausgangspunkt. Die HD 5970 muss 2x 24,5FPS unregelmäßig ausspucken um auf 48,7FPS zu kommen. Wobei bei den 24FPS der HD 5970(2x HD 5850 1GB) jeweils die volle "HD 5850 Bandbreite" zur Verfügung steht.Die HD 5870 hingegen muss für saubere, konstante 29,3 FPS nur mit der Bandbreite einer HD 5870 auskommen. Beide Karten haben 1GB Vram.

Fake FPS hin oder her, das sind deutliche Indizien für ein Bandbreitenlimit der HD 5800er...

Verstehe die Aussage nicht ganz. Die 5870 hat 17% mehr Takt (Speichertakt sind 20% mehr) und bietet 20,5% mehr Rechenleistung. Wo ist da das Bandbreitenlimit?

Ist zwar nur eine Milchmädchenrechnung, aber das ist die deinige auch.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Fake FPS hin oder her, das sind deutliche Indizien für ein Bandbreitenlimit der HD 5800er...

PS: Die HD 5970 wird übrigens mit 8AA auch schneller gegenüber 4AA. Definitiv kein Messfehler...


In einem prozentual gesehen kleineren Verhältnis. Crossfire ist so eine Sache. Deswegen würde ich das isoliert betrachten.

Aber eigentlich kann das auch nicht sein, da CB mehrere Durchläufe macht. Sonst könnte man das fast unter Messungenauigkeit abstempeln. In den anderen Auflösungen wird auch nichts schneller. Dass die 4890 mit 8xAA schneller wird, kann nicht normal sein. In einem älteren Test verliert sie an Leistung, so wie es sein sollte: https://www.computerbase.de/artikel...70-crossfire.1098/seite-9#abschnitt_anno_1404

Ich sage da kann was nicht stimmen.
 
Verstehe die Aussage nicht ganz. Die 5870 hat 17% mehr Takt (Speichertakt sind 20% mehr) und bietet 20,5% mehr Rechenleistung. Wo ist da das Bandbreitenlimit?

Ist zwar nur eine Milchmädchenrechnung, aber das ist die deinige auch.
HD 5970 berechnet 2x 24FPS -> und klatscht sie wild auf einen Haufen, HD 5870 berechnet 29FPS saubere, hochwertige FPS
HD 5970= 2x HD 5850 1GB mit 2x 128000 MB/s, also stehen 128000MB/s für 24FPS zur Verfügung, der HD 5870 stehen 153600 MB/s für 29FPS zur Verfügung.

Milchmädchenrechnung hin oder her, die HD 5800 leidet an Bandbreitenmangel und; oder Vram Mangel. Sieht man immer wieder. Umso höher die Auflösung und Anforderung an den Vram, umso mehr bricht sie ein. Ob Bandbreite oder Menge ist dabei fast schon egal. Was genau muss erst noch getestet werden, mit der 2GB Version. Wenn die nämlich kein bisschen schneller ist, liegt es hald an der Bandbreite... Was sonst?

PS: Das währ doch gleich mal ein guter Vorschlag an CB für µRuckler Karten, in den Balkendiagrammen immer die FPS Summe und in Klammern dahinter die Hälfte der FPS x2. So sieht man auf einen Blick bzw. schon in den Diagrammen welche Karte eine single GPU ist und welche nicht. Gerade in Zeiten von komischen Namen für Fake FPS Karten ala GTX 295/HD 5970, also in Zeiten in denen die Hersteller so tun wollen als ob es eine single Karte ist, währ sowas für die Leser perfekt. Und die Fake Balkenlänge bleibt ihnen ja erhalten, weil die Summe der FPS trotzdem angegeben wird. Ich halte das für den besten Kompromiss den ihr jemals hören werdet.
 
Zuletzt bearbeitet:
Wie viele Frames sollte denn deiner Meinung nach die 5870 haben?

Die 5870 hat in fast allen Test 17-19% mehr Performance als eine 5850 bei 17% mehr GPU Takt. Der Unterschied zwischen den beiden Karten ist uns ja bekannt
Link
288 vs 320 11% mehr
725 vs 850 17% mehr
72 vs 80 11% mehr
2000 vs 2400 20% mehr

Interessant wäre es wohl eine 5850 mit CPU Takt der 5870 zu testen. Dann den Speicher noch gleich zu setzen und dann sagen zu können, was die 288 vs 320 ausmachen.

Meine Frage von oben bleibt bestehen. Wie viele Frames sollte die 5870 liefern?
 
Naja bei Anno 1404 - 2560x1600 1xAA/1xAF: ist sie noch 40% schneller als die HD 4890, "also sollte sie aufgrund der neuen überarbeiteten Generation" schon bei 40-60% mehr FPS liegen unter 8AA/16AF. Immerhin hätte man schon erwarten können das die Shader besser ausgelastet werden, bei einer neuen Generation.(erwarte zb. von Fermi auf jeden Fall das sie in so einem Setting % ual besser abschneidet als alte Generationen) Das wird aber von irgend was verhindert, Bandbreite, Vram? Am Schluss bleiben von den 40% dann unter 8AA/16AF nur noch 6% Vorsprung übrig. Wo sind also die 32-34% Vorsprung hin? Und genau das sind die FPS die fehlen.
 
Zuletzt bearbeitet:
Die Anno Benches bei Grafikkarten 2009 sind ohnehin etwas rätselhaft.
Warum verlieren da die ATI Karten so stark im Vergleich zu Nvidia?
Als Vergleich nimmt man dann den HD5870 Test her.
Eventuell hat man auch eine bestimmte Szene genommen, welche Nvidiakarten besser liegt, um damit den Rückstand der Nvidiakarten etwas schmaler zu halten. Schließlich wird ja kein Physx mehr gebencht.^^
 
Zuletzt bearbeitet:
Auch eine "relativ hohe Lautstärke unter Last" halte ich für einen Scherz; NORMAL gesagt (;-)
Meine 5770 mit dem eiförmigen Kühler ist auch unter Last sehr sehr leise .... und ich habe keine Festplatte im System; nur ´ne SSD.
Ich weiß jetzt leider nicht, wie sich die HD 5770 in dem "Ei-Format" schlägt. Wenn was mehr Zeit ist werden wir aber mal entsprechende Karten testen.

Da soll AF gleichwertig anliegen? Aber lass raten, jetzt behauptest du das Bild der HD5000 wäre eins ohne AF.
Herrlich =) Du kannst mir vertrauen oder du lässt es bleiben. Ja, ich sehe den Unterschied. Und nein, das liegt wohl nicht am AF. Ich habe mir COD5 in denselben EInstellungen übrigens mal mit dem Cat 9.12 angeschaut. Und siehe da, dieser ist gar noch minimalst schneller als mit der Treiber in diesem Test.

Da soll AF gleichwertig anliegen? Aber lass raten, jetzt behauptest du das Bild der HD5000 wäre eins ohne AF.
Ja, etwas überpowert ist das Netzteil eigentlich schon, ohne Frage, Jedoch hat dieses einfach die benötigten Anschlüsse, wenn mal mehr als eine Karte im Rechner steckt. Zudem zeigt mir hier gerade ein naderer Test, dass die Effizienz von dem NT nicht so schlecht sein kann =)

mir gefällt dieser test auch sehr gut ABER dadurch das ich eine radeon 4870x2 hätte ich gern der vergleich gesehen, ich versteh halt nur nicht wenn die "normale 4870 im test dabei ist warum dann die 4870x2 nicht ?!
Naja, die 4870 X2 ist mittlerweile einfahc nur extrem unattraktiv geworden. Eine HD 5870 spielt in derselben Liga und das ohne irgendwelche komischen Problemen.

Was ist denn eigentlich aus dem CoD Test geworden? Ich denke CB erkennt, ob AF einwandfrei geht? Und bei Batman gibts zwei gleiche HD5000 Bilder.
Du bist wohl echt einer der Bordies die sich nur melden, wenn ihnen etwas nicht passt und dann ordentlich stink machen...Dürfen wir nicht auch mal Fehler machen? Es wurde das falsche Batman bild hochgeladen, kann doch wohl mal passieren, oder?

Also was da erstmal auffällt, ist, dass die 4890 mit 8xAA 5,4 fps schneller rechnet als mit 4xAA. Das kann ich erstmal so nicht glauben, bei den anderen ist das ja auch nicht so.
Ja, es ist komisch, es ist aber so. Haben wir nochmal nachgemessen, haut aber hin. Warum auch immer. Die SKalierung in Anno 1404 bei ATi war schonmal teilweise komisch, da scheint einfach noch irgendwo was (im Treiber) zu haken.
 
Eventuell hat man auch eine bestimmte Szene genommen, welche Nvidiakarten besser liegt, um damit den Rückstand der Nvidiakarten etwas schmaler zu halten.

Inwiefern kann eine Spielszene einer nVidia besser liegen als einer ATi? Die Rechenvorgänge bleiben ja die gleichen; daher sagt mir mein mit Fettadern durchzogenes Spatzenhirn, dass wenn schon ein Unterschied zwischen den Karten in dieser Hinsicht bestünde, dieser wohl auch generell auftreten müsste und nicht nur bei Anno 1404 spezifischen Szenen.
 
Ich erinnere mich da an den Cod4 Benchmark "Im Sumpf" (PCGH). Da waren die ATI-Karten stark im Nachteil, da sie einige Probleme mit der Nebelberechnung hatten. Wäre in einem anderen Level gebencht worden, dann hätten da die ATis besser ausgesehen. Insofern kann man mit der Szenenauswahl die Ergebnisse schon stark beeinflussen. Nur so nebenbei angemerkt!
 
KLEMSI schrieb:
Ich erinnere mich da an den Cod4 Benchmark "Im Sumpf" (PCGH). Da waren die ATI-Karten stark im Nachteil, da sie einige Probleme mit der Nebelberechnung hatten.
Das ist falsch. Eine HD4870 ist in dieser Szene schneller als eine GTX260-216, damals hat AMD schlicht nicht optimiert bzw. die Engine liegt des Geforces einfach (siehe auch W@W und MW2). Mit der "Nebelberechnung" hat das nichts zu tun, zumal der Nebel nichts weiter ist als eine schnöde Textur :lol:
 
Wolfgang schrieb:
Herrlich =) Du kannst mir vertrauen oder du lässt es bleiben. Ja, ich sehe den Unterschied. Und nein, das liegt wohl nicht am AF. Ich habe mir COD5 in denselben EInstellungen übrigens mal mit dem Cat 9.12 angeschaut. Und siehe da, dieser ist gar noch minimalst schneller als mit der Treiber in diesem Test.


Sondern? Das "wohl" hört sich nicht sehr überzeugend an. Dass 9.12 minimal schneller ist, beweist nicht, ob dort der AF Bug vorliegt oder nicht.


Wolfgang schrieb:
Du bist wohl echt einer der Bordies die sich nur melden, wenn ihnen etwas nicht passt und dann ordentlich stink machen...Dürfen wir nicht auch mal Fehler machen? Es wurde das falsche Batman bild hochgeladen, kann doch wohl mal passieren, oder?

Und warum wird das nicht ausgebessert? Ich habe dich nicht umsonst auf diesen Fehler hingewiesen. Oder bist du einer der Redis, die keine Kritik vertragen? Deine patzige, kurz angebundene Art macht dich nicht glaubwürdiger.

Wolfgang schrieb:
Ja, es ist komisch, es ist aber so. Haben wir nochmal nachgemessen, haut aber hin. Warum auch immer. Die SKalierung in Anno 1404 bei ATi war schonmal teilweise komisch, da scheint einfach noch irgendwo was (im Treiber) zu haken.

Lol, natürlich kann das Ergebnis hinhauen. Aber hier sind wie wieder beim Punkt Bildqualität. Aber ich dachte dir fällt alles gleich auf? Wenn die Karte nicht das rendert, was sie sollte, kann es mehr fps geben. Dann muss man aber im Text drauf hinweisen. Ansonsten wäre dieser Haken im Treiber ja hervorrragend. Dann müsste Ati den Treiberhaken auf alle Auflösungen und Einstellungen anwenden, und wir hätten eine deutlich bessere performance.

Nächste Merkwürdigkeit Battleforge:

2560x1600 HD4890

4xAA/16xAF
15,5 fps

8xAA/16xAF
23,6 fps

Mit 8xAA mutiert die 4890 zur schnellsten Single GPU Karte und rechnet auch schneller als mit 1xAA/1xAF.
 
Ja wie gesagt, irgendwas im treiber funzt nicht perfekt. Nebenbei spielt die Auflösung eh kein Mensch.
Mal sehen wie der Catalyst 9.12 wird.
Also nix mit Bandbreitenlimit oder großflächigem v-Ram Limit.
 
Wolfgang schrieb:
Ich weiß jetzt leider nicht, wie sich die HD 5770 in dem "Ei-Format" schlägt. Wenn was mehr Zeit ist werden wir aber mal entsprechende Karten testen.

Warum ist die Karte dann auf dem Bild zu sehen?
Ich fände es schon wichtig, wenn ihr Bilder der Testkarten mit reinstellt, damit man sieht, welches Design verwendet wurde.
 
Der Test zeigt mMn ganz klar, das sich AMD/ATI eindrucksvoll zurückgemeldet hat im Grafikmarkt und in jedem Segment (Low/Middle/High/Enthusiast) die Nase vorne hat. Wer jetzt noch eine "alte" nicht DX11 fähige NV (oder ATI) Graka sich kauft, dem ist eigentlich net mehr zu helfen...
Bin echt gespannt wie ein Flitzebogen was NV mit ihrem "Fermi" demnächst dem entgegensetzen wird. Power oder heisse Luft... wir werden es bald wissen.
 
brabe schrieb:
Warum ist die Karte dann auf dem Bild zu sehen?
Ich fände es schon wichtig, wenn ihr Bilder der Testkarten mit reinstellt, damit man sieht, welches Design verwendet wurde.


Sieht mir eher nach einer 5750 aus, oder welches Bild meinst du?
 
Ralf555 schrieb:
Sondern? Das "wohl" hört sich nicht sehr überzeugend an. Dass 9.12 minimal schneller ist, beweist nicht, ob dort der AF Bug vorliegt oder nicht.

Solange du keine hinreichende (Gegen-)Begründung für das Phänomen abliefern kannst, ist dein Zynismus völlig Fehl am Platz - bis auf Spekulationen kannst auch du keine stichfesten Belege abliefern.

Ralf555 schrieb:
Und warum wird das nicht ausgebessert? Ich habe dich nicht umsonst auf diesen Fehler hingewiesen. Oder bist du einer der Redis, die keine Kritik vertragen? Deine patzige, kurz angebundene Art macht dich nicht glaubwürdiger.

Harte Worte. Ist schon erstaunlich wie sich die Leute in Ignoranz suhlen und wie ein Maschienengewehr Löcher ins Board posten.
Bevor du hier den Ton des Redakteurs kritisierst, bemühe dich doch mal selbst in einem angemessenen, vor allem freundlichen Ton zu schreiben.
Dass Wolfgang für konstruktive, freundlich formulierte Kritik empfänglich ist hat er inzwischen schon oft genug bewiesen.



Ralf555 schrieb:
Lol, natürlich kann das Ergebnis hinhauen. Aber hier sind wie wieder beim Punkt Bildqualität. Aber ich dachte dir fällt alles gleich auf? Wenn die Karte nicht das rendert, was sie sollte, kann es mehr fps geben. Dann muss man aber im Text drauf hinweisen. Ansonsten wäre dieser Haken im Treiber ja hervorrragend. Dann müsste Ati den Treiberhaken auf alle Auflösungen und Einstellungen anwenden, und wir hätten eine deutlich bessere performance.

Du lamentierst hier nur herum. Fällt dir eigentlich auf, dass du gewisser Maßen an ihm vorbei redest? Klar. Punkt abgehakt/ widerlegt; Fahren wir doch andere Geschütze auf, die zwar unter sich nichts mit einander zu tun haben, aber was solls ... Großes Tennis! Damit wirst du auch zukünftig bestimmt viel erreichen.

Mir scheint, dass du die Problematik nicht erkennst, die (wissenschaftliches) Arbeiten mit sich bringt: Ich kann die gemeine Theorie nur der Praxis annähern. Dass du in einer Messreihe Ausreißer hast liegt in der Natur der Dinge. Du kannst hingehen und den Fehler eingrenzen [Treiber *Fragezeichen*] (was widerum auch zu einem gewissen Messfehler hinführt) oder die Werte vernachlässigen, was nichtsdestoweniger im Sinne des Schöpfers wäre - so oder so: Du hast in deiner Messreihe und somit im Ergebniss immer Fehler. - Mal gravierender, mal harmloser.


Also: Es ist ja i. Allg. gut und richtig, dass du auf sowas bzw. Fehler (?) hinweist, aber versuch dich auch mal in die Lage von Wolfgang zu versetzten. Du kannst nicht mal eben verlangen, dass er noch mal n Satz Karten durch die Savegames jagt, was evtl. wieder und wieder zum selben Ergbeniss führt. Wenn du so erpicht auf eine Erklärung für die schrägen Anno-Ergebnisse bist, dann spring dem Wolfgang nicht an die Kehle sondern schreib ne E-mail an AMD.
Oder mal unter uns: Geht es dir um etwas komplett anderes?
 
Ich komme nochmal auf das zurück, was ich vorher bemängelt habe:
Es stimmt zwar, das das Core i7 Extreme System warscheinlich die GPU's voll ausreizt aber wie schon gesagt, haben nur wenige solch ein System.
Es würde meiner Meinung nach eher Sinn machen Konfigurationen zu testen, die bei einem Großteil der Leserschaft am warscheinlichsten sind.
Schließlich geht es darum, welche GPU zu diesem Zeitpunkt vom Preis-Leistung-Verhältnis her am Besten zum System passt.
Man kann so nur Mutmaßungen anstellen, welche GPU zu welchem System passt.
Vielleicht wäre eine Unterteilung in drei Klassen nicht schlecht:
Extreme Gamer(gibts ja schon), Mid-Range und Low-Budget.
 
Man kann so nur Mutmaßungen anstellen, welche GPU zu welchem System passt.
Vielleicht wäre eine Unterteilung in drei Klassen nicht schlecht:
Extreme Gamer(gibts ja schon), Mid-Range und Low-Budget.

Das ist aber nicht der Sinn der Tests (die außerdem so schon sehr zeitaufwändig sind). Man will ja nur feststellen, welche Grafikkarte wie viel zu leisten vermag und daher dieses Testsystem, wo sich die Karten ohne Einschränkung austoben können.

Und für Empfehlungen, welche Grafikkarte man für das eigene System nehmen sollte, gibt es das Forum, wo man durchaus kompetente Beratung erfährt, so sich nicht ein, zwei Fanboys einschleichen ;-) .
 
Zurück
Oben