Test ATi gegen Nvidia: 14 Grafikkarten verschiedener Baujahre im Vergleich

schöner Test!

mich würde aber interessieren, wie sich die karten auf einem mittelklasse system schlagen, bzw. ab wann sich eine größere Karte NICHT mehr lohnt, d.h. der leistungszuwachs gegenüber dem Stromzuwachs sich nicht mehr rechnet
 
Unyu schrieb:
Im Fazit wird MSAA emfohlen, möglichst das saulahme 8xMSAA.
Natürlich steht noch mehr drin, aber die Zielgruppe ist klar, Unwissende die nach dem Test mit der Information hervorgehen, MSAA sei der einzige Weg,[...] im nächsten Test schauen wir wieder auf die 8xMSAA Balken und behaupten 8xMSAA+16xLQAF + kein TAA/AAA wäre hohe Qualität.

Komm, du kannst nur benchen und vergleichen, was vergleichbar ist. Das Zeug ist hohe Qualität, wenn du als Basis 1xMSAA/1xAF inklusive Optimierungen nimmst. Bei den optionalen Verbesserungen ist keine Vergleichbarkeit gegeben, und das Fazit muss aufgrund der Benches erfolgen.

Gab doch mal u.a. auf cb nen Artikel über die anderen Bildverbesserer.

Aber das einzige, was mir fehlt, ist eine genauere Beschreibung, dass für Nvidia das 8xAA nicht lohnt, weil kaum besser und verschlingt mehr Leistung. Dafür is bei AMD 8xAA die bessere Wahl.
 
Zuletzt bearbeitet:
Unyu schrieb:
Kritische Fragen werden als Feldzug bezeichnet? Auch zu dem Test blieben einige Fragen ungeklärt.
Gerade die CPU Limit und VRAM Limit und 0 FPS Geschichte.
Wird nicht leicht dies zu beantworten.

Naja, was soll man da zu sagen.
Zum CPU-Limit:
Ja, vielleicht hat man in COD5 ein leichtes CPU-Limit, das kann ich nicht ausschließen. Aber wrum wird in dem Fall groß der Artikel schlecht? Du darfst nicht vergessen, dass es um ide GTX 285 primär nunmal nicht geht. Und eine wirkliche CPU-Limitierung hat man an der Stelle auch nicht, dafür ist die Differenz viel zu groß.

VRAM:
Was ist mit dem VRAM? Dass die älteren Karten einen kleineren Speicher haben ist klar. Dass es dadurch in neuen Spielen zu Engpässen kommen soll auch. So ist es nunmal. Wir haben keine Karten mit exotischen VRAM-Größen genommen, die damals nicht standard gewesen sind. Ein größerer VRAM ist nunmal auch eine Verbesserung, die mit der Zeit gekoimmen ist und die den GRafikkarten hilft.

0 FPS im Rating:
Mal ehrlich. Was würdest du denn mit dem Ergebnis in den Ratings machen? Ignorieren kann man den Wert nicht. Das ist immerhin eine "Aufgabe", die die Grafikkarten icht geschafft hat.
 
Erstmal eine "Dankeschön" für die Mühe. Ich war doch schon etwas überrascht, was aus einer x1950xtx noch raus zu holen ist. Meine schlummert schon seit Monaten im 3. Rechner vor sich hin. Für Lans immer noch gut geeignet. :D
 
Ich hab so gelacht über die ganzen ATI-Fanboys die alle samt herzhaft über die 8800 gelacht haben und über den Stromverbrauch.
Haben Loblieder auf die Kommende 2900ter gesungen, 320 Steam Prozessoren, WOW. Und dann sonnen Reinfall.
Das holt echt Erinnerungen hoch ;). Ein Kumpel war vor dem Start der 8800GTX auch felsenfest überzeugt das 512bit Interface,320 Unified Shader, Ringbus etc. etc. die GF8 in Grund und Boden stampfen werden. Als dann der Test hier aufschlug: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-8800-gtx-test.614/
Wurde er dann ganz leise und klein.:lol: Ach, sie hat ja doch unified Shader(wie gemein von NV das bis zur letzten Sekunde zu verheimlichen:daumen:), und kein Spiel zwingt sie auch nur ansatzweise in die Knie...
Die Reaktion in den Foren ist auch ein Teil IT Geschichte: https://www.computerbase.de/forum/t...er-neue-koenig-unter-den-grafikkarten.232914/
Nichtsdestotrotz war der Hype(genauso wie bei 4870 512) um die HD 2900XT so groß das man dann doch noch auf die Tests der Karte gewartet hat. In der Hoffnung noch mehr Leistung zu erhalten!
Wenn die Geschichte eins zeigt, dann das man nichts Hypen sollte. Um nicht wieder massig Fehlkäufe zu beobachten sollte man die HD 5000 ganz ruhig und sachlich bewerten und den Test der GT300 abwarten bevor man seine Entscheidung trifft. Dem Kaufpreis wird das auf jeden Fall gut tun, egal für welches Modell man sich dann entscheidet. 2 gefloppte Hypes reichen doch.

MfG Kasmo
 
Hallo zusammen,

@ Kasmopaya

Pflichte dir absolut bei, daß die Radeon 2900 XT im Vorfeld ihrer Erscheinung extrem Gepuscht wurde. Ich selbst gehörte übrigens zu denen, die extra bis Mai 2006 warteten, bis die 2900 XT erschien. Erst dann legte ich mir die Hardware aus meinem Profil zu, wobei die 8800 GTS 640 schlicht wegen ziemlicher Ernüchterung hinsichtlich der Leistung der 2900 XT gewählt wurde.

@ Unyu

Ich verstehe absolut nicht, wieso hier Fragen nach der Leistungsfähigkeit bei 16 x AA bzw. AF oder MAA gestellt werden bzw. dieser Test diesbetreffend kritisiert wird.

Denn mal ehrlich, die weit größte Mehrheit spielt mit maximal 4x bis 8x AA u. AF sowie MAA. Alles andere ist für meine Begriffe nicht Praxisförderlich. Auch stehen die Qualitätsgewinne im Verhältnis zum Performanceeinbruch in keiner Relation in praktisch allen Fällen, solange man eben nicht mehrere Multi-GPU Karten nutzt, was wiederum auch nicht Praxisnah ist.

So long......
 
Zuletzt bearbeitet:
ich war damals doch ziemlich enttäuscht von der schwachen vorstellung der x2900xt. hatte zwar ohnehin nicht vor mir so ein highendmonster zuzulegen, aber ein würdiger gegner zur 8800gtx wäre schon wünschenswert gewesen, besser noch was deutlich stärkeres, damit nvidia mit ihrem g81 hätten rausrücken müssen ;)
der wurde ja direkt abgesagt, als die ersten benches der x2900xt bekannt wurden... :(
 
Wolfgang
In CoD5 ein heftiges und in HL2 LC ein leichtes CPU Limit. Ist nicht der Knackpunkt, sondern ein Schönheitsfehler.
Deshalb eben die Verwunderung, warum der 3,2Ghz Quad. Die Erklärung "keine Lust, war nicht nötig" erscheint mir einfach seltsam.
Stände im Fazit nicht "713%" sondern "7mal" könnte man darüber auch leichter hinwegsehen.

Ich wüsste gerne wie die 0 FPS am Endrating bewertet werden. Teils sind einige Karten unendlich mal schneller als andere.

Kreisverkehr
Stimmt, von der Basis 1xAA, 1xAF ist alles hohe Qualität, was darüber liegt.
Klar, um etwas per Diagramm zu vergleichen muss es vergleichbar sein, auch wenns in dem Fall nur mit 2 zugedrückten Augen vergleichbar ist. Hier in dem Fall ok, es wird darauf hingewiesen.
Aber: Warum muss das Fazit aus Benches erfolgen? Ein Fazit besteht zumindest hier meist aus Worten.

rumpel01
Auf diese Worte:
"Die Settings mit 8xQ, die ich als ScheinHQ Verurteile werden in Wirklichkeit gemeinsam mit 4x unter "Qualität" gelistet. Dies ist korrekt, aber nach 2 Posts im Forum erkennt es ein Blinder, wie die Leser dies auffassen: "Karte XY ist bei hoher/höchster Qualität besser als bla""

hast du mal dies geantwortet:
"Wenn die Leute die Texte nicht lesen und v.a. auch die immer wieder verlinkten Berichte zu den unterschiedlichsten AA-Modi (s.o.), dann kann man ihnen auch nicht helfen. Ich habe eher den Eindruck, dass von Deiner Seite dieser Abschnitt auch einfach gern falsch verstanden werden möchte."


Genau hier haben wir so einen Fall, ich habe darauf hingewiesen und du kritisierst den Hinweis auf etwas, was es angeblich gar nicht gibt.

Lübke
Es geht mir nicht darum warum es drin ist (zumindest jetzt, weils den Rahmen sprengen würde), sondern das es als hohe Qualität von vielen betitelt wird.

Luxmanl525
Du hast "hohe bis höchste Einstellungen" geschrieben.
Da sind auch unsinnige Einstellungen möglich, Hauptsache das maximal mögliche ist aktiviert. Also etwas, was man aus dem Test nicht sieht, was du dennoch behauptest.
Jetzt machst du einen Rückzug indem du schreibst wie die Mehrheit spielt.
 
Hallo zusammen,

@ Unyu

Vielleicht habe ich mich etwas mißverständlich ausgedrückt. Doch ist meine Meinung, daß nur Praxisübliche Testeinstellungen gefragt sind, welche die große Mehrzahl der Spieler bevorzugen. Und dazu gehört mit Sicherheit nicht 16 x AA etc..

Ansonsten habe ich gerade nochmal mein letztes Statement studiert, also mir ist Schleierhaft, wie du darauf kommst, daß ich etwas von "hohe bis höchste Einstellungen" geschrieben habe, das ist Falsch. Du mußt mich da mit jemand verwechseln, ansonsten wäre ich dankbar, wenn du mir mitteilen würdest, wo ich das geschrieben haben soll, ich stehe da nämlich jetzt echt etwas auf dem Schlauch, ist nicht Böse gemeint übrigens.

@ Kreisverkehr

Du hast Recht, ich habe das mit dem IDLE-Stromverbrauch bei der Radeon 4870/4890 verwechselt. Vielen Danke für deinen Hinweis. Hatte ja schon um die Hilfe der Radeon 4870 Nutzer gebeten, da ich da nicht so Up To Date bin.

So long....
 
Kasmopaya schrieb:
Das holt echt Erinnerungen hoch ;). Ein Kumpel war vor dem Start der 8800GTX auch felsenfest überzeugt das 512bit Interface,320 Unified Shader, Ringbus etc. etc. die GF8 in Grund und Boden stampfen werden.

Laut den vorher bekannten Daten war das aber auch teils verständlich. Wenn AMD schon ATI gekauft hat, sich die Entwicklung stark verzögert und weit später als der G80 aufn Markt kommt, muss theoretisch was gutes/besseres rauskommen... Vor allem bei den Daten.
Tja, ich wollt mir zu der Zeit auch ne Karte kaufen, hab bis zu den Benches der XT gewartet und gehofft, dass da etwas dem Hype entsprechendes folgte, und was war?
Die pure Entäuschung. Ein gutes hatte es aber: Man konnte beruhigt zur GTS 640 greifen...

Irgendwie hab ich dann doch keine Karte gebraucht und hab gewartet, bis ich ne neue Karte gebraucht hab.

@ Unyu

Du solltest eigentlich wissen, wie es gemeint war. Das Fazit besteht aus Worten, die einen text ergeben und der Inhalt des Textes wird durch die vorher durcheführten Benchmarks festgelegt.
Es ist bei der Vergleichbarkeit eh schwierig, wenn 4xMSAA ähnlich ist, bei Nvidia 8xAA nicht lohnt (weil kaum besser, aber teurer), bei AMD hingegen doch 8xAA recht wenig kostet und besser aussieht.
Das Ganze muss halt irgendwie vergleichbar sein und bei den alten Karten is das auch das Maximimum der Gefühle.
 
Irgendwas stimmt beim Oblivion Test nicht. Die Leistung erscheint zu gering.

https://www.computerbase.de/artikel...20-oc-roundup.643/seite-11#abschnitt_oblivion

Dort wurde eine 8800GTS gebencht. Dort zeigt sie eine deutlich höhere Leistung auf 1600x1200 als in diesem Test auf 1680x1050, wobei diese Auflösung sich Leistungmäßig nicht viel geben müssten. Sind die Treiber schlechter geworden oder wie? Ich meine allgemein erscheinen die Leistungen aktuellster Karten zu gering zu sein, wenn man bedenkt, dass ich auf fast max Details (ohne HDRR und AA&AF) mit einer 7600GS auf 1280x1024 das Game ordentlich zocken konnte. Ich muss selbst mal Oblivion wieder aufspielen und mal schauen. Auch andere Karten waren früher anscheinden ein Stück besser bei Oblivion.
 
Vielen, vielen Dank für den Test. Endlich kann ich meine gute alte 1900XT besser mit aktuellen Modellen vergleichen. :)
 
Luxmanl525
Post #184, dritter Absatz, erster Satz

Lübke

Besonders weil alte Karten gar kein 8xMSAA können wirds lustig. Macht durch die Bank 0 FPS, also eine unendliche Leistungssteigerung durch jede neue Karte.
 
Hallo zusammen,

@ Unyu

Jetzt bin ich aber mehr als Irritiert. Denn dieses Statement stand in einem ganz anderen Kontext. Denn es ging um die Frage im Kern, wieso die Radeon Karten bei höheren Auflösungen besser Abschneiden als die Geforce-Karten. Also eine völlig andere Thematik. Und diese Formulierung habe ich bewußt wegen der bei Radeon besseren Kompression gewählt, da deren Vorteile bei solch eher unüblichen Einstellungen viel stärker zu Tage treten. Dabei beziehe ich mich aber eher auf Neuere Karten, da ältere Karten bei solchen extremen Einstellellungen trotzdem ab 8 x AA unspielbar bleiben.

Du hast da echt einen falschen Bezug bzw. Kontext hergestellt.

Ansonsten hast du mit dem Hinweis für @ Lübke recht, denn MSAA ist eine relativ Neue Filtereinstellung.

So long....
 
Zuletzt bearbeitet:
Denn es ging um die Frage im Kern, wieso die Radeon Karten bei höheren Auflösungen besser Abschneiden als die Geforce-Karten.
Tun sie ja nicht mal - mit der üblichen 8xMSAA-Ausnahme. GTX275/285 immer vor HD4890 und bis auf 25x16 mit 4x ist die GTX260 durchgehend vor der HD4870 :rolleyes:

 
Hallo zusammen,

@ y33H@

Du hast Recht, aber nur Teilweise. Denn bei 1920 x 1200 mittels 8 x AA & 16 x AF ist die Radeon 4890 sogar ein Stück schneller, als sie es mit 4 x AA / 16 AF bei gleicher Auflösung ist. Und mit 8 x AA überholt sie auch die GTX 285.

Dabei darfst du einen wesentlichen Punkt bei diesen Einstellungen nicht vergessen, die Radeon 4890 hat gerade einmal 512 MB Speicher. Die GTX 260 / 285 aber praktisch das Doppelte und das zeigt in meinen Augen gut die Vorteile des ATI-eigenen Kompressionsverfahrens auf.

Jedenfalls deute ich deine aufgeführten Benches so.

So long.....
 
Zuletzt bearbeitet:
Kommt auf den Spieleparcour an @ y33H@
Die neuen Benches auf PCGH sehen das etwas anders, hier rednert die HD4890 teils auf Niveau der GTX285bzw ist sogut wie immer vor der GTX275. Sims3/Call of juarez Anno1404, prototyp usw..
 
Danke Rothman das du meine Frage exakt wiederholst, scheint aber niemand zu wissen oder zu interessieren;)

mfg
 
Luxmanl525 schrieb:
Hallo zusammen,

@ y33H@

Du hast Recht, aber nur Teilweise. Denn bei 1920 x 1200 mittels 8 x AA & 16 x AF ist die Radeon 4890 sogar ein Stück schneller, als sie es mit 4 x AA / 16 AF bei gleicher Auflösung ist. Und mit 8 x AA überholt sie auch die GTX 285.

Dabei darfst du einen wesentlichen Punkt bei diesen Einstellungen nicht vergessen, die Radeon 4890 hat gerade einmal 512 MB Speicher. Die GTX 260 / 285 aber praktisch das Doppelte und das zeigt in meinen Augen gut die Vorteile des ATI-eigenen Kompressionsverfahrens auf.

Jedenfalls deute ich deine aufgeführten Benches so.

So long.....
1024MB ;)
https://www.computerbase.de/artikel...karten-test.1037/seite-2#abschnitt_testsystem


@Wolfgang
sehr schöner Test :)
 
Zurück
Oben