Test Test: 10 Grafikkarten für DirectX 11

Cempeg
Das ATI Radeon muss weg, den es impliziert das es wirklich immer 20FPS sind. Tatsächlich sind es 20FPS dank CPU Limits des 3,87Ghz i7, was nicht ausschließt das es weniger FPS sein können.

Schinzie schrieb:
Wo ist bewiesen, dass sie "cheaten".
Immer noch hier.
http://www.pcgameshardware.de/aid,7...11-Techdemos-von-AMD/Grafikkarte/Test/?page=3

"Beim Testen der High-End-Grafikkarten, von denen man erwarten kann, dass sie hochwertige Texturqualität liefern, stießen wir auf Ungereimtheiten in einem oft gebenchten und daher besonders optimierten Spiel: Crysis Warhead. Die IHVs reduzieren zugunsten der Fps die anstehende Arbeit. ...."

Du kannst auch gerne den ganzen Abschnitt lesen.

Zudem kommst du tatsächlich her, und behauptest Falsches, indem du es als Tatsache darstellst, dass AMD Karten keine Physikberechnung könnten
Dazu hätte ich gerne einen eindeutigen Link.
Anfangs bei unserem Treffen hier wollte ich auf reale Situationen hinaus. Real, also wirklich greifbare Dinge. Nichts, was nur möglich ist wenn erst xy passiert.

Btw hab ich mir jetzt extra nen Thermi ins System geschnallt und kann sehr wohl gut vergleichen was fürn Mist du hier schwätzt.
Die Verunglimpfung des Fermi hat nichts mit dem Thema zu tun. Es ging nicht lediglich um die Geforce 400.

wo ist es Fakt? Sie filtern nicht ganz so aufwendig wie Nvidia, das ist fakt. Wo ist bewiesen, dass sie "cheaten". Wieso stellst du deine persönliche Meinung, dass eine minderwertigere Filterung "cheaten" ist als Tatsache hin
AMD spart ganz bewusst Samples und nennt es dennoch 16xAF. Ganz bewusst sparen Sie angeblich bei 4xAF weniger. Im Grunde genommen habe ich das schonmal geschrieben, das es mir um Crysis geht, wo im Besonderen extra gecheated wird.
Nur wenige Posts zuvor.

Aber ich wiederhole mich (gerne) wieder, Crysis als Benchmark ist leider so untragbar. Und wenn du genannten Link gelesen hättest wüsstest du was ich meine.
 
Zuletzt bearbeitet:
@Unyu
Ich klicke mich durch die 3 unteren AF Beispielbilder und bekomme praktisch ein identisches Bild....gewollt?
Bei den 4 oberen Bildern spielen noch unterschiedliche FSAA Modi mit rein und sind daher für den direkten Vergleich etwas witzlos.
Das die ATI Karten keinen HQ AF Schalter haben ist kalter Kaffee von vorgestern, daher wär ein Vergleich zwischen den Standardeinstellungen interessanter gewesen.

Edit: Ok....jetzt wo ich mit meiner Nase fast am Bildschirm klebe sehe ich die Unterschiede der Bildvergrößerungen zwischen dem HQ AF der geforce Karten und der Standardeinstellung der ATI Standardeinstellung auch.

ganz grosses Kino...
 
Zuletzt bearbeitet:
@wadenbeiser
Das AF Bild der ATI ist matschiger(sieht man aber sehr gut ). Das der GTX480 und GTX285 ist identisch, weil die Filterquali gleich bleibt.
Und die vier ersten Bilder haben nichts mit dem AF Verglecih zu tuen, sonder sind reine BQ Vergleiche bezüglich des AA

edit:

Edit: Ok....jetzt wo ich mit meiner Nase fast am Bildschirm klebe sehe ich die Unterschiede der Bildvergrößerungen zwischen dem HQ AF der geforce Karten und der Standardeinstellung der ATI Standardeinstellung auch.
Welche Bilder meinst du `?
Die untersten sind kein HQ AF und die vorletzen vier sind wirklich sehr deutlich zu erkennen(der Bildqualiunterschied) .
 
Zuletzt bearbeitet:
den spieß können wir umdrehen und behaupten nvidia spart beim AA... und die diskussion geht von vorne los.... meine fresse...


gruß
 
Was aber nicht stimmt, im Gegensatz zur AF Diskussion(ist Fakt ).
 
doch, Nvidia bietet keine perfekte geometrische Glättung, das ist Fakt.


gruß
 
Airbag schrieb:
@wadenbeiser
Das AF Bild der ATI ist matschiger(sieht man aber sehr gut ). Das der GTX480 und GTX285 ist identisch, weil die Filterquali gleich bleibt.
Und die vier ersten Bilder haben nichts mit dem AF Verglecih zu tuen, sonder sind reine BQ Vergleiche bezüglich des AA

edit:


Welche Bilder meinst du `?
Die untersten sind kein HQ AF und die vorletzen vier sind wirklich sehr deutlich zu erkennen(der Bildqualiunterschied) .

ich sprach nicht von den 4 Vergleichsbilden im AA Abschnitt (ganz oben) sondern von den 4 vom Gehweg (AA/AF Mix) und den 3 von der Bildvergrößerung ganz unten.
Vielleicht habe ich die Formulierung "Quality" misverstanden aber das ändert nichts daran das ich den Unterschied erst erkennen konnte als ich mit der Nase am Bildschirm klebte, da sie bei einem Standbild und so durchmischten Texturen einfach untergehen.
 
Unyu schrieb:
Cempeg
Das ATI Radeon muss weg, den es impliziert das es wirklich immer 20FPS sind. Tatsächlich sind es 20FPS dank CPU Limits des 3,87Ghz i7, was nicht ausschließt das es weniger FPS sein können.

Deswegen steht die CPU auch in Klammern dahinter da im Text oben gesagt wird, dass es der selbigen überlassen werden muss.

Dass die Frames dann CPU-Abhängig sind, je nach verbautem Prozessor, sollte dann auch dem Durchschnitts-User klar sein.

Zumindest kann man dann die Benches ohne PhysX in das Performance-Rating aufnehmen
und die mit PhysX zeigen dann die entsprechende Leistung der nVidia's untereinander.

Somit ist alles klar aufgeführt und verhindert, dass hier immer wieder Kindergarten ausbricht. :rolleyes:
 
Zuletzt bearbeitet:
Ich denke nicht, dass wir hier eine AF Diskussion mit Polemik aufkommen lassen sollten.
Soll doch jeder meinen was er will.:rolleyes:
Fakt ist AMD filtert etwas schlechter wie Nvidia und wer meint dass der Unterschied so schlimm ist, greift zur Nvidiakarte und dann ist die Wurst gegessen.:)

Unyu schrieb:
Das ATI Radeon muss weg, den es impliziert das es wirklich immer 20FPS sind. Tatsächlich sind es 20FPS dank CPU Limits des 3,87Ghz i7, was nicht ausschließt das es weniger FPS sein können.

Kapier ich nicht, was du meinst, warum sollte dann eine Info weg?
 
@cempeg

finde deine idee sehr gut.
wenigstens einer, der sich darüber sinnvolle gedanken macht.
hoffe mal, das wird auch mal so oder ähnlich umgesetzt werden.

mfg

p.s.
ein besseres AF muss ATi wirklich langsam mal geschi**en bekommen.
sauerei sowas.
 
Ihr tut grad alle so, als sei das AF von AMD unansehlich... habt ihr schon mal einen bewegten Vergleich gesehen?


gruß
 
Ich habe derzeit eine 8800GTS 640mb in meinem Zweitrechner.
Wird dann ersetzt durch eine GTX460, da die Karte recht gut geworden ist und hoffentlich auch leise.
@ default ohne AA/AF Flimmert COD6 (besonders die Waffe und auch die näheren Texturen) deutlich stärker als bei ATI default, cheatet da Nvidia auch? :D
Das Unterfiltern in Crysis Warhead ist alleerdings im Vergleich erkennbar, wenn es auch sehr müsam war, den besseren Sichtbaren Unterschied (3dc Video), ähnlich hinzubekommen.
Letztendlich habe ich es dann geschafft den Unterschied marginal zu erkennen.
Bug Wellen konnte ich nur bei Nvidia Default erkennen (Crysis Warhead), ansonsten nicht.

Ich kann mir nach ewiglangen Disskussionen immernoch nicht vorstellen, dass sich jemand an dem etwas schlechteren AF stören kann, welches ich übrigens nur in Crysis und in Halfe Life 2, bzw UT3 Engines erkennen konnte.
Es sollte verbessert werden, keine Frage, allerdings halte ich alle User für Lügner, welche meinen dass der Unterschied sie dahingegend so stark stören kann, grundsätzlich keine ATI zu kaufen, natürlich ist das nicht allgemeingültig.
 
Cempeg schrieb:
Dass die Frames dann CPU-Abhängig sind, je nach verbautem Prozessor, sollte dann auch dem Durchschnitts-User klar sein.
Nun, woher soll der Durchschnittsleser wissen, das die 20FPS nicht zwingend erreicht werden, dort steht Radeon, also denkt er es wären auf jeden Fall 20.
Leicht abgewandelt passt dein Vorschlag. An den roten Balken "mit 3,87Ghz i7 theoretisch möglich" schreiben.

Schinzie schrieb:
doch, Nvidia bietet keine perfekte geometrische Glättung, das ist Fakt.
Nein ist es nicht. Wir wissen zwar das du ein Vorreiter der 8xMSAA ohne TAA Flotte bist.
Aber, Nvidia spart keine Samples bei 8xMSAA.

Das ist ein ganz anderes Thema und hat, Achtung ich wiederhole mich, mit Crysis nichts zu tun. Crysis.
Nichts aber blalbal. Crysis ist unbrauchbar, dies habe ich hier offengelegt. Will oder kann dies keiner eingestehen?

Schaffe89 schrieb:
Fakt ist AMD filtert etwas schlechter wie Nvidia und wer meint dass der Unterschied so schlimm ist, greift zur Nvidiakarte und dann ist die Wurst gegessen.:)
Ich hätte es zwar gerne das die wertlosen Q Benches der Geforce verschwinden.
Oder zumindest das man den HQ Fähigkeit im Fazit aufführt, wo sich doch der ganze Test um 16xAF dreht das absolute Minimum.

Ich muss zwar deinem Vorschlag nachkommen, bzw die Alternative "nichts tun" anstreben, aber so recht gefallen kann dies nicht.
Regelmäig wird etwas heruntergespielt oder überlesen, so wie Crysis. Dann kommt die persöhnliche Wertung, es sei nicht so schlimm. Ja da kann man nichts entgegnen, wenn es um Tatsachen geht.
Da will man sagen warum Crysis wertlos ist und was ist die Querantwort eines Quereinsteigers der Diskussion? - Ich sehe nichts, du hast unrecht.

Schinzie schrieb:
Ihr tut grad alle so, als sei das AF von AMD unansehlich...
Gar nicht. Seit gefühlten 100 Posts gehts um Crysis, aber irgendwie haben andere Personen einen Wortfilter, der Worte wie Crysis filtert.
Und da du mir auf Crysis wieder nicht antworten wirst hat sich dies für mich erübrigt.
 
Zuletzt bearbeitet:
Bildqualiunterschied) .

ich sprach nicht von den 4 Vergleichsbilden im AA Abschnitt (ganz oben) sondern von den 4 vom Gehweg (AA/AF Mix) und den 3 von der Bildvergrößerung ganz unten.
Vielleicht habe ich die Formulierung "Quality" misverstanden aber das ändert nichts daran das ich den Unterschied erst erkennen konnte als ich mit der Nase am Bildschirm klebte, da sie bei einem Standbild und so durchmischten Texturen einfach untergehen.
Die meine ich auch. Auf dem Gehweg geguckt, ist es deutlich. --> Siehe ganz hinten der Mitte.
Bei den drei Bildern ist es für mich auf den ersten Blick sofort erkennbar.
doch, Nvidia bietet keine perfekte geometrische Glättung, das ist Fakt.
Wenn man es so sieht ja. Nru das SSAA+ED_CFAA in der Regel unspielbar ist, außer vielleicht bei alten Schinken, deren BQ dadurch auch nur bedingt gehoben wird.
 
@CB-Redaktion

Gut gemachter und breit gefächerter Test der DX11-Generation. :daumen:

VORSCHLAG bzw. eine Bitte meinerseits: :)
Könnt ihr als Update des Artikels eure Ergebnisse der GTX460-Review miteinfließen lassen?
Dann wäre es der aktuell perfekte Überblick zum Vergleichen oder für eine Kaufentscheidung. :D
Gruß, Alexxander.
 
Wie bereits gesagt sind diese Bilder ein Mischmasch aus FSAA und AF. Wie ebenfalls im Text steht "Mithilfe von Supersampling-AA lässt sich der AF-Grad weiter erhöhe" und genau das wurde darin untersucht.
Nun die Preisfrage:
Womit wurden die "1x AF (trilinear)" und "16x AF" Bilder geschossen? Mit der Geforce um die es in dem Artikel auch ging?

Mag sein das ich an ATIs Darstellung schon zu sehr gewöhnt bin aber im direkten Vergleich zwischen den unteren 3 Bildern fällt mir beim genaueren Hinschauen auch auf das die in meinen Augen störenden weissen Pixel nach hinten hin weniger geworden sind.

Geschmackssache?
 
@Unyu

was willst du? ich habe doch bereits gesagt, dass AF leicht schlechter filtert als Nvidias HQ, und insbesondere bei Crysis fällt es auf. Das ist aber immer noch kein cheaten, dass Nvidia mehr filter, bzw AMD weniger.

Mit dem AA meinte ich EDAA, Nvidia bietet nichts vergleichbares, punkt. Weder per zusatztool, noch per hacks, noch per nichts.

gruß
 
@wadenbeisser
Die ersten zwei Bilder mit 1*AF und 16*AF wurden sicherlich logischerweise mit Standard AF und MSAA gemacht.

edit:
TAA oder AAA kann auch nicht an sein bzw. beeiflusst den Gehweg auch nicht.
 
Zuletzt bearbeitet:
hi @ CB
ich finde das es euch gelungen ist die DX11 Katen gut darzustellen und ihr habt es geschaft die Karten gut untereinander vergleichbar zu machen. Aber dennoch muss ich sagen finde ich es sehr schade dass die DX11 karten zwar untereinander auf herz und Nieren getestet wurden aber die vergleichspunkte zu den älteren generationen zu wenig sind um wirklich ein gefühl für die vor mir liegenden Zahlen zu vermittelnl. Was konkret bedeuten soll da wo es wirklich wichtig und richtig ersichtlich gewesen währe habt ihr ne 4870er oder ne 4890 ausen vorgelassen. Vielleicht könnt ihr ja noch einen test hinzufügen und die fehlenden Daten noch ergänzen.
Eine frage hätte ich da noch es ist doch möglich eine DX 11 karte unter DX10 oder 10.1 laufen zu lassen oder? Wie schneiden die von euch getesten Karten denn da ab dies würde auch wieder neue vergleichs Punkte ergeben ;-) also macht weiter so
:D:D:D:D:D:D:D:D:D:D:D:D:D:D:D;);)

cu msz
 
Zurück
Oben