Warum gibt es in den CB Artikeln immer nur verkrüpelte AA Tests?

Unyu

Banned
Registriert
Okt. 2004
Beiträge
6.891
Die Frage ist ernst(gemeint). :)


Warum wird in den CB Tests immer nur wenns hoch kommt maximal 8x MSAA geneommen?

Ich meine den Schalter um AF aufzudrehen habt ihr Jungs schon gefunden, aber warum nur verkrüpelte AA Einstellungen?

Es gibt da draussen so viele interessante AA Modi:
-MSAA
-T-SSAA/AAA
-SSAA + Hybridmodi
-CSAA/CFAA
-dann noch die SLI/CF Modi


CB 8800GTX-Artikel schrieb:
16xCSAA soll dieselbe Optik wie 16xMSAA aufweisen, jedoch nur einen leicht höheren Geschwindigkeitsverlust als 8xMSAA haben.
Ja warum wird dann nicht CSAA statt dem gameligen 8xMSAA genommen?
Ich persöhnlich brauche gar kein MSAA mehr, außer noch in verbindung mit SSAA in den Hybridmodi.


Also warum?
Weil:
- zu aufwändig -> dafür kann man unnötige Tests mit 1280*1024 mit 1xAA/1xAF weglassen
- nicht jeder den AA Schalter findet -> dann könntet ihr für Tools wie nHancer werben, dort ist das alles sehr einfach erreichbar
- nicht vergleichbar -> gut damals wurde auch immer ATIs 6xAA mit NVs 8xAA verglichen, also kein Thema
 
es geht doch gar nicht darum was besser ist in der praxis, die test sollen die leistung der graka präsentieren
dazu muss das ganze aber auch mit der konkurrenz vergleichbar sein
gegen was willst du denn das csaa testen?

gleiches bei tsaa/aaa, die arbeiten bei beiden herstellern nicht gleich
du müsstest ja jedesmal die qualität mitbewerten und nicht nur die balkenlänge, das würde glaub ich einigen lesern schwer fallen ;)

man kann ja auch nicht einfach nur mit tsaa/aaa benchen (wurd ja mal ne zeitlang gemacht)
denn bei anspruchsvollen spielen brechen die frames so derbe ein das das ergebnis gar nicht mehr relevant ist
wogegen bei diesen spielen normales msaa noch nutzbar ist

und noch zusätzlich mehr einstellungen zu benchen wäre wohl ein extremer aufwand

ich finde es ganz gut wie momentan getestet wird und bin froh das man von tsaa tests mit einstelligen fps wieder weg ist
 
Ja, es gibt sooo viele schöne AA-Modi, und wenn du diese alle haben möchtest, bringen wir pro Jahr noch ein Review raus ;)
Dies wäre ein unglaublicher Zeitaufwand, nein danke. Und 1280x1024 können wir auch nicht so einfach rauslassen, dafür nutzen die Auflösung noch zu viele, zudem ist diese für die langsameren Grafikkarten wichtig.

Und selbst wenn, CFAA, CSAA, was weiß ich für ein AA, mit was will man die denn vergleichen? Untereinander, ATi und Nvidia, wäre ja kein Problem, ansonsten wäre da aber absolut nichts machbar. Sicherlich auch für den ein oder anderen langweilig.

Und gammelig ist 8xMSAA sicherlich nicht - es ist die Zukunft. 4xAA wird alt und irgendwann sicherlich durch 8xAA abgelöst werden - es sieht einfach besser aus, so ist es nunmal. Und CSAA und co. sind auch längst nicht immer das Gelbe vom Ei.
 
Ja die Leistung in der Praxis ... wozu dann 8xMSAA, wenn oft 16xCSAA schneller ist und besser aus sieht?

Natürlich ist die Vergleichbarkeit schwer, aber stattdessen einfach nur MSAA zu vergleichen ist imho falsch, auf diese Weise macht man sich den Test zu leicht.
btw AF wird auf die selbe Stufe gestellt, 100% ig Gelich ist auch dies nicht.

Weil was bringt die Erkenntniss, wie schnell die Karte bei 8xMSAA ist wenn es zum selben Preis auch ein besseres Bild gibt?
Man sollte immerhin darauf hinweise, das ein besserer AA Modus zur Verfügung steht, der deutlich effizienter ist.
Im Grunde genommen macht MSAA nur noch als 2x oder 4x Sinn, dadrüber braucht dies kein Mensch ... zumindest bei nv.


bensen schrieb:
gegen was willst du denn das csaa testen?
Ja schwierig, wie wärs mit 16xCSAA gegen ATIs 8xMSAA?
Das dürfte auch einigen zu denken geben.


Natürlich geht es um den Leistungsvergleich, aber was nützt es wenn die Karten am CPU Limit vor sich hindümpel, oder wenn veraltete ineffizente AA Stufen verwendet werden?


Wolfgang schrieb:
Und 1280x1024 können wir auch nicht so einfach rauslassen, dafür nutzen die Auflösung noch zu viele, zudem ist diese für die langsameren Grafikkarten wichtig.
Ich meinte diese Auflösung in Verbindung mit ausgeschalteten AA/AF, zumindest bei schnellen Karten, weil ein CPU-Limit zu bestaunen ist langweilig.
 
Zuletzt bearbeitet:
Unyu schrieb:
J
Weil was bringt die Erkenntniss, wie schnell die Karte bei 8xMSAA ist wenn es zum selben Preis auch ein besseres Bild gibt?
anders gefragt: was bringt dir 16xcsaa im test wenn die performance gleich wie bei 8xmsaa ist:D

ist doch gar nicht so schlecht mit den "standard-modi"
die performance der anderen modi kann man sich dann ja grob in dem 8800gtx artikel herleiten

vll. kommt ja irgendwann nochmal ein aktueller artikel wo alle AA-modi durchleuchtet werden
aber für jeden graka-test kann ich schon verstehen das da die standard-modi genommen werden

und eine cpu-limitierung seh ich eigentlich nur bei prey
 
Zuletzt bearbeitet:
1.) Meiner Meinung nach ist sogar das 8xAA zu hoch. Wozu denn bitte in so hohen Qualitätsauflösungen testen, wo man schon 10% mehr Leistung reinschießen muss und immer noch nichts sieht. Ich denke 1xAA und 4xAA sind ganz Ok und bei den Auflösungen 1280x1024 ,1600x1200 und 2560x1600. Das passt schon so. Wenn man wirklich in die Lage kommt, dass man 16xAA und AF bei höchster Auflösung (sonst macht es ja keinen Sinn) und allen Details einzuschalten, dann sind die fps auch schon egal. Ich stecke sicher keine 200 Euro mehr in eine neue Karte, damit ich statt 4xAA 16xAA habe.

2.) Wie schon gesagt wurde, kann man die Ergebnisse überhaupt nicht mehr vergleichen, weil man mit freiem Auge überhaupt nicht mehr beurteilen kann, welches Bild besser aussieht. Nur weil die Modi gleich heißen, müssen sie nicht die selbe Qualität produzieren. Mehr als 4xAA ist für uralte Spiele vorgesehen, wo die Leistung eh schon egal ist, aber wo die Auflösung z.B. auf 1280x1024 begrenzt ist bzw. weil man einfach zeigen möchte, was möglich ist, aber das ist komplett realitätsfern.
 
Konkretes Beispiel:
https://www.computerbase.de/2008-01/test-nvidia-3-way-sli-triple-sli/10/#abschnitt_f_e_a_r
Wen jucken diese 300fps?


Zur Vergleichbarkeit:
AMD Karten werden auch immer mit AI getestet; In wie weit ist das wirklich vergleichbar?
Exakt gleiche BQ ist auf beiden Seiten nicht machbar.


Wolfgang schrieb:
Und gammelig ist 8xMSAA sicherlich nicht - es ist die Zukunft. 4xAA wird alt und irgendwann sicherlich durch 8xAA abgelöst werden - es sieht einfach besser aus, so ist es nunmal. Und CSAA und co. sind auch längst nicht immer das Gelbe vom Ei.
Wenn ich jetzt mit Crysis ankomme;
Mit MSAA kommt man da auch nicht weit, es hilf nur der SSAA Knüppel.


Niemand will dir mehr Arbeit aufhalsen. ;) Ich will nur auf eine nicht ideale Situation hinweisen, die mir auf der Seele brennt.


bensen schrieb:
anders gefragt: was bringt dir 16xcsaa im test wenn die performance gleich wie bei 8xmsaa ist:D
Gut stimmt. :D


bensen schrieb:
aber für jeden graka-test kann ich schon verstehen das da die standard-modi genommen werden
Da fragt sich:
Was sind die Standard Modi?


bensen schrieb:
die performance der anderen modi kann man sich dann ja grob in dem 8800gtx artikel herleiten
Da fragt sich:
Wer macht das schon? ;)

Die Meisten sehen nur:
"Ah in 1280*1024 bekomme ich 300fps 1111!!!! Das lohnt sich erst ab 2xxx*1xxx."


bensen schrieb:
vll. kommt ja irgendwann nochmal ein aktueller artikel wo alle AA-modi durchleuchtet werden
Das würde für Abkühlung sorgen. :)


andr_gin schrieb:
1.) Meiner Meinung nach ist sogar das 8xAA zu hoch.
Nur weil du keinen Unterschied siehst.
Wie schon geschrieben ist
200€ mehr ausgeben muss auch niemand, denn es gibt genug Spiele, in denen man auch mit schwachen Karten deratige Qualität haben kann.

Mit einer 200€ Performance Karte sind es soagar noch mehr.


andr_gin schrieb:
Mehr als 4xAA ist für uralte Spiele vorgesehen, wo die Leistung eh schon egal ist, aber wo die Auflösung z.B. auf 1280x1024 begrenzt ist bzw. weil man einfach zeigen möchte, was möglich ist, aber das ist komplett realitätsfern.
Was ist daran realitätsfern in alten Spielen die Leistung für Bildqualität zu nutzen?
Wie gesagt, auch in neuen Spielen ist mehr als 4x durchaus drin.

16xAF kostet seit der 8800 auch kaum Frames und wird immer mitgetestet.


andr_gin schrieb:
Wenn man wirklich in die Lage kommt, dass man 16xAA und AF bei höchster Auflösung (sonst macht es ja keinen Sinn) und allen Details einzuschalten, dann sind die fps auch schon egal.
Warum sind fps dann egal?
Außerdem machen qualitäts verbessernde Features sehr wohl unter niedrigen Auflösungen Sinn.
 
Unyu, Du scheinst ja sehr viel über dieses Thema zu wissen, weit mehr als ich.
Hast Du schon einmal daran gedacht, einen kleinen Text oder gar eine FAQ dazu zu schreiben?
Damit könntest Du sicher vielen Leuten die Materie etwas näher bringen, bei vielen ist Kantenglättung gleich Kantenglättung und damit basta, zB. bei mir.
Mich wundert es nur immer, wenn ich zB. in Stalker Kantenglättung reinmache aber kaum etwas davon merke, weil viele Kanten immer noch pixelig sind.
Ich will Dir hier sicher nichts aufs Auge drücken, war nur eine fixe Idee.
 
@Unyu
ok triple sli ist was anderes
da würde ich auch höhere modi nutzen und vll. auch 1280*1024 weglassen
ne prise supersampling könnte da auch nicht schaden :D

denn da sind ja sowieso nur die 8800Ultra getestet, ein vergleichbarkeit ist imho da nicht nötig
da könnte man dann eher zeigen was so alles tolles mit möglich ist

ich meinte da eher vergleichtests von einzelnen karten
da ist sowieso kaum mehr leistung vorhanden für höhere einstellungen
und die alten kamellen wie prey werden ja auch dann irgendwann aus dem testparcour verschwinden


ach so: mit standard-modi meinte ich stinknormales msaa
 
@Pjack
Wenn das die 3DGurus lesen. ^^
Leider treiben diese sich recht selten auf CB rum.

Ich will ja nichts ablehnen, aber nein, ich weiß nicht viel, ich kann nur die AA-Einstellungen bedienen und mir dann die BQ und FPS ansehen.

Naja anscheinend ist entweder das Interesse nicht sehr hoch, bei der Anzahl der Anworten oder niemand traut sich ... :(
Aber dafür bin ich ein paar Worte losgeworden. :)

PS. Bei Stalker gibts afaik kein MSAA in einer D3D9 Umgebung.



@bensen
Ja die dicksten Brummer mal zu forden wäre schon schön.

Prey verschwindet? Da kann man vorher auch noch A.N.G.S.T. kicken.
Schade das zb HL2Ep2 nicht mit drin ist. Da fetzten hohe Settings gut.

Eigentlich meinte ich auch normale Kartentests, ich brauchte nur ein extremes Beispiel. :D
Vielleicht bin ich auch oft von älteren Spielen verwöhnt. :)


Aber teilweise überraschen die Testsettings schon arg:
CB 3870 Artikel schrieb:
Unter der Direct3D-10-API funktioniert bisher kein Anti-Aliasing, weil dieses nicht von der Applikation angefordert wird (technisch aber zumindest theoretisch möglich sein sollte). Deswegen verzichten wir auf die Kantenglättung in den Qualitätseinstellungen.
https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/22/#abschnitt_bioshock
Ich meine das dürfte doch nicht für Jeden gelten, das nur D3D10 interessant ist und auf AA ganz verzichtet. :eek: So würde ich mir Bioshock niemals antun, ohne AA=nogo.
Oder bin ich die Ausnahme, weil ich auch auf FarCry und HDRR nicht viel Lust hatte, weil damit kein MSAA mehr möglich war? :(



Edit:
Ich habe eh nicht damit gerechnet, das sich was ändert, aber jetzt noch etwas:

Wenn wir schon von Arbeitsaufwand und Spielbarkeit reden .... wer will dann die 7fps der 8800Ultra in bei 2560x1600 8xAA/16xAF in Lost Planet sehen? Oder die 9 einer GTX in Crysis?
Allein die Auflösung ist recht exotisch, (wer kann schon diese Aulösung nutzen?) aber die unspielbare Fremerate topt alles.

Zu TSSAA/AAA:
Ich persöhnlich habe TSSAA immer angeschaltet, auch allein weil es subjektiv gesehen sehr viel bringt. Die paar Frames weniger sind verschmerzbar, notfalls stellt man auch mal den allgemeinen AA Regler nicht ganz so hoch.
 
Zuletzt bearbeitet: (Ich hätte ja gerne einen Doppelpost gemacht.)
Unyu schrieb:

Andere Frage: Wer holt sich 3 8800 Ultra, um damit Fear zu spielen, das schon etliche Jahre auf dem Buckel hat. Die 3 Ultras holt man sich, damit man brandneue bzw. zukünftige Spiele ordentliche spielen kann. Da man die zukünftigen Spiele nicht testen kann und man auch nicht so viele aktuelle hat, die wichtig sind, muss man wohl oder übel auch mit ein paar alten Spielen testen. Den Unterschied bei der Performance sieht man da sehr gut.


Zur Vergleichbarkeit:
AMD Karten werden auch immer mit AI getestet; In wie weit ist das wirklich vergleichbar?
Exakt gleiche BQ ist auf beiden Seiten nicht machbar.

Das ist aber im Bereich von 1-2% wenn überhaupt, also sollte egal sein.

Da fragt sich:
Was sind die Standard Modi?

Die, wo die Bildqualität bei der gleichen Einstellung noch halbwegs überein stimmt und die auch noch von der breiten Masse verwendet werden.

Da fragt sich:
Wer macht das schon? ;)
Die Meisten sehen nur:
"Ah in 1280*1024 bekomme ich 300fps 1111!!!! Das lohnt sich erst ab 2xxx*1xxx."

Wenn man wirklich nur Fear spielen will, dann lohnt es sich auch nicht.

Das würde für Abkühlung sorgen. :)

Ich bin auch dafür, dass man die AA-Modi einmal durchleuchtet mit der Bildqualität und dem jeweiligen Performanceverlust.

Nur weil du keinen Unterschied siehst.
Wie schon geschrieben ist
200€ mehr ausgeben muss auch niemand, denn es gibt genug Spiele, in denen man auch mit schwachen Karten deratige Qualität haben kann.

Sag bloß dich stört der Unterschied zwischen 8xAA und 16xAA bei voller Auflösung wirklich? Solche Sorgen hätte ich gerne:D

Was ist daran realitätsfern in alten Spielen die Leistung für Bildqualität zu nutzen?
Wie gesagt, auch in neuen Spielen ist mehr als 4x durchaus drin.

16xAF kostet seit der 8800 auch kaum Frames und wird immer mitgetestet.

Ja aber bei den alten Spielen ist es nicht mehr so wichtig, ob man jetzt 4xAA oder 8xAA hat, wenn man sowieso schon in der höchsten Auflösung spielt. Wenn man aber Crysis in 1024x768 statt 1920x1200 zockt und gerade noch 2xAA dazuschalten kann, dann ist es eher interessant, doch noch etwas mehr zu bekommen. Ob ich bei Gothic2 jetzt noch ein bisschen mehr Kantenglättung habe, ist eigentlich schon wurscht.

Warum sind fps dann egal?
Außerdem machen qualitäts verbessernde Features sehr wohl unter niedrigen Auflösungen Sinn.

Ich schalte auch immer zuerst ein leichtes AA mit 2x ein, bevor ich auf die nächste Auflösung schalte, weil es einfach mehr Bildqualität bringt im Vergleich zum Verlust an Performance. Mehr als 4x AA bringen aber nicht wirklich etwas. Das wird erst interessant, wenn ich sowieso schon auf 1920x1200 bin.

P.S.: Schau dir einmal das neue Review der 3870 X2 an. Da ist der Vorsprung zur 8800 Ultra bei 8xAA um Welten schneller (+103% bei 2560x1600), aber bei 4xAA nicht mehr wirklich viel (+2%). Jetzt kann man schreien, dass die 3870 X2 viel besser mit der hohen Auflösung skaliert, aber der Gewinn an Bildqualität zwischen 4xAA und 8xAA ist nicht mehr wirklich da und selbst die 3870 X2 immer noch ordentlich Leistung verliert und ob man die Modi wirklich vergleichen kann, weiß man erst nicht.
 
Ja die Leistung in der Praxis ... wozu dann 8xMSAA, wenn oft 16xCSAA schneller ist und besser aus sieht?
Der Haken an der Sache ist, das das 16xAA aber auch öfters schlechter als 8xAA aussieht als man denkt. Das macht in einigen Spielen durchaus Probleme und bietet im Endeffekt des Öfteren eine schlechtere Bildqualität als 8xQAA. Natürlich, in vielen fällen sieht es auch etwas besser aus. Wenn, dann müsste man generell zu 16xQA greifen, um durchgängig die Qualität (oder eine bessere) von 8xQAA zu haben.

btw AF wird auf die selbe Stufe gestellt, 100% ig Gelich ist auch dies nicht.
Natürlich ist das AF auch nicht gleich. Aber im Vergleich zwischen MSAA und CSAA ist es viel gleicher.

1.) Meiner Meinung nach ist sogar das 8xAA zu hoch. Wozu denn bitte in so hohen Qualitätsauflösungen testen, wo man schon 10% mehr Leistung reinschießen muss und immer noch nichts sieht.
Vor allem in neuen Spielen sieht 8xQAA oft deutlich besser als 4xAA aus. Bei hohen Kontrasten ist das sehr gut zu sehen.

PS. Bei Stalker gibts afaik kein MSAA in einer D3D9 Umgebung.
Offiziell nein, aber der Nvidia-Treiber kann dies erzwingen und macht sich die D3D-10-Fähigkeiten vom G8x/G92 zu Nutze.
 
Was wirklich übel ist: welcher unbedarfte User weiß denn überthaupt nocht von anderen Modi, als 4* und 8*?

Ihr also wirklich vielgelesenes Magazin habt eine gewisse Verantwortung zu tragen - und nur, weil es von der Qualität her vergleichbar (wo ihr gleichsam auf das Anprangern des tendenziell schlechteren AF seitens ATi scheißt) und sowieso bequemer ist (jedes Review nach Schema F ... also bitte!) wird das noch lange nicht besser.
 
MadManniMan schrieb:
Was wirklich übel ist: welcher unbedarfte User weiß denn überthaupt nocht von anderen Modi, als 4* und 8*?
Niemand und daran wird sich auch so schnell nichts ändern.

Bei AF kennt man in Test ja auch nur noch 1x und 16x, wobei das nicht ganz so schlimm ist.


Wolfgang schrieb:
Natürlich ist das AF auch nicht gleich. Aber im Vergleich zwischen MSAA und CSAA ist es viel gleicher.
Das ist so eine schwierige Grenze. Das eine ist ok, das andere gerade nicht mehr.

Auf jeden Fall sorgt auch AI für ein unwohles Gefühl.



Wolfgang schrieb:
Wenn, dann müsste man generell zu 16xQA greifen, um durchgängig die Qualität (oder eine bessere) von 8xQAA zu haben.
Schön, warum nicht.
Auch der Modus ist nicht so viel teurer.

Wenns um die Optik geht, kommt man um T-AA eh nicht herum, mindestens ab 4x gehört es einfach eingeschaltet, zumindest im Reallife.
 
MadManniMan schrieb:
Ihr also wirklich vielgelesenes Magazin habt eine gewisse Verantwortung zu tragen - und nur, weil es von der Qualität her vergleichbar (wo ihr gleichsam auf das Anprangern des tendenziell schlechteren AF seitens ATi scheißt) und sowieso bequemer ist (jedes Review nach Schema F ... also bitte!) wird das noch lange nicht besser.

Was ist an den Optimierungen schlecht. Wenn Nvidia meint, dass sie 1% Bildqualität opfern für 20% mehr Leistung, wo ich dann in die nächste Auflösung komme, dann sollen sie das tun. Wer die perfekte Qualität will, der muss sich Cinema4D besorgen und für ein Bild eine halbe Stunde rendern. Dafür ist es dann wirklich schön. Bei Grafikkarten, zählt halt die Qualität im Vergleich zur Performance und ein Algorithmus, der zwar ein bisschen schöner ist, aber deutlich langsamer, wird eben ersetzt. Dass man nicht jede Optimierung auch ausschalten kann, liegt eben daran, weil man sonst 10 mal so viel Aufwand hätte, das alles zu testen bzw. alle Kombinationen.

@Wolfgang: Ja 8xQAA sieht deutlich besser aus, aber was nützt das, wenn es nur halb so schnell ist und ich stattdessen sogar 2 Stufen bei der Auflösung rauf kann. Da stimmt dann halt einfach das Verhältnis nicht mehr. Man kann jetzt auch 256x AA einführen, aber der Fortschritt bei der Bildqualität würde den Nachteil bei der Performance nicht mehr rechtfertigen und insgesamt sieht es dann erst wieder schlechter aus, wenn man auf 320x240 spielen muss.
 
bensen schrieb:
soll man den quatsch jetzt in jeden artikel reinmachen?
Wem es stört, der kann dies überspringen und gleich zu den Balkenlängen vorstossen.


Wenn wir schon beim schlechteren ATI AF sind: Wann wurde hier zum letzten Mal die ATI Blume angeschaut? Afaik beim R600 .... und natürlich mi AI, AI-off wurde auch nie ingame getestet, da wo es greift müsste.


@andr_gin
Die native Auflösung ist natürlich an erster Priorität.
Aber dann kommt schon AA ins Spiel.
 
Wir haben uns A.I. Off durchauch damals auch Ingame angeschaut ;)
 
Also beim HD2900XT Artikel gibst du selbst zu:
- das AI Bugwellen verursacht ;)
- das ATIs AF schlechter ist.
- das ATIs Lösung flimmernde Texturen bringt


Vergleichen, kann man eh immer nur Chips aus der selben Genaration mit dem selben Treiber. :)


Bei Crysis hat zb NV einen Vorteil durch den neuen Cheattreiber, oder ist der neue wirklich ok?


Das problem ist halt, das die AA-Features vergessen werden: Keine Seite testet mehr wirklich die Karten voll aus.


PS. Wenn wir schon mal dabei sind:
Habt ihr in ferner Zukunft vor MB durch MiB zu ersetzten, wie es die PCGH vormacht?
Immerhin wird ja auch D3D statt DX geschrieben. :)
 
Ich habe ja auch nie behauptet, dass das aktuelle ATi-AF besser ist als das von Nvidia - ist es nämlich nicht. Nvidias ist besser, aber jetzt auch nicht so massiv, dass man es jede Zeile erwähnen muss.

Nein, wir haben derzeit nicht geplant die Größeneinheiten zu ändern. Beides sind offizielle Angaben.
DirectX 10 ist zwar (leider) ebenso offiziell, aber die Bezeichnung täuscht nunmal nicht hinweg, dass nur der Direct3D-Part modifiziert worden ist.
 
Zurück
Oben