News ATi-Karten nun in Unreal-Engine-3-Spielen mit AA

Ich denke schon, dass eigentlich alle mit nativer Auflösung spielen.
Aber AA finde ich schon wichtig. Gerade jetzt, da die Grafik immer besser und realitätsnäher wird, stören mich die Kanten schon. Sicher das sind nur Details, aber mit AA finde ich die Grafik meist erheblich besser.
 
Ich muss gestehen, dass ich gar bei den Screenshots gar keinen echten unterschied erkennen kann. Aber vielleicht lassen meine Augen im "hohen Alter" auch schon nach :rolleyes:
 
Da muss man ja mit der Lupe drann um nen Unterschied zu erkennen... ich find den treppeneffekt auf diesen Screens viel zu kantig...
da nehm ich lieber die schnelleren FPS mit!

abgesehen davon hat ich noch nie nen PC wo man sich bei aktuellen spielen trauen konnte AA überhaupt einzuschalten, eventuell mal auf 2x aber 4x geht mal garnicht.
Hab übrigens ne HD3870 jetzt drinne (90003d Marks mit meinem A64 X2 2,74GHz)
 
@ Latino Ramon

Du hast aber schon mitbekommen, dass die 9800GX2 zu heiß wird, Nvidia muss die Taktraten runter schrauben (7950GX2). Außerdem, muss man ATI eines lassen, sie haben keinen Doppeldecker gebaut!!! Was meiner meinung nach viel interessanter ist, aber naja. Typischer Fanboy beitrag!!!
 
Ich finde NV 4x und 8x sind irgendwie sehr ähnlich - aber weder besser noch schlechter. Nur der Blickwinkel hat sich minimal verändert, aber von der Qualität sehe ich keine Unterschiede.
 
Schon genial, selbst auf Screenshots kaum ein Unterschied auszumachen, im Spiel dann wohl gar keiner aber die Framerate halbiert sich fast! (bei nvidia jedenfalls) :D
 
hardycom schrieb:
Aber AA finde ich schon wichtig. Gerade jetzt, da die Grafik immer besser und realitätsnäher wird, stören mich die Kanten schon. Sicher das sind nur Details, aber mit AA finde ich die Grafik meist erheblich besser.

Ich spiele auch lieber mit aktiviertem Anti Aliasing. Solange das Spiel flüssig läuft, habe ich lieber glatte Kanten, als ein paar Frames mehr (die man sowieso nicht sieht).

Dass die AMD-Karten jetzt AA bei der Unreal3-Engine unterstützen finde ich toll.
Das ist nunmal die zur Zeit bedeutenste Engine und wird es sicher noch ein paar Tage bleiben. Die Leistung der Radeons war da schon immer erstklassig, nun gibt es auch noch AA.
 
Ich behaupte einfach mal, dass die UT3 Engine in der AA-Hinsicht einfach Mist ist. UT3 trickst was das Zeug hält, um die Leistung zu erziehlen.
 
Hier mal der unterschied in Bioshock

4AA/16AF


1AA/16AF
 
ok bei den Bioshock screenshots seh ich es auch :)

Naja Geschmackssache. So sehr reißt es das nun nicht gerade raus.
 
Eigentlich müsste AA bei den immer höheren Auflösungen immer unwichtiger werden oder nicht?
 
Das hört und liest man ja immer wieder, aber Kanten bleiben Kanten - egal bei welcher Auflösung.
Habe selber verschiedene Spiel bis zu einer Auflösung von 1920x1200 gesehen und bleibe dabei:
Für mich ist AA wichtig und macht das Bild einfach runder.
 
Ich habs bei der Beta von Frontlines:Fuel of War getestet und der visuelle Unterschied ist gewaltig, weil im Spiel so viele Leitern, Überlandleitungen und Zäune vorkommen - allerdings verliert man bei 4xFSAA ca. 50% (bei 1680x1050 von 60 auf 30 fps) der Frames und es wird unspielbar.
Mal sehen inwieweit die Performance noch steigt beim Release.

http://community.kaosstudios.com/showthread.php?t=4505

Scrollt runter zu #14 , da seht ihr Screenshots.
 
Zuletzt bearbeitet:
Ja ich würd auch gern mal AA benutzen aber mit 1680x1050 ohne AA schon nur 40fps zustande kommen und mit 2xAA alles nur noch ruckelt und der Unterschied zu 1280x800 sich um 5 - 10 fps dreht... ich finds einfach Sinnlos mit <30fps, man kann noch so aktuelle Hardware haben ohne SLI und den neusten CPU ist da nix zu machen und nach 6 Monaten ist die hardware spätestens dann auch so alt das man schonwieder runterdrehen darf.
(CoD4 hab ich mal probiert mit der neuen HD3870... also erstmal AA aus weils mit 20 frames lief, dann warns knapp 30 und dann alle Details runter... dann wars flüssig sieht aber Scheisse aus -.- und der Dual Core dümpelt mit 50-60% Auslastung vor sich hin... da hilft auch nen Quad Core nicht wenn der dann am ende mit 25% läuft! :freak: )


AA ist zwar gut vom Effekt her aber frisst einfach viel zu viele FPS
ich kann das maximal bei alten Gurken >12 Monate einschalten, aber wer spieltn so altes zeug noch? Ich jedenfalls nur in seltenen fällen und halt bei online shootern.
(wobei ich selbst bei BattleField 2142 noch kein AA einschalten kann!)

Ich find einfach die Spiele Hersteller sollten mal etwas mehr luft für nicht ganz so high endige Grafikkarten lassen dass man da mal AA benutzen kann mit und Dual Core endlich mal RICHTIG nutzen!

Das einzige Spiel das mein DualCore bis jetzt auf fast 100% gebracht hat war CMR Dirt!!!
 
Und wann kommen die ersten Erweiterungskarten mit eigenem AA/AF-Berechnungschip? :D
 
ZeroBANG schrieb:
Das einzige Spiel das mein DualCore bis jetzt auf fast 100% gebracht hat war CMR Dirt!!!

Dirt profitiert auch ganz gut von nem Quad aber UT3 lasstet einen Dualcore auch zu 100% aus zumindest bei mir oder auch MoH Airborne.
 
Also ich merke keinen großen unterschied zwischen 1x und 8x AA. Bei einem schnellen spiel wie UT3 wird das auch keinem auffallen. Sinnlose einstellung finde ich.
 
towa schrieb:
Fein vor allem die Performance der X2 ist der Hammer!
Aber 8x AA sieht bei der ATI Karte auch noch geringfügig besser aus, im Gegensatz zur NV!

naja ich finde es eher endtäuschend. Die X2 ist schon besser das ist keine Frage, aber wie siehts aus, wenn man 2 8800ULTRA im SLI gegen die X2 antreten lässt? Was rein Kern Technisch gesehen fär währe.

Freue mich auch schon auf den G100.:D Ich bin eher der Typ, der mehr Wert auf Leistung legt, anstatt aufs Geld zu schaun. Klar, dass man sich nicht alles leisten kann.

mfg
Tobi
 
Zurück
Oben