News ATi-Karten nun in Unreal-Engine-3-Spielen mit AA

Also nur mit Unreal engine.
@topic. Nice dass aa in Spielen die auf der Unreal3 Engine basieren funktioniert.
 
Zuletzt bearbeitet:
Bioshock spiele ich schon seit nem Monat mit 4xAA (Dx9), das es zukünftig auch in UT3 möglich ist oder generel in den Treiber eingefügt wurde das man AA auch mit der UT3 engine verwenden kann ist ne sehr gute Nachricht. Wenn man auf einem 19" moni zockt ist AA einfach pfilcht:eek:
 
sry wenn ich was übersehen habe im Text woraus, woraus ich folgende Frage hätte beantworten können. Snd die benchmarks da in DX9 oder 10 gemacht worden?
 
also ich merke zwischen den bildern keinen unterschied!:(
 
Die Wirkung von AA sieht man vor allen Dingen ganz oben links an der Häuserkante. Dass die anderen Kanten kaum geglättet aussehen, wird wohl am ungünstigen Blickwinkel liegen, da hier die Kanten der Objekte fast vertikal verlaufen. Ein Unterschied ist aber definitiv zwischen 1x, 4x / 8x vorhanden. Im laufenden Spiel wird man AA wohl viel eher bemerken, vor allen Dingen bei Auflösungen von 1280x1024 und kleiner.
 
Zuletzt bearbeitet:
1280x1024 4xAA/16xAF:
118.8
115.4 :lol:
Der einzig größte unterschied ist bei "1280x1024 8xAA/16xAF:"
wir sprechen von 2x GPU gegen 1x GPU...
 
Zuletzt bearbeitet:
Wieviel "Bestechungsgeld" hat Microsoft eigentlich Epic dafür gezahlt das das nur unter Vista gehen "darf" ?
Entweder man stellt sich als Programmierer blöd oder lässt sich schmieren anders kann ich das nicht erklären.
Oder sind die Benchmark bzw. der Nvidia Hack unter XP ?
Da das unter XP schon in der Demo nicht ging hab ich mir dieses "Spiel" gar nicht erst gekauft. :p
 
1 GPU oder 2 GPU, dass ist doch momentan egal. Bei den X2 ist sogar die Leistungsaufnahme im Idle geringer als auf der ULTRA. Ich finde das kann man schon vergleichen, wenn man nicht grad die GX2 hat! Es ist schon sehr erstaunlich wie die X2 bei 1280x1024 8xAA/16xAF der ULTRA davonläuft. Ein richtig geiles Produkt hat ATI auf den Kopf gestellt!
 
....Da haben wirs mal wieder! Nvidia am schummeln! tztz
schaut euch mal einen Vergleich zwischen Bild 6 von NV und Bild 6 von ATI an
Rechts bei der Werbereklame wurde der Leuchteffekt/Beleuchtung weggelassen,
was wiederrum bie ATI vorhanden ist, was bedeutet das die ATI "mehr" zutun hat als die NV

@ LatinoRoman
"Der einzig größte unterschied ist bei "1280x1024 8xAA/16xAF:"
wir sprechen von 2x GPU gegen 1x GPU... "

wir sprechen von 550€ für die Ultra vs.380€ für die X2 ;)
da ist mir egal ob 1,2,3 oder 50 GPUs der Preis zählt!
 
Zuletzt bearbeitet:
Ey ich weis garnicht was hier alle haben ... lese ich die Falschen bench daten oder was ?

Jeder dritte saugt sich irgend nen kram aussen Fingern warum die Ati doch nich so das wahre sein soll oder das die benchs unrealistisch sind bla blub....

@dahum eins ist dochmal klar ... die x2 kann das Game in wesentlich besserer Qualität flüssig darstellen als ne Ulrta .... obs da bei der mit 3000 leuten ruckelt oder nicht is doch völlig egal.

sie is trotzdem besser als ne Ulrta . Punkt
 
Ich find die Unreal-Engine der Valves Source Engine in jeder Hinsicht unlegen.
Da kann man ja drehen sowie man will, HalfLive2 Ep.2 oder Sin Episodes sahen trodzdem immer in jeder Einstellung praktisch besser aus!

Die Unreal Engine hat irgendwie immer so ein leichen Comic-Stil, kann man garnicht richtig erklären, aber vorallem man kriegt ihn auch nicht weg! Die Texturen sind einfach zu schwach und die ganze Grafik vergloomt nach kurzer Entfernung auch viel zu schnell.
 
Zuletzt bearbeitet:
@31: Wäre schlimm wen nicht! Die ATI ist quasi ne doppelte 3870,die Ultra ne einfache. In meinen Augen kein Vergleich.......


Und Nein bin kein Fanboy...die bessere Karte/Firma soll gewinnen:)
 
@30

dann nimm ne 330€ teure GTX und bring se locker auf ultra-niveau. da sieht der vergleich schon ganz anders aus ;)
 
@30 und an alle anderen Fanboys die glauben ATI sind jetzt die ersten mit 2 Chips auf einer Karte:

Man Kann auch zwei 8800GT im SLI Verbund nehmen, dann hat man auch 2 Chips.
Ganz nebenbei hat man auch einen geringeren Stromverbrauch, weniger Hitze,
weniger Lautstärke und mehr Leistung zum selben Preis.

Aber ich finde auch SLI ist keine optimale Lösung, denn die nächste Generation
von Grafikkarten im März (GT200 aka G100) wird alles in den Boden stampfen.

https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/28/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2008-01...r-einzelkarte/25/#abschnitt_leistungsaufnahme

@Topic

Ich hoffe mal stark das man bei Frontlines - Fuel of War (ebenfalls UE3) auch AA einschalten können wird...
 
Zuletzt bearbeitet:
ähm also für 8x AA sieht der screeni schon recht mies aus. Der unterschied von 1x zu 8x ist wirklich nur mit der lupe erkennbar, zumindest auf diesem bild.
 
ist das alles was die mehr bringt mit zwei chips????
 
@scorpion

1) sicher kein geringerer Stromverbrauch!!!
2) sicher nicht kühler!!! 8800GT ist der wärmste Chip überhaupt
 
AMD731 schrieb:
ist das alles was die mehr bringt mit zwei chips????

In hohen Auflösungen ist die fast doppelt so schnell wie eine 3870 und dafür ist die ja konzipiert, reicht das nicht?
 
Zurück
Oben