Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsATi-Karten nun in Unreal-Engine-3-Spielen mit AA
Bioshock spiele ich schon seit nem Monat mit 4xAA (Dx9), das es zukünftig auch in UT3 möglich ist oder generel in den Treiber eingefügt wurde das man AA auch mit der UT3 engine verwenden kann ist ne sehr gute Nachricht. Wenn man auf einem 19" moni zockt ist AA einfach pfilcht
sry wenn ich was übersehen habe im Text woraus, woraus ich folgende Frage hätte beantworten können. Snd die benchmarks da in DX9 oder 10 gemacht worden?
Die Wirkung von AA sieht man vor allen Dingen ganz oben links an der Häuserkante. Dass die anderen Kanten kaum geglättet aussehen, wird wohl am ungünstigen Blickwinkel liegen, da hier die Kanten der Objekte fast vertikal verlaufen. Ein Unterschied ist aber definitiv zwischen 1x, 4x / 8x vorhanden. Im laufenden Spiel wird man AA wohl viel eher bemerken, vor allen Dingen bei Auflösungen von 1280x1024 und kleiner.
Wieviel "Bestechungsgeld" hat Microsoft eigentlich Epic dafür gezahlt das das nur unter Vista gehen "darf" ?
Entweder man stellt sich als Programmierer blöd oder lässt sich schmieren anders kann ich das nicht erklären.
Oder sind die Benchmark bzw. der Nvidia Hack unter XP ?
Da das unter XP schon in der Demo nicht ging hab ich mir dieses "Spiel" gar nicht erst gekauft.
1 GPU oder 2 GPU, dass ist doch momentan egal. Bei den X2 ist sogar die Leistungsaufnahme im Idle geringer als auf der ULTRA. Ich finde das kann man schon vergleichen, wenn man nicht grad die GX2 hat! Es ist schon sehr erstaunlich wie die X2 bei 1280x1024 8xAA/16xAF der ULTRA davonläuft. Ein richtig geiles Produkt hat ATI auf den Kopf gestellt!
....Da haben wirs mal wieder! Nvidia am schummeln! tztz
schaut euch mal einen Vergleich zwischen Bild 6 von NV und Bild 6 von ATI an
Rechts bei der Werbereklame wurde der Leuchteffekt/Beleuchtung weggelassen,
was wiederrum bie ATI vorhanden ist, was bedeutet das die ATI "mehr" zutun hat als die NV
@ LatinoRoman
"Der einzig größte unterschied ist bei "1280x1024 8xAA/16xAF:"
wir sprechen von 2x GPU gegen 1x GPU... "
wir sprechen von 550€ für die Ultra vs.380€ für die X2
da ist mir egal ob 1,2,3 oder 50 GPUs der Preis zählt!
Ey ich weis garnicht was hier alle haben ... lese ich die Falschen bench daten oder was ?
Jeder dritte saugt sich irgend nen kram aussen Fingern warum die Ati doch nich so das wahre sein soll oder das die benchs unrealistisch sind bla blub....
@dahum eins ist dochmal klar ... die x2 kann das Game in wesentlich besserer Qualität flüssig darstellen als ne Ulrta .... obs da bei der mit 3000 leuten ruckelt oder nicht is doch völlig egal.
Ich find die Unreal-Engine der Valves Source Engine in jeder Hinsicht unlegen.
Da kann man ja drehen sowie man will, HalfLive2 Ep.2 oder Sin Episodes sahen trodzdem immer in jeder Einstellung praktisch besser aus!
Die Unreal Engine hat irgendwie immer so ein leichen Comic-Stil, kann man garnicht richtig erklären, aber vorallem man kriegt ihn auch nicht weg! Die Texturen sind einfach zu schwach und die ganze Grafik vergloomt nach kurzer Entfernung auch viel zu schnell.
@30 und an alle anderen Fanboys die glauben ATI sind jetzt die ersten mit 2 Chips auf einer Karte:
Man Kann auch zwei 8800GT im SLI Verbund nehmen, dann hat man auch 2 Chips.
Ganz nebenbei hat man auch einen geringeren Stromverbrauch, weniger Hitze,
weniger Lautstärke und mehr Leistung zum selben Preis.
Aber ich finde auch SLI ist keine optimale Lösung, denn die nächste Generation
von Grafikkarten im März (GT200 aka G100) wird alles in den Boden stampfen.
ähm also für 8x AA sieht der screeni schon recht mies aus. Der unterschied von 1x zu 8x ist wirklich nur mit der lupe erkennbar, zumindest auf diesem bild.