• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Apocalypse schrieb:
Er kann halt nicht aus seiner Haut, so sind halt unsere Gehirne, wenn sie zuviel Kontra bekommen. ;-)
Contra zu bekommen heißt nicht, dass man vorher Unsinn erzählt hat. Im Gegensatz zu vielen Anhängern von Team Grün bin ich in der Lage, mich nüchtern und objektiv mit Hardware auseinandersetzen zu können. Das heißt ich verteidige nicht automatisch bis auf das Messer den Grafikkartenhersteller meiner Wahl, obwohl es auch vernünftige Argumente für den Kontrahenten gibt (AMD).

Beispiel 1:

Geforce-Besitzer: "Path-Tracing ist für mich das Geilste überhaupt! Darum habe ich mir eine RTX 4090 gekauft. Spiele ohne diese realistische Beleuchtung sehen deutlich schlechter aus und sind daher für mich weniger interessant."

Ich: "Path-Tracing ist super. Aber selbst Spiele mit RT Lite (z.B. Avatar) können fantastisch aussehen. Es braucht dafür nicht zwingend RT Ultra oder Path-Tracing. Es gibt sogar Spiele, die ganz ohne Raytracing richtig gut aussehen..."


Beispiel 2:

Ich: "Für die meisten Gamerinnen und Gamer spielt es überhaupt keine Rolle, ob sie Hardware von Nvidia oder AMD in ihrem Rechner haben. In der Regel laufen ihre Lieblingsspiele mit beiden Herstellern einwandfrei. Zum Schluss kommt es ganz auf das P/L-Verhältnis an."

Geforce-Besitzer: "AMD ist deutlich schlechter als Nvidia. Da gebe ich lieber etwas mehr Geld aus, als dass es ständig Probleme mit schlechten Treibern gibt. FSR ist verglichen mit DLSS miserabel. Und über Raytracing brauchen wir garnicht erst zu sprechen..."


Beispiel 3:

Ich: "Nvidia hat die meisten Grafikkarten nachweislich mit zu wenig VRAM ausgestattet. Dass man zwei Jahre nach Release darauf angewiesen ist, trotz ausreichender GPU-Leistung die Auflösung und die Grafikdetails reduzieren zu müssen, ist eine Frechheit. Zumal auch Raytracing mehr VRAM benötigt..."

Geforce-Besitzer: "Aber meine Geforce hat eine deutlich bessere Speicherverwaltung als bei AMD-Karten. Außerdem gibt es bisher nur wenige Spiele, die so viel Videospeicher benötigen. Und zur Not drehe ich eben die Grafikdetails zurück."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch und Poati
Mit einer GeForce GTX 1000, Radeon RX 5000 oder älter sieht das Spiel entsprechend klar schlechter aus
... bzw. "anders beleuchtet" oder "etwas schattiger"😉

P.S.
Mir sagt allerdings "Uncharted: Legacy of Thieves" mehr zu. :daumen:
 
"Avatar: Frontiers of Pandora ist damit das erste Spiel überhaupt, das Hardware-Raytracing auf einer entsprechenden Grafikkarte immer aktiviert hat und was sich nicht abschalten lässt. Darauf hat Ubisoft die gesamte Grafik ausgelegt, der „Rasterizer-Pfad“ ist eher nur als Notlösung anzusehen. Umso interessanter ist es, dass AMD-Grafikkarten so gut mit den GeForce-Pendants mithalten können und mit zusätzlichen RT-Details nicht mehr Performance verlieren – das ist ein ungewöhnliches Verhalten."

Ihr sagt es!

Avatar ist das ERSTE Spiel, dass Raytracing SINNVOLL einsetzt und nicht nur zu Marketingzwecken und siehe da, wenn es vernünftig implenmentiert wird, sind nVidia und AMD gleich schnell.

Alles nur Geldmacherei sonst...
Und bei Avatar seht man endlich auch mal ein Mehrwert mit Raytracing und nicht nur übertriebene Spiegelungen die unrealistisch sind.
 
  • Gefällt mir
Reaktionen: ShowOff und SP-937-215
In den Upper Plains sinken die FPS aber Rapide ab... mit meiner 4090 musste ich von DLSS Quality auf Balanced gehen um wieder bei 60+ fps zu landen... echt übel.
 
WebBeat84 schrieb:
und siehe da, wenn es vernünftig implenmentiert wird, sind nVidia und AMD gleich schnell.
So wie die 4080 16% schneller als die 7900XTX ist, obwohl sie ansonsten ohne RT eher 3-4% langsamer ist ?

Die 4090 ist 52% schneller, wo es ohne RT eher 30% sind.
Sie ist hier sogar weiter vor der 7900XTX als im aktuellen RT-Ranking von CB(48%)

Die 4070 ist normalerweise gleichauf mit der 7800XT, im RT Ranking ist sie 7% schneller, hier sind es 20%.

Auch das Duell 3080 vs 6800XT fällt deutlich zugunsten der 3080 aus.
Ergänzung ()

WebBeat84 schrieb:
Und bei Avatar seht man endlich auch mal ein Mehrwert mit Raytracing
Den sieht man auch bei Metro Exodus, Cyberpunk, Alan Wake 2 etc und die bieten alle eine deutlich bessere Beleuchtung.
Ergänzung ()

TigerherzLXXXVI schrieb:
Beispiel:

Geforce-Besitzer: "Path-Tracing ist für mich das Geilste überhaupt! Darum habe ich mir eine RTX 4090 gekauft."

Ich: "Path-Tracing ist super. Aber selbst Spiele mit RT Lite (z.B. Avatar) können fantastisch aussehen.
Die beiden Aussagen schließen sich doch nicht aus.
Klar können spiele auch mit RT Lite gut aussehen, aber ich glaube es steht außer Frage, dass Avatar mit Pathtracing noch um einiges besser aussehen könnte, weshalb es auch wünschenswert ist, mehr PT fähige Hardware auf den Markt zu bekommen und entsprechend Spiele die darauf ausgelegt sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll und Apocalypse
Ganz ehrlich? Wenn ich mir die Screenshots mit der 1080 anschaue, dann mag die Beleuchtung vielleicht nicht so realistisch sein, aber in meinen Augen wirkt es atmosphärischer. Mir gefallen die Screenshots tatsächlich besser.
 
  • Gefällt mir
Reaktionen: bluna, derMutant, Scheinriese und 2 andere
Trelor schrieb:
Die Engine lädt bei zu wenig VRAM automatisch Texturen in niedrigerer Auflösung und gegebenfalls sogar Objekte mit geringerem Geometriedichte, um ein Ruckeln durch zu wenig VRAM zu verhindern.

Das ist an das LOD System der Engine gekoppelt. Die Engine hat eine Priorisierung, welche Texturen und Objekte in der Szene besonders wichtig sind und hält dort die Texturen möglichst hochaufgelöst. So etwas ähnliches geschieht auch bei weiter entfernten Objekten.

In der UE4 und 5 ist dies z.B. der Default und ich wäre sehr überrascht, wenn dies bei Ubisofts Snowdrop engine nicht auch so wäre.

Kurzum: Reicht der Ram nicht, gibt es dann eben einzelne Texturen auf Hoch statt Ultra ehe es ruckelt.
Ja weis ich alles. War aber immernoch nicht so. Musst es nicht nochmal erklären.
 
Taxxor schrieb:
So wie die 4080 16% schneller als die 7900XTX ist, obwohl sie ansonsten ohne RT eher 3-4% langsamer ist ?

Die 4090 ist 52% schneller, wo es ohne RT eher 30% sind.
Sie ist hier sogar weiter vor der 7900XTX als im aktuellen RT-Ranking von CB(48%)
Hä? Eher andersrum...

Die 4080 ist 16% langsamer als die 7900XTX ohne RT, MIT RT ist die 4080 schneller!
Da RT immer für nVidia optimiert ist und übertrieben wird.

Avatar ist das 1. Spiel wo RT dezent und realistisch genutzt wird und dazu noch vernünftig implementiert, und siehe da, AMD ist genauso Leistungsfähig...

Avatar ist auch das 1. Spiel wo es mit RT besser aussieht als ohne... (Ohne das übertriebene Reflektionen den unterschied machen, wo jeder Spieler direkt denkt, "wow krass sieht das geil aus wie sich alles in einer Pfütze spiegelt".... So unrealistisch... Geh mal nach draußen und guck in einer Pfütze... Das einzige was sich da Spiegelt ist dein suchendes Gesicht. :)
 
  • Gefällt mir
Reaktionen: Tanzmusikus
WebBeat84 schrieb:
Hä? Eher andersrum...

Die 4080 ist 16% langsamer als die 7900XTX ohne RT, MIT RT ist die 4080 schneller!
Da RT immer für nVidia optimiert ist und übertrieben wird.

Avatar ist das 1. Spiel wo RT dezent und realistisch genutzt wird und dazu noch vernünftig implementiert, und siehe da, AMD ist genauso Leistungsfähig...
Sehen wir verschiedene Balken?
Die 4080 liegt hier in 4K 16% vor der 7900XTX.

Und im aktuellen GPU Ranking ist sie ohne RT 4% langsamer und mit RT 9% schneller
 
  • Gefällt mir
Reaktionen: MoinWoll
Taxxor schrieb:
Sehen wir verschiedene Balken?
Die 4080 liegt hier in 4K 16% vor der 7900XTX
Ich rede allgemein in allen Spielen...
In Avatar ist es ja RT geschuldet, wobei, wenn man das berücksichtigt 16% nix ist.
Und ohne RT gibts ja keine Benchmarks bei Avatar...
 
WebBeat84 schrieb:
Ich rede allgemein in allen Spielen...
Da ist die 4080 ohne RT eben 4% langsamer, nicht 16%.

Und du sagtest im Bezug auf Avatar:
Avatar ist das ERSTE Spiel, dass Raytracing SINNVOLL einsetzt und nicht nur zu Marketingzwecken und siehe da, wenn es vernünftig implenmentiert wird, sind nVidia und AMD gleich schnell.
Also ist es hier auch nicht vernünftig implementiert? Schließlich ist Nvidia hier sogar weiter vor AMD als sie es im RT Durchschnitt sind(9% vs 16% für die 4080 und 48% vs 52% für die 4090)
 
  • Gefällt mir
Reaktionen: MoinWoll
Taxxor schrieb:
Da ist die 4080 ohne RT eben 4% langsamer, nicht 16%.

Und du sagtest im. Zeug auf Avatar: Siehe da, wenn es vernünftig implementiert ist, ist AMD gleich schnell
Wenn man da noch die Leistungsaufnahme und die höheren Kosten der 4080 (1200€) zu 7900XTX (950€) in Betracht zieht... Ja.
Ohne RT (teurer und schlechter)
Ohne RT.jpg

Mit RT (teurer aber besser)
Mit RT.jpg
 
Zuletzt bearbeitet:
WebBeat84 schrieb:
Wenn man da noch die Leistungsaufnahme und die höheren Kosten der 4080 (1200€) zu 7900XTX (950€) in Betracht zieht... Ja.
Ah, also ändern wir jetzt die Aussage, danke fürs Gespräch.
Fakt ist, sie sind nicht gleich schnell, die 4080 ist auch bei dieser Implementierung klar schneller, sogar schneller als im Durchschnitt.
FPS pro € war nicht Thema und bei FPS pro W verliert die 7900XTX hier haushoch gegen die 4080, da sie 50-60W mehr verbraucht und dabei langsamer ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Wolfgang schrieb:
Wo sehen die denn besser aus?
Natürlich ist Optik im Endeffekt Geschmackssache, aber die Rasterizer-Bilder sind halt ganz klar einfach nur falsch. Das kann einem wie gesagt besser gefallen, es ist aber nicht richtig. Und nichts anderes macht Raytracing im Endeffekt.

Nein, um Benchmarks ging es an dieser Stelle nicht.
Du hast dir die Antwort ja selber gegeben, sie wirken auf mich optisch besser, am Ende eine Geschmacksfrage.
Ich sage auch nicht, dass Raster "richtiger" als RT ist. Das erinnert mich ein bisschen an diese Diskussionen bzgl. Spiele mit Simulationsanspruch und wie weit so etwas "realistisch" sein soll ... denn am Ende geht es immer noch darum, dass Spiele Spaß machen müssen.

Also, schön und gut wenn RT vom Prinzip her realistischer ist. Aber letztendlich muss es gekonnt umgesetzt sein, wie vieles andere auch. Aktuell sind wir in einem Umbruch und sehen qualitativ unterschiedliche RT Umsetzungen. Es wird also noch weitere Iterationen benötigen bis es gut genug ist um 1. klassische Raster komplett zu ersetzen und 2. massentauglich zu sein. Dann gerade letzteres ist ja ein Kritikpunkt und wie man anhand eurem Bericht sieht, geht es ja offensichtlich durchaus ohne RT, also warum nicht als Option direkt anbieten?
 
  • Gefällt mir
Reaktionen: bluna und TigerherzLXXXVI
WebBeat84 schrieb:
Da RT immer für nVidia optimiert ist und übertrieben wird.
Nein. Schau dir die Architekturen der GPUs nochmal an. Bspw. RDNA3 vs Ada Lovelace.
Es braucht erstmal keine extra Nvidia Optimierung, damit es auf GeForce besser läuft. Eine Optimierung für Nvidia kann aber natürlich noch oben drauf kommen. Die RDNA Karten, egal ob zweite oder dritte Generation, haben weniger RT-Leistung. Dass man aber auch mit RDNA2 Karten sinnvollen Gebrauch von RT machen kann, beweist Avatar wunderbar. Davon gerne mehr!
 
  • Gefällt mir
Reaktionen: Ghostfacekalle, TigerherzLXXXVI und WebBeat84
Taxxor schrieb:
Ah, also ändern wir jetzt die Aussage, danke fürs Gespräch.
Fakt ist, sie sind nicht gleich schnell, die 4080 ist auch bei dieser Implementierung klar schneller.
FPS pro € war nicht Thema und bei FPS pro W verliert die 7900XTX hier haushoch gegen die 4080, da sie 50-60W mehr verbraucht und dabei langsamer ist.
Dann lügt CB wohl im Vergleich 2 Posts oben...
 
Nein der Vergleich dort hat aber nichts mit deiner Aussage zu tun.
Da geht es um Preis/FPS und das ist wie gesagt ein anderes Thema, du sagtest sie sind gleich schnell, nicht sie haben das gleiche P/L Verhältnis.

Ja, in dem Punkt wäre man hier in Avatar 9% hinter der XTX, dafür ist man aber halt insgesamt schneller und verbraucht weniger.
Und nur darum ob man schneller ist, ging es in Deiner ursprünglichen Aussage.

Zumal man das P/L Verhältnis auch schon lange nicht mehr rein an nativen FPS festmachen kann.
Da z.B. DLSS Balanced mindestens genau so gut aussieht wie FSR Quality, bekomme ich mit der 4080 bei vergleichbarer Bildqualität mehr FPS als man es hier in den Benchmarks sieht. Dann sprechen wir nicht mehr von +16% sondern eher von +30-40%.

Damit ändert sich in solchen Spielen, wo FSR/DLSS zwingend nötig sind für gute Bildraten, auch das P/L Verhältnis zugunsten von Nvidia, weil man DLSS immer eine Stufe niedriger ansetzen kann, ohne dass es schlechter aussieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Poati schrieb:
Nein. Schau dir die Architekturen der GPUs nochmal an. Bspw. RDNA3 vs Ada Lovelace.
Es braucht erstmal keine extra Nvidia Optimierung, damit es auf GeForce besser läuft. Eine Optimierung für Nvidia kann aber natürlich noch oben drauf kommen. Die RDNA Karten, egal ob zweite oder dritte Generation, haben weniger RT-Leistung. Dass man aber auch mit RDNA2 Karten sinnvollen Gebrauch von RT machen kann, beweist Avatar wunderbar. Davon gerne mehr!
Streite ich ja auch nicht ab, da die mehr RT Kerne haben... Dennoch und gerade deshalb, wenn man sie jetzt mal runterbrechen würde auf gleiche RT Kerne und gleiche Stromaufnahme wäre AMD sicherlich effizienter
 
Taxxor schrieb:
Die beiden Aussagen schließen sich doch nicht aus.
Klar können spiele auch mit RT Lite gut aussehen, aber ich glaube es steht außer Frage, dass Avatar mit Pathtracing noch um einiges besser aussehen könnte, weshalb es auch wünschenswert ist, mehr PT fähige Hardware auf den Markt zu bekommen und entsprechend Spiele die darauf ausgelegt sind.
Ich habe den Text nachträglich angepasst. Da hatte tatsächlich noch etwas gefehlt.
 
WebBeat84 schrieb:
Dennoch und gerade deshalb, wenn man sie jetzt mal runterbrechen würde auf gleiche RT Kerne und gleiche Stromaufnahme wäre AMD sicherlich effizienter
Ne das kann man nicht vergleichen. Schau dazu mal hier: Klick.

AMDs bisherige Lösungen fallen unter Level 2. Nvidia ist mit Ada schon bei Level 4. RDNA2 und auch RDNA3 performen gut bei einem Workload, der hauptsächlich aus Rastergrafik besteht und RT nur Beiwerk ist, dass man damit eine schöne Optik zaubern kann beweist bspw. Ubisoft mit Avatar. UE5 bietet ja auch eine brauchbare Alternative mit Level 1 Ansatz. Schauen wir uns mal PT RT an, dann bricht AMD sowas von gnadenlos zusammen und das liegt an der Architektur.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Zurück
Oben