• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Das Game ist absolute Spitzenklasse, was Grafik angeht. Sieht Hammer aus. So, das war es aber auch schon.
Ultra langweilig und craften ohne Ende. Hatte mir von PC Games das Video angeschaut und dann selbst mal bei Ubisoft+ gezockt und leider war es genau so. Was VRAM betrifft, da das Thema 4070 kam. Tja, so ist Lederjacke nun mal, die 3070ti hätte schon damals 12 GB haben müssen. Ich persönlich unterstütze so ein Melken jedenfalls nicht mehr und hatte mir von daher eine XTX gekauft, auch wenn AMD langsamer ist. Die XT und XTX packen und werden in Zukunft auch alle Games flüssig darstellen können. 😎
 
  • Gefällt mir
Reaktionen: Sarxos, SP-937-215, Tanzmusikus und 7 andere
Wolfgang schrieb:
Wir haben das halt alle jahrzehntelang immer nur falsch gesehen. Das wird lange dauern, bis man sich an das richtige gewohnt hat.
Bei Starfield ist mir allerdings erstmalig passiert, dass das Bild für mich derart falsch ist, dass ich aufhören musste. Das Bild ist derart platt und falsch beleuchtet, dass ich manchmal denke, dass Objekte in Hintergrund weiter vorne sind. Das ist mir noch mit keinem anderen Game passiert.
 
Poati schrieb:
Nix siehste.
Wir drehen uns im Kreis und es wurde alles schon erklärt.
Man weis es ist keine Karte für diese Auflösung deswegen im Gegensatz zu den anderen Karten auch nicht in den vom Publisher angegeben Mindestanforderungen für eben diese drin.
Wie auch schon erwähnt die Karte ist über 3 Jahre alt und das Game ist nagelneu und genauso vordernd.
Es ging ursprünglich um den Waste an RAM.
Einer Radeon 7 bringt ihre 16GB in diesem Spiel auch nichts. Da gewinnst keinen Blumentopf mit.
Darum ging es nur. Nicht ob die Rohleistung sowieso nichtmehr ausreicht weil zu langsam und oder nichtmehr aktuell.

4070 ist im Test in allen Auflösungen schneller als die 7800xt. Bis WQHD sogar die 3080 10GB. was hat dir das mehr an RAM jetzt genau gebracht? XD
Poati schrieb:
Puh Niemanden finde ich eine gewagte Aussage. Ich kenne da schon ein paar Bekannte, die entweder über die 3070 geflucht haben oder sich einfach wundern, warum die Settings schon so weit runtergeschraubt werden müssen.
Ja dann muss man die Settings das der Leistung entsprechen anpassen, dann funktioniert das. Verweise hier wieder auf die Mindestanforderungen des Herstellers.

- "8 GB sind für maximale Grafikdetails bereits in Full HD inklusive Upsampling nicht mehr zu empfehlen, mindestens 10 GB sollten es sein."

wie gesagt mit 10GB 3080 läuft es wie angegeben in WQHD mit DLSS. Mehrere Bekannte haben mit ihrer 10GB Karte keine Probleme. trotz das der RAM komplett adressiert ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Darken00
Aszu schrieb:
Wir drehen uns im Kreis und es wurde alles schon erklärt.
Man weis es ist keine Karte für diese Auflösung deswegen im Gegensatz zu den anderen Karten auch nicht in den vom Publisher angegeben
Weiß man also? Nur weil die 3070 vor drei Jahren auf den Markt kam, hat die da nicht jeder direkt gekauft. Oftmals wird die Karte noch deutlich jünger sein, weil der direkte Nachfolger auch erst in diesem Jahr releast wurde. Das Problem hast du bereits erkannt: die 3070 wird da nicht mehr genannt und das liegt in diesem Fall einzig und allein am VRAM. Aufgrund vom Einsatz von RT wird die Karte nur unwesentlich langsamer sein als die 6800XT. Mit meiner 6800 OC wird es auch noch gut laufen. 3070 ganz offensichtlich nicht. 3 Jahre alt und die meisten werden die an WQHD betreiben und viele Spiele laufen nicht mehr gut. Musst du nicht schlimm finden, ich käme mit der 3070 auch noch gut klar. Dann halt keine Ultra Settings. Es ist aber nicht von der Hand zu weisen, dass Nvidia an der Stelle geizt und das aus einem Grund: Weil sie es können. AMD hat dafür halt beim Upsampling oder RT Performance eben seine Nachteile.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle, Apocalypse und SweetOhm
Ja sollte man wissen. Ihr lest doch alle Tests und die Anforderungen für neue Spiele.
Ja ist halt jetzt knapp auf der Kippe mit den 8GB bei dem Spiel. Sehr anfordernd und Hardwarehungrig.
Zur 3070 hab ich keine Daten. Sollte mit bissle Tweaken auch laufen. Geht dann in WQHD nurnoch mit DLSS Balanced oder Leistung. Is die Frage ob sie nicht eh dann auch schon zu langsam ist 7700XT kommt da ja auch nurnoch auf 46FPS. Kann das mal einer Testen?

Ja das stimmt. 2GB mehr hätten da keinem Weh getan.
 
Avatar: Frontiers of Pandora ist damit das erste Spiel überhaupt, das Hardware-Raytracing auf einer entsprechenden Grafikkarte immer aktiviert hat und was sich nicht abschalten lässt. Darauf hat Ubisoft die gesamte Grafik ausgelegt, der „Rasterizer-Pfad“ ist eher nur als Notlösung anzusehen. Umso interessanter ist es, dass AMD-Grafikkarten so gut mit den GeForce-Pendants mithalten können und mit zusätzlichen RT-Details nicht mehr Performance verlieren – das ist ein ungewöhnliches Verhalten.

Ja gut, nur ist das nVidia RTX Turing Flaggschiff , RTX 2080Ti, schwächer als eine RDNA2 RX 6800XT und aufwärts in RT-RT (also RDNA2 Radeons insgesamt leicht schneller sind als RTX Turing GeForce Grafikkarten in RT-RT); eine minimal langsamere RX 6800 dürfte somit auch noch locker von den UbiSoft Entwicklern für das hardware-basierende RT-RT als "mehr als aureichend" mit eingeplant worden sein.

So gesehen dürfte Hardware-RT-RT wohl allenfalls ab einer RX 6700XT und darunter evt. schwieriger werden, wobei letztere wenigstens noch 12 GB bietet, anders als RTX 3070Ti und darunter mit lediglich 8GB Speicher, was bei einem speicherhungrigen Spiel, wie Avatar - Frontiers of Pandora eines ist, doch auch zu berücksichtigen ist.

Interessant ist aber insgesamt, dass mit diesem Spieltitel erstmalig von Grund auf auf Hardware-RT-RT anstellle Rasterizer-Grafik gesetzt wurde und es bleibt abzuwarten, ob andere Publisher/Studios dieses (engine-seitig) auch so ansetzen werden, dass fundamental Hardware-RT-RT und nicht mehr Rasterizergrafik (letztere allenfalls als Ersatz-/Notlösung für ältere Grafikkarten) ein Spiel entwickelt wird.

Das wäre, wenn es sich etabliert in kommenden AAA Titeln - und ich hoffe CB wird da weiterhin ein Auge darauf werfen, ;) @Wolfgang - wohl als ein "Abschneiden alter Zöpfe" anzusehen mit Übergangsphase, da die Alternativ-Rasterizer-Grafiklösung noch implementiert/mitgeliefert wird.

Da nVidia mit RTX Turing (Hardware-)RT-RT-technisch (angefangen bei einer 6GB RTX 2060 Vanilla Grafikkarte) mit die schwächste RT-RT Lösung bietet und bei AMD/RTG im Normalfall alles unterhalb einer vergleichsweise deutlich stärkeren RX 6600/6650XT mit 8 GB nicht mehr wirklich in Sachen RT-RT kaufrelevant war/ist, denke ich nicht, dass Hardware-RT-RT bei ausreichend fähigen RDNA2 Karten (also alles oberhalb einer speicherverknappten RX 6500XT) problematisch wird, solange sich die Entwickler an der deutlich schwächeren RTX 2060 Vanilla orientieren.
 
Zuletzt bearbeitet:
Also ich bin Absolute für RT. Aber einige der Screenshots gefallen mir ohne RT besser und wirken auch irgendwie realistischer. Kann es sein das es irgendwelche Probleme mit der Beleuchtung gibt???
 
  • Gefällt mir
Reaktionen: SweetOhm und Scheinriese
Aszu schrieb:
4070 ist im Test in allen Auflösungen schneller als die 7800xt. Bis WQHD sogar die 3080 10GB. was hat dir das mehr an RAM jetzt genau gebracht? XD

Wenn in der Engine alles nach Plan läuft, hat ein zu kleiner VRAM auch keinen negativen Einfluss auf die Performance, sondern es werden einfach niedrigerer LOD Stufen geladen.

Je nachdem wie stark die Geometrie und Texturen dadurch reduziert werden, führt dies sogar zu einer besseren Performance auf Kosten der Bildqualität.

In welchem Umfang das mit welchen Spiel und Karte genau Auftritt, kann ich dir bis auf ein paar Extremfälle leider nicht im Detail zeigen.
 
  • Gefällt mir
Reaktionen: MiroPoch
Wolfgang schrieb:
Das wird lange dauern, bis man sich an das richtige gewohnt hat.
Das denke ich auch, wobei natürlich schlechte, übertriebene Implementierungen von RT-RT wie bei UbiSofts Watchdogs Legions bspw. auch alles andere als realistisch sind und dem dann in Einzelfällen immer noch die Rasterizerlösung vorzuziehen sein dürfte.
 
ThePlayer schrieb:
Also ich bin Absolute für RT. Aber einige der Screenshots gefallen mir ohne RT besser und wirken auch irgendwie realistischer. Kann es sein das es irgendwelche Probleme mit der Beleuchtung gibt???
Wollte es gerade auch schreiben. Wenn ich ehrlich bin gefällt mir das Spiel in reiner rasterizing Grafik sogar besser. Die umgebungsverdeckung der Welt hat ohne rt so viel mehr Kontrast und tiefe. Endlich keine durchgehend ausgeleuchtete Welt mehr sondern Schatten, dunkle Ecken usw.
Es fehlt nur ein Screenshot vom Wasser, hätte mich interessiert ob es ohne rt besser aussieht.
 
  • Gefällt mir
Reaktionen: el_zoido, Scheinriese, bibler und 4 andere
Trelor schrieb:
Wenn in der Engine alles nach Plan läuft, hat ein zu kleiner VRAM auch keinen negativen Einfluss auf die Performance, sondern es werden einfach niedrigerer LOD Stufen geladen.

Je nachdem wie stark die Geometrie und Texturen dadurch reduziert werden, führt dies sogar zu einer besseren Performance auf Kosten der Bildqualität.

In welchem Umfang das mit welchen Spiel und Karte genau Auftritt, kann ich dir bis auf ein paar Extremfälle leider nicht im Detail zeigen.
Ich weis was du meinst. Das konnte ich bei einer 10GB Karte nicht beobachten. Lief super fluffig.
Wie gesagt vorgemerkter RAM ist nicht gleich benötigter.
 
  • Gefällt mir
Reaktionen: Darken00
Was soll daran gut sein, dass man HW RT nicht deaktivieren kann, CB?
Evtl. sagt der Raster Look einem mehr zu, oder die Performance is besser. Deshalb zocken wir ja auf dem PC, weil wir so viel einstellen können.
Sich mit Fesseln zu begnügen oder gut zu heißen halte ich für fragwürdig.

Trotzdem danke für den Bericht und die Mühe auf der 1080 Ti zu testen!
 
  • Gefällt mir
Reaktionen: bluna, ShiftC, Apocalypse und 5 andere
Der hohe Kontrast ist schon gewöhnungsdürftig, bei Far Cry 6 empfand ich das auch als störend. (Bein der Navi, die am flechten ist)
24-1080.382078d8.jpg
 
  • Gefällt mir
Reaktionen: Quidproquo77 und SweetOhm
+1 für die raster grafik - und ich bin kein RT Gegner. Aber es fällt mir auch tatsächlich bei vielen Spielen auf.

Dafür kann es zwei Gründe geben:
1) >30 Jahre gaming haben mich einfach zu sehr an die Rastergrafik gewöhnt
2) Implementierung von RT passt in vielen Spielen einfach nicht und wirkt deshalb nicht so wie es sollte
 
  • Gefällt mir
Reaktionen: SP-937-215, SweetOhm, StylishChiller und 2 andere
Christi schrieb:
mit meiner alten 2080ti nicht einen nachladeruckler bis jetzt gehabt (ca. 10h im game). spiele in 2560x1440 und high details. dlss auf ausgeglichen. vram ist immer um die 10,5gb belegt.

grüße
DLSS 2 Ausgeglichen (Balanced) bedeutet, das Spiel wird mit 58% der Ausgangsauflösung gerendert. In deinem Fall (WQHD) wäre es also knapp oberhalb von 1080p... Da sind 10,5GB belegter Videospeicher schon eine ordentliche Menge. Zumal es "nur" die Qualitätsstufe Hoch ist.

Verstehe mich nicht falsch. Die RTX 2080 Ti ist in ihrer Leistungsklasse (equivalent zur RTX 3070) mit 11GB vernünftig ausgestattet. Man kann sich denken, wie es allen Besitzern einer RTX 3070 mit ihren mickrigen 8GB ergeht...
 
  • Gefällt mir
Reaktionen: SweetOhm
Die rasterizer Screenshots sehen auch für mich allemal besser aus, so würde ich es auch erwarten wenn ich draußen bin da wo keine Sonne direkt hin scheint ist es um einiges dunkler.
Bei den RT Screenshots sieht es eher so aus, als wäre überall eine Lichtquelle, ähnlich den übertriebenen Auto-HDR Modi einiger Smartphone Kameras.

Zur 3070/UHD Diskussion.
Vor einigen Jahren hieß es aus dieser Community mit der 980/980ti gibt's endlich UHD Grafikkarten, den gleichen Tenor gab es zu 1080/1080ti, 2080/2080ti und zur 3080/3080ti - 3090.
Nun sind wir bei 4080/4090 und es wird behauptet, dass alles darunter und davor nie eine UHD Karte war/ist. :volllol:

Letztlich entscheiden ja immer noch die gespielten Titel in entsprechenden Einstellungen ob irgendwas in UHD spielbar ist oder eben nicht. Insofern ist auch eine igpu ein UHD chip, da hier solitär und minesweeper wohl auch in UHD laufen.

Will sagen, es kommt immer und zu jederzeit auf den usecase an und dieser ist einfach überall verschieden.

Sorry für etwas offtopic.
 
  • Gefällt mir
Reaktionen: SweetOhm, StylishChiller, Organix und 2 andere
TigerherzLXXXVI schrieb:
DLSS 2 Ausgeglichen (Balanced) bedeutet, das Spiel wird mit 58% der Ausgangsauflösung gerendert. In deinem Fall (WQHD) wäre es also knapp oberhalb von 1080p... Da sind 10,5GB belegter Videospeicher schon eine ordentliche Menge. Zumal es "nur" die Qualitätsstufe Hoch ist.
Nicht "DLSS 2 Ausgeglichen" sondern "DLSS SR 3.5 Ausgeglichen" ;)

DLSS verändert am VRAM Bedarf aber auch nicht so viel, wie es die Renderauflösung vermuten lassen würde
https://www.tweaktown.com/images/co...ow-does-hideo-kojimas-game-run-at-8k_full.png

Das ist ausgehend von 8K, also ist DLSS Performance hier 4K und DLSS Quality immer noch ~2900p.
Man sieht, von ~2900p auf 2160p sinkt der VRAM Bedarf nur noch um 200-500MB.
1440p Mit DLSS Balanced ist auch nicht knapp oberhalb von 1080p sondern von 720p(835p).
Dabei dürfte es noch weniger Unterschied sein.
 
Zuletzt bearbeitet:
Fallout667 schrieb:
Naja solange man das Spiel nur über Ubisoft oder Epic bekommt ist es für mich eh uninteressant.
Wenigstens Ubisoft Epic kann ich verstehen
 
Taxxor schrieb:
DLSS verändert am VRAM Bedarf aber auch nicht so viel, wie es die Renderauflösung vermuten lassen würde
https://www.tweaktown.com/images/co...ow-does-hideo-kojimas-game-run-at-8k_full.png

Das ist ausgehend von 8K, also ist DLSS Performance hier 4K und DLSS Quality immer noch 2900p.
Man sieht, von 2900p auf 2160p sinkt der VRAM Bedarf nur noch um 200-500MB.
1440p Mit DLSS Balanced ist auch nicht "knapp oberhalb von 1080p" sondern knapp oberhalb von 720p(835p).
Dabei dürfte es noch weniger Unterschied sein.
Ich habe auf deinen Link geklickt. In der Tabelle ist sogar die RTX 2080 Ti vertreten. Hier bedeutet der Sprung von nativer Auflösung zu DLSS 2.0 Quality eine Reduzierung der benötigten VRAM-Menge um den Faktor 0,815. Oder anders ausgedrückt: anstatt 10,3GB werden nur noch 8,4GB in dem Beispiel (Death Stranding) benötigt.

Davon ausgehend bedeutet ein qualitativ schlechterer DLSS Modus als DLSS Quality nur noch ein geringes Einsparpotenzial von einigen hundert Megabyte. Beim Beispiel von @Christi würde es bedeuten, dass die 11GB der RTX 2080 Ti bei WQHD Hoch + DLSS Quality bereits Probleme machen könnten.

Darüber hinaus würde der VRAM-Bedarf von Avatar für WQHD Hoch nativ ca. 13,5GB betragen...
 
  • Gefällt mir
Reaktionen: SweetOhm
TigerherzLXXXVI schrieb:
Ich habe auf deinen Link geklickt. In der Tabelle ist sogar die RTX 2080 Ti vertreten. Hier bedeutet der Sprung von nativer Auflösung zu DLSS 2.0 Quality eine Reduzierung der benötigten VRAM-Menge um den Faktor 0,815. Oder anders ausgedrückt: anstatt 10,3GB werden nur noch 8,4GB in dem Beispiel (Death Stranding) benötigt.
Ja, von 8K ausgehend und damit einer Reduzierung von insgesamt ~33 Mio Pixeln auf ~18 Mio Pixeln.
Das kannst du nicht einfach mit einem Faktor auf eine Reduzierung von ~3,7 Mio Pixeln auf ~1,4 Mio Pixeln gleichsetzen.

Alleine die Anzahl der Pixel, die hier von Nativ auf DLSS Q eingespart werden, ist schon 6x hoch, wie man in WQHD überhaupt nativ zu stemmen hat.

Deshalb hab ich ja auch den Vergleich von DLSS Q auf DLSS P angesprochen.
Die Einsparung der Gesamtpixel ist von 1440p auf 835p mit ~1,24 Mio Pixeln deutlich geringer ist als der von 2900p auf 2160p mit~6,63 Mio. Entsprechend fällt auch der Unterschied beim VRAM Bedarf noch mal geringer aus, als der im Bild von DLSS Q auf DLSS P
 
Zuletzt bearbeitet:
Zurück
Oben