• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Was soll ich da noch erklären, was nicht bereits in diversen anderen Threads, wie auch diesem hier schon zu genüge durchgekaut wurde?
Implementiert ist im Spiel DLSS SR 3.5, oder auch DLSS 3.5 SR, je nach dem, wie rum man es gerne sagen möchte^^
DLSS 2.x gibts schon lange nicht mehr.
 
Zuletzt bearbeitet:
Früher suchten Sie nach Einhörnern in den Wäldern und in paar Jahren sucht man Nvidia Karten mit ausreichend VRAM abseits der Highend Klopper.
Das Game wird eine Ausnahme sein aber man sieht wo der Weg hingeht.
 
  • Gefällt mir
Reaktionen: Elektrolyt, SweetOhm und TigerherzLXXXVI
Aszu schrieb:
Ich weis was du meinst. Das konnte ich bei einer 10GB Karte nicht beobachten. Lief super fluffig.
Wie gesagt vorgemerkter RAM ist nicht gleich benötigter.
Die Engine lädt bei zu wenig VRAM automatisch Texturen in niedrigerer Auflösung und gegebenfalls sogar Objekte mit geringerem Geometriedichte, um ein Ruckeln durch zu wenig VRAM zu verhindern.

Das ist an das LOD System der Engine gekoppelt. Die Engine hat eine Priorisierung, welche Texturen und Objekte in der Szene besonders wichtig sind und hält dort die Texturen möglichst hochaufgelöst. So etwas ähnliches geschieht auch bei weiter entfernten Objekten.

In der UE4 und 5 ist dies z.B. der Default und ich wäre sehr überrascht, wenn dies bei Ubisofts Snowdrop engine nicht auch so wäre.

Kurzum: Reicht der Ram nicht, gibt es dann eben einzelne Texturen auf Hoch statt Ultra ehe es ruckelt.
 
  • Gefällt mir
Reaktionen: Wanderwisser, Scheinriese, RdV und 2 andere
Taxxor schrieb:
Was soll ich da erklären? Implementiert ist im Spiel DLSS SR 3.5, oder auch DLSS 3.5 SR, je nach dem, wie rum man es gerne sagen möchte^^
DLSS 2.x gibts schon lange nicht mehr.
Ich habe deswegen DLSS 2 gesagt, weil Turing nicht alle DLSS 3 Features unterstützt. Einen großen Einfluss auf das zuvor von mir Gesagte wird "DLSS 3.5 SR" sicherlich nicht haben.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Einen großen Einfluss auf das zuvor von mir Gesagte wird "DLSS 3.5 SR" sicherlich nicht haben.
Was die Performance und VRAM betrifft, nein. Jedoch erachte ich es genrell als sinnvoll, darauf hinzuweisen, wenn ein Spiel DLSS SR 3.5 implementiert, dieses nicht DLSS 2 zu nennen, mehr nicht.
 
Trelor schrieb:
In der UE4 und 5 ist dies z.B. der Default und ich wäre sehr überrascht, wenn dies bei Ubisofts Snowdrop engine nicht auch so wäre.
Ist hier ähnlich, sie haben einen Blogeintrag veröffentlicht, in dem auch die verschiedenen Streamingsysteme erklärt werden. Der Texturstreamer-Anteil sollte im Optionsmenü aber eigentlich gelb werden, wenn der VRAM zu knapp wird.
 
@Taxxor

Eine wichtige Sache habe ich nicht bedacht. Wie @Trelor höchstwahrscheinlich richtig angemerkt hat, passt die Spieleengine von Avatar den VRAM-Bedarf gezielt an die jeweilige Grafikkarte an. Das heißt die Textur- und vielleicht auch Geometriequalität wird bei Videospeichermangel automatisch angepasst. Das würde auch erklären, warum die RTX 2080 Ti von @Christi 10,5GB von insgesamt 11GB an Daten (konstant) belegt.
Ergänzung ()

Taxxor schrieb:
Ja, von 8K ausgehend und damit einer Reduzierung von insgesamt ~33 Mio Pixeln auf ~18 Mio Pixeln.
Das kannst du nicht einfach mit einem Faktor auf eine Reduzierung von ~3,7 Mio Pixeln auf ~1,4 Mio Pixeln gleichsetzen.
Es ist trotzdem etwas komisch, dass du nicht gleich ein Beispiel mit 4K oder WQHD gewählt hast. Warum 8K? Theoretisch stimmt das natürlich mit der deutlich höheren Pixelmenge, die man von 8K auf 4K einspart im Gegensatz zu WQHD auf Full HD. Aber tatsächliche Messwerte wären mir hier lieber als reine Theorie.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Es ist trotzdem etwas komisch, dass du nicht gleich ein Beispiel mit 4K oder WQHD gewählt hast. Warum 8K?
Weil es das erste war was ich zum Thema gefunden habe und die Infos daraus ausreichend waren^^

Ich kann dir auch gerne gleich selbst mal nachmessen, was ich so mit DLSS Q in UWQHD belege und dann, was ich in UWQHD nativ sowie 2560*1080 nativ(etwas höhere Auflösung als die Renderauflösung von UWQHD DLSS Q) belege
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Elektrolyt
Trelor schrieb:
Kurzum: Reicht der Ram nicht, gibt es dann eben einzelne Texturen auf Hoch statt Ultra ehe es ruckelt.
Genau mein Reden, aber nein es heißt dann immer: Ja Speicher ist voll belegt aber es läuft alles noch gut. Mhhh ist klar.
 
  • Gefällt mir
Reaktionen: Wanderwisser
Ohne die Diskussion im Mindesten verfolgt zu haben - Entschuldigung dafür - möchte ich hier nur einmal anbringen, dass ich es hochgradig bedaure, dass Massive Entertainment für Ubisoft mittlerweile denselben flachen, generischen Open-World-Mist produziert wie andere Studios des Publishers.

The Division war als Looter-Shooter in Ordnung bis gut, World in Conflict dagegen war ein Meisterwerk, von dem ich sehr bedaure, dass es nie auf Steam portiert wurde. Ganz klar geht es auch mit diesem ehemaligen Top-Studio steil bergab. Sehr, sehr schade.

Das vorliegende Spiel sieht jedenfalls nach Far Cry Primal mit Avatar-Reskin aus, wobei vorgenanntes schon kein tolles Spiel, aber mit Blick auf das Szenario wenigstens halbwegs innovativ war. Frontiers of Pandora selbst ist aber wohl ein unfertiges, inhaltsleeres und am Ende daher überteuertes Cashgrab-Spiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Elektrolyt, Beatmaster A.C. und Hektor26
Was ist das eigentlich die Spiele kosten genau so viel wie früher oder sogar mehr aber liefern nur noch max 25 Std Spielzeit das neue Mirage ist ja auch so kurz.
Bei den damaligen Ubisoft Games waren es 80+ Std. Alles nur noch Scam und verarsche
 
Taxxor schrieb:
Weil es das erste war was ich zum Thema gefunden habe und die Infos daraus ausreichend waren^^
Das ganze Thema ist sowieso hinfällig, weil wie gesagt das Spiel (die Engine) den Videospeicherbedarf automatisch an die verwendete Grafikkarte anpasst.
 
@TigerherzLXXXVI

Alle Werte jeweils nach frischem Spielstart und 3-4 Minuten im Kreis laufen im gleichen Gebiet.
"GPU Mem Game" ist der relevante Wert.

3440x1440 Nativ
UWQHD nativ.png


3440x1440 + DLSS Q (Renderauflösung 2293x960)
UWQHD DLSS Q.png


2560x1080 Nativ
2560x1080.png


Man sieht, obwohl 2560x1080 Nativ eine höhere Auflösung ist als die Renderauflösung bei UWQHD + DLSS, verbraucht es trotzdem deutlich weniger VRAM als die UWQHD + DLSS und der Unterschied zwischen UWQHD Nativ und DLSS ist vergleichsweise klein.
 
  • Gefällt mir
Reaktionen: Elektrolyt und Sc0ut3r
Global Illumination macht halt schon was her und spart sicher auch enorm Entwicklungszeit bei einer so großen Welt.
 
Zuletzt bearbeitet:
Bügelbernd schrieb:
Die Karte ist halt auch nicht mehr wirklich schnell.
Naja das stimmt schon, aber es gibt genügend Titel wo die 3070 etwas mit mehr Speicher anfangen könnte und das ist hier ebenso der Fall. Denn für FHD ist sie definitiv flott genug aber auch dazu steht im Test, dass 8GB nicht mehr reichen.
 
  • Gefällt mir
Reaktionen: Bügelbernd
Bügelbernd schrieb:
Naja nicht nur deswegen. Die Karte ist halt auch nicht mehr wirklich schnell.
... uuuund derweil ist die Ausstattung des durchschnittlichen PC-Spielers weit langsamer und älter.

Sorry, aber das ist eine Aussage, die direkt aus der Technik-Bubble stammt. Da ist ganz klar ein differenzierterer Blick aufs große Ganze anzuraten :)
 
  • Gefällt mir
Reaktionen: ShowOff und Apocalypse
von den Screenshots her gefallen mir die Bilder ohne RTx besser. Gibt es Videos wo man den Vergleich auch in Bewegung sieht?
 
  • Gefällt mir
Reaktionen: Scheinriese und Elektrolyt
Poati schrieb:
AMD hat dafür halt beim Upsampling oder RT Performance eben seine Nachteile.
Im Vergleich zur 3070 ja jetzt nicht mal mehr bei der RT Performance. ;-)

Aber auch vor drei Jahren war niemand glücklich über die 8GB, aber es war egal, weil Mining Boom und günstige UVP. Für jene die eh nach 3 Jahren eine neue Karte kaufen kann es egal sein, für jene so eine Karte länger nutzen mochten .... die haben hoffentlich dann auf AMD gesetzt, nur nur wegen RAM, sondern auch weil umfangreiche RT Settings wohl das erste ist was man abdreht um die Auflösung halten zu können.

Wer jetzt trotzdem die RTX3070 noch nutzen muss, der kann sich ja mit DLSS trösten, soll ja zumindest manchmal noch auf Balanced aussehen wie bei AMD auf Quality. Alles kein Drama imho. Die Regler in den Grafiksettings sind zum benutzen, auch wenn die 8GB immer noch ärgerlich wenig bleiben.
 
Zurück
Oben