• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Was ich immer wieder spaßig finde, sind die Leute, die eine 4070 TI als 4K-Karte sehen. das ist eine WQHD-Karte, die in Ausnahmefällen 4K kann, aber dafür nicht designt wurde. Ich kann ehrlich gesagt keinen 4k-Monitor-Besitzer verstehen der sich dazu nur eine 4070 TI "gönnt".

Wenn schon 4K-Monitor, dann auch eine Grafikkarte die auch dafür designt wurde.

Für WQHD ist die Karte super geeignet.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, ComputerJunge, TigerherzLXXXVI und 9 andere
frames p. joule schrieb:
Die 4090 ist mit ~80 Teraflops ~8mal so schnell wie eine PS5 mit ~10 Teraflops.
Real ist sie allerdings, sofern ein Spiel reine Rastergrafik einsetzt, "nur" etwa 4 mal so schnell. Mit Raytracing sieht es natürlich anders aus. Und bei Pathtracing könnte ich mir vorstellen, dass sie über 15 mal so schnell ist. Mangels Pathtracing in den PS5-Versionen der entsprechenden Spiele, werden wir das aber vermutlich nie erfahren.
 
Bin gespannt ob wir hier mit Raytracing dieselbe Entwicklung sehen wie bei PhysX und G-Sync:

nVidia versucht einen definierenden Spielestandard zu schaffen welcher zu 110% an ihre Hardware gekoppelt ist - der Markt wechselt früher oder später auf einfachere, freie Technologie um dieselbe Leistung zu ermöglichen. Nur billiger und ohne nVidia-Käfig.

PhysX ist bedeutungslos und G-Sync derzeit eigtl nur für Fanboys interessant. Da die Konsolen Freesync respektive VRR nutzen war sowieso nie Dominanz vorhanden, und G-Sync ist, selbst mit Addons wie lowlatency etc, im Alltag nicht verschieden im Vergleich zu VRR.

Raytracing wird die nächste Hardware-Generation noch nach nVidia-Vorgaben eine Rolle spielen, aber spätestens Lumen zeigt wohin die Reise geht - Spiele werden nicht spezifisch für nVidia Raytracing optimieren.
Dafür ist nVidia nicht allumfassend genug im Spielemarkt. Klingt hart, aber wenn man betrachtet dass die Konsolen definitiv noch einige Jahre nicht auf nVidia setzen werden (vlt mit Ausnahme der nächsten Switch, aber Nintendo hat noch nie die Standards für Graphikqualität gesetzt) und der mobile-Gaming-Bereich auch auf andere Protagonisten setzt (und der ist, weltweit betrachtet, riesig) werden für RT eher Software-Lösungen gesucht welche auf alle Plattformen skaliert werden können.
 
  • Gefällt mir
Reaktionen: slamaa, daknoll und Tanzmusikus
Wie verhält es sich eigentlich mit der Titan Xp, die ja quasi ein Vollausbau der 1080 Ti ist? Ich bin leider, was die Techniken rund um DLSS und FSR angeht, nicht auf dem Stand dass ich es einschätzen kann. Brauche ich eine 20xx oder ein AMD equivalent dazu, um die Techniken nutzen zu können?

Von der reinen Leistung her ist es doch in etwa 1080Ti ~ 2070 ~ 3060? Nur eben dass die Titan 12GB hat, und die nachfolger nicht unbedingt mehr.

ps: von RT rede ich hier natürlich gar nicht.
 
Zuletzt bearbeitet: (Ergänzend)
Typisches Far Cry, nur in Blau, kann man getrost überspringen, neeeeeext.
 
  • Gefällt mir
Reaktionen: Fatal3ty
TenDance schrieb:
nVidia versucht einen definierenden Spielestandard zu schaffen welcher zu 110% an ihre Hardware gekoppelt ist - der Markt wechselt früher oder später auf einfachere, freie Technologie um dieselbe Leistung zu ermöglichen. Nur billiger und ohne nVidia-Käfig.
RT ist nicht nur von Nvidia, sondern in Zusammenarbeit mit MS entstanden und ein Standardfeature von DX Ultimate.
RT ist auch nicht an die Hardware von Nv gekoppelt. AMD und Intel können es ja auch auch. Eigentlich ist es durch DX Ultimate ein Standard.

TenDance schrieb:
PhysX ist bedeutungslos und G-Sync derzeit eigtl nur für Fanboys interessant.
PhysX ist eigentlich Standard in den meisten Games. Auch heute noch, nur wird darüber nicht mehr berichtet.
Siehe hier: https://www.pcgamingwiki.com/wiki/List_of_games_that_support_Nvidia_PhysX
 
  • Gefällt mir
Reaktionen: xXBobbyXx, slamaa, Bademeister69 und eine weitere Person
Wenn ich das Fazit der Spieletester lese, werde ich erst Ende nächstes Jahr eine vergünstigte Reise nach Pandora buchen und Horizon: Forbidden West den Vorzug geben.

PhysX ist bedeutungslos und G-Sync derzeit eigtl nur für Fanboys interessant.
PhysX und T&L sind in allen Spielen mehr oder weniger enthalten, nur wird das nicht mehr werbewirksam kundgetan und ohne G-Sync hätte es wahrscheinlich nicht Free-Sync gegeben, so ehrlich sollte man schon sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bademeister69, Quidproquo77, H6-Mobs und eine weitere Person
AEonVi schrieb:
Da kann ich also auf Unausgeglichen stehen lassen, obwohl ich keinen 4K Monitor.
Ich bin mir da selbst nicht ganz sicher, was "Unausgeglichen" bewirkt.

Es soll auf der eingestellten FSR-Stufe basieren & gleichzeitig zur 4K-Auflösung tendieren.
Letzteres wäre ja eher schon ein Downscaler in deinem Fall und auch für 4K/UHD-Nutzer ein Bildverbesserer.
Ich nehme an, dass im optimalen Fall die berechnete Auflösung bis zu 4k/UHD beträgt.
In nicht so optimalem Fall (Worst Case) würde die Renderauflösung nur auf Basis der eingestellten berechnet.

Meine jetzige Empfehlung lautet so:
Für maximale FPS -> Festgelegt
Für fast max. FPS inkl. leichte Bildverbesserung -> Unausgeglichen
 
  • Gefällt mir
Reaktionen: AEonVi
MoinWoll schrieb:
Real ist sie allerdings, sofern ein Spiel reine Rastergrafik einsetzt, "nur" etwa 4 mal so schnell. Mit Raytracing sieht es natürlich anders aus. Und bei Pathtracing könnte ich mir vorstellen, dass sie über 15 mal so schnell ist. Mangels Pathtracing in den PS5-Versionen der entsprechenden Spiele, werden wir das aber vermutlich nie erfahren.

Etwas mehr als 3x. 3,2-3,3 laut diverser indizes.

Aber ihr habt recht, der TFLOPS Vergleich ist Unsinn. Hatte erst gedacht, dass man mindestens von 8x ausgehen kann, weil aktuelle Architekturen pro TFLOP mehr Leistung bieten, aber wenn mans genau nimmt ist das auch Unsinn.

Nichtsdestotrotz ist der Performanceunterschied zwischen PS4 und PS5 SEHR viel größer als zwischen PS5 und einer 4090.

Die 4090 wäre performancemäßig in etwa das, was eine Xbox One X gegenüber einer PS4 geliefert hat.

Das ist ordentlich, aber eben kein "generational leap". Gut, bei PT Leistung schon, aber der Vergleich wäre wieder unsinnig, weil die PS5 und die RNDA2 Architektur nie dafür gedacht war.


Ich bleib dabei. So wahnsinnig viel schneller ist die 4090 nicht. Selbst auf der Karte macht es sich extrem deutlich bemerkbar, dass die PS5 und Series X relativ stark sind und deshalb die Anforderungen extrem angestiegen sind.

Was ne 4090 in Raster schafft, schafft ne PS5 eben auch mit halber Framerate und (stärkerem) Upscaling. Das sind die üblichen Kompromisse auf Konsolen und das sorgt eben dafür, dass die Mherleistung am PC alleine schon dafür draufgeht, die gewohnten Standards zu erreichen wie 60+ FPS, 1440p oder höher, etwas höhere Settings usw. Es braucht ausgehend von einer PS5 bzw. Spielen die dafür gemacht wurden halt wirklich nicht sonderlich viel, um eine 4090 auszulasten.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und N0Thing
Marcel_ schrieb:
Naja ich rechne nicht anhand eines Spiels, sondern eher aufs Jahr gerechnet.
Und wenn ich da 30cent pro Tag sparen kann, sind das in einem Jahr über 100€ alleine nur was die Grafikkarte einspart. Die 100€ investiere ich dann lieber irgendwann in eine neue Karte.
Naja, also 30 Cent am Tag wirst du bestimmt nicht einsparen, da müsstest du schon JEDEN Tag im Jahr 10 Stunden datteln und dann jeweils 100 Watt einsparen, selbst die Hälfte davon wäre schwer.
Ich wollte eben nur darauf hinaus, dass die Einsparung nicht wirklich lohnenswert ist, da die Karten doch eh schon sehr effizient sind und wenn du dir schon so eine Graka kaufst, dann würde ich auf die paar € im Jahr nicht achten und eher fast bis zum Anschlag spielen.
Man kann ja auch etwas undervolten und noch mit ca. 95% der Leistung fahren, aber 20-30% Strom dabei einsparen.
 
Wolfgang schrieb:
Super Resolution eignet sich perfekt für Multiplayer-Spiele.
Wenn es gut implementiert/optimiert ist und keine negativen optischen Effekte im Spiel verursacht die Nachteilig für die Erkenn/Sichtbarkeit ist. Deshalb sehe ich FSR1 ebenfalls als keine valide Option.
 
MrHeisenberg schrieb:
RT ist nicht nur von Nvidia, sondern in Zusammenarbeit mit MS entstanden und ein Standardfeature von DX Ultimate.
RT ist auch nicht an die Hardware von Nv gekoppelt. AMD und Intel können es ja auch auch. Eigentlich ist es durch DX Ultimate ein Standard.


PhysX ist eigentlich Standard in den meisten Games. Auch heute noch, nur wird darüber nicht mehr berichtet.
Siehe hier: https://www.pcgamingwiki.com/wiki/List_of_games_that_support_Nvidia_PhysX
RT wie es in DX implementiert ist, forciert aber einen Berechnungsweg der sehr stark auf nVidias Karten zugeschnitten ist. Oder umgekehrt. Was bedeutet dass AMD das nicht einfach kopieren konnte, weil copyright. Lumen zum Beispiel ist da sehr viel flexibler.

PhysX ist deswegen bedeutungslos weil es für nVidia kein Verkaufsargument mehr war und sie die Bibliothek irgendwann geöffnet haben nachdem ich glaube die UE3 einfach eine geniale Lösung in Software etabliert hatte.
Heute ist PhysX offen und kann von jedem genutzt werden, es spielt für den Anwender aber keine Rolle ob PhysX oder eine andere Lösung - deswegen "bedeutungslos". Ich sage nicht dass es das nicht mehr gibt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
UVLWheezle schrieb:
Was ich immer wieder spaßig finde, sind die Leute, die eine 4070 TI als 4K-Karte sehen. das ist eine WQHD-Karte, die in Ausnahmefällen 4K kann, aber dafür nicht designt wurde. Ich kann ehrlich gesagt keinen 4k-Monitor-Besitzer verstehen der sich dazu nur eine 4070 TI "gönnt".

Wenn schon 4K-Monitor, dann auch eine Grafikkarte die auch dafür designt wurde.

Für WQHD ist die Karte super geeignet.
Da ich ein 75 zoll Philips ambilight Fernseher habe bin ich gezwungen in 4k mit meiner 4070 TI zu spielen. Von 30 spielen kann ich 26 in 4k spielen mit min 60 FPS. Deine Behauptung ist falsch.
 
Mimir schrieb:
Ich bleib dabei. So wahnsinnig viel schneller ist die 4090 nicht. Selbst auf der Karte macht es sich extrem deutlich bemerkbar, dass die PS5 und Series X relativ stark sind und deshalb die Anforderungen extrem angestiegen sind.

Was ne 4090 in Raster schafft, schafft ne PS5 eben auch mit halber Framerate und (stärkerem) Upscaling. Das sind die üblichen Kompromisse auf Konsolen und das sorgt eben dafür, dass die Mherleistung am PC alleine schon dafür draufgeht, die gewohnten Standards zu erreichen wie 60+ FPS, 1440p oder höher, etwas höhere Settings usw. Es braucht ausgehend von einer PS5 bzw. Spielen die dafür gemacht wurden halt wirklich nicht sonderlich viel, um eine 4090 auszulasten.
Wenn der Quality Mode der PS5 im Spiel das Frametarget von 30 FPS hat und dieser Modus mit 2560x1440 + DLSS Quality vergleichbar ist am PC, hat die 4090 viermal so viele FPS wie die PS5.
 
Wolfgang schrieb:
Generell AV1 encodieren ist nicht das Problem. Das Problem sind 2 oder 3 Streams gleichzeitig. Da machen dann auch GPUs die Grätsche, die einen 4K60-AVC1-Stream durchaus beschleunigen können.
Es geht mir nicht darum HEVC oder AV1 zu enkodieren, sondern um einen popeligen Mini-Film zu decodieren. Allerdings: Eine GPU, die den entsprechenden Codec enkodieren kann, wird i.d.R. auch dekodieren können.

Wozu soll man da unbedingt mehrfache Streams benötigen? Einer sollte zum Anschauen reichen. Klar ist "mehr" in dem Falle auch besser. Ich kann die Filme unter Win10 leider gar nicht anschauen. Mal sehen, ob Linux da vielleicht bessere Treiber-Unterstützung parat hält...
 
TenDance schrieb:
RT wie es in DX implementiert ist, forciert aber einen Berechnungsweg der sehr stark auf nVidias Karten zugeschnitten ist.
Wie kommst du darauf? DXR setzt beschleunigung durch Hardware voraus. Wie man das implementiert, steht jedem frei. AMD hat einen anderen Ansatz gewählt, welche eben nicht so gut ist. Intel kann es ja auch recht performant, also ist es eben nicht nur Nvidia vorbehalten.

TenDance schrieb:
Oder umgekehrt. Was bedeutet dass AMD das nicht einfach kopieren konnte, weil copyright. Lumen zum Beispiel ist da sehr viel flexibler.
Lumen ist nicht flexibler, sondern rein softwarebasiert und daher schlechter/langsamer.
Siehe z.B. Desordre Lumen vs RTXDI: https://www.pcgameshardware.de/Unre...I-Raytracing-DLSS-Frame-Generation-1426790/2/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bademeister69, MoinWoll, Taxxor und eine weitere Person
csch92 schrieb:
warum werden spiele immer schlampiger optimiert?
nicht jeder kann sich eine 4090 leisten, das sollten die Entwickler auch mal wissen.

ich hoffe rockstar bringt da mit gta 6 eine kleine Revolution
Hat fefe mal was zu geschrieben. Problem ist die Engines sind zu komplex und dann sind noch dermaßen viele addons wie RT, FSR, DLSS usw mit dabei. Das alles aufeinander zu optimieren... Dann würden Spiele 1000 € kosten. Aber man bräuchte keine gpu für 2000 € 😄
Auch Lasten sauber auf viele CPU Kerne zu verteilen ist auch nicht wirklich einfach. Ich sage mal, das die Spiele überhaupt so laufen ist schon ein Wunder.
 
VRAM-Geschichte ist lange bekannt, mir ein Rätsel, warum ihr die Karten noch immer kauft.
 
  • Gefällt mir
Reaktionen: Apocalypse
TenDance schrieb:
Lumen zum Beispiel ist da sehr viel flexibler.
Und jetzt liest du dir mal durch was Voraussetzungen für Lumen ist ..
Du schmeißt verschiedene Themen durcheinander.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Zu den Schwachstellen des Spiels zählt laut Tests zudem die Story. Sie sei „kompletter Mist“ (GameStar) und Charaktere eindimensional. Im Grunde also liefert Ubisoft dem Vernehmen nach nicht mehr oder weniger als es die Kinofilme vermochten.
Gute Stories und Charaktere zu schreiben ist natürlich hohe Kunst. Dennoch schade, dass davon anscheinend auch hier nicht viel zu erwarten ist. Würde mir wünschen, der Schwerpunkt täte sich deutlich mehr in diese Richtung verlagern.
 
Zurück
Oben