• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

@Wolfgang warum bannt ihr die nicht einfach weg?
Es sind immer die gleichen User, die Stress in solchen Threads machen, gegen neue Technologien wettern und sich von niemandem irgendwas sagen lassen. Im Alan Wake 2 Thread hat er euch auch schon vorgeworfen, unseriös zu sein.
Das führt zu nichts und sie lassen es auch nicht sein. Irgendwann müsst ihr doch mal reagieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: msv, Roach13 und patze812
Ich mochte die Avatar Filme bisher sehr und finde die Story deshalb auch alles andere als lahm oder langweilig.
Klar, dass Menschen die Ressourcen von anderen Planeten rauben, ist nichts neues und gibt es wie Sand am Meer.
Dabei aber als Avatar in die Rolle einer anderen Spezies schlüpfen und sich untermischen, kam bisher aber eher selten bis gar nicht vor.

Daher bin ich auf das Spiel mehr als gespannt und freue mich die wunderschöne Spielwelt selbst erkunden zu können.

Heute abend isses jedenfalls soweit :)
 
  • Gefällt mir
Reaktionen: slamaa
@Wolfgang

ComputerBase hat für die ICAT-Vergleiche zum ersten Mal den HEVC-Codec anstatt wie bis jetzt immer H.264 genutzt. Wie sich im Nachhinein herausgestellt hat, kann Chrome als Browser gut damit umgehen (die Redaktion hat nur mehrere Systeme mit Chrome getestet), Firefox und Edge (und offenbar Safari) aber nicht. Dort gibt es dann eine Fehlermeldung beziehungsweise ein schwarzes ICAT-Fenster. Entsprechend wird ComputerBase beim nächsten Mal wieder H.264 als Codec einsetzen, für die Avatar-Videos gibt es aktuell jedoch leider keine Lösung, die nicht viel Zeit in Anspruch nehmen würden. Die Redaktion bittet dies zu entschuldigen.

DAS betrifft nicht nur Leute die etwas anderes als Chrome verwenden sondern auch Chrome User die keine Grafikkarte im System haben die in Hardware X265 decodieren kann! Ich bin grade an meinem neueren aber doch alten Office PC mit Ryzen 2700X , 16GB Ram , Samsung 980SSD und nur einer GTX 970. Was fürs surfen aber auch sogar immer noch viele Games kein Problem ist aber euer Iframe mit H265 schon! Nunja siehe Bild:

cb@x265.jpg


Auch hier bleibt trotz Google Chrome sobald man das H265 Frame aktivieren will der ganze Chrom nach einer Sekunde stehen (das Kreis Symbol da dreht nicht weiter). Aber wenn man in den Tastmanager schaut, nein er ist nicht abgestützt (Chrome Auslastung Schwankt zwischen 0-3,5%) sondern Chrome wartet darauf das "in Software" das H265 Frame berechnet wird (ich hatte beim ersten Klick mehrere Tabs auf das warten wirkt sich auf alle aus, ganz Chrome wartet...) was aber eben nicht wirklich bzw. unendlich langsam passiert siehe Auslastung CPU/GPU weil nichts der CPU sagt mach du nun mal und die Grafikkarte kann es ja nicht in Hardware da X264 maximum ist was als "Hardware Decode" unterstützt wird. Praktisch alles bis GTX10x0 bzw. unter RTX 20x0 was ja enorm viele Karten bedeutet ist hier außen vor...bei AMD wird es ja genauso sein...

Ihr sollte wie es Videoportale wie YouTube und Co. tun und eine Erkennung einbauen ob die Video Hardware H265 kann und wenn nicht die H264 Dateien senden...sprich die Integration sollte wie bei Videoportalen easy sein und ihr spart trotzdem Internettrafik ohne das jemand ausgeschlossen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
FX-Multimedia schrieb:
Sorry, aber jeder der nicht erkennt das diese Techniken die Vergleichbarkeit verwaschen hat in seiner Logik einfach einen Fehler gemacht. Denn es liegt auf der Hand. (Unabhängig von Vor- oder Nachteilen dieser Techniken)
Dann sei doch so gut und erkläre und mal, wie sie die Vergleichabrkeit verwaschen.

Welche Vergleichabrkeit überhaupt? Die der GPUs untereinander kannst du ja wohl nicht meinen, denn wenn jede GPU mit Upsampling getestet wird, hat auch jede GPU die gleichen Voraussetzungen.
 
  • Gefällt mir
Reaktionen: msv, Quidproquo77 und MrHeisenberg
FX-Multimedia schrieb:
Sorry, aber jeder der nicht erkennt das diese Techniken die Vergleichbarkeit verwaschen hat in seiner Logik einfach einen Fehler gemacht. Denn es liegt auf der Hand. (Unabhängig von Vor- oder Nachteilen dieser Techniken)
Wenn alle Grafikkarten auf die selbe Art und Weise getestet werden wo wird dann genau das Ergebniss verwaschen?
 
  • Gefällt mir
Reaktionen: Taxxor
@Taxxor
Muss ich dir das echt erklären? Wie vergleichst du Karten welche diese Techniken nicht supporten mit den aktuellen? Wie vergleichst du z.b. Karten welche nur DLSS 2 können mit Karten welche dann DLSS 3 nutzen? Das gleiche Spiel mit FSR. Das ist doch dann totaler Murks.

Von daher sollte man zumindest in Benchmarks bzw. Tests neuer Hardware nur die native Ausgabe testen, da die Vergleichbarkeit ansonsten nicht gegeben ist und auch Rückschlüsse auf die Leistungsfähigkeit der Hardware nicht wirklich plausibel sind.

Soll doch jeder verwenden was er möchte und was ihm gefällt, aber bei Tests sollte man doch Objektiv bleiben, denn je nach verwendeter Hardware ist es sonst mit Einsatz der Techniken ala DLSS/FSR "cherrypicking"

@Atnam
Nicht jede Karte kann DLSS/FSR (oder nur teilweise) bzw. liegt ihr weniger/mehr. Warum nicht neutral bei der nativen Ausgabe bleiben?


Ich dachte eigentlich das Neutralität bei Tests, egal welcher Art, selbstverständlich sein sollte.
 
  • Gefällt mir
Reaktionen: GreatEvil
FX-Multimedia schrieb:
Muss ich dir das echt erklären? Wie vergleichst du Karten welche diese Techniken nicht supporten mit den aktuellen? Wie vergleichst du z.b. Karten welche nur DLSS 2 können mit Karten welche dann DLSS 3 nutzen? Das gleiche Spiel mit FSR. Das ist doch dann totaler Murks.
Gut, anhand dieser Antewort verdeutlicht sich das Bild, dass du von den Techniken keine ahnung hast und einfach irgendwas drauf los schreibst.

Auch, dass du die Tests hier anscheinend nicht mal anschaust, denn falls du hier Frame Generation und Super Resolution durcheinander wirfst, weil du noch auf einem Stand bist, wo man SR DLSS2 und FG DLSS3 genannt hat: Das wird hier nirgends miteinander verglichen bzw in einem Ranking karten mit FG gegen Karten ohne FG verglichen und anhand dessen eine Bewertung gemacht.


Es gibt keine Karten, die DLSS2, aber kein DLSS3 können.
Jede RTX GPU kann DLSS SR 3.5.10 nutzen.


Und es gibt generell keine Karten(zumindest keine Karten der letzten 15 Jahre), die kein FSR3 können.
Auch hier: FSR3 ist nicht gleich FMF sondern erstmal nur FSR SR in Version 3.


In diesem Test hier wird jede Karte mit FSR SR Quality bzw DLSS SR Quality getestet, die Performance ist damit absolut exakt so vergleichbar, als wenn alle Karten nativ getestet werden würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna, Quidproquo77 und MrHeisenberg
FX-Multimedia schrieb:
Nicht jede Karte kann DLSS/FSR (oder nur teilweise) bzw. liegt ihr weniger/mehr. Warum nicht neutral bei der nativen Ausgabe bleiben?
Vielleicht schaust du dir nochmal an welche Karten wie getestet wurden.
Scheinst du bis jetzt zumindest nicht getan zu haben.

Vondaher nochmal: wo wurde bei dem Test hier irgendetwas verfälscht?
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und Taxxor
Das einzige, was man in der Diskussion eventuell bemängeln könnte und was auch hin und wieder mal erwähnt wurde (@Wolfgang) wäre, dass DLSS und FSR eben in der Bildqualität Unterschiede aufweisen.
Auch @Vitche hatte das schon öfters mal angesprochen.

Daher könnte man zumindest sagen, man testet für das Ranking alle GPUs, auch Nvidias, immer mit FSR, denn damit hat man sowohl was die Performancesteigerungen als auch die Bildqualität betrifft, gleiche Bedingungen für alle.

Denn wenn z.B. eine 4080 mit DLSS Q 40% mehr FPS als nativ bringt und eine 7900XTX mit FSR Quality ebenfalls 40% mehr FPS bringt, dann ist zwar die Performance der Karten grundsätzlich miteinander vergleichbar(das ist ja das was @FX-Multimedia möchte und eben auch aktuell der Fall ist), jedoch bleibt dann die Tatsache, dass oftmals DLSS Balanced von der Bildqualität vergleichbarer mit FSR Quality ist und dann kann man sich fragen, wäre es nicht auch "fair", die Performance der GPUs bei möglichst gleicher Bildqualität zu vergleichen. Das würde aber einen enormen Vorteil für Nvidia bedeuten, daher für die Vergleichbarkeit, sowohl in Performance als auch Optik, beide mit FSR.
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und Vitche
Taxxor schrieb:
Das würde aber einen enormen Vorteil für Nvidia bedeuten, daher für die Vergleichbarkeit, sowohl in Performance als auch Optik, beide mit FSR.
Einfach bei beidem FSR nehmen für die Benchmarks und DLSS nur im Bildqualitäts-Vergleich hätte aber den Nachteil, dass nicht sichtbar wird, wenn DLSS mal schwächer oder stärker abschneidet bei der Leistung. Und eben, wie du schon erklärt hat, wenn man die gleiche Qualität auf einer GeForce mit besserer Performance bekäme, wenn man DLSS verwendet. Wie man es dreht und wendet, die Vergleichbarkeit ist inzwischen in der Tonne. ^^
 
@Atnam
Ich frage mich wirklich wie weit manche Menschen denken, Tellerrand usw... ;)

Wenn die neuen Generationen der Grafikkarten draußen sind, und die "GeForce RTX 5090" dann bei dem Spiel DLSS4 nutzt... wie vergleichst du dann Objektiv wieviel Mehrleistung diese Karte verglichen zu RTX 4090 hat? Ggf. ist DLSS5 nur effektiver und die FPS sind 50% höher obwohl die Hardware nur 10% schneller. Bei anderen Apps/Games fallen dir dann diese "angenommenen" 50% auf die Füße. (Avatar ist nur ein Beispiel. Oder Games welche später nur DLSS4 können... die 4090 aber nicht... )

Klar, warum testen wir Autos auf einem Prüfstand mit KW/PS... lasst uns doch was Anderes als Referenz definieren, weil eine Software vom Fahrassistenten die Leistung besser auf die Straße bringt dank besserer Traktionskontrolle usw.

Es sollte doch eigentlich einleuchtend sein das, zumindest für Tests, solche Testpraktiken nicht objektiv und zielführend sind.
 
Zuletzt bearbeitet von einem Moderator: (Typo)
Vitche schrieb:
Einfach bei beidem FSR nehmen für die Benchmarks und DLSS nur im Bildqualitäts-Vergleich hätte aber den Nachteil, dass nicht sichtbar wird, wenn DLSS mal schwächer oder stärker abschneidet bei der Leistung.
Kompromiss wäre, das Ranking mit allen Karten nur mit FSR zu machen und im Abschnitt der Bildvergleiche, wie es ja bereits mit den Grafik Presets gemacht wird, exemplarisch eine AMD und eine Nvidia Karte mit DLSS und FSR zu vergleichen
Ergänzung ()

FX-Multimedia schrieb:
Wenn die neuen Generationen der Grafikkarten draußen sind, und die "GeForce RTX 5090" dann bei dem Spiel DLSS4 nutzt... wie vergleichst du dann Objektiv wieviel Mehrleistung diese Karte verglichen zu RTX 4090 hat? Ggf. ist DLSS5 nur effektiver und die FPS sind 50% höher obwohl die Hardware nur 10% schneller. Bei anderen Apps/Games fallen dir dann diese "angenommenen" 50% auf die Füße.
Du sprichst hier von Dingen, die aktuell überhaupt nicht der Fall sind und womöglich auch nie so sein werden.

Stand jetzt werden alle Karten mit den gleichen Voraussetzungen verglichen, Punkt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
@Taxxor
Wehret den Anfängen!

Denn bei zukünftigen Titeln fehlen dir, genau wegen dieser "Mislogik", die gleichen Voraussetzungen. Dann viel Spaß beim "vergleichen". Das kannst du dann komplett in die Tonne treten und kannst nur noch beurteilen welche Software besser ist (DLSS/FSR) aber nicht mehr die Hardware.
 
Zuletzt bearbeitet von einem Moderator: (Typo)
FX-Multimedia schrieb:
Denn bei zukünftigen Titeln fehlt dir, genau wegen dieser "Mislogik", die gleichen Voraussetzungen.
Wer sagt das?
Es wird immer der gemeinsame Nenner getestet werden. Alles andere sind haltlose Unterstellungen.

Das erinnert an die Leute, die damals bei der Homoehe geschrien haben, dass man das ja unbedingt verhindern muss, weil wenn das erst mal durch ist, man auch bald ein Pferd heiraten dürfe.

Wenn eine 5090 unter einem zukünftigen DLSS 4.0 ein weiteres Feature bekommen würde, zusätzlich zu Super Resolution und welches die älteren Karten nicht nutzen können, dann werden 5090 und 4090 auch im Ranking mit DLSS Super Resolution 4.0 verglichen, wie jetzt auch schon 4090 und 3090 unter Einsatz von DLSS SR 3.5 miteinander verglichen werden und nicht DLSS SR vs DLSS SR + FG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
FX-Multimedia schrieb:
Ich frage mich wirklich wie weit manche Menschen denken, Tellerrand usw... ;)
Du gehst einfach Null auf die Argumente anderer ein die dir aufzeigen das du ganz offensichtlich nicht richtig informiert bist.
Arroganz im Endstadium.

Denn das folgende hier zeigt mal wieder das du keinen Plan hast oder dir jetzt Fälle zusammen baust die nicht relevant für die aktuelle Diskussion sind.
FX-Multimedia schrieb:
Wenn die neuen Generationen der Grafikkarten draußen sind, und die "GeForce RTX 5090" dann bei dem Spiel DLSS4 nutzt... wie vergleichst du dann Objektiv wieviel Mehrleistung diese Karte verglichen zu RTX 4090 hat?
Dazu müssten man dann erstmal abwarten ob DLSS4 SR dann auch nur von der 5000er Reihe unterstützt wird oder ob es weiterhin so ist wie aktuell und DLSS 3.5.x SR auch runter bis zur 2000er Serie supported werden.

Wie gesagt, du hast dich ganz offensichtlich nicht mit den Presets beschäftigt die für den Test verwendet wurden sondern es wurden nur Features eingesetzt die von allen Karten nutzbar sind die getestet wurden.

Meine 3080 unterstützt auch DLSS 3.5.x SR, was sie nicht unterstützt ist Frame Generation, Frame Generation (oder AMD FMF) sind aber nicht Bestandteil des Tests.
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und Taxxor
UVLWheezle schrieb:
Wenn schon 4K-Monitor, dann auch eine Grafikkarte die auch dafür designt wurde.
Nicht wirklich, ich teile da die Einstellung von Monitors Unboxed, dass man von einem gescheiten hochauflösenden Monitor deutlich mehr hat als von einer sehr teuren High-End Grafikkarte, die in einigen Jahren die Auflösung nicht mehr wird leisten können wegen ohnehin steigender dGPU-Anforderungen der Spiele, wohingegen der Monitor das immer noch locker leisten wird können ;).

Grafikkarten sind viel schneller vergänglich als PC Monitore und werden deutlich kürzere Zeit genutzt und der optische Unterschied/Mehrwert ist beim Monitor-Upgrade i.d.R. auch spürbarer als bei einem Grafikkarten-Upgrade, insbesondere in Zeiten von OLED und HDR.

Ergo, lohnt es sich vorausschauend einen 4K/UHD Monitor zu kaufen, wenn man einen guten Deal bekommt, denn mit diesem kann man auch noch locker andere/niedrigere Auflösungen übergangsweise darstellen auf einer Grafikkarte die aktuell nicht mehr High-End ist und die ganzen älteren, oft reduziert zu kaufenden, weniger anspruchsvollen 4K/UHD Spiele als die aktuellsten zum Vollpreis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna
@Atnam
Das ist keine Arroganz sondern Logik.
Und welche Argumente? Habe bis jetzt, objektiv, nicht eins gesehen.

Egal wann, irgendwann hast du die Situation das neue Hardware eine Version unterstützt welche die Alte eben nicht mehr kann. Und dann bist du an den Punkt den ich versuche dir, und anderen, aufzuzeigen. Dann liegt das Kind aber bereits im Brunnen und eine Vergleichbarkeit ist nicht mehr gegeben.

Nicht ohne Grund gibt es Standards und Normen. Als Praxisbeispiel nannte ich nicht ohne Grund das Auto mit KW/PS. Aber offensichtlich sind viele so von der eigenen Aussage überzeugt das die Plausibilität meiner Ausführung nicht erkannt wird. Ein weitere Diskutieren macht auf dieser Basis keinen Sinn mehr, weshalb ich mich bei dem Thema jetzt auch ausklinke.

Irgendwann werdet ihr vielleicht nochmals an meine Ausführungen/Kritik denken. ;)
 
Hab jetzt auch richtig Bock auf das Spiel bekommen nach dem longplay auf Youtube.

Das ist endlich mal was gutes. Story und Charaktere sind zwar ultraflach.
Aber unsere Lieblingsspiele von früher hatten auch flache Storys und flache Charaktere. Ist ja nicht so dass zB ein GTA 3 nur so vor einer ultraspannenden Story gestrotzt hat.
 
  • Gefällt mir
Reaktionen: slamaa, frames p. joule, TheHille und eine weitere Person
FX-Multimedia schrieb:
Egal wann, irgendwann hast du die Situation das neue Hardware eine Version unterstützt welche die Alte eben nicht mehr. Und dann bist du an den Punkt den ich versuche dir, und anderen, aufzuzeigen. Dann liegt das Kind aber bereits im Brunnen.
Nein, dann wird einfach mit den Features getestet die alle unterstützen, genau wie jetzt auch die 4000er im Ranking nicht das volle Featureset von DLSS 3.5 nutzen, selbst wenn das Spiel es anbietet, sondern nur Super Resolution, weil sie sonst eben nicht mehr vergleichbar mit den anderen Karten wären.

Das einzige was du hier aufzeigst sind, wie schon erwähnt, haltlose Unterstellungen darüber wie hier in 5 Jahren evtl. unfair getestet werden könnte.

DLSS FG gibts nun seit über einem Jahr. Wurden seitdem hier nur noch 4000er Karten mit FG gegen AMD und ältere Nvidia Karten ohne FG verglichen für ein Performance Ranking? Nein, du aber meinst dass das sowas Zukunft der Fall wäre
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
FX-Multimedia schrieb:
Das ist keine Arroganz sondern Logik.
Und welche Argumente? Habe bis jetzt, objektiv, nicht eins gesehen.
Wie gesagt, du bist immernoch nicht darauf eingegangen das du anscheinend nicht die Presets des Tests gechecked hast bevor du hier rumgemeckert hast das die Ergebniss verfälscht sind.
Das ist Arroganz und ganz bestimmt keine Logik.

FX-Multimedia schrieb:
Egal wann, irgendwann hast du den Punkt das neue Hardware eine Version unterstützt welche die Alte eben nicht mehr. Und dann bist du an den Punkt den ich versuche dir, und anderen, aufzuzeigen.
Das ist aber für den Test hier aktuell irrelevant und um den geht es doch.
Du hast natürlich Recht das man nicht Grafikkarten mit verschiedenen Feature Sets über mehrere Generationen im selben Benchmark anzeigen sollte, was hier aber nunmal nicht getan wurde.

Man hat das bei Alan Wake z.B. gemacht und dafür gab es auch berechtigte Kritik.

Was bringt es mir denn wenn jetzt ein Test für Avatar mit Full Ray Tracing gemacht wird in nativ 4k und ne 4080 z.B. erreicht nur 15 fps oder so.
Welchen Mehrwert habe ich dadurch?
Ich sehe dadurch doch trotzdem nicht ob ich das Spiel mit den sonstigen möglichen Featuresets trotzdem spielen kann.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Taxxor
Zurück
Oben