• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

DJMadMax schrieb:
@Wolfgang @Jan und co.:

Ich freue mich ja, dass ihr immer schaut, was technisch machbar ist und bei vielen Themen an's Limit geht. Gleichzeitig stört mich genau dies aber immer wieder bei den Spiele-Tests.

[...]

Vor Allem, wo doch das Hoch-Preset und oftmals sogar mittlere Settings in solchen Spielen sich visuell überhaupt nicht oder wenn, dann nur vollkommen unwesentlich vom "Ultra-Super-Todes-Metal-Of-DooM"-Preset unterscheiden?

Woher soll ich z.B. (oder tausende andere Leser, die keine Grafikkarte für vierstellige Beträge besitzen) wissen, wie Avatar: Frontiers of Pandora auf meinem System flüssig zum Laufen zu bringen ist?
Hä? Gibt es nicht genau dafür den Testabschnitt, welchen Leistungsunterschied die Presets machen? Mit einem einfachen Dreisatz kann damit problemlos für jede Auflösung die zu erwartenden FPS jedes Presets ermittelt werden
 
GameOC schrieb:
Irgendwie ist das wie mit allen im Technikbereich, neue Technik kaufen, ein Jahr benutzen, wieder abstoßen und neue Technik (Generation) kaufen.
Naja. Ich hab meine 2022 geholt. Wenn nach allem was man so weiß nix vor 2025 kommt, dann sind das drei Jahre. Alle drei Jahre mal das Werkzeug wechseln finde ich jetzt nicht direkt dramatisch. Ist ja nicht so als ob man von heute auf morgen überhaupt nichts mehr spielen kann.

Nur halt nicht den geilsten Scheiss in den höchsten Auflösungen. Und wer diesen Anspruch hat muss halt hinlegen. In welchem Hobby ist das nicht so ?
 
Schon merkwürdig das Ubisoft einerseits beide Upsampling-Verfahren (FSR und DLSS)im Spiel implementiert hat aber bei der Zwischenbild Berechnung in Form von Fluid Motion Frames und Frame-Generation, nur das AMD Pendant unterstützt.

Hat man etwa Angst um den direkten Performance-Vergleich?
 
  • Gefällt mir
Reaktionen: CrustiCroc
MrHeisenberg schrieb:
Warum nicht? Wo ist das Problem und warum siehst du es als sinniger an, das Bild mit Bruteforce zu berechnen, wenn es besser geht?
es ist aber nicht pauschal immer besser.

MrHeisenberg schrieb:
Die benötigte Leistung steigt nicht linear zur Grafik, sondern exponentiell. Das muss also keine schlechte optimierung sein, auch wenn von Usern wie dir sowas gern behauptet wird. Nachweisen konnte das von euch noch niemand.
Wer sagt denn sowas bitte? Computergrafik ist kein physikalisches Phänomen wie der Windwiderstand. Es gibt Spiele, die sehen scheiße aus und laufen miserabel, während es Spiele gibt die toll aussehen und gut performen.
Pandora ist so ein Mittelding. Die Vegetation sieht cool aus, das Wasser sieht richtig mies aus, die Umgebunsverdeckung und Schatten sind so lala (bei so üppiger Vegetation erwarte ich wesentlich mehr Schatten und Kontraste), die shader auf den Charaktären sind angemessen. Wirklich umhauen tut mich da nix. Da sind die Wälder und der Sumpf von red dead redemption 2 wesentlich atmosphärischer und schöner anzusehen irgendwie. Aber wie du ja schon erwähnt hattest, braucht das Spiel noch heute viel leistung und damals erstrecht.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Rainbowprincess schrieb:
es ist aber nicht pauschal immer besser.
Das ist richtig, aber wenn nicht, wie viel schlechter ist es dann und rechtfertigt es den Verzicht von 50% der FPS? Eher nicht.

Rainbowprincess schrieb:
Da sind die Wälder und der Sumpf von red dead redemption 2 wesentlich atmosphärischer und schöner anzusehen irgendwie. Aber wie du ja schon erwähnt hattest, braucht das Spiel noch heute viel leistung und damals erstrecht.
Das ist aber genau der Punkt, den ich meine. Du findest RDR2 optisch ansprechender, aber ist es qualitativ auch wirklich besser?
Das Bild von Avatar mag keine Grafikpracht sein aber die Summe an Details ist weitaus höher als bei RDR2.
RDR 2 war recht kahl und die Vegetation war nicht so dicht und detailreich wie bei Avatar.

Schau dir die Bilder an und achte dabei auch auf die Distanz:
https://pics.computerbase.de/1/1/0/2/6/5-880764e7811fb9d2/9-1080.97c9055f.jpg
https://pics.computerbase.de/1/1/0/2/6/5-880764e7811fb9d2/24-1080.382078d8.jpg

Selbst in der Ferne scheinen die Wälder noch dicht bewachsen zu sein. Die Menge der Assets macht den Kohl halt auch fett, auch wenn sie qualitativ schlechter oder unglaubwürdiger sind als in anderen Spielen.
Drawdistance frisst extrem viel Leistung.

Ich stimme dir zu. Optisch finde ich RDR2 auch stimmiger, aber neutral betrachtet, muss man Avatar zugestehen, dass die Vegetationsdichte und Drawdistance weitaus höher sind.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Daddi89 und Quidproquo77
Obvision schrieb:
Hä? Gibt es nicht genau dafür den Testabschnitt, welchen Leistungsunterschied die Presets machen? Mit einem einfachen Dreisatz kann damit problemlos für jede Auflösung die zu erwartenden FPS jedes Presets ermittelt werden
Hilf mir bitte, ich muss das überlesen haben. Wo steht das denn? :)
 
Da wischt die 4090 einfach den roten Boden auf, warum wird dann hier FG weggelassen?
 
Da meine Specs für den Teil nicht reichen hole erstmal den 2009 Teil haha
 
  • Gefällt mir
Reaktionen: GameOC
Obvision schrieb:
Hä? Gibt es nicht genau dafür den Testabschnitt, welchen Leistungsunterschied die Presets machen?
Wenn du diesen Testabschnitt verlinken könntest?^^
Ich sehe nur einen Vergleich der RT Settings, aber keinen der allgemeinen Grafikpresets
Ergänzung ()

Tronx schrieb:
Da wischt die 4090 einfach den roten Boden auf, warum wird dann hier FG weggelassen?
Hätte FMF hier Probleme wie in den ersten beiden Spielen, könnte ich nachvollziehen, dass man als Nvidia Nutzer lieber auch FG drin hätte, aber da FMF hier ja super zu funktionieren scheint, sehe ich nicht wirklich einen Grund für FG in dem Fall.
 
@Abrexxes
Ja das stimmt, für uninformierte kann sich das so darstellen. Wobei ich zumindest erwarte das die PC User zumindest wissen das es verschiedene Settings gibt.

Ich empfehle da aber auch immer diesen Kanal von YouTube:


Da sieht man erst mit wie wenig Hardware man heutzutage spielen kann, wenn der einzige Anspruch ist "es läuft".
 
  • Gefällt mir
Reaktionen: Abrexxes
Ich habe das Gefühl, dass Grafikkarten unter 1000€ nie für 4k reichen. Auf dem Markt passiert gar nichts mehr außer das die Preise steigen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und GameOC
MrHeisenberg schrieb:
Du sprichst hier sämtlichen Entwicklern und Testern (PCGH, CB und co.) ihre fachliche Kompetenz ab.

Der deutschen Testszene spreche ich mittlerweile in der Tat Defizite in der Wahrnehmung und/oder Intention zu. Anders ist das "Upsacling ist besser (in 4k) -> Upscaling ist immer besser Mantra nämlich nicht zu erklären, anstatt die teils deutlich sichtbaren Probleme klar zu benennen. Lieber werden teils haarsträubende Vergleiche (als nativ) herangezogen und die Aussagen nicht klar differenziert. Das geht schon seit Monaten so.

Deutsche Sonderwege sind aber auch nicht unüblich, insofern passt es dann schon wieder.

Die Grafik in diesem Spiel rechtfertigt jedenfalls nicht den Leistungshunger, ein Blick auf die Reflexionen sollte reichen. So einfach ist das.
 
  • Gefällt mir
Reaktionen: FX-Multimedia, PegasusHunter und Tanzmusikus
@Fresh-D , danke, genau, aber wirklich genau das mein ich. Ohne Zweifel ist cb für kundige und Freaks Gold wert. Und an den Beiträgen kann ich sehen das hier viele Pro's unterwegs sind, aber auch die haben was Games angeht zuhause sicher oft kleinere Kisten. Zb Admins/Informatiker bei Bauhau die halt nicht die bestbezahlten Jobs haben.

Also, wenn es denn machbar ist, wenn nicht schauen wir halt Werbung mit Youtube.
 
hemmi1982 schrieb:
Ich habe das Gefühl, dass Grafikkarten unter 1000€ nie für 4k reichen. Auf dem Markt passiert gar nichts mehr außer das die Preise steigen.
Wieso die 4080 bekommt doch >60fps hin und kostet im Angebot 999€ ;-)
 
StuffedLion schrieb:
Da zeigt sich doch sehr schnell, dass Nvidia uns ganz schöne vram Krüppel verkauft hat.

Die 12gb meiner 4070ti sind echt ein schlechter Scherz und jetzt schon nicht mehr ausreichend
Wenn in 4K noch ausreichend Speicher vorhanden wäre.. Wäre die 7900 XTX sogar in schlagweite.

Trotzdem gutes Ergebniss für die 4070 TI. Dann geht man ebend auf DLSS Balanced runter wenn man in 4K spielen will.
 
Wolfgang schrieb:
Ja, das hatte ich befürchtet...Dann beim nächsten Mal wieder zurück zu H.264...
Leider ist dieser ganze Patente und Lizenz Irrsinn mit HEVC genau der Grund warum sich H264 (guter Codec keine Frage gibt aber halt mittlerweile bessere) so lange hält, da war da noch "gesünder" gelöst. Naja AV1 soll das ja irgendwann übernehmen, spätestens wenn euer Aufzeichnungssystem mal erneuert wird kann es ja nochmal einen Anlauf geben H264 zu ersetzten. KOmmt eigentlich nochmal ein Vergleich zwischen den Encoding fähigen von ARC ADA und RDNA3? Damals zum Release ist es ja am Software Support gescheitert.
 
Zurück
Oben