• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

cypeak schrieb:
wieso wird dass einfach so hingenommen? wer verkündet den nun diese "neue wahrheit"?
ich finde es schade dass im grunde derart unkritsisch der nvidia argumentation in sachen upscaling gefolgt wird - und die fachmedien machen da auch noch brav mit... :rolleyes:
Weil das fachlich korrekt ist. Wenn es eine effizientere Art gibt 4k bilder zu erzeugen als mittels nativen rendering, dann soltle das die sein, auf die sowohl die Entwickler der Software als auch der Hardware sich fokussieren. Solange es Grafikkarten im Markt gibt, die diese Features nciht unterstützen, kann es sinnvoll sein Test ohne anzubieten. Wenn aber klar ist, dass die Grakas ohne diese Features sowieso nicht ansatzweise ausreichen, braucht man sie meiner Meinung nach auch nicht mehr ausführen.
 
  • Gefällt mir
Reaktionen: Daddi89, gartenriese, MiroPoch und 4 andere
Haldi schrieb:
Ich hab zwar nur das Benchmark Szene Video und die Par Screenshots gesehen.
Aber irgendwie sieht das Spiel nicht beeindrucken aus.

Muss man wohl doch selbst kurz spielen um wirklich beurteilen zu können.


Steht nirgendwo im Text drin oder hab ich das übersehen?
Das Spiel sieht sogar sehr beeindruckend aus :)
Und vorne in der ersten Tabelle steht das Release-Datum.
catch 22 schrieb:
Jaaa... das ist wohl leider so korrekt... allerdings, nicht minder korrekt ist dieser Ausspruch

dem ich ganz und gar beipflichten muss und um den ihr, die Computerbase Redaktion, euch aus journalistischer Sicht nicht drücken dürft!
Wir drücken uns nicht davor, wir haben aber eine andere Ansicht.
Die teilen wir dem Leser natürlich mit.
cypeak schrieb:
wieso wird dass einfach so hingenommen? wer verkündet den nun diese "neue wahrheit"?
ich finde es schade dass im grunde derart unkritsisch der nvidia argumentation in sachen upscaling gefolgt wird - und die fachmedien machen da auch noch brav mit... :rolleyes:
Mit der Zeit ändert sich Technik nun einmal.
Erst hat man nur in Full HD gespielt, dann in WQHD und dann in Ultra HD. Da ist auch nie jemand bei ausgerastet, wenn auf das eine etwas anderes folgt. Nun kommt halt Upsampling hinzu, das sich seit dem Turing-Launch massiv weiterentwickelt und verbessert hat. Mittlerweile sieht vor allem DLSS eigentlich immer gleichwertig, oft gar besser aus als native Auflösung. Bei deutlich besserer Performance. Warum sollte man das ignorieren? Warum will man da noch in nativer Auflösung spielen?

Das ganze ist natürlich nicht eine 1 oder 0, kein ja oder nein. Die Technik muss gut genug sein, um ein besserer Ersatz zu sein. In Ultra HD ist dies bei DLSS eigentlich immer so und auch bei FSR oft. Damit hat sich halt wieder einmal geändert, wie Spiele auf dem PC gespielt werden. Ich spiele seit 1996 auf dem PC. Hätte ich mich da andauernd bei etwas neuem geweigert...
Taxxor schrieb:
Es kommt mir so vor, als sind die Titel, bei denen es in Verbindung mit DLSS Probleme mit Ghosting gibt, in letzter Zeit bzw seit diesem Jahr deutlich häufiger geworden, kann das sein?
Sollte ich es irgendwann mal spielen und das immer noch der Fall sein, kann ich ja auch FSR nutzen, es scheint ja in den anderen Bereichen nicht so weit hinterher zu sein.

RT wirkt wirklich sehr ernüchternd hier, aber das war mit AMD als Technik-Partner auch nicht anders zu erwarten, ein paar Schatten hier und da und das wars.
Gerade im Dschungel hätte man so viel mit guter RTGI machen können.....
Ergänzung ()


Dafür gibts normalerweise am Anfang des Tests einen kleinen Abschnitt, wo die Presets miteinander verglichen werden auf je einer AMD und einer Nvidia GPU. Das kann man immer ganz gut zum Hochrechnen auf die anderen GPUs nutzen.
Wäre sowas hier im Nachgang noch drin @Wolfgang ?
Ja, das Ghosting hat mit DLSS in letzter Zeit definitiv zugenommen, dass ist mir auch schon aufgefallen.

Bei RT frage ich mich immer: Ja, mehr RT wäre sicher schöner, aber ist das noch ein sinnvoller Kompromiss? Was muss dafür geopfert werden (wegen fehlender Leistung)? Und wenn ich Avatar sehe (bzw. anstaune), dann will ich nicht, dass für mehr RT etwas anderes geopfert wird. Das Spiel sieht so toll aus, auch mit RT-Light :)
Maxysch schrieb:
Gehen bei euch die Videos mit FSR/DLSS Vergleich? Bei mir bleibt es schwarz oder stehe ich auf dem Schlauch :freak:
Diejenigen, die Probleme mit den ICAT-Videos haben:
Gehen bei euch ältere ICAT-Videos? Wie zum Beispiel die hier?

https://www.computerbase.de/2023-10...chnitt_amd_fsr_und_nvidia_dlss_in_der_analyse
 
  • Gefällt mir
Reaktionen: Ghostfacekalle, Daddi89, berkeley und 17 andere
In Ultra HD erzeugt AMD FSR allerdings ebenfalls richtig gute Ergebnisse und kann auch in WQHD benutzt werden.
Eine ziemlich unnötig elitäre Aussage, natürlich kann FSR immer benutzt werden wenn auch die Qualität manchmal suboptimal ist, zumal normale Gamer keine Pixel-Polizei sind.

Ansonsten gut zu sehen das AMD FSR3 gefixt hat, kann man nur hoffen das es dabei verbleibt und auch die anderen 2 Games mit FSR3 gefixt werden.

Angesichts der suboptimalen Performance von Radeon würde es mich allerdings wundern wenn hier kein RT-Core benutzt wird. Und wenn nicht wäre es noch komischer, würde das doch normal Radeon favorisieren. Eigenartige Engine.
 
Selbst mit 16 GB kann es noch eng werden, absolut problemlos funktioniert Avatar bei vollen und wirklich sehr detailreichen Texturen erst ab 20 GB VRAM. Dann läuft auch beim Umschalten der Grafikdetails der Speicher nicht mehr über.
Das klingt aber nicht nach "es benötigt viel VRAM" sondern eher nach "technisch nicht sauber umgesetzt" - denn nach einem Neustart müsste es ja dann klappen und wer stellt alle zwei Minuten sämtliche Details um ausser Bencher ?
 
  • Gefällt mir
Reaktionen: xXBobbyXx, JonaHH, Nefcairon und eine weitere Person
Finde die Kommentare zu DLSS/FRS immer witzig. Ich hatte noch nie ein Szenario in welchem ich diese Option in Quality nicht verwendet würde (spiele persönlich in 4k) solange ich über 1080p spiele. Für 1080p würden native Benchmarks natürlich Sinn machen, darüber jedoch nicht. Die Entwicklung von Spielen wird und sollte sich in Zukunft auf DLSS/FSR stützen.

Die Diskussion, ob diese grafischen Entwicklungen bei der aktuellen Performance Sinn machen, ist natürlich etwas anderes (aktuell nicht). Hätte nichts dagegen, wenn alles auf TLOU2 Niveau oder sogar leicht schlechter bleibt und hingegen FPS verbessert werden.. Ich spiele persönlich sowieso wenige Spiele, die auf Realismus setzen, da diese sehr oft sehr ähnlich im Gameplay sind.
 
  • Gefällt mir
Reaktionen: Daddi89, gartenriese, JMP $FCE2 und eine weitere Person
Und wieder ein kontroverses Spiel das in der perf extrem reinhaut ohne wirklichen optischen Vorteil
Das meine rtx3060 am ende steht ist verwunderlich und schreit nach nen partiellen cpu limit was auf die Datenstream hindeutet.
Also mal patches abwarten.
Dazu dass nach den patches in starfield bekam ich aus meiner rtx3060 +20%& an perf Zuwachs von 27 auf 33fps.
Die stelle war sehr fordernd auf nen Planeten
Das mal als vergleich das man zu release kaum perf Test machen kann bis das gefixt wird.


Inhaltlich eher far cry, gerne doch mein ding
Aber wie so vieles dieses Jahr auf die Warteliste der "Berg der Schande" muss mal abgetragen werden.
Derzeit wrc (2010), west of dead, horizon chase 2, strange brigarde, ac liberation HD.
Muss noch einige indie Titel erledigen
von ubisoft kommt mirage und das hier (avatar) in meine Sammlung rein
Diese Jahr war teuer und es fehlen einige Titel noch, das meiste ist aber in der Ue4 engine daher ist die perf sehr vorhersehbar
ich setze hier mal aus da keine Prio ähnlich dem mirage
 
Endlich mal wieder ein VRAM Fresser, war ja nach Alan Wake, Starfield und CP77 DLC kaum auszuhalten. Aha ... ein AMD Titel! Dazu noch keine Hardware RT. Ein Schelm, wer ....

Sei es drum, mal sehen ob mein 12GB Speicherkrüppel für UWQHD noch reicht.
 
  • Gefällt mir
Reaktionen: Icke-ffm, JonaHH und OldManOfWoods
Pelzi schrieb:
Weil das fachlich korrekt ist.
das ist nicht als eine behauptung. ich kann mich hinstellen und genau das gegenteil als "fachlich korrekt" betitteln..
das was du schreibst ist genau das: es ist so eine "es ist so, weil es so ist" argumentation - und das hilft nicht.
Pelzi schrieb:
Wenn aber klar ist, dass die Grakas ohne diese Features sowieso nicht ansatzweise ausreichen, braucht man sie meiner Meinung nach auch nicht mehr ausführen.
wie bitte? also ist im grunde die misserable (grund)performance ok und eine entschuldigung dafür dass es "nur" mit upscaling läuft?
 
  • Gefällt mir
Reaktionen: xXBobbyXx, bad_sign und Yar
Wolfgang schrieb:
Das wird immer weniger in Zukunft werden, bis es dann irgendwann gänzlich wegfällt. Native Auflösung stirbt aus. Bei Ultra HD fasst jetzt schon und mit der Zeit auch in WQHD und dann in Full HD. Das wird sich auch nicht mehr ändern.
warum eigentlich? Die Leistung, welche die neuen Spiele mit diesen Skalierungstechnologien abliefern ist auf dem Niveau, auf dem früher in nativer Auflösung abgeliefert wurde. Mit dem Unterschied, dass man in irgend einer Form Qualitätseinbußen hat. Sei es ghosting oder andere kleine Bildfehler und der Tatsache, dass diese Spiele diese Leistungseinbußen mit ihrer Optik nicht rechtfertigen können.
Daraus könnte man die Erkenntnis ziehen, dass die upscaling-Technologien ein freifahrtsschein für die Spieleindustrie ist, schlampiger zu arbeiten und keinen feuchten auf Optimierungsarbeit zu geben.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Clany, Hardwarious und 15 andere
Die Anforderungen sind im erwarteten Rahmen. Natürlich hat der AMD Titel kein Hardware RT, natürlich braucht er viel VRAM und natürlich gibt es Frame Generation nur in Form von FSR3 und nicht auch als DLSS3 wo man jetzt eh schon DLSS SR integriert hat. Aber für FG hat die Zeit natürlich nicht mehr gereicht. Ist ja nicht so, als gäbe es FG schon seit über einem Jahr und FSR3 FG erst seit kurzem. Lol.

Aber ich bin mit dem was ich da sehe trotzdem zufrieden. DLSS ist mit drin, ansonsten hat man die Option auf eine gute FSR Implementierung mit FG. Das geht schon in Ordnung.
Vor allem gibts keine Shader Kompilierungsruckler. Das ist die Hauptsache.

Schön, dass AMD gnädig genug war und den 16 GB Grafikspeicher der 4080 nicht überlaufen lässt in 4K mit Quality upsampling. Aber ich denke, wenn das passiert wäre hätte es auch Gegenwind aus den eigenen Reihen gegeben. Letztendlich ist es in zeiten von Virtual Textures, Virtual Shadowmaps, schnellem SSD Streaming und dem Verzicht auf Lightmaps dank Raytracing völlig unnötig so viel Speicher zu verbraten. Gerade bei der SnowDrop Engine hätte mich ein so starres und ineffizientes Speichermanagement sehr gewundert.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Bademeister69 und ThirdLife
Wegen ICAT:
Das war wohl ein Satz mit X (von mir).

Die neue von uns genutzte ICAT-Version (die sollte nicht das Problem sein) unterstützt neben H.264 nun auch HEVC und AV1. AV1 ist leider nicht nutzbar, da gleichzeitig 3 4K60 Streams mit dem Codec nur Ada Lovelace und RDNA 3 schnell genug beschleunigen kann.

Darum habe ich mal HEVC anstatt wie bis jetzt immer H.264 genutzt. Weil halt kleinere Dateien und trotzdem bessere Bildqualität. Mir war klar, dass es da zu Problemen kommen kann, ich wollte es aber einmal ausprobieren, weil es echt Vorteile gebracht hätte.

Nun, ich hatte es auf mehreren Rechnern ausprobiert, die nutzen leider aber alle Chrome. Chrome hat mit HEVC Streams keine Probleme, Firefox und Edge aber leider schon. Firefox zeigt fehlende Dateien an und Edge einfach einen schwarzen Bildschirm. Auf Chrome sollte dagegen alles einwandfrei funktionieren (wenn die Hardware schnell genug ist).

Nun, es war ein lohnenswerter Versuch, der ist aber leider fehlgeschlagen. Beim nächsten Mal gibt es wieder H.264. Die aktuellen Videos liegen aber nur in HEVC um, entsprechend kann ich die aktuellen ICAT-Videos leider nicht ändern. Bzw. nur sehr zeitaufwendig. Ich bitte das zu entschuldigen.
 
  • Gefällt mir
Reaktionen: OldManOfWoods, MouseClick68, Haldi und 4 andere
thornhill schrieb:
Ahoi,

welch überraschende Erkenntnis. Das ist er der Anfang...

gruß
thornhill

Ist nur nicht wahr. Hier liegt es an der alten Snowdrop-Engine. Nimmst Du da andere Spiele. die z.B. Unreal nutzen brauchst Du für die ähnliche/gleiche Qualität deutlich weniger VRAM. Gute moderne Engines skalieren mit unterschiedlichen Speichern und lagern Dateien unterschiedlich aus.

Bei Avatar scheint aber lediglich 90-95% des VRAM allokiert zu sein, benötigen scheint man es nicht wirklich. Bei der 3060Ti nimmt sich das Spiel unabhängig der Einstellung immer die gleiche Menge an Speicher.


Bei der 1650 ist es auch immer die gleichbleibende VRAM Auslastung.

 
Wolfgang schrieb:
Das wird immer weniger in Zukunft werden, bis es dann irgendwann gänzlich wegfällt. Native Auflösung stirbt aus. Bei Ultra HD fasst jetzt schon und mit der Zeit auch in WQHD und dann in Full HD. Das wird sich auch nicht mehr ändern.
genau - unsauber entwickelte Spiele, welche keine Optimierung mehr auf die Hardware haben - sind die Zukunft, ebenso wie das unschärfere nicht native Bild. :D

"Hey, man muss das spiel auf eine geringe Auflösung stellen, als das ihr damals Q3 gezockt habt - aber keine Sorge, irgend ein Upscaler wird das schon richten."
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Captain Mumpitz, bad_sign und 2 andere
DJMadMax schrieb:
- ähnlich wie auch mit den Autos, Handies, Smartwatches, etc., wo stets und ständig nur teuerste Derivate, aber nur äußerst selten mal die günstigen Alternativen getestet werden.

Jeden Test an sich schätze ich auf CB. Aber CB ist eine Seite, die große Lücken in ihren Test-Kategorien hat. GPUs und CPUs vielleicht ausgenommen.
Manchmal testet man irgendeinen Monitor, dann eine ANC Kopfhörer, vielleicht ein Handy (ignoriert hier aber komplett Xiaomi seit einigwr Zeit aus irgendeinem Grund). Erkenne da kein Konzept, sondern man macht "irgendwas mit Computer".
 
  • Gefällt mir
Reaktionen: xXBobbyXx und DJMadMax
jlnprssnr schrieb:
Wieso liegt die 6800 XT vor der 7800 XT und warum habt ihr dann in UHD nur die 7800 XT getestet?
Weil vielleicht die "rohe" Rasterleistung wichtiger ist, als andere Dinge ?
Immerhin hat die 6800XT mehr ROPs (128 statt 96), mehr "CUDA"-Cores (4608 statt 3840) und mehr Level 3 Cache (128MB statt 64MB)...
Hardware Ray-Tracing spielt bei Avatar Frontiers of Pandora wohl keine Rolle, sondern es wird ja nur so eine Art von Software Ray-Tracing genutzt.
 
  • Gefällt mir
Reaktionen: jlnprssnr
Nolag schrieb:
Das beste Bildmaterial gibt es meist bei Gamersyde: Avatar Frontiers of Pandora - Landcapes of Pandora (PC/4K/Ultra)
Das sieht schon ganz nett aus.

Nett, ja. Aber in meinen Augen kein Kandidat für beste Grafik (2023). Die Vielfalt der Assets ist auf einem hohen Niveau, für ein Lizenztitel echt schön anzusehen. Aber Texturqualität, Shading usw. sind stellenweise echt dürftig, vor allem bei den Charakteren - in vielen Szenen, sogar im Trailer, lässt sich da überhaupt keine Zeichnung feststellen, die Haut ist einfach eindimensional und flach.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
1701866303750.png

weißblaue Schrift auf Blauem Hintergrund. Einfach überall. Das ist echt gut und einfach lesbar. NICHT. Wer denkt sich sowas aus?
Hat das Spiel einen Modus für Farbenblinde, damit man sich das in der Form nicht ansehen muss?
 
cypeak schrieb:
ich finde auch dass hier inzwischen genau das eingetreten ist was man befürchtet hat: ohne upscaling geht wohl nichts mehr und selbst mit upscaling ist die performance dann alles andere als prickelnd...
Wo sind 81 FPS in UHD bitte schlecht? Zu erwarten, dass moderne Spiele in 4K max. auf Kartoffeln laufen ist einfach nur realitätsfremd. Vor 2 Generationen waren nicht mal 60 FPS @4K mit der schnellsten Karte drin und da hat auch niemand rumgeheult.

cypeak schrieb:
wieso wird dass einfach so hingenommen?
Weil es dämlich ist etwas mit Rohpower und 213498124 Watt Verbrauch zu erschlagen, wenn ich ein vergleichbares Bild auch viel effizienter, leiser, kühler und performanter berechnen kann.
Wenn das FSR/DLSS Bild dem nativen ebenbürtig ist, wieso wehr man sich dann so krampfhaft dagegen?
 
  • Gefällt mir
Reaktionen: Pro_Bro, Ghostfacekalle, Daddi89 und 8 andere
StuffedLion schrieb:
Da zeigt sich doch sehr schnell, dass Nvidia uns ganz schöne vram Krüppel verkauft hat.

Die 12gb meiner 4070ti sind echt ein schlechter Scherz und jetzt schon nicht mehr ausreichend
Ja doch. Musst halt nur die Textur Details was runter schrauben
 
Zurück
Oben