• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

DrFreaK666 schrieb:
Bräuchte man bei Steam nicht trotzdem einen Account bei Ubi?
Stimmt, aber wenn
Tripleh84 schrieb:
Was ist denn das für ein Dummes Geschwätz? Was hat das Game mit Steam zu tun.. Wird bei dir auch nicht besser laufen. Selten so den Kopf geschüttelt. "Oh nein noch ein Launcher oder was? " Meine Güte
Mir geht es wie schon oft gesagt nicht um die Launcher, sondern dass einer dem anderen etwas exklusiv vorhält. Wenn man solche Gängelei toleriert, würde es Spiele zukünftig nur noch über zig Plattformen geben.

Der Kunde selbst soll die Wahl haben.
Ich bündele gerne alles auf einer Startebene und will z. B. auch Achievements oder ein Forum zentral haben.
 
habe gestern mal paar stunden gespielt und bin begeistert. ubisoft typisch kommt der "intro text" ubi soft präsentiert etc.. wieder einmal sehr spät:) bei mir nach ca. 4h spielzeit 😃 ist schon alles gut gemacht. grafisch ne wucht und auch sehr hochwertig produziert. es erinnert mich ein bissl an farcry primal, welches ich damals super fand. wer also die die art game mag und vom farcry gameplay nicht abgeneigt, für den ist avatar definitiv etwas.

performance technisch läuft es auf meiner alten möhre einwandfrei. ich spiele in 2560x1440, high details und dlss auf ausgeglichen mit stabilen 60fps. das game sieht dabei fantastisch aus. der vram verbrauch liegt durchweg bei ca. 10,6 gb. keinerlei hänger oder ruckler zu verzeichnen. läuft total smooth und so macht das game natürlich mega spaß:)

da ich ubisoft plus für 15 euro im monat abgeschlossen habe werde ich mich auf die hauptquest konzentrieren, um nicht so viel zeit in dem game zu verbringen. ich will noch ac mirage mir anschauen.
das mit dem abo service für ein zwei monate finde ich super. so kann man spiele testen oder durchzocken und kann den service flexibel kündigen. ich finds super.

grüße
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
TigerherzLXXXVI schrieb:
Das wäre meiner Meinung nach mit dieser Texturqualität auch nicht möglich gewesen, wenn man noch einigermaßen spielbare Bildraten möchte.
Texturen kosten ja keine bzw. nur kaum Leistung. Ich finde die Texturen in Alan Wake 2 etwas besser. Dafür bietet man hier sehr viel Geometrie.

Aber die Beleuchtung könnte wirklich besser sein. Ich habe das unoptanium Setting genutzt da ist es etwas besser.
TigerherzLXXXVI schrieb:
Der Ubisoft-Titel setzt bei der Grafik wenig überraschend auf die AMD-Philosophie: sparsames Raytracing + hochauflösende Texturen.
So eine Philosophie gibt es aber nicht, das liegt einzig und alleine daran, dass es bei AMD einfach etwas dünn mit RT ist.
TigerherzLXXXVI schrieb:
Trotz "RT Lite" kann sich das Ergebnis meiner Meinung nach sehen lassen...
Wie man es nimmt. Ich finde es killt die Atmosphäre, wenn man schon deutlich besseres gesehen hat.

Selbst Metro Exodus gefiel mir besser.
 
Quidproquo77 schrieb:
Texturen kosten ja keine bzw. nur kaum Leistung. Ich finde die Texturen in Alan Wake 2 etwas besser. Dafür bietet man hier sehr viel Geometrie.
Du sprichst es selbst an: Avatar bietet grafisch (auch) viel Geometrie. Dies würde den Rechenaufwand von Raytracing deutlich erhöhen. RT Ultra bzw. PT würde in diesem Spiel einer RTX 4090 (als Beispiel) insgesamt mehr abverlangen als in CP2077.

Es gibt einen Grund, warum man etwa beim Thema Path-Tracing zunächst mit Quake RTX begonnen hat...

Ich hatte mir in diesem Zusammenhang immer eingebildet, dass HD-Texturen ebenfalls mehr RT-Rechenleistung erfordern. Das heißt es werden für die korrekte Darstellung von Oberflächen eine höhere Anzahl an verschossenen Strahlen benötigt. Vielleicht liege ich hier falsch.
Ergänzung ()

Quidproquo77 schrieb:
So eine Philosophie gibt es aber nicht, das liegt einzig und alleine daran, dass es bei AMD einfach etwas dünn mit RT ist.
Die typische Aussage eines Anhängers von Team Grün... Obwohl Nvidia beim Thema Raytracing vorgeprescht ist und der Fokus ihrer Hardwareentwicklung darauf gefallen ist, haben klassische Rendertechniken nach wie vor den Vorrang bei AMD. Das ist ihre Philosophie. Team Rot stattet ihre Grafikkarten nicht umsonst mit mehr VRAM aus. Er wird ebenfalls benötigt für Next-Gen Texturqualität und Geometrie (Polygonmodelle). In Zukunft wird auch bei Spielen mit der UE5 deutlich mehr Videospeicher benötigt. Nvidias wirtschaftlich bedingte Knauserei (aufgrund von Geldgeilheit) wird sich für die meisten Geforce-Besitzer sehr schnell bitter rächen. Avatar ist bereits ein Beispiel dafür...
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Die typische Aussage eines Anhängers von Team Grün... Obwohl Nvidia beim Thema Raytracing vorgeprescht ist und der Fokus ihrer Hardwareentwicklung darauf gefallen ist, haben klassische Rendertechniken nach wie vor den Vorrang bei AMD. Das ist ihre Philosophie. Team Rot stattet ihre Grafikkarten nicht umsonst mit mehr VRAM aus. Er wird ebenfalls benötigt für Next-Gen Texturqualität und Geometrie (Polygonmodelle). In Zukunft wird auch bei Spielen mit der UE5 deutlich mehr Videospeicher benötigt. Nvidias wirtschaftlich bedingte Knauserei (aufgrund von Geldgeilheit) wird sich für die meisten Geforce-Besitzer sehr schnell bitter rächen. Avatar ist bereits ein Beispiel dafür...

Hä, das ergibt ja mal null Sinn.

Avatar setzt doch stark auf Raytracing mit seiner globalen Beleuchtung und den Reflexionen. Es ist also absolut unerlässlich auf RT zu setzen, wenn man die grafische Qualität voranbringen will.
Da aufwändigeres RT oder Hardware RT (vieles Spricht ja für Software RT) auf AMD Hardware zu teuer ist, ist man hier aber ziemlich eingeschränkt. Das Spiel könnte daher sicherlich besser aussehen.

Bei der UE5 genau das selbe. Man musste software RT umsetzen, weil die Leistung für Hardware RT nicht reicht. ABER man nutzt RT. Daran führt kein Weg vorbei. Also nichts da von wegen klassisches Rendertechniken haben Vorrang. Ja, das war AMDs Plan, weil sie nicht an RT geglaubt hatten. Haben ja auch lange genaug gebraucht, bis sie verstanden haben, dass RT ja doch flüssig möglich sein kann, wenn man A ein paar Ressourcen auf dem Chip dafür eisnetzt und B in Upscaling und Frame Generation Algorithmen setzt. Aber die Erkenntnis hatte AMD einfach viel zu spät und wurde von der Entwicklung von Nvidia und den Grafikengines quasi überholt.

Und ja, der VRAM bedarf wird immer ansteigen. War ja noch nie anders. Aber mit einer modernen Engine steigt die Effizienz mit der der VRAM genutzt wird, erstmal massiv an. Die UE5 verbraucht für das gebotene auffällig wenig VRAM. Die Virtual Textures sind in der Hinsicht einfach sehr effizient und erlauben viel mehr Texturdetails bei gleichem oder weniger VRAM Nutzung. Nanite erlaubt extrem viele Geometriedetails, ohne dass alle Assets in den VRAM geladen werden müssen.

Selbst Avatar nutzt laut Entwickler den VRAM nur aus, benötigt ihn aber gar nicht unbedingt. Und mit DX12 Sampler Feedback Streaming steht sowieso nochmal eine Technik an, die die Effizienz nochmal massiv erhöhen wird.

So wie es aktuell aussieht, werden die Engines was Speicherverwaltung angeht in Zukunft drastisch effizienter und flexibler. Man wird mit bestehender Hardware vielfach mehr Details sehen und wenn das VRAM budget überschritten ist, werden die Engines damit klar kommen und dynamisch skalieren ohne großen optischen Verlust.

Die Zeiten in denen bei VRAM Mangel die Frametimes oder FPS zusammengebrochen sind oder man zwingend auf die nächst niedrigere Texturstufe zurückschalten musste und dann alle Texturen deutlich unschärfer wurden sind in Zukunft vorbei. (wenn state of the art engines zum Einsatz kommen)

Ich will nicht sagen, dass es ok ist, zu wenig VRAM zu verbauen. Die Realität ist nunmal, dass VRAM Mangel in vielen aktuellen Spielen ziemlich beschissen ist und oft 8 GB teils auch 12 GB einfach zu wenig sind. Nur wird das Thema künftig an Bedeutung verlieren und weniger oft diskutiert werden müssen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Quidproquo77
Quidproquo77 schrieb:
Wie man es nimmt. Ich finde es killt die Atmosphäre, wenn man schon deutlich besseres gesehen hat.

Selbst Metro Exodus gefiel mir besser.
Diese Ansicht kann man selbstverständlich haben.

Ich bin übrigens, auch wenn es manchmal nicht so herüber kommt, ebenfalls ein Fan von realistischer Beleuchtung in Spielen. Sprich: Raytracing finde ich super! Der große Unterschied beispielsweise zu dir ist, dass gewisse grafische Defizite (wie dein Beispiel gerade eben bezüglich Avatar) mir nicht so sehr den Spielspaß drüben können. Nur weil ich die aktuelle Grafikreferenz bereits kenne (gesehen habe), muss ein anderes Spiel nicht unbedingt die gleiche Qualität bieten um für mich dennoch gut aussehen zu können.
 
TigerherzLXXXVI schrieb:
Nur weil ich die aktuelle Grafikreferenz bereits kenne (gesehen habe), muss ein anderes Spiel nicht unbedingt die gleiche Qualität bieten um für mich dennoch gut aussehen zu können
Stimmt ich spiele immer noch mit wachsender Begeisterung The Division 2, eine echte Grafikperle der alten Machart. Und das obwohl ich seit Release der RTX2080FE mit RTX am Start bin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und TigerherzLXXXVI
pietcux schrieb:
Stimmt ich spiele immer noch mit wachsender Begeisterung The Division 2, eine echte Grafikperle der alten Machart. Und das obwohl ich seit Release der RTX2080FE mit RTX am Start bin.
The Division 2... War das nicht eines der Vorbilder von The Day Before :)
 
TigerherzLXXXVI schrieb:
Du sprichst es selbst an: Avatar bietet grafisch (auch) viel Geometrie. Dies würde den Rechenaufwand von Raytracing deutlich erhöhen.
Nicht unbedingt. Es wird ja teilweise Raytracing verwendet, aber soviel ich weiß eben nicht so sehr für die Beleuchtung für Schatten und Reflexionen. Abgespeckt. 3 Bounces in Alan Wake bräuchte es dabei gar nicht. Es würden auch 2 reichen, von daher würde das schon auch laufen können. Es gibt bei Alan Wake 2 im Wald auch stellenweise sehr viel Geometrie, da lief das auch mit entsprechender Hardware.
TigerherzLXXXVI schrieb:
RT Ultra bzw. PT würde in diesem Spiel einer RTX 4090 (als Beispiel) insgesamt mehr abverlangen als in CP2077.
Raytracing reagiert wesentlich unempfindlicher auf höhere Dreieckszahlen als Rastergrafik.
Klar, bei deutlich weniger Detailreichtum wird der Weg vom Platzhalterquader bis zur letzten Instanz, dem Polygon ein weiterer Weg zur Schnittpunktberechnung bzw. Prüfung zurückgelegt. Es führt schneller zur Abbruchbedingung für den einzelnen RT Strahl. Die Dreiecke stehen am Ende des BVH. Deswegen wurden ja größenteils erst weniger komplexe Spiele mit RT berechnet.

Allerdings hat man das "ray/triangle intersection testing" schon so stark verbessert, dass das nicht mehr per se das Limit ist und so sind auch solche Spiele mittlerweile mit Pathtracing darstellbar.
Ich habe das mit der Unreal Engine 5 schon selbst mit einem kleinen Projekt angetestet.
TigerherzLXXXVI schrieb:
Die typische Aussage eines Anhängers von Team Grün...
Diese Aussage werde ich einfach einfach nicht bewerten. ;)
Mir geht es um Die Sache, ganz sicher nicht um Team Grün oder Team Rot.
Ich bitte dich einfach das in Zukunft zu unterlassen, wäre schön, aber da redet man irgendwo auch gegen Windmühlen.
TigerherzLXXXVI schrieb:
Obwohl Nvidia beim Thema Raytracing vorgeprescht ist und der Fokus ihrer Hardwareentwicklung darauf gefallen ist, haben klassische Rendertechniken nach wie vor den Vorrang bei AMD.
Natürlich haben diese bei AMD in Verbindung mit der aktuellen Gen Vorrang, schließlich kann AMD´s Grafikpipeline (noch) nicht performant damit umgehen.
In Frontiers of the Pandora ist AMD meines Erachtens teilweise über ihren Schatten gesprungen und hat offenbar darauf verzichtet das Spiel ganz ohne RT Inhalte zu bringen. Das wäre auch etwas aus der Zeit gefallen und die Entwickler wollten es vermutlich auch nicht.
So muss man den Vorsprung der 4080 eben sportlich nehmen.
Mit dem echten Ultra Preset Unoptanium sind es noch mehr.
TigerherzLXXXVI schrieb:
Das ist ihre Philosophie.
Das glaube ich nicht. AMD hat schon angekündigt, dass man voll auf RT und AI umsteigen wird.
Die nächste Gen soll auch deutliche Verbesserungen bringen. Die alten Karten bzw. die Philosophie die du dahinter siehst werden dann einfach Geschichte sein.
TigerherzLXXXVI schrieb:
Team Rot stattet ihre Grafikkarten nicht umsonst mit mehr VRAM aus.
Sie müssen ja etwas in die Waagschale werfen, wo sie stärker sind, ansonsten würde es doch niemand kaufen. Wirklich nötig sind 24 oder 20GB natürlich nicht.
TigerherzLXXXVI schrieb:
Nvidias wirtschaftlich bedingte Knauserei (aufgrund von Geldgeilheit) wird sich für die meisten Geforce-Besitzer sehr schnell bitter rächen. Avatar ist bereits ein Beispiel dafür...
Das nennt man wirtschaftliches Handeln. AMD oder Nvidia sind Aktienunternehmen.
Ich denke nicht, dass sich das so rächen wird, wenn viele AMD Nutzer heute schon RT Effekte abschalten, da wird es um den ein oder anderen Regler für die Speichergröße auch kein großes Aufsehen geben.
Avatar läuft mit dem neuesten Build problemlos auf 12GB Karten.
 
Zuletzt bearbeitet:
Geiles Game, wenn es mal nicht immer 5- 10min Später Crash to Desktop macht.
Alles Versucht was mir einfällt. 7800x3d und 4090 und das Teil Crasht..
 
Tripleh84 schrieb:
Geiles Game, wenn es mal nicht immer 5- 10min Später Crash to Desktop macht.
Alles Versucht was mir einfällt. 7800x3d und 4090 und das Teil Crasht..

Bei Division 2 (ebenfalls Snowdrop) war das ein notorisches Problem, dass ich (nach sehr viel Reddit-Voodoo) dadurch behoben habe, den Control Flow Guard im Windows Exploitschutz nur für das Spiel auszuschalten. Das hat mir bei Fallen Order und Guardians of the Galaxy (beide UE4) auch die Frametimes geglättet. Vielleicht hilft es.
 
TigerherzLXXXVI schrieb:
Der große Unterschied beispielsweise zu dir ist, dass gewisse grafische Defizite (wie dein Beispiel gerade eben bezüglich Avatar) mir nicht so sehr den Spielspaß drüben können.
Ich habe auch nicht von Spielspaß gesprochen, sondern bewusst Atmosphäre benutzt um die Grafik von den spielerischen Elementen zu trennen.
TigerherzLXXXVI schrieb:
Nur weil ich die aktuelle Grafikreferenz bereits kenne (gesehen habe), muss ein anderes Spiel nicht unbedingt die gleiche Qualität bieten um für mich dennoch gut aussehen zu können.
Muss es absolut nicht, das sehe ich auch so.
 
frames p. joule schrieb:
Bei Division 2 (ebenfalls Snowdrop) war das ein notorisches Problem, dass ich (nach sehr viel Reddit-Voodoo) dadurch behoben habe, den Control Flow Guard im Windows Exploitschutz nur für das Spiel auszuschalten. Das hat mir bei Fallen Order und Guardians of the Galaxy (beide UE4) auch die Frametimes geglättet. Vielleicht hilft es.
Danke für den Tipp. Half aber nichts.
 
Quidproquo77 schrieb:
Sie müssen ja etwas in die Waagschale werfen, wo sie stärker sind, ansonsten würde es doch niemand kaufen. Wirklich nötig sind 24 oder 20GB natürlich nicht.
Es ging mir um die generell gute Speicherausstattung von AMD-Grafikkarten, d.h. in sämtlichen Leistungsklassen. Mal abgesehen von der RX 6500 XT...

Du weißt es doch: eine höhere Texturqualität benötigt keine zusätzliche Rechenleistung, sondern lediglich mehr VRAM. Klar kannst du bzw. musst du gegebenenfalls auch mit einer RTX 4070 Ti die Texturqualität im Grafikmenü herunterdrehen, wenn ansonsten mehr als 12GB VRAM in Avatar benötigt würden. Aber diesen (sinnlosen) Umstand sollte man doch normalerweise auf gar keinen Fall als Gamer verteidigen... Wenn du tatsächlich objektiv wärst, würdest du Nvidia für seine falsche "Speicherpolitik" kritisieren.

Von daher: ich weiß, bei welchen Forenmitgliedern Nvidia-Fanboy-Sprüche durchaus angemessen sind.
 
Zuletzt bearbeitet:
Unter den "3 bestaussehendsten Spielen 2024..." und das ohne RT-Quatsch,
also bei NVidia-Karten evtl. doch zu hoch gepokert...

Kauft bitte demnächst nur noch Grafikkarten für 3.000 € +,
die das neue "mussmanunbedingthaben-Feature" namens,
SCHNULLI BULLI Ultra vermarkten, dass realistisch noch keinen
Sinn macht und auch keinen Unterschied... 🤣

P.S. Echt jetzt, wieder eine Frau, als "Heldin"...?

Schade, hätte ich mir sonst gerne angeschaut.

Is mir ein bisschen zu woke das Ganze aktuell.
 
StuffedLion schrieb:
Da zeigt sich doch sehr schnell, dass Nvidia uns ganz schöne vram Krüppel verkauft hat.

Die 12gb meiner 4070ti sind echt ein schlechter Scherz und jetzt schon nicht mehr ausreichend

Freut mich, dass vielleicht langsam ein paar mehr Leute darauf aufmerksam werden und nicht mehr völlig blind nvidia kaufen. Unter einer 4080 ist nvidia für mich schlicht nicht mehr akzeptabel, 12GB auf einer 900€(!!!) Karte ist ein Schlag ins Gesicht. Die Ar***löcher wissen genau was sie da tun, das ist nichts geringeres als geplante Obsoleszenz.

Klar stinkt es, dass ich bei 2-3 Pathtracing-Titeln den kürzeren ziehe mit meiner 7900 XT, das ist mir aber lieber als kurz nach Kauf bei jedem dritten Spiel die Texturen runterdrehen zu müssen weil der VRAM ausgeht. Und schließlich kann ich mir die 4080 per GeForce NOW auch einfach leihen für die paar PT-Titel, Problem gelöst. FSR ist ab 1440 Quality gut genug imo.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Also das Spiel sieht sehr gut aus. Pandora ist echt stimmig.

Aber nach 2 Missionen hatte ich keine Lust mehr. Ist halt wieder Arbeit gefühlt, wie die meisten Ubisoft open world Games.. AC (nicht das neue), Far Cry usw..
Lauf da hin und hole das, lauf zurück und verwende das usw..

Kommt da noch so richtig Stimmung auf oder ist das eine große Liste an Erledigungen?
 
  • Gefällt mir
Reaktionen: Quidproquo77
so, 15 Euro dings bums geholt und mal angespielt.
Optisch eine Granate, technisch läuft das Teil bisher 1A. Es geht ja doch :)

@Caramelito Dann ist "Pandora" wohl eher nichts für dich. Ich muss auch mal abwarten, wie lange mich der Rest bei Laune hält.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Zurück
Oben