Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAvatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung
Wie hardwarefressend das ist kann man ja leider nicht sagen weil man es nicht komplett ausstellen kann.
Und die presets wurden leider nicht getestet, aber alleine die RT Settings auf low zu setzen bringt schon mal ~20% mehr, damit kommt die 3060 schon fast auf die 60 auf ca 45 FPS und es sind außer RT weiterhin alle Settings auf Ultra.
Und ob es mit insgesamt low settings wie FarCry3 aussieht(ich denke selbst damit ist es immer noch hübsch)weis man zumindest anhand dieses Tests ebensowenig wie ob man überhaupt bis auf low gehen muss für z.B. ne 2060
Es werden zwei konkurrierende Techniken miteinander verglichen, die schlussendlich dasselbe auf ihre Art und Weise machen. Wenn das nicht vergleichbar ist, weiß ich auch nicht weiter.
Es ging bei mir darum, das diese "tollen" Techniken bei FHD hauptsächlich Grafikmüll verursachen.
Und es für FHD gibt es genug Karten, die über (mehr) als ausreichende Leistung verfügen.
Alles danach sind Sachen zu meiner Aussage dazugelogen und verdreht wurden.
Richtig lächerlich wir es, wenn dann einer der üblichen Wortverdreher öffentlich! (für sowas ist man hier früher verwarnt wurden) meine Sperrung fordert.
Die größte Spielerbasis geht von 1050 bis 3060 - die Top10 (35%).
Die mehrheit der spieler, sollten sie dieses Avatar spielen wollen, ist also gezwungen es laut CB-Benchmarks im besten Fall auf 1080p mit maximal 30 FPS zu "spielen", oder noch viel weniger wenn im unteren Spektrum der GPUs angesiedelt.
Spielende mit Low-End-Hardware der vorvorletzten (1050) bis Einstiegs-Gaming-Hardware der letzten Generation (3060) stellen, wie seit jeher, die Details nicht auf Ultra, wie im CB-Test, sondern auf hoch, mittel, niedrig oder minimal. Die Regler sind nicht neuerdings festgewachsen, sodass man zu irgendwas gezwungen wird.
1.) In the Ubisoft connect app go to the properties of the game
2.) Under "game launch arguments" select "add command line arguments"
3.) Enter this command line argument: -unlockmaxsettings
4.) This will unlock the higher settings, but you will need a really beefy GPU to run this preset well (4090 tier). Per Ubisoft it's meant for "future hardware."
Damit muss ich meine 6900XT nun endgültig begraben, in UHD keine 35fps - will nicht über Fortschritt meckern, aber ein Jahr hätte die Karte noch ruhig mitmachen können.
Die betagte 5800x dürfte eine 7900 XTX bzw. RTX 4090 ausbremsen, da wandern direkt mal 3k über die Ladentheke um wieder up to date zu sein 🥲
nach Möglichkeit immer in nativer Auflösung nutzen. Ich kann das bei Monitoren bis WQHD bestätigen, die sehen in niedrigeren Auflösungen relativ bescheiden aus.. Ist das bei 4K-Monitoren nicht so?
Im Prinzip ja, weil wenn Du Dich an 4K/UHD nativ gewöhnt hast bzw. dieses genutzt hast, möchtest Du Dich ungerne mit WQHD oder gar Full-HD begnügen.
Dabei ist der Schritt von Full-HD zu WQHD für viele größer als von WQHD auf 4K/UHD zu upgraden.
Ich bin direkt von WUXGA (1200p) auf 4K/UHD (2160p), wobei ich vor der Entscheidung stand einen relativ teuren Gaming Monitor für mindestens 600 Euro (einen flachen UHD/4K 144 Hz Monitor (Gigabyte 32U), mit Abstrichen bei HDR allerdings da nur HDR 400) bis ca. 1000 Euro (mit Abstrichen hinsichtlich Produktivität da 32" gebogen mit 165Hz in UHD/4K (Samsung Neo G7), oder 34" mit 165Hz gebogen in QD-OLED im 21:9 Format (Alienware 3423DWF)) oder einfach ein wenig ergonomisches, flaches 60 Hz 4K/UHD 32" BenQ Gerät auch mit Freesync (und schwachem HDR 400) für unter 300 Euro zu nehmen.
Nach längerem Abwägen habe ich mich für letzteres als günstiger Allrounder entschieden, weil ich ein Produktivgerät dringend brauchte nachdem mein 27" Dell Monitor nach knapp 14 Jahren das zeitliche gesegnet hat (kann bisher nicht klagen was Preis-Leistung angeht) und sowieso eher weniger Ego-Shooter-Spiele fixiert bin und werde noch warten, was da an 4K/-OLED Geräten Anfang kommenden Jahres kommt bzw. wie sich die ca. 1000 Euro teuren Geräte (die zu Black Friday schon für so um die 800 Euro zu haben waren) preislich entwickeln werden.
Es ist eine wirklich stark individuelle Sache welche und wie viele Monitore man sich anschafft .
Bei mir wird es auf 2 irgendwann hinauslaufen, wenn der Preis für die Leistung passt.
Wenn der Neo G7 oder AW 3423DWF unter 600 Euro fallen sollte, dürfte ich wohl schwach werden und das könnte evt. schon nächsten Black Friday sein, je nachdem wie die kommenden 4K/UHD-OLED Monitore die Preise dieser dann schon betagteren Geräte drücken werden.
Wegen einem Game? Mit ein bisschen Reglerbedienung sollte das aber eh kein Problem sein paar FPS mehr zu entlocken und dann FSR 3 einschalten. Problem solved.
Max007 schrieb:
Die betagte 5800x dürfte eine 7900 XTX bzw. RTX 4090 ausbremsen, da wandern direkt mal 3k über die Ladentheke um wieder up to date zu sein 🥲
Es wird nicht richtiger wenn du es öfter wiederholst und ja jetzt kann man die Folie wieder posten um zu zeigen, dass es falsch ist, weil DLSS3 NICHT explizit für Frame Generation steht.
Und daran ist auch nichts Kundenversarsche, die Versionsnummern zeigen einzig, was für Features damit möglich sein können und so zeigt es ja auch die Folie.
Mehr sagen die Nummern nicht mehr aus.
3.5 ist gegenüber 3 einfach nur noch mal eine Erweiterung der Features, wie es 3 gegenüber 2 auch war.
2 enthielt ein Feature(SR), 3 enthielt zwei(SR,FG)und 3.5 enthält nun drei(SR,FG,RR).
Bei 3 konnte 1 von 2 Features von allen RTX Karten genutzt werden, bei 3.5 sind es 2 von 3.
Eine RTX2000 kann DLSS SR 2, 3 und 3.5 sowie DLSS RR 3.5 nutzen.
Nicht nutzen kann sie DLSS FG 3 und 3.5
Für PS5 und Xbox Series X würde ich mal so spontan raten und jeden PC der vergleichbare Leistung hat, womit wir dann eben einer 6700xt, 3060ti und mindestens einem AMD Ryzen 5 3600 gehen.
Und nicht vergessen, kaum dreht man die Teils ein wenig runter, schon hat man natürlich auch viel mehr FPS oder eben mehr Auflösung. Selbst eine 3050 schafft das Spiel noch in 1080p und Balanced DLSS mit soliden 60 FPS. Sieht dabei auch noch gut aus und verwendet einen Mix aus low, medium und high Settings. Da sind wir dann wirklich bei aktuellem Entry Level und das gerade in dem Jahr wo der große Generationswechsel bei den Konsolen endlich auch bei der Software vollzogen wird und man PS4 und Xbox One Support so langsam überall eingestellt hat.
Das Hauptproblem von älteren Karten schein zu sein das unter 8GB es echt schwierig wird soviel Texturen zu laden, weil das Spiel echt vollgepackt ist mit wirklich schönen und vielen unterschiedlichen Texturen.
Ergänzung ()
Cirael schrieb:
Und bei den oben erwähnten Top10 hast du bereits die meisten regler fernab von "max" um überhaupt auf 30fps bei 1080p zu kommen.
Klar, aber die 60 Millionen Next Gen Konsolen Nutzer möchte man halt auch nicht ignorieren. Die vielen Hundert Million mit älteren Konsolen nimmt man sich halt mit anderen Titeln an. ;-)
Ergänzung ()
N85 schrieb:
Interessanter wären Benchmarks mit anderen DLSS Abstufungen gewesen als nur Qualität. Wenn man mit einer 4070 in 4K noch was reisst auf DLSS Qualitätstufe, wie sieht es füür 2080 Besitzer mit DLSS 2 wie mich aus? Finde es schade, dass hier nicht tiefergehnder aufbereitet wurde, sodass man auch mit nicht ganz aktueller Hardware sähe, wo man stünde. Werde wohl auf einer anderen Seite gucken müssen.
Da muss ich voll zu stimmen, ich fürchte, da der Titel in den GPU Benchmarkparkours mit aufgenommen wurde, hat Wolfgang keine Zeit gehabt auch noch für tatsächlich interessierte Spieler zu benchmarken. ;-)
Minimum Specs Optimale Settings und so Zeug wären irgendwie interessanter gewesen als Einheitlich alle GPUs komplett ohne Praxisrelevanz zu Benchmarken. Aber wie gesagt, das Spiel kommt jetzt wohl mit in den GPU Parkour und dann wird natürlich später immer noch dem Schema damit gearbeitet. Für die Review ist es irgendwie trotzdem unpassend. Aber da CB ohnehin keine echten Reviews macht, sonder ehr einen Techniktest mit einem Haufen Zitaten von Leuten die das Spiel tatsächlich getestet haben … ist glaube ich verschmerzbar.
Aber ich meine mal gelesen zu haben dass du dich über Konsolenexklusivität aufgeregt hast. Kann mich auch irren.
Was im Prinzip nichts anderes ist. Exklusivität innerhalb der PC-Blase ist sogar noch schlimmer. Wahrscheinlich wollen die Publisher somit den Bewertungen auf Steam aus dem Weg gehen, ja keine schlechte PR zum Release zulassen
Ich mache mich darüber lustig, dass es (immer noch) Gamer gibt,
die (gute) Spiele nicht spielen, da sie halt nicht über den Ihnen genehmen
Launcher angeboten werden. Ist halt dann halt so.
Und ja, vielleicht wollen die Publisher ggf. sogar schlechten Bewertungen
(oft leider von Ubisoft-, EA-, oder Epic - Hatern) aus dem Weg gehen.
Verständlich. Wie viele Spiele wurden im Vorfeld schon zerrissen,
die mir persönlich sehr viel Spaß machen?
Gut, dass ich da eine meine eigene Meinung habe.
Mit Konsolen habe ich eh nix am Hut (Ausnahme: mein Atari VCS-2600 Anfang der 80er ☺️).
Was es am PC nicht gibt, das gibt es halt nicht.
Für irgendeinen Exclusiv-Konsolen-Titel würde ich mir nie ne Konsole holen.
Und... es kommen ja nach und nach einige Perlen doch für den PC raus.
Zwar spät, aber besser als gar nicht
Ergänzung ()
woerli schrieb:
Hmm... da brauche ich es mir mit meiner guten alten 1080 Ti wohl nicht holen? (Monitor: 3440x1440).
Ich hatte es befürchtet... es wäre nicht das erste Ubisoft-Spiel, wegen dem ich zum GraKa-Update gezwungen wurde. Das gute alte Wildlands war der Grund für die 1080Ti damals.
(FarCry 6 läuft schon mehr schlecht als Recht, aber das haut mich eh nicht so vom Hocker.)
@Wolfgang: Laut Digital Foundry nutzt das Spiel wohl doch Hardware-Raytracing für die globale Beleuchtung. Das erklärt dann evtl. auch den Vorsprung der NVIDIA-Karten.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Im Video wird außerdem erwähnt, dass man über den Startparameter "-unlockmaxsettings" sogenannte "Unoptanium"-Settings freischalten kann, welche die grafische Qualität über die Ultra-Settings hinaus erhöhen und z. B. die Wasserdarstellung stark verbessern. Ubisoft hat diese Settings in einem Blogpost erwähnt:
Mit diesen Settings fallen die FPS wohl auch auf der 4090 in 4K und DLSS Quality unter 60. Ich werde es aber auch gleich selbst mal testen. Wenn ich mit DLSS Balanced oder Performance 60 FPS halten kann, werde ich das wahrscheinlich so spielen.
Wie hardwarefressend das ist kann man ja leider nicht sagen weil man es nicht komplett ausstellen kann.
Und die presets wurden leider nicht getestet, aber alleine die RT Settings auf low zu setzen bringt schon mal ~20% mehr, damit kommt die 3060 schon fast auf die 60 und es sind außer RT weiterhin alle Settings auf Ultra.
Und ob es mit insgesamt low settings wie FarCry3 aussieht(ich denke selbst damit ist es immer noch hübsch)weis man zumindest anhand dieses Tests ebensowenig wie ob man überhaupt bis auf low gehen muss für z.B. ne 2060
Wie kommst du denn bei ner base fps von 38 (post drüber von dir) bei plus 20% auf knapp 60 ???
Unabhängig davon finde ich es ein Unding wenn mittlerweile RT per default forciert wird.
Solange der perf hit durch rt (egal ob hw ode software) relativ groß ist, sollte es immer einen fallback auf classic lighting geben.
Weiß jemand ob man das Ubisoft+ iwie auf der PS5 nutzen kann? Da könnte man das Spiel ja erstmal für 14,99 EUR für einen Monat testen. Aber 80,- EUR für gefällt mir dann vlt doch nicht so gut, gebe ich nicht aus :-(