• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test A Plague Tale: Requiem im Test: Richtig schöne Grafik mit enormen GPU-Anforderungen

Auf der PS5 dürfte 40fps/VRR auf 120Hz TVs bereits laufen. Bin gespannt. Da mein PC aufgrund der CPU für das Spiel nicht geeignet sein dürfte, spar ich mir wohl den Euro für den Gamepass und hols mir irgendwann in einem Sale für die PS5.

Auf der PS 5 finde ich den 40 Hz Modus in SpiderMan Miles Morales gut und ausreichend flüssig/scharf, in Ratchet&Clank fand ich ihn aber etwas enttäuschend unscharf in Bewegung. Ich nehme an in so einem langsamen Spiel wird das kein Problem darstellen.
 
Rockstar85 schrieb:
Freesync ist Teil der Vesa Norm und dieses gSync verdongeln hat nur Nvidia Geld gebracht und die Verbreitung verhindert.
Als G-sync herauskam gab es keinen in Displayport 1.2a übernommenen Standard und somit auch kein "Freesync" was die Marketingbezeichnung bzw. Treiberlösung von AMD ist und kein Standard.
Nvidia hat damals mittels Framedoubling mehrere Probleme gelöst und ein eigenes Modul entwickelt.
Bis der offizielle Standard, der durch AMD´s Einsatz in der Funktionalität nachzog, dauerte es gut und gerne 3 Jahre.

Nvidia ist bei Adaptiv Sync und oder RTX (DXR), DLSS, FSR der Türöffner und initial für die Verbreitung verantwortlich.
Durch hohen monetären Einsatz.
Rockstar85 schrieb:
Noch kein proprietärer Step von Nvidia hat es in eine norm geschafft...
Das ist ja gerade das was proprietär ausmacht, dass man es nicht mit anderen Herstellern teilt.
 
  • Gefällt mir
Reaktionen: JPsy, Pro_Bro, cruse und 2 andere
Na es ist doch recht erstaunlich das bei jeder neuen GK Generation sofort ein Spiel da ist, das nur von der neuen Generation spielbar ist.
Und Trotzdem ist es immer noch keine Realistische Grafik. Aber 2000 € für die GK.
Nee da kaufe ich mir lieber was dem nutze des Geldes auch gerecht wird.
Für diejenigen wo so eine GK zum arbeiten von Vorteil ist, mag es ja ok sein. Aber nur zum Spielen nee das geht garnnicht.
Mein Fernseher kostet nicht mal die Hälfte und hat ein bessere und vorallem ein Reales Bild. Als die billigen Beta Spiel die seit Jahern nur noch auf den Markt kommen.
Wer es brauch soll sich die 4090 ruhig kaufen.
Für mich ist da Schluss und nächstes Jahr gibt es eine Konsole für ein Bruchteil diese 4090 und ich muss nicht alle 2 Jahre, 2 bis 3 tausend € ausgeben damit ich Betatester bin.
 
Darken00 schrieb:
scheint Requiem super optimiert zu sein,
Lol. Nö, sicher nicht, wenn die GPUs so unterschiedlich stark skalieren, die Konsolen nichtmal 30fps halten können, das Spiel aber dafür nicht sooo extrem gut aussieht. Und dann fehlen auch noch wichtige Features wie FSR2.0. Optimiert sieht für mich anders aus.

Optimiert ist nicht, wenn es auf der neuesten teuersten Karte gut läuft, auf dem Rest aber nur mittelmäßig.
Ergänzung ()

Cordesh schrieb:
Leute, Spielen ist Spaß und ihr macht da Stress draus
Auch auf Konsole kann schlechte Performance den Spielspaß trüben ;)
Grafik (bzw Performance) ist nicht alles, ohne ists aber auch nicht unbedingt ein Erfolg.
Ergänzung ()

Ragnarök88 schrieb:
Bis der offizielle Standard, der durch AMD´s Einsatz in der Funktionalität nachzog, dauerte es gut und gerne 3 Jahre.
Adaptive Sync war ein Jahr nach GSync Ankündigung teil der DP1.2a Spec. Teil der eDP Spec in Laptops war es schon davor, da kommt das Feature überhaupt her.

Übrigens hätte auch niemand Nvidia daran gehindert, selbst das ganze als VESA Spec zu führen. Aber dann kann man leider keine proprietären Module gegen dicken Aufpreis verkaufen...

In Laptops nutzt Nvidia ja auch seit Anfang an die eDP Spec für "Gsync", ohne extra Modul. Sie konnten also, wollten aber nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FLCL, Illithide, bad_sign und eine weitere Person
Powl_0 schrieb:
Lol. Nö, sicher nicht, wenn die GPUs so unterschiedlich stark skalieren, die Konsolen nichtmal 30fps halten können, das Spiel aber dafür nicht sooo extrem gut aussieht. Und dann fehlen auch noch wichtige Features wie FSR2.0. Optimiert sieht für mich anders aus.
Bei dem Zitat ignorierst du einfach den Kontext. Er hat geschrieben:
"Man muss sich nur mal die Tests zu CP2077 und AC: Valhalla in 2020 ansehen. Dort haben die zu dem Zeitpunkt besten GPUs (RTX 3090) in 4K kaum mehr als 60 bis 70 fps geschafft. Die RTX 2080 hat da auch nur 40 fps geschafft.
Dagegen scheint Requiem super optimiert zu sein, wenn eine RTX 4090 106 fps schafft. Und auch mit nativen 4K wird sie noch die 90 fps schaffen."

Und in diesem Kontext hat er recht.
 
Powl_0 schrieb:
Optimiert ist nicht, wenn es auf der neuesten teuersten Karte gut läuft, auf dem Rest aber nur mittelmäßig.
Man könnte jetzt schon sagen, dass es optimiert ist. Es ist nur nicht das, was der Endkunde darunter versteht, sondern was Nvidia hinsichtlich Verkauf der eigenen Grafikkarten unter Optimierung versteht.
 
  • Gefällt mir
Reaktionen: Illithide und bad_sign
catch 22 schrieb:
Also kann man offiziell festhalten, dass auf Nvidia Handeln hin aus einem von vielen erwartetem Spiel eine schwachsinnige Techdemo wurde...

@Wolfgang
wenn ihr schon eine dämliche Techdemo bencht... dann bitte richtig. Was schluckt die Karte, wie warm wird sie und wie laut drehen eigentlich die Lüfter auf?

Wird doch bei den ganzen AMD Titeln auch nicht gemacht. Die sind da keinen Deut besser, fast sämtlichen Ubisoft Titeln könnte man doch selbiges vorwerfen.

Warum immer diese Doppelmoral?
 
Kleines Update zu HDR:

Gefällt mir leider nicht so. Die Highlights clippen zu stark, auch wenn man die Helligkeit reduziert (gibt leider keinen Regler für die Peak Brightness) und allgemein wirkt es viel zu übertrieben und hell.

Muss später mal schauen ob es mit Dynamic Tonemapping anstelle von HGIG besser aussieht, aber auch das wäre ziemlich suboptimal.

Schade, wenn Entwickler nicht ganz verstehen, wie man HDR einsetzen sollte. Mir ist das so auf dauer jedenfalls VIEL zu anstrengend für die Augen.

So ist HDR halt sinnlos, weil es aussieht, als hätte man bei nem SDR Bild einfach nur den Kontrast hochgeschraubt und das Display heller gestellt.
 
  • Gefällt mir
Reaktionen: Celinna, Illithide und Tripleh84
Next-Gen-Konsole ist aktuell auch das schlaueste was man machen kann, aber darum gehts ja beim PC Gaming nicht :p
 
  • Gefällt mir
Reaktionen: bluna, Illithide, Cordesh und eine weitere Person
Ich bin ehrlich gesagt etwas unterwältigt:

Der erste Teil war echt super, sah nicht schlecht aus und lief top.

Sollte der Nachfolger nicht auf ein UE-Derivat setzen?
 
W0dan schrieb:
Kleines Update zu HDR:

Gefällt mir leider nicht so. Die Highlights clippen zu stark, auch wenn man die Helligkeit reduziert (gibt leider keinen Regler für die Peak Brightness) und allgemein wirkt es viel zu übertrieben und hell.

Muss später mal schauen ob es mit Dynamic Tonemapping anstelle von HGIG besser aussieht, aber auch das wäre ziemlich suboptimal.

Schade, wenn Entwickler nicht ganz verstehen, wie man HDR einsetzen sollte. Mir ist das so auf dauer jedenfalls VIEL zu anstrengend für die Augen.

So ist HDR halt sinnlos, weil es aussieht, als hätte man bei nem SDR Bild einfach nur den Kontrast hochgeschraubt und das Display heller gestellt.
Seh ich auch so, das HDR ist nicht das wahre. Ich werde es ausschalten, weil ich bekomm das nicht Optimiert. Mit dem AMD Treiber
 
Cyberbernd schrieb:
Als alter Sack daddel ich solche Games gerne ala Storymodus....also sehr leicht.

Als ersten Versuch..wenn es echt Laune macht dann auch gerne mal schwieriger.

z.b. Horizon Zero Dawn. Oder Days Gone.

50 Euronen um es dann liegenzulassen... ist da zuviel.
Gamepass für 1 Euro abschließen und selbst ausprobieren? Ohne den Vorgänger gespielt und geliebt zu haben, wirst du hier eh keinen Spass haben.
Davon abgesehen ist es nicht besonders schwierig, gerade auf leicht aber es kann schon ein paar Stellen geben, in denen man mehrere Anläufe braucht bis man den richtigen Weg gefunden hat. Schnelle Reaktionen sind aber nicht notwendig. Man kann auch QTE usw. komplett deaktiveren.
 
  • Gefällt mir
Reaktionen: Volvo480, Gsonz und Cyberbernd
ich spiele auf einem 3700x und einer Nvidia 2080 alles auf Ultra und es läuft absolut flüssig. Keine Ahnung wo die enormen GPU Anforderungen sein sollen.
 
tstorm schrieb:
Wird doch bei den ganzen AMD Titeln auch nicht gemacht. Die sind da keinen Deut besser, fast sämtlichen Ubisoft Titeln könnte man doch selbiges vorwerfen.

Warum immer diese Doppelmoral?
Ich muss gestehen, bei Ubisoft Titeln lese ich gar nicht mal mehr den Artikel und überspringe ihn völlig... (Ubisoft kann mir schon lange nichts mehr bieten)
Wird das dort von AMD genau so gemacht? So dass nur die neueste AMD Karte und vielleicht noch ein oder 2 Spitzenmodelle der Vorgeneration (und die alten dann auch eher mit Müh und Not) das ganze wuppen können, während die Karten der Konkurenten einfach nicht wirklich zu gebrauchen sind?
Falls ja. dann auch in der Hinsicht ein fröhliches verrecken an AMD.

Bastelt euch gefälligst Techdemos, wie es bis in die frühen 2000er der Fall war, die schön anzusehen waren und von allen heiß erwartet wurden. Vor allem aber, die einem das lang ersehnte Spiel nicht versaut haben!
 
catch 22 schrieb:
Ich muss gestehen, bei Ubisoft Titeln lese ich gar nicht mal mehr den Artikel und überspringe ihn völlig... (Ubisoft kann mir schon lange nichts mehr bieten)
Wird das dort von AMD genau so gemacht? So dass nur die neueste AMD Karte und vielleicht noch ein oder 2 Spitzenmodelle der Vorgeneration (und die alten dann auch eher mit Müh und Not) das ganze wuppen können, während die Karten der Konkurenten einfach nicht wirklich zu gebrauchen sind?
Falls ja. dann auch in der Hinsicht ein fröhliches verrecken an AMD.

Bastelt euch gefälligst Techdemos, wie es bis in die frühen 2000er der Fall war, die schön anzusehen waren und von allen heiß erwartet wurden. Vor allem aber, die einem das lang ersehnte Spiel nicht versaut haben!
Ubisoft hat Spiele die auf AMD oder halt Nvidia besser laufen, aber keine UBISOFT IST AMD oder so ^^.
Anno war schon immer Nvidia besser und die Shooter usw. laufen meistens auf AMD besser. So war es früher zumindest.
 
  • Gefällt mir
Reaktionen: Celinna und catch 22
Zurück
Oben