Test Lords of the Fallen im Test: Unreal Engine 5 bringt Grafikkarten ans Limit

Ich finde diesen Trend, dass Spiele überhaupt nicht mehr optimiert werden und man einfach davon ausgeht "ja, pack als Upscaling rein", echt bedenkenswert. Denn bisher sind diese Feature alles andere als perfekt und eine native Ausführung fast immer die bessere. Hier wird ein Feature, was eigentlich nur ein "Pflaster" sein sollte und Spielern die eher günstige Hardware haben, besser Ergebnisse liefern sollte. Jetzt wird es essenziell und man spart sich die Optimierung einfach bzw. schon das wenige Optimieren, was nötig ist, damit es mit den "Pflastern" läuft lässt man natürlich erst mal später machen weil "der Kunde ist Beta-Tester"...

Ansonsten ist bisher aus meiner Sicht kein Souls-Like auch nur in die Nähe von Dark Souls gekommen.
Surge 2 war nett und hat mir mehr Spaß gemacht als die übrigen, an DS kam es dann aber doch bei weitem nicht ran. Ein Surge 3 würde ich aber wahrscheinlich trotzdem mitnehmen, da ich das Setting und das Grundgameplay schon mag.
 
Naja, LotF sieht schon sehr sehr gut aus, besser als alle anderen UE 5 Titel bisher einschließlich Aveum. Texturen, LOD in der Ferne und Partikel, das ist sicher in den Top 5 aktuell überhaupt.

Euer Problem ist, ihr seht den Wald vor lauter Bäumen nicht. Wenn man weiß, worauf man achten sollte, sieht man einen klaren Unterschied zu UE4 Titeln. Eine weiteres falsches Denkmuster eurerseits: Nur weil UE5 draufsteht, muss das porno sein. Vllt mal in Erinnerung rufen, dass auch UE4 Titel scheiße aussehen konnten. Es kommt nicht auf die Engine an, sondern das was der Entwickler daraus macht. Bitte mal LotF und Stalker 2 vergleichen, dann sollte das klar sein.

Euer Problem ist auch die Erwartungshaltung. Hier vermischen sich zwei Aspekte: Neue Engine und Fallenlassen der alten Konsolengen, die sich beide überlagern. Letzteres hat auch ohne Enginewechsel in der Vergangenheit immer für ein Steigen der Anforderungen gesorgt, egal ob neue Engine oder nicht.

Und wer jetzt hier Vergleiche zieht zwischen einem Forza und einem LotF und da keinen Unterschied sieht, bitte mal die Brille aufsetzen. Forza mag zwar im nahen Bereich, also eigenes Autos, andere Autos sehr gut aussehen. Der LOD hinter der Bande, in der Landschaft, dem Publikum etc. ist aber lächerlich gering. Das fällt aber bei schneller Fahrt nicht auf, was natürlich gut ist für den Entwickler. Spart Ressourcen und fällt fast keinem auf. Mal davon ab, dass das letzte Horizon besser aussah als das aktuelle Motorsport, zumal ersteres auch noch Open World ist und per se dadurch schonmal ressourcenfressender.

Selbst die Wettereffekte und Beleuchtung hat ein Drive Club vor 10 Jahren schon auf demselben Niveau hinbekommen und das war Anfang PS4. Forza ist also nun wirklich kein Glanzbeispiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, Haldi, RushSyks und 6 andere
Vitali.Metzger schrieb:
Also die UE5 macht aktuell keinen wirklich guten Eindruck. Bin mal gespannt ob das bei CD Projekt Red seinen neuen Titel endlich besser sein wird.
Ähm, sorry aber wenn du nen Spiel mit niedriger Bitrate und 720p im Video anschaust kann man sich keine Meinung bilden. Lords of the Fallen sieht richtig gut aus. Endlich ein next-Gen-Titel der die Bezeichnung verdient.
 
  • Gefällt mir
Reaktionen: MiroPoch
Die UE 5 ist noch neu und die Perfomance wurde mit 5.3 verbessert, das ganze muss einfach von der Grafikqualität die Entwickler und Engine liefern und Performance noch reifen.

Klar ist wie schon mit UE 4 wird es auch mit UE 5 wenige Grafikperlen geben aber sicher mehr wie bei UE 4 da einige Entwickler bzw. Games auf die UE5 gewechselt haben
 
Ich verstehe nicht, warum es kein SLI mehr gibt.

Ich würde einfach vier Stück 4090 mit SLI koppeln.
Dann ist doch die Grafikanforderung von dem Spiel kein Problem mehr.
 
Der DLSS/FSR Wahn ist doch eine fantastische Entwicklung - man schaue sich nur die durchschnittliche Grafik dieses Spiels an! Herrlich.
 
  • Gefällt mir
Reaktionen: Legalev
MrHeisenberg schrieb:
This! Gerade auch weil Nanite dafür sorgt, dass die Bildqualität/der Detailgrad in der Ferne optisch nicht abnimmt, was bisher in keinem Spiel so ist. Sämtliche Spiele sehen in der Distanz extrem scheiße aus bzw. verlieren massiv an Details (Beispiel: https://www.computerbase.de/forum/t...-grafikkarten-ans-limit.2165629/post-28725122).
Ja für Leute die gerne und lange in die Ferne schauen ;)

Hätte man mir nicht gesagt, dass es sich um ein aktuelles Spiel handelt, wäre ich von alleine nicht darauf gekommen. Schön anzusehen aber auch altbacken, sehe hier keine Rechtfertigung für die Hardwareanforderungen.

Die Entwickler bekommen ein neues Werkzeug und müssen erst lernen damit umzugehen und bis dahin benutzen sie es wie das alte Werkzeug und dann kommt sowas dabei raus.
 
  • Gefällt mir
Reaktionen: Celinna und Ferran
Schon immer wieder interessant wie so eine UE5-Techdemo aussah und was dann am Ende die Entwickler im Spiel umsetzen. Das sieht für mich schon eher wie UE3.5 aus. Dann dieser Hardwarehunger..woher denn?
 
  • Gefällt mir
Reaktionen: SP-937-215
MrHeisenberg schrieb:
Eh nein? DLSS wird von RTX 20xx an unterstützt und die sind nun mehr als 5 Jahre alt.
Eure Erwartungen sind mittlerweile so realitätsfremd. Hier wird erwartet, dass 5 Jahre alte Hardware das neuste Tripple-A Game in 4K Ultra packt.
Nein, nur in FHD.
 
Also rein subjektiv gefällt mit rechts besser:
1697804447751.png

rechts wenn raytracing aus ist, kann ich noch details am schweif des helmes erkennen und hab da eine schöne reflektion ...

unabhängig davon ob das jetzt der echten berechnung von licht und schatten nahe kommt find ichs rechts besser

EDIT
ihr müsst glaub selbst an die Stelle zoomen kommt auf den Screenshot nicht gut rüber
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SP-937-215 und Legalev
Danke für den aufschlussreichen Test in der kurzen Zeit :) @Wolfgang , das Spiel scheint wirklich Grafikkarten ohne Upscalinghilfe zu verfrühstücken, wenn selbst das Spielen mit einer RTX 4090 in UHD/4K ohne Upscaling ruckelig wird.

Lords of the Fallen ist ein ziemliches Worst-Case-Szenario für eine temporale Kantenglättung und auch Upsampling.

Ein sehr guter Punkt, vielleicht sollte das an AMD/RTG, Intel und auch nVidia einmal als Feedback weitergeben werden, so dass diese anhand von diesem Worst-Case-Szenario/Lords of The Fallen Reboot deren Upscaling-Techniken (FSR, XeSS / wobei das ja scheinbar nicht unterstützt wird - und FSR) weiter verbessern sollten.

Eine RX 6800XT erreicht nicht einmal mehr volle 60fps in WQHD und bleibt bei um die 30fps in UHD/4K :o.

Nun, ich denke, da liegt noch einiges an Optimierungspotential in dem Spiel, auch in der Hoffnung, dass kommende UE5 Spiele nicht ebenso hohe Hardwareanforderungen haben werden.

Da gibt es etlichere andere Soulslikes, die ich mir eher anschaffen und spielen würde (z.B. Demon Souls, Bloodborne, Lies of Pi, Sekiro, Elden Ring), bevor für mich wohl Lords of the Fallen in Frage käme ... naja, vielleicht irgendwann einmal und hoffentlich läuft es bis dahin besser.

Allerdings ist das Feedback zum Spiel von diversen Twitch Streamern (die es z.T. mühsam durchgespielt haben, z.B. HollyLP, der dem Spiel nur ca. 6.5/10 gibt und Divi, die an dem Spiel auch einiges auszusetzen hatte und es als Achterbahnfahrt bezeichnet, siehe gegen Ende der jeweiligen Streams) nicht berauschend ... vergleiche gibt es zu anderen etablierten Souls Spielen/Soulslikes wie Dark Souls 2 und Bloodborne, wobei letzteres wohl eher wie (das wohl gelungenere Soulslike) Lies of Pi vom Spielaufbau her anmutet.
 
Zuletzt bearbeitet:
Optisch ist das in diesem Fall leider nicht gerechtfertigt. Das Game ist zwar schön geworden, doch die Anforderungen sind für das Gezeigte schon extrem hoch – und eigentlich schlicht zu hoch.
Und genau dahin wird die Reise vermehrt gehen. AAA-Entwicklung ist teuer und wenn ich als Studio mir ein paar teure Personenmonate an Optimierung und Performance-Patches sparen kann indem ich einfach sage "Nutzt halt Upsampling!" dann wird genau das geschehen.
 
MrHeisenberg schrieb:
This! Gerade auch weil Nanite dafür sorgt, dass die Bildqualität/der Detailgrad in der Ferne optisch nicht abnimmt, was bisher in keinem Spiel so ist. Sämtliche Spiele sehen in der Distanz extrem scheiße aus bzw. verlieren massiv an Details (Beispiel: https://www.computerbase.de/forum/t...-grafikkarten-ans-limit.2165629/post-28725122).
Das ist ja auch Sinn und Zweck mit der Distanz abnehmende Qualität weil nur Pixel Peeper auf sowas achten.

Auch gehen die Entwickler blind links ihrer Art mit der UE5 um, obwohl Epic mehr als genug Schulungsmaterial zur Verfügung stellt.
Alleine die: Bring Tesselation back Threads im UE Forum Nerven gewaltig.

Damit wird Nanite für etwas benutzt das die Epic so nicht bedacht hatte.
Epic Demos laufen sehr performant um nicht zu sagen besser als mit UE4

UE5 Lumen+Nanite
UE4 DXR + Tesselation, wobei in den letzten Versionen eh keine Tesselation mehr verfügbar war.

Es geht nunmal darum unsere Augen zu täuschen um eine Welt mit passender Performance zu schaffen.
Das muss nicht physikalisch perfekt sein und Beste Details in 8km Entfernung haben.

Das letzte Zelda hat sich auch wie geschnitten Brot verkauft.
 
Es hieß ja, dass der VRAM Verbrauch mit der UE5 Engine ansteigen soll, zumindest hier ist ja nichts davon zu sehen. Mal schauen, wie es bei weiteren Spielen aussieht.
 
Zu meinen Anfangs-Gaming-Zeiten musste noch richtig gut programmiert werden mit den paar MB (!!), die an RAM und VRAM zur Verfügung standen.

Jetzt wird es einfach so unsauber hingebastelt, damit es halbswegs auf High-End-Rechnern läuft. Optimierung kennt man scheinbar nicht mehr.
 
  • Gefällt mir
Reaktionen: Fatal3ty
Ich komme mit der 3080ti auf 75 FPS in 1440p das ist für eine neue Engine doch okey.
Das das Game mit 75 FPS zu schlecht ausschaut ist hingen schade.
 
maikwars schrieb:
Weiß nicht ob das gut oder schlecht ist. Ich errinnere mich an das Showcase der UE5 welches auf einer PS5 nativ lief, das ist zwar kein richtiges Spiel gewesen aber da ging es ja auch ohne DLSS bzw. FSR.
Die Techdemo lief auch nicht auf nativem Ultra HD, nicht einmal im Ansatz :)
Konsolen nutzen schon viel länger als wir auf dem PC Upscaler und die sind allesamt schlechter als DLSS.
Otsy schrieb:
@Wolfgang

Ich habe es im Text bisher nicht gefunden, daher möchte ich gerne nachfragen. Mit welcher Spielversion jabt ihr getestet? Habt ihr das alles an einem Tag geschafft, wo an jedem Tag ein neuer Patch released wurde?
Das war die Spielversion, die Mittwoch tagsüber aktiv gewesen ist. Das müsste 1.1.203 gewesen sein.
Rusty [GER] schrieb:
Indem man lediglich nur Benchmarks mit Upsampling anbietet, leistet man einen Beitrag dazu, dies als ganz normal und/oder sogar den neuen Standard zu sehen. Um ein Zeichen zu setzen, sollte man Benchmarks ohne Upsampling in den Vordergrund stellen, egal wie low die FPS sind.
Da spricht auch nichts gegen bzw. das ist spätestens in Ultra HD auch gut so, da die Grafik meist mindestens gleichwertig bei deutlich besserer Performance ist. Was bringt es in solch einem Szenario noch, die native Auflösung zu nutzen?
 
  • Gefällt mir
Reaktionen: Otsy, RushSyks, kachiri und eine weitere Person
@CB
Ihr prüft zwar immer den tatsächlichen VRAM Bedarf von Spielen, allerdings ohne tiefergehende Angaben. Ich würde mir wünschen ganze etwas detaillierter darzulegen. Gefühlt 100.000 FPS und TDP Übersichten, aber zur genauen VRAM Belegung nur wenig. Es wird halt immer nur moniert das Nvidia Karten zu wenig VRAM haben, obwohl es oft nicht stimmt.

AMD und Nvidia Karte belegen nämlich nicht das gleiche an VRAM. Selbst wenn man nur verschiedene Generationen von Karten eines Hersteller prüft, ergeben sich schon Unterschiede. Zum Beispiel hat meine damalige 2080S mehr VRAM als meine jetzige 3080 12GB (nonTi) belegt. Vermutlich ist die 4000er Generation noch etwas effizienter im Umgang mit VRAM.
Ausserdem muss man auch noch in Betracht ziehen das Nvidia Karten effizienter mit VRAM umgehen als AMD Karten, also im Sinne von " es wird weniger VRAM belegt".

Wenn ihr im Beitrag zu einem Spiel sowas schreibt wie "selbst in UHD sind 8GB VRAM ausreichend" ist das sicher eine richtige und auch sehr wichtige Information, aber eben nicht genau genug. Die 8GB einer 2080 sind nicht einfach das gleiche wie die 8GB einer 3070.

Bitte das ganze nicht als Kritik sehen ;)
 
Schlumpfbert schrieb:
Es hieß ja, dass der VRAM Verbrauch mit der UE5 Engine ansteigen soll, zumindest hier ist ja nichts davon zu sehen. Mal schauen, wie es bei weiteren Spielen aussieht.
Es hies viel aber auch das Gegenteil betreff dem VRAM verbrauch. evtl. Reicht 12Gb noch
besser 16Gb für spätere UE 5 Titel.
 
schon komisch was manche hier von sich geben, ohne das Spiel auch nur 1 sekunde gespielt zu haben.

Das klassische "ich vertrau drauf was Test XYZ schreibt"....

Das Spiel sieht gut aus, läuft wenn man nicht davon besessen ist 144+FPS (warum auch immer) zu haben auch ziemlich gut.
Gerade nach den vielen Patches läuft es eigentlicht stetig noch ein wenig besser.

Es gibt halt einfach immernoch (und wird es immer geben) Leute die ihre Standards fürs Gaming so hoch setzen, das es in meinen Augen vorne und hinten keinen Sinn ergibt.
Aber deshalb Spiele/Publisher/Entwickler zu "verteufeln" ist irgendwie dann doch arm...

Klar gibt es ganz eindeutig Spiele/Publisher/Entwickler die für manches was sie fabriziert haben deutlich angeprangert gehören, aber dann bei einem Spiel wie diesem direkt die Keule rauszuholen ist mir unerklärlich.
"Man soll DLSS nutzen?!?!?! Kauf ich nicht das schei* Spiel!"

Und ja, ich spiele das Spiel seit Tag 1!
1 Absturz bis jetzt, quasi keine Ruckler/FPS drops (Limit auf 60FPS weil alles darüber ist in meinen Augen bei einem Soulslike nicht wirklich sinnig), WQHD mit fast allen settings auf Ultra und DLSS Quality...
(Meine PC specs spar ich mir mal, weil es eh nur darin endet zu bashen warum ich mit der Hardware auf 60FPS limitiere..)

---
Wer übrigens noch ein wenig bessere Optik rausholen will in der NVIDIA Steuerung für das Spiel 16xAF aktivieren!
Sorgt dafür das sehr viele Texturen deutlich detailreicher werden
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Zurück
Oben