Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

YamahaFan schrieb:
Nur das halt 95% der Spiele auf höchstem schwierigkeitsgrad nicht schwer werden weil es zum Game dazugehört sondern weil es dann unfair wird! Das der entscheidende Unterschied zu Dark Souls.
OK ja, verstehe was Du meinst. Kann gut sein, dass es bei TLoU auch so ist, habe es bisher nur auf "Hard" gespielt und es gibt noch zwei Schwierigkeitsgrade darüber.
 
Gerade festgestellt, dass ich mein Save Game nicht laden kann.
Sobald ich Fortsetzen drücke friert erst das Bild ein, dann der Ton und dann crasht das Spiel..
Habs jetzt mehrere male im abgesicherten und normalen Modus versucht.
Klappt nicht..

Naja.. versuche ich es in 2-3 Wochen nochmal, wenn es hoffentlich bissel gepatched ist..
 
  • Gefällt mir
Reaktionen: Mcr-King
Computerbase:
Eine Katastrophe, so wie es einige Nutzer berichten, offenbarte sich der Redaktion zwar nicht, es gab aber zweifelsohne störende Probleme. Das Shader-Compiling beim ersten Spielstart dauert definitiv zu lange, bei den Ladezeiten hängt das Spiel ab und zu in einer Endlosschleife und auch sonst ist längst nicht alles perfekt. Aber wenn das Spiel einmal lieft, lief es im Test gut. Shader-Compile-Stottern gibt es nicht und auch sonst stört den Spielfluss nur wenig. Manche Spieler berichten von Abstürzen.


Mit 7950X3D + 4080/7900X/TX läuft das Spiel auch sicherlich toll. Wenn es nicht sehr gut laufen würde, dann gäbe es wohl niemanden bei dem es gut laufen würde.

Mironicus1337 schrieb:
Das Spiel funktioniert auf meinem System in 4K Nativ (RTX 4080) herausragend, ich habe von den Störungen nichts mitbekommen. Die Grafik ist absolute Referenz.
Raytracing hätte dem ganzen noch die Krone aufgesetzt.
Mit Raytracing ON, wäre das Spiel mit an Sicherheit grenzender Wahrscheinlichkeit in nativen 4k unspielbar. Zumindest für jemanden der mit seiner RTX 4080 bestimmt nicht 37FPS sehen möchte. RT verbraucht auch noch mal mehr Vram.

Enigma schrieb:
Ich verstehe die Kritik nicht. Es ist ein Next-Gen Spiel. PS5 hat 16 GB unified memory und man kann nicht erwarten dass davon "nur" 8GB VRAM zugeteilt werden. Ergo sind 10 GB für mich das Minimum, was der PC liefern muss. Es ist ein nice-to-have, wenn es auch mit 8 GB VRAM läuft.
Das Game benötigt um optimal zu laufen halt 16GB Vram. Die Kritik wäre hier eher, das es dann kaum einer richtig spielen kann, denn schließlich haben nur die wenigsten PC Spieler soviel Vram. Es gibt dann einen großen Kundenkreis, der das Spiel nicht zocken wird.



Ich kann es selbst gerade gar nicht glauben, aber wirklich viele zocken das Game aktuell nicht:
NVIDIA_Share_5FeANpZIuX.jpg


36.500 Spieler als Peak beim Release?
Und TLOU ist jetzt nicht unbekannt. Immerhin der 5te Release, seit einem Jahrzehnt ein Playstation Kracher und dazu noch eine Serie die sehr gut lief (8.9/10).


Mal paar all-time Peaks von anderen Games zum Vergleich:
  • Grounded 32.012
  • RE4 168.000
  • Sons of the Forest 414.257
  • Hogwarts Legacy 879.308
  • Lost Ark 1.325.305
Eine Bewertung von 3,5/10 auf Steam ist jetzt auch nicht so einfach wegzudenken. Und bei der gezeigten Performance und Problemen, wird das Spiel auch in der Bewertung sehr niedrig bleiben, da die meisten Gamer keinen 7000X3D oder 13th Gen i7/i9 haben, und schon gar nicht über 6800 XT oder RTX 3080.
 
  • Gefällt mir
Reaktionen: Klever, SuperTuesday, Harpenerkkk und 3 andere
Captain Flint schrieb:
Meine Wahl zur RX 6800 war Goldrichtig und die Karte ist "undervoltet". Bei 100% Last wird sie nie über 70° warm und bleibt auch noch leise
wie hast du es eingestellt, auch mit More power tool,
würde mich interessieren deine Einstellungen.
 
  • Gefällt mir
Reaktionen: daknoll und Mcr-King
Piecemaker schrieb:
Das Game benötigt um optimal zu laufen halt 16GB Vram. Die Kritik wäre hier eher, das es dann kaum einer richtig spielen kann, denn schließlich haben nur die wenigsten PC Spieler soviel Vram. Es gibt dann einen großen Kundenkreis, der das Spiel nicht zocken wird.
Ich bin aus der Generation 3DFX und finde es normal, dass ein PC zu langsam für ein neues Spiel ist. Auch bei Crysis kam kein Mensch auf die Idee, den Hersteller für die Systemanforderungen zu verfluchen. Ich bin da nicht so anspruchsvoll. Natürlich wäre es besser, wenn das Spiel mit 6-8GB stressfrei läuft - aber das kann man aus dem Review noch nicht rauslesen. Mal abwarten ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Clany, V_182 und Mcr-King
Ich glaube ich bin dem Problem auf die Spur gekommen..
Ich habe mit 16 GB Ram einfach zu wenig Ram.. dafür kann der Entwickler aber nichts.. ^^
Wenn ich das Spiel starte, kann ich im Taskmanager zu schauen, wie mein Ram von ~4 GB Auslastung innerhalb von Sekunden auf 15,9 GB hoch geht und dann ist feierabend.

Wenn ich die Grafik auf Low stelle und die Auflösung ohne DLSS auf nativ, dann kann ich zwar spielen, aber sobald ich auch nur Discord starte oder den Browser, kackt das Spiel direkt ab und nimmt meist auch den Browser oder Discord mit..

Habe mir jetzt erstmal nen 32 GB Kit bestellt.. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Romanow363, jo0 und Mcr-King
Gnah schrieb:
Aber wahr, zumindest meiner Meinung nach. Das Spiel lebt absolut von seiner Story und den Charakteren, das Gameplay ist relativ flach, repetetiv und langweilig. Ich stimme der Beurteilung im Artikel da komplett zu.

Ich habe keine Einwände, ich bin sogar angenehm überrascht, dass Klartext geredet wird.

Leider kommt es wesentlich häufiger vor, dass neumodische Konsolenunsitten verleugnet, verharmlost, oder sogar als Vorteil gepriesen werden. Selbst die Gamestar hat z.B. nach jahrelangem Widerstand inzwischen aufgegeben, eine fehlende freie Speicherfunktion als Minuspunkt anzukreiden. Anscheinend lässt sich die Mehrheit gerne langweilige Strafarbeiten aufhalsen.
 
  • Gefällt mir
Reaktionen: Yar und Clany
Hab das erste mal gesehen das ich für ein Spiel 24gb ram in verwendung habe.

Krass, wie auf einmal die Spiele mehr RAM wollen. Zum Glück Habe ich 32gb eingebaut.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Romanow363, Mcr-King und eine weitere Person
Piecemaker schrieb:
36.500 Spieler als Peak beim Release?
Und TLOU ist jetzt nicht unbekannt. Immerhin der 5te Release, seit einem Jahrzehnt ein Playstation Kracher und dazu noch eine Serie die sehr gut lief (8.9/10).
Das gleiche was ich auch schon zu der Uncharted Portierung geschrieben hatte, die Mehrheit welche die Spielereihe spielen wollten haben es bereits gespielt.^^

Ich z. B. hätte wenn ich unbedingt eine der Spielereihen hätte spielen wollen mir eine Konsole geholt, das werden viele so gemacht haben schätze ich und die meisten werden sich das Spiel ja nicht nochmal auf PC kaufen wenn sie es schon auf der Konsole gespielt haben.^^

Beispielsweise die einzige Portierung für PC von Sony welche ich mir geholt habe war Days Gone, aber auch nur weil ich es für ~40 Euro bekommen konnte.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Also ich konnte jetzt 4H durchzocken,Grafik sieht super aus und von den animation und verhalten hab ich noch nix besseres gesehen.

Trotzdem ist die Perfomance nicht so toll,und CPU power wird hier wohl gefragt,weil viele stellen hart CPU limit sind.

Ansonsten gönnt sich das spiel 18GB Ram und 13GB vRam bei mir.(UHD,FSR Qualität,rest Hoch-max,kein AA,CPU lastige stellen drop ich auf 50FPS ansonsten sind se 60-85.

Temps sind alle aber i.O CPU schlummert bei 65Grad und GPU bei 60-70.
 
Enigma schrieb:
Ich bin aus der Generation 3DFX und finde es normal, dass ein PC zu langsam für ein neues Spiel ist. Auch bei Crysis kam kein Mensch auf die Idee, den Hersteller für die Systemanforderungen zu verfluchen. Was ist das für ne Anspruchshaltung heutzutage?
Ich bin aus der Generation C64 und Demoscene.

Das hat aber nichts mit meinem Beitrag zu tun, zumal wir Dinosaurier nicht zum größten Kundenkreis gehören. Es geht jetzt eher um deinen Sohn, der eine Welt ohne Internet nicht kennt, und komisch guckt wenn er Sandmännchen oder Sesamstraße schauen soll :)

Also "Was beschwert ihr euch, das ein AAA Game-Download in Deutschland 8 Stunden dauert? Ich habe damals noch 30 Minuten für ein MP3 Lied gebraucht!" anzubringen, ist nicht gerade sinnvoll.

Wenn du eine Software Schmiede besitzen würdest, dann wäre dein obersten Anliegen einen möglichst großen Kundenkreis zu erreichen und diesen von Anfang an für dein Produkt zu begeistern und dann längerfristig zu halten. Es würde vielleicht sinn machen, das Spiel 15% schlechter aussehen zu lassen, was der Großteil deines Kundenkreises gar nicht bemerken würde, dafür aber +30% zahlende Kunden zu gewinnen.

Die Zeiten haben sich auch geändert. Damals war gute Hardware selten und somit die Branche stehts den Spieleentwicklern hinter her. Das war gar nicht so schlimm, weil sich noch nicht soviel Geld damit verdienen lies und Spiele eher für ein paar tausend oder zehntausende Dollar entwickelt wurden. An TLOU sieht man aber, das nicht die Hardware hinterher hinkt, sondern die Software. Und zwar ganz gewaltig.
 
  • Gefällt mir
Reaktionen: DiamondDragon und pookpook
Wolfgang schrieb:

Upsampling zeigt in TLoU viele Stärken​

Sowohl Nvidia DLSS als auch AMD FSR funktionieren in The Last of Us Part I sehr gut. Sogar so gut, dass beide Upsampling-Technologien in Ultra HD oft besser als die native Auflösung aussehen. In Sachen Rekonstruktion sind FSR und DLSS dem spieleigenen TAA definitiv überlegen und dass trotz deutlich geringerer Renderauflösung.

🕵🏽
 
abzjji schrieb:
Mein Game crashed ständig im Menü bei Shader Compiling, gibts da nen fix?
Einfach das Spiel immer wieder starten und im Hauptmenu warten.
Die Shader starten nicht von vorne.. es dauert zwar, aber sobald es dann irgendwann fertig ist, kann man relativ normal spielen..
Ergänzung ()

MSI-MATZE schrieb:
Hab das erste mal gesehen das ich für ein Spiel 24gb ram in verwendung habe.

Krass, wie auf einmal die Spiele mehr RAM wollen. Zum Glück Habe ich 32gb eingebaut.
Ich habe nur 16 GB und wenn ich die Grafik höher stelle als Low @ 1080p, stürzt es sofort ab.. ^^
Habe vorhin dann mal nen 32 GB Kit bestellt.. :)
 
Enigma schrieb:
Auch bei Crysis kam kein Mensch auf die Idee, den Hersteller für die Systemanforderungen zu verfluchen.
Leider doch, das war auch der Grund weshalb die Entwickler beim 2. Teil keine Grafikoptionen für "zukünftige" Hardware angeboten haben, weil zum ersten Teil die Kritik aufkam das Spiel sei nicht genug optimiert worden da man es nicht auf den höchsten Grafikeinstellungen performant spielen kann.

Hatte ich in einem Interview gelesen.^^
 
abzjji schrieb:
Mein Game crashed ständig im Menü bei Shader Compiling, gibts da nen fix?

Läuft deine Systemplatte voll? Dann hilft nur immer wieder Neustart oder Platz schaffen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Gravlens schrieb:
Leider doch, das war auch der Grund weshalb die Entwickler beim 2. Teil keine Grafikoptionen für "zukünftige" Hardware angeboten haben, weil zum ersten Teil die Kritik aufkam das Spiel sei nicht genug optimiert worden da man es nicht auf den höchsten Grafikeinstellungen performant spielen kann.

Hatte ich in einem Interview gelesen.^^
Es ist übrigens auch nicht sinnvoll dies zu tun - also Optionen anzubieten die erst mit zukünftiger Hardware relevant werden.

Der Entwickler kann nicht einschätzen, ob es diese Hardware überhaupt zu relevanten Zeiten eines Games geben wird. Vielleicht steigen die GHz von CPU & GPU? Eventuell aber auch die Anzahl der Kerne und das Design verändert sich (siehe P/E Cores Intel oder AMD CCX & X3D).

Ein gutes Beispiel ist Everquest2, was 3 Monate vor World of Warcraft released wurde. Wenn man alles auf maximum stellte, sah das Game so aus:

everquest_2_freeblood_good.jpg


ss_df7fcdce4379a75d8239f69ea127586aba5bc755.1920x1080.jpg


Das Problem war nun, das es nie Hardware gab die das geschafft hätte.

Das ist mit ein Grund, warum WoW so ein Erfolg wurde. Das lief auf jeder klapper Kiste, während man bei EQ2 selbst mit einer 8800Ultra/9800 nur so durch die Gegend ruckelte. Man kann doch die Grafik einfach weiter runter stellen? Ja und nein.

Games die mit einer gewissen Grafik beworben werden, will der Konsument auch so in etwa spielen. Muss der alles so runter setzen, das es wie auf einer PS3 oder im Beispiel von EQ2 so aussieht wie WoW, dann ist das ein Griff ins Klo.

Crysis ist da auch ein Parade Beispiel wie es schief laufen kann:

Als Crysis gar nicht mehr relevant war, gab es Hardware um das auf Ultra zu spielen. Aber selbst diese Anforderungen waren gemessen an den FPS nun völlig exorbitant, da es schon längst schönere Spiele aus dem gleichen Genre mit mehr FPS gab. Das Resultat solcher Crysis oder EQ2 Hardware Eskapaden, ist am Ende die Erinnerung an das Spiel. Und die ist "Lief kacke, war dann nicht so geil.".

Vielleicht erinnert sich der ein oder andere noch: Als Crysis fantastisch lief, wurden die Multiplayer Server abgestellt.

Jetzt sollte man aber bedenken, das Crysis und EQ2 mit TLOU1 gar nicht vergleichbar sind. Das eine ist ein "360° no scope" FPS und das andere das Raid-MMO. Da kann man auch auf Grafik verzichten, um dann mehr kills oder dps zu machen und sich daran erfreuen.

TLOU1 ist aber ein Erlebnis wie ein Film. Eine Geschichte. Gleiche gilt für Hogwarts. Wenn hier etwas nicht richtig funktioniert, ist das deutlich störender. Schau mal hier. Das ist auch ein Story Game und läuft auf einer RTX 4080 in 4k Ultra und RT Max mit 150-170FPS. Oder schau mal hier 8k 60 FPS Ultra alles & noch mehr auf einer RTX 4090. Und dann sag mir das TLOU1 besser aussieht?! TLOU1 sieht sehr gut aus, aber die Performance ist aus der Hölle, und das sollte man nicht klein reden.
 
  • Gefällt mir
Reaktionen: Klever, MoinWoll, DerFahnder und 2 andere
gottverdammtershice bin ich froh damals eine 6700XT der 3070ti vorgezogen zu haben 😅 8GB VRAM ist heutzutage schlicht einfach zu wenig
 
  • Gefällt mir
Reaktionen: MiroPoch, Inxession, daknoll und eine weitere Person
Ich habe da mal ein paar kleine Vergleich-Screens einer Szene erstellt. Eben das, was man macht, wenn man nachts um 2 Uhr aufwacht und nicht weiß, was man gerade machen soll......;D

Mit einer 4090 hat man in keiner Einstellung Probleme gute Frames hinzubekommen. Die Karte ist gefühlt immer unbeeindruckt, ganz egal was man ihr zu fressen gibt. Der 5800X3D reicht in meinem Fall immer für um die 140-150 Fps maximal aus bevor ich ins Bottleneck laufe. Echt eine krasse CPU. Kompilierung der Gebäudeshader hat bei mir mit Installation auf einer langsameren PCIe 3.0 NVME-SSD knapp 20 Minuten gedauert. Die GPU war zu der Zeit mit 60-80% und die CPU mit 90-100% am werkeln. RAM-Last lag wenn ich mich recht erinnere bei knapp 20GB.

Jetzt zu den Screens, ich hoffe jemand kann da Infos für sich selbst raus ziehen. Bei Usern ohne RTX-Karte oder AMD-Usern bitte DLSS mit FSR austauschen. Ergebnisse dürften ja ca. gleich sein.

Ich habe einfach mal zugeschrieben, was ich denke welche Karte man entsprechend nutzen kann um 60+ Fps zu erreichen.

In UHD DLSS Quality und mittleren Settings sollte es auf z.B. auch einer 6800XT oder RTX 3080 gut laufen, wo selbst die 10GB VRAM kein Problem mehr darstellen dürften. Es werden dann nur ca. 8GB VRAM wirklich genutzt. Von niedrigen Settings würde ich nach meinen Versuchen absehen, die Qualität ist doch schon sehr ...ach seht selbst....

UHD DLSS Quality Lowest Settings....würg (nicht zu empfehlen)

UHD DLSS Quality Lowest Settings.jpg


UHD DLSS Quality Medium Settings
(3080 10GB/12GB, 3090, 6800XT)

UHD DLSS Quality Medium Settings.jpg


UHD DLSS Quality High Settings
(3090Ti, 4070Ti, 6950XT, 7900XT)

UHD DLSS Quality High Settings.jpg


UHD DLSS Quality Ultra Settings ... schaut hübscher als nativ aus!
(RTX 4080, RX 7900XTX)

UHD DLSS Quality Ultra Settings.jpg


UHD Ultra Settings Nativ
(nur 4090)

UHD Nativ Ultra Settings.jpg


FHD Ultra Settings Nativ
(RTX 3060 12GB, RTX 2080Ti, RX 6700(XT))

FHD Ultra Settings Nativ.jpg


FHD DLSS Quality Ultra Settings .....das Gras ist mit DLSS Quality in FHD hübscher
(RTX 3060 12GB, RTX 2080Ti, RX 6700(XT))

FHD DLSS Quality Ultra Settings.jpg


WQHD DLSS Quality Medium Settings
(RTX 3060(Ti), RTX 3070, RTX 2080Ti, RTX 2080, RX 6600XT, 6650XT, RX 6700(XT))

WQHD DLSS Quality Medium Settings.jpg


WQHD DLSS Quality Ultra Settings
(3080 10GB/12GB, 3090, 6800XT)

WQHD DLSS Quality Ultra Settings.jpg


8K Nativ High Settings
(per 200% Renderskalierung, Ultra stürzt leider ab, da zu wenig RAM in jeglicher Form)
Naja, RTX 4090 reicht gerade so für ein cineastisches Erlebnis....🙄

8K Nativ High Settings.jpg
 

Anhänge

  • UHD DLSS Quality Lowest Settings.jpg
    UHD DLSS Quality Lowest Settings.jpg
    1,3 MB · Aufrufe: 151
  • UHD DLSS Quality Medium Settings.jpg
    UHD DLSS Quality Medium Settings.jpg
    2,2 MB · Aufrufe: 130
  • UHD DLSS Quality High Settings.jpg
    UHD DLSS Quality High Settings.jpg
    2,3 MB · Aufrufe: 146
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN, Recharging, ComputerJunge und 9 andere
@Piecemaker
Erstmal Respekt von deinem Beitrag, weiß gar nicht ob ich da Adäquat darauf eine Antwort geben kann die dem gerecht wird, denke eher nicht.^^

Es gibt genug Gegenbeispiele, eines was ich das letzte mal gespielt hatte, aber ich packe das in einen Spoilertag wegen Offtopic.^^
Und zwar Prey von 2017 also die Neuauflage. Passenderweise läuft das auf der Cryengine, auf einer etwas älteren Version.

Da hätte ich mir sowas von gewünscht das die Entwickler zukünftige Hardware bei den Grafikoptionen berücksichtigt hätten, da das Antialiasing auch in der "besten" Einstellung einfach nur Grauenhaft aussah.

Nach ein wenig Suche bin ich dann auf diese Seite gekommen:
https://gamepretty.com/sniper-ghost-warrior-contracts-2-graphical-fidelity-settings/

Hab dann einiges aus dem Antialiasing-Abschnitt übernommen.
Und noch einige andere Dinge und mit den Änderungen sah das um einiges besser aus als davor mit den "besten" Settings und war trotzdem immer noch sehr performant.

Lustigerweise bin ich auf die Seite über einen älteren Beitrag glaube von Steam gekommen, in dem derjenige der den Link gepostet hatte schrieb er nutzt diese Einstellungen nur für Screenshots weil spielbar wäre es damit nicht.^^

Das ist auch nur ein Beispiel, gibt auch Spiele die eine nicht so zugängliche Engine mit entsprechender Dokumentation bieten, dann wären dann solche zukünftigen Grafikoptionen Gold wert.^^

Und deshalb bin ich ein klarer Befürworter solcher Optionen, man kann die als Entwickler auch nachträglich als Patch anbieten damit die Tester die schlechte Performance auf höchster Grafikeinstellung nicht anprangern.^^
 
Zurück
Oben