Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

AEonVi schrieb:
Stimmt, hätte ich mal machen "müssen", damit ich jetzt auch Schaum vor dem Mund bekomme.
Du hast ja "angefangen" - scheinbar war es dir ein gesondertes Bedürfnis mitzuteilen, dass eines der bestbewerteten Spiele der letzten 10 Jahre komplett an dir vorbei gegangen ist.
 
MehlstaubtheCat schrieb:
@juwa Deine Hardware Kombo ist schon sehr speziell! :D
Hast da 60hz WQHD Monitore mit ne 4080 am laufen?
Echt! Dicker das haut mich schon etwas um, da muss ich grinzen!
Die 4080 ist da kompletter Overkill.
Und ich nutze hier meine 4070 Ti am UHD@144Hz Monitor:D
Aber tatsächlich schaffe ich in den meisten neuen AAA Spielen auch gute dreistellige fps@max dank DLSS 2/3.
 
Wolfgang schrieb:
Alle AMD-Karten wurden ausschließlich mit dem neuen Beta-Treiber getestet.
und was ist mit der 3060 ist das die 8GB oder 12GB ? ebenso die ARC770 8GB oder 16GB
gerade in dem Game wäre es interessant zu sehen wie sich die selben Karten mit unterschiedliche viel VRam machen
3060-8GB vs 12GB
3080-10GB vs 3080-12GB
Ark770 8 vs 16GB
 
Unti schrieb:
Du musst auch bedenken, dass 2 Hotfix Patches rauskamen, ich hab das Teil direkt zur Freischaltung gespielt, da war es quasi unspielbar....
Shader dauern, das ist richtig, hat die CPU auch ganz schön mitgenommen.... 100% mit 200W... Holla, so was sieht man außer in Cinebench oder anderen Workloads nie....
Das dachte ich auch erst beim Gebäude-Shadern, meine Lüfter machen einen auf Düsenjet. Aber sehe es mit Humor, es war ein Stresstest für die eigene PC-Hardware und deren Kühlung. Mein Noctua NH-D15s hat sie bestanden. Habe auch ab Release gespielt, bin aber auf keine Probleme gestoßen, scheinbar mal wieder Glück gehabt. Das Glück der Narren sozusagen, weil eigentlich hatte ich mir geschworen, nie mehr ein PC-Spiel zum Release zu kaufen. ;)
 
nailos schrieb:
Da steht doch nur das:

Da weiß ich jetzt nicht, ob das Hakeln mit Texturen auf Hoch behoben wird.
Ach, du meinst mit Texturen auf Hoch?
Das habe ich nicht getestet, ist auch nicht so ohne weiteres möglich. Anstatt vielleicht eine halbe Stunde wie sonst würde das ein paar Stunden brauchen in dem Spiel. Gebäude Shader sage ich nur :D
Icke-ffm schrieb:
und was ist mit der 3060 ist das die 8GB oder 12GB ? ebenso die ARC770 8GB oder 16GB
gerade in dem Game wäre es interessant zu sehen wie sich die selben Karten mit unterschiedliche viel VRam machen
3060-8GB vs 12GB
3080-10GB vs 3080-12GB
Ark770 8 vs 16GB
So, wie die Hersteller das "Ur-Modell" sehen. Sprich, RTX 3060 mit 12 GB, RTX 3080 mit 10 GB und Arc A770 mit 16 GB.
 
  • Gefällt mir
Reaktionen: Icke-ffm
eLw00d schrieb:
Also gibt es bei dir keine Hakler oberhalb von Full-HD, so wie Computerbase sie erlebt hat?

Was müsste ich denn vermutlich alles runterstellen, um in 3840x1600 mit DLSS spielen zu können mit der RTX 3080?

Anstelle der RTX 3080 hätte ich mal besser eine Playstation 5 gekauft...

Eher ne Glaskugel :p
Nvidia ist hier der schwarze Peter.
 
Wolfgang schrieb:
Das steht doch im VRAM-Abschnitt mit einem separaten Abschnitt für je 8 GB, 10 GB, 12 GB und mehr :)

Natürlich kann man anstatt oder zusätzlich zu den Texturdetails auch andere Optionen runter drehen, die den VRAM beeinflussen, wie zum Beispiel die Schatten. Das jetzt alles separat zu testen, würde jeglichen Aufwand sprengen.

Wenn man nen Dienst für die Spieler erweisen wollte, wäre aus meiner Sicht das Naheliegendste, zu testen, ob das Spiel in 1440p mit High Settings, ggf mit DLSS Quality auf einer 8 GB GPU ohne Ruckler spielbar ist.

Das dürfte eine der am weitest verbeitetsten Konfigurationen unter den durchschnittlichen PC Spielern sein und höchstwahrscheinlich die Ursache für die große Zahl negativer Steam Reviews.


Es hat schon seinen Grund, warum z.B. Digital Foundry häufig mit GPUs wie einer RTX2070S testet und hier prüft, wie gut das Spiel läuft. Natürlich nicht bei maximalen Settings in 4K, sondern bei High Settings oder selbst recherchierten optimierten Settings die das beste Verhältnis aus Qualität und Leistung bieten (nein, letzteres erwarte ich auch nicht von euch, weil das ein riesen Aufwand ist, das zu ermitteln).....

Daraus lassen sich eben dann auch Rückschlüsse für alle anderen 8 GB Karten ziehen, wie z.B. die RTX3070, 3060ti, usw.


Ich weiß, dass euer Fokus ein etwas anderer ist. Aber an eurer Stelle hätte ich einfach direkt das Preset auf Hoch gesetzt und getestet. Es ist zwar schön, dass die High Texturen kein großer Verlust sind, aber ein Spieler mit ner 8 GB Karte würde halt nicht nur die Texturen reduzieren, weil das ist offensichtlich eh zu wenig, um den VRAM Verbrauch in den grünen bereich zu bringen.
Vor allem wenn man bedenkt, dass eine 3060ti in 1440p nur 43 FPS schafft und das nicht nur am VRAM liegt, wird das Ultra preset so oder so keine brauchbare Option sein, selbst wenn der VRAM reichen würde....

Kurz gesagt, ihr habt jetzt mit eurem Nachtest eine Frage beantwortet, die nice to know ist, aber die Frage, ob ein Spieler mit 8GB das Spiel nun kaufen sollte, weil es mit angepassten Settings womöglich sauber läuft, wird nicht beantwortet. Man hätte mit einem einzigen Test ein vielfaches mehr Erkenntnis gewinnen können, hätte man nur das High Preset genommen und nicht nur die Texturen reduziert.


Am Ende ist es mir auch egal, weil ich genug VRAM habe, aber wenn ich mich in die Position eines Spielers mit solcher Hardware versetze, werden hier kaum Fragen beantwortet. Ihr macht nen VRAM Test mit allen Textursettings und der Leser mit 8GB weiß trotzdem nicht, obs bei ihm nun läuft. Da fragt man sich halt, für welchen Spieler die Info nun wirklich wertvoll ist. Bestenfalls für Spieler, die ganz knapp zu wenig VRAM haben. Dabei hätte ein Test mit dem High preset statt vier mit allen Texturstufen schon gereicht um sowohl die 12, 10 und 8 GB Spieler ausreichend zu informieren. Weniger Aufwand, mehr Information.
 
  • Gefällt mir
Reaktionen: Wan900, Tidus2007, MoinKffee und 4 andere
Bis auf die nervige Ladezeit der Shader bin ich von dem Titel begeistert. Was mir besoders gut gefällt ist dass die Bildqualität zwischen Dlss Qualität vs. Performance so gering ausfällt, dass ich mich für Performance entschieden habe, und anschliessend dadurch ca.30% mehr FPS habe. (von 91fps auch 115fps)

Performance.jpg
Qualität.jpg
 
kaxi-85 schrieb:
Du hast ja "angefangen" - scheinbar war es dir ein gesondertes Bedürfnis mitzuteilen, dass eines der bestbewerteten Spiele der letzten 10 Jahre komplett an dir vorbei gegangen ist.
Nein da ging es darum dass eben nicht jeder alle spiele zu Release gespielt hat und daher Remakes keineswegs ein „Unding“ sind weil auch viele jetzt das erste mal mit einem Titel in Berührung kommen, sei es weil man es damals einfach nicht beachtet hat oder weil man zu jung war.

Ich würde heute als 16jähriger der gerade die Serie gesehen hat und nun Lust auf das Spiel bekommen hat, auch lieber das Remake auf PS5 oder PC Spielen als mir die 10 Jahre alte PS3 Version anzutun.
 
  • Gefällt mir
Reaktionen: SuperTuesday und AEonVi
Also ich bin jetzt bei knapp 10H,habs fast durch,jedenfalls denk ich das,wenn ich nach serie gehe dürfte danach nix mehr kommen weil der rest kam schon.

Sumarum war das mal wieder ein SP game wo ich sagen kann,dass,das keine verschwendete Zeit war.
Das gibts heute ja nur noch selten leider.

Mal von ab ist das Game auch heftig brutal und der 2te Teil setzt da ja nochmal ein drauf was ich so gesehen hab.

Hier ist das kein Prob obwohl man teilweise gegen Menschen kämpft und die noch zerstückeln kann wenn se tot sind,aber nen Deadisland 2 wird geschnitten.

Ich freue mich jedenfalls auf den 2ten Teil,und hoffe das der nen besseren start hat was abstürtze und Performance angeht.

Bugs hatte ich nur 2 kleine,sonst ist mir nix aufgefallen.
 
Mimir schrieb:
Es hat schon seinen Grund, warum z.B. Digital Foundry häufig mit GPUs wie einer RTX2070S testet und hier prüft, wie gut das Spiel läuft. Natürlich nicht bei maximalen Settings in 4K, sondern bei High Settings oder selbst recherchierten optimierten Settings die das beste Verhältnis aus Qualität und Leistung bieten (nein, letzteres erwarte ich auch nicht von euch, weil das ein riesen Aufwand ist, das zu ermitteln).....
Wie du schon selber gesagt hast, wir haben einen anderen Fokus als Digital Foundrys was Technik-Tests angeht, daher ist die Art, wie wir Spiele testen, auch unterschiedlich. Genauso wie es für DF zeitlich nicht möglich wäre, so wie wir und wie sie zu testen, ist es für uns zeitlich nicht möglich, wie wir und wie DF zu testen. Beides zusammen geht einfach nicht. Und dann wählt man eben das aus, wozu man die besten Ressourcen hat bzw. wo man glaubt, was am besten zu einem passt und von den Lesern/Zuschauern am besten angenommen wird.
 
  • Gefällt mir
Reaktionen: spfccmtftt89, SuperTuesday, Captain Mumpitz und 2 andere
Es ist doch ziemlich klar, dass hier der Spieleentwickler einen Fehler gemacht hat und nicht die Masse der genutzten Grafikkarten das Problem darstellen.
Außerdem die kommenden 8 GB Vram der neuen AMD und NVidia Mainstream Modelle.

Die Masse der Spieler hat 8 GigaByte VRAM, schätzungsweise 40%. 10 bis 15 % haben vielleiucht 10 GB - 24 GB VRAM. Der Rest hat weniger!

Das bedeutet, dass Sony schlicht am Markt vorbei entwickelt hat. Denn unter FullHD sollten hohe bis maximal sinnvolle Texturen von deren Auflösung relativ zur Bildschirmaufläsung möglich sein.
Jetzt kann es natürlich sein, dass bei TLOU die maximalen Texturen unter FullHD die selben wie unter UHD/4K sind. Was schlicht und einfach VRAM-Verschwendung wäre und ein miserabel entwickeltes Spiel.

Hier muss nicht NVidia oder AMD im Treiber nachbessern, auch wenn sie versuchen könnten es etwas abzufangen, nein hier muss Sony der Entwicler dieses Spiels nachbessern.
Entweder das VRAM-Management des Spiels generell verbessern oder den Auflösungen entsprechende Texturen bereitstellen.
Oder eben klar artikulieren, dass es optisch unter FullHD zwischen Maximalen(Ultra) Texturen und Hohen Texturen keinen sichtbaren Unterschied gibt. Sprich Perlen vor die Säue.
Das kann ich wiederum nicht beurteilen, da ich es nicht weiß.


Edit:

@CB

Danke für das Update!

Ich sehe allerdings auch bei mittleren Texturen auf euren Bildern keine großen Unterschiede oder wirkliche Mängel die die VRAM Menge der hohen oder ultra Texturen rechtfertigen würden.

Ganz klar hat Sony hier unzureichend an den Texturen gearbeitet. Bedenkenlos und suboptimal.
 
  • Gefällt mir
Reaktionen: Tidus2007 und ShowOff
nailos schrieb:
FHD? WQHD? UHD? Es wäre schön hier etwas mehr Klarheit zu schaffen, vielleicht mit einer Tabelle.
So gings mir auch. Aber ich lese so halben raus:
8GB FHD Mittel; WQHD Vergiss es
10GB FHD Ultra; WQHD Hoch
12GB FHD Ultra; WQHD Ultra; UHD Hoch
 
  • Gefällt mir
Reaktionen: nailos und Gortha
Wolfgang schrieb:
Ach, du meinst mit Texturen auf Hoch?
Das habe ich nicht getestet, ist auch nicht so ohne weiteres möglich. Anstatt vielleicht eine halbe Stunde wie sonst würde das ein paar Stunden brauchen in dem Spiel. Gebäude Shader sage ich nur :D
Ach na jetzt bin ich aber entgültig verwirrt. Ich habe das Update 2 schon so verstanden, dass getestet wurde, ob 8, 10 und 12 GB jetzt laufen. Explizit für 8 GB entnehme ich das dem folgenden Satz:
Wer größere Probleme hat, zum Beispiel mit einer 8-GB-Grafikkarte, muss die Texturdetails auf Mittel zurück schalten. Und dann gibt es im gesamten Bild große Nachteile zu sehen.
Und speziell für diesen Satz würde mich interessieren, welche Auflösung das dann betrifft. Oder noch konkreter: Muss man auch in FHD (oder WQHD + DLSS/FSR "Quality") bei einer 8 GB Karte die Texturen auf Mittel setzen, um flüssig (im Rahmen der zugehörigen GPU) spielen zu können?

Und wie @Mimir schreibt, wäre es auch interessant zu wissen, ob man mit dem gesamten Hoch Preset zumindest in FHD flüssig spielen kann.

Mir ist schon klar, dass das viel Aufwand ist, aber ist nicht genau das euer Anliegen? Potentielle Käufer beraten, ob ein Spiel auf deren Hardware (bei 8 GB VRAM wohl der absolute Durchschnitt) "gut" läuft?

LG
 
  • Gefällt mir
Reaktionen: Gortha

Hier auch nochwas dazu.
 
  • Gefällt mir
Reaktionen: msv und ShowOff
MehlstaubtheCat schrieb:
@juwa Deine Hardware Kombo ist schon sehr speziell! :D
Hast da 60hz WQHD Monitore mit ne 4080 am laufen?
Echt! Dicker das haut mich schon etwas um, da muss ich grinzen!
Die 4080 ist da kompletter Overkill.
Sogar drei ältere Monitore mit 1980x1080 Auflösung... mit DIY LED Hintergrundsbeleuchtung. Klar ist die 4080 ein Overkill, ein neuer Monitor wäre auch angebracht, werde alles aber sicher noch sehr lange behalten. Das ist Nachhaltig und schont unseren Planeten. ;)

 
  • Gefällt mir
Reaktionen: floTTes, ComputerJunge, SuperTuesday und 2 andere
Stabile 60 FPS hat er auf jeden^^
Reicht für das meiste auch völlig aus.

PS: Sehr schick.
 
  • Gefällt mir
Reaktionen: floTTes und juwa
eLw00d schrieb:
Was müsste ich denn vermutlich alles runterstellen, um in 3840x1600 mit DLSS spielen zu können mit der RTX 3080?

Ich habe keine 3080 mehr, hatte mit ihr aber nie Probleme gehabt. Man kann mit dem Afterburner sehen, wieviel RAM tatsächlich gebraucht wird und wenn man dann noch den Taskmanager mit RAM-Last und CPU sieht kann man ruckschliessen. UHD mit DLSS Quality auf Mittel bis hoch sind mit der 3080 drin. Stellt man auf 3200x1800 hat man ein ähnliches Bild und man kratzt sogar die 8GB an. Hier bei Computerbase wird wie auf den meisten anderen Seiten auch immer ein Worst-Case gesucht und idR. nur ultra getestet.

Die PS5 habe ich auch, aber gegen die 3080 hatte sie nie eine Chance. UHD mit 30Fps oder Matschtexturen. Für den TV vielleicht OK, aber am Monitor einfach nur Mist.
 
  • Gefällt mir
Reaktionen: eLw00d und Gortha
Naja Steam ist aber auch nicht 100% der Maßstab,weil jeder müll da drinne auftaucht,auch die,die nur Tetris spielen^^
 
  • Gefällt mir
Reaktionen: juwa und Gortha
Zurück
Oben