Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

cute_baby04 schrieb:
Und warum testet eine Tech Seite nur 2 gpus? in einer Auflösung?

Das kann man sich doch sparen macht nen vernünftigen Technik Test.

Was soll das überhaupt?

Linmoum schrieb:
Frage ich mich auch, was das soll, (Technik-)Reviews nicht zu lesen

Wenn man den Text des Tests auch gelesen hätte, wäre einem der Grund dafür auch aufgefallen. Dort wurde nämlich gesagt, dass aus Zeitgründen erstmal nur mit den beiden Karten getestet wurde und der Rest morgen nachgereicht werden soll.
 
  • Gefällt mir
Reaktionen: medsommer und MoinWoll
Hominem schrieb:
masstab lol? forbidden west sieht um generationen besser aus
Wtf in Welcher Welt? Planet Erde kann es dann nicht sein
 
  • Gefällt mir
Reaktionen: juwa, DeMeP und WebBeat84
@Wolfgang

Top Grafik, Mega Spiegelungen und das alles OHNE RT Mist!
Wieder ein Beweis das RT einfach unnötig ist und einfach nur Performance frisst!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anka|Ente, -=[CrysiS]=-, Experte18 und eine weitere Person
Was wäre der Techniktest eines aktuellen Titels nur ohne den quasi schon obligatorischen, WebBeatschen Anti Raytracing Sermon 😀
 
  • Gefällt mir
Reaktionen: Floeffy, Real_S_Seagal, WebBeat84 und 4 andere
ShowOff schrieb:
die 4080 ist also kein High End, alles klar :freaky:
High-End bedeutet oberes Ende. Wenn andere Karten bis zu 40% schneller sind, kann es kein High-End sein.
 
  • Gefällt mir
Reaktionen: Compatiblewith und Cyberbernd
und hier der AMD Treiber 22.40.43.05 für The Last of Us Part™ 1 für Windows 10 und Windows 11
 
  • Gefällt mir
Reaktionen: WebBeat84 und MoinWoll
MoinWoll schrieb:
High-End bedeutet oberes Ende. Wenn andere Karten bis zu 40% schneller sind, kann es kein High-End sein.
High End, IMHO, bedeutet >1000 EUR. Egal was NvIdia für extra teurer Karte produziert. Deswegen ist die RTX 4080 eine High End Karte.
 
Wichipingui schrieb:
High End, IMHO, bedeutet >1000 EUR. Egal was NvIdia für extra teurer Karte produziert. Deswegen ist die RTX 4080 eine High End Karte.
Das ist aber ein ziemlich willkürlicher Maßstab. In 10 Jahren müsstest Du dann die günstigste, zu dem Zeitpunkt aktuelle Grafikkarte als High-End bezeichnen, falls sich die hohe Inflation fortsetzt.
Wenn man von High-End spricht, egal in welchem Bereich, bezieht sich das in der Regel auf die Leistung. Wenn AMD eine Grafikkarte bringen würde, die für 900€ 50% mehr Leistung als die 4090 liefert, würdest Du dann sagen, dass sie keine High-End Karte ist?
 
Danke für die Mühen, dafür läuft gerne das Jahresabo 👍
 
  • Gefällt mir
Reaktionen: medsommer, Yar und Slainer
Pisaro schrieb:
Das ist doch eigentlich seit der Titan/xx90 Reihe dann Enthusiast?
Guter Punkt. Allerdings sehe ich Enthusiast eher als einen Nvidia-Marketingbegriff um noch höhere Preise für High-End Hardware zu rechtfertigen. Das was heute Titan/xx90 ist, also der (nahezu) Vollausbau des größten Chips einer Generation, war früher die x80, also High-End. Zum Beispiel bei der GTX 480 und 580.

Bis zur aktuellen Generation gab es auch noch nie so eine riesige Leistungsdifferenz (bis zu 40%) zwischen Titan/xx90 und xx80(Ti). Für die 1080 Ti/2080 Ti/3080 Ti war der Begriff High-End durchaus noch valide, da die Leistungsdifferenz ggü. der Titan Xp/Titan RTX/3090 vernachlässigbar gering war. Eine evtl. kommende 4080 Ti, die vllt. 5% langsamer als die 4090 ist, würde ich z. B. ebenfalls noch als High-End bezeichnen. Bei einer bis zu 30% langsameren 4080 passt der Begriff aber einfach nicht. Zum Vergleich: das ist ungefähr die Leistungsdifferenz zwischen einer 1080 Ti und einer 2080 Ti, also ein ganzer Generationssprung. Als die 2080 Ti die schnellste Karte war, hätte denke ich niemand die 1080 Ti noch als High-End bezeichnet.
 
Zuletzt bearbeitet:
Crifty schrieb:
ich vermute zu 99 prozentiger Sicherheit wenn es im Text heißt:
Derzeit ist noch unklar, wie viel VRAM The Last of Us Part I für maximale Texturqualität wirklich benötigt. Das Spiel adressiert in Full HD etwa 10 GB an Speicher, in WQHD sind es nicht ganz 11 GB und in Ultra HD etwas mehr als 12 GB.
werden wohl Karten wie eine 3060ti, 3070 und 3070ti keine maximalen Details unter FullHD fahren können, ohne erhebliche Einbußen im Spielspaß durch Nachladeruckler.
Echt krass aber auf jedenfall sind die karten 2023 zu fhd karten degradiert haha
 
was genau bringt mir nun der test der 4080 und 7900 ?
90 % der spieler hier haben ne schlechtere grafikkarte ... mad

ich wittere mit einer 6800 xt ein desaster wenn beide obig gennanten grade so 100 fps schaffen bei wqhd
 
Bei der Shader-Kompilierung lief mein RAM (16 GB) regelmäßig über und das Spiel stürzte 7x dabei ab.
Hab das mit HWMonitor überwacht. Vor Spielstart 16% RAM belegt, wenn das Game geladen ist sind es ca. 58% und dann lief das hoch bis 93% Auslastung und das Spiel fror ein.
Das hatte ich bei der Uncharted 4 Collection nicht. Da dauert es zwar auch gut 20 Min. bis die Shader erstellt waren (inkl. selber falscher Übersetzung von wegen Gebäude).
Nachdem die Shader aber fertig erstellt waren konnte ich 5 Std. am Stück zocken ohne ein Absturz.
FullHD, keine Skalierungen, Details von Mittel bis Hoch. 60 FPS mit VSync fast immer da. Nur in großen Arealen ging es mal bis 52 Frames runter.
Das nächste Spiel nach Hogwarts Legacy was bei mir ohne große Probleme läuft. Schon irgendwie merkwürdig das die Leute mit den ü1000€ Grafikkarten immer Stress und Abstürze haben.
Da lob ich mir die bezahlbare 6600 doch, vor allem weil sie entspannt max. 100 Watt verbraucht. Nicht ganz unwichtig in Zeiten von deftigen Strompreisen. ;)
Das Spiel an sich fesselt und ist echt toll inszeniert. Auch wenn ich die Handlung durch die HBO-Serie nun schon ungefähr weiß. Die 39,-€ haben sich für mich jedenfalls gelohnt als oldschool Zocker. :cool_alt:

Nachtrag zum VRAM Verbrauch: Im Menü sind bei mir die 8 GB laut Einstellungen belegt. Im Game zeigt das Spiel und auch das AMD Overlay allerdings nur eine Belegung von max. 6,5 GB an.

Edit2: Hab mir jetzt nochmal 16GB RAM dazu gekauft. Für 39,99€ kann man nicht meckern und die Zeiten wo 16GB ausgereicht haben sind wohl nun vorbei. (War früher ja nicht anders, Speicher vergrößern lohnt langfristig immer.)

Update: Heute die Shader erneut mit dem Adrenalin Edition 23.4.1 WHQL Treiber mit 32GB RAM berechnen lassen (Game Version v1.0.1.7). Dauerte 1 Std. und 13 Min., wobei für die ersten 36% eine Stunde verging.
RAM Auslastung lag wieder bei max. 93% (knapp 30GB). Diesmal kein Absturz. Nach dem kompilieren blieb die Auslastung bei 88%. Bin dann ins Spiel und hatte laut AMD Overlay noch immer RAM Auslastung von 29GB.
Erst nachdem ich das Spiel einmal komplett beendet und dann wieder gestartet habe, waren es nur noch 13,5 GB beim selben Savegame.
Wird also nicht aufgeräumt der RAM nach dem Shader erstellen. Performance gefühlt genau wie vorher.
 
Zuletzt bearbeitet: (Update)
  • Gefällt mir
Reaktionen: Wichipingui
Shakj schrieb:
ist das Ding nach ner Stunde beim Aufheben einer Leiter (und vermutlich Nachladen des folgenden Gebiets) mit nem c0000005 AppCrash (A C0000005 error is memory error. Specifically, a C0000005 error is an access violation
Das hatte ich nach dem Update auch (Tür aufmachen -> crash, Brett aufheben -> crash, sich schnell drehen-> crash... ich habe mir jetzt den Vulkan Treiber installiert, vom Branch (VK526_25-22) älter aber läuft mit den selben Einstellungen besser und stabiler (bis jetzt kein crash mehr gehabt🙏). Irgendetwas stimmt da nicht...
2023-03-29 21_29_24-Ereignisanzeige.png


Nvidia 531.46
https://developer.nvidia.com/vulkan-driver
https://developer.nvidia.com/downloads/vulkan-beta-53146-windows

Branch Information

RTX 40 Series Laptops, 4070Ti, 4080, 4090, 3060Ti-GDDR6X, 3060-8GB and older support

  • 531.46: VK526_25-22 (Developer)
  • 531.41: r531_37-2 (Game Ready/Quadro/Studio)
  • 531.32: VK526_25-20 (Developer)
  • 531.29: r530_99-18 (Game Ready)
  • 531.26: r530_99-17 (Hotfix)
  • 531.18: r530_99-13 (Game Ready)
  • 528.49: r528_37-5 (Game Ready/Studio)
4070Ti, 4080, 4090, 3060Ti-GDDR6X, 3060-8GB and older support

  • 528.34: VK526_25-11 (Developer)
  • 528.33: r528_10-10 (CUDA)
  • 528.24: r528_10-7 (Game Ready/Quadro/Studio)
  • 528.02: r527_92-2 (Game Ready/Studio)
4080, 4090, 3060Ti-GDDR6X, 3060-8GB and older support

  • 527.56: r527_32-11 (Game Ready/Studio)
  • 527.37: r527_32-4 (Game Ready/Studio)
  • 526.98: r526_91-3 (Game Ready)
4090, 3060Ti-GDDR6X, 3060-8GB and older support

  • 526.86: r526_25-17 (Game Ready)
  • 526.47: r526_25-3 (Game Ready)
4090 and older support (NOT 3060Ti-GDDR6X, 3060-8GB)

  • 522.33: r521_82-7 (Developer)
  • 522.30: r521_90-18 (Studio)
  • 522.25: r521_90-15 (Game Ready/Studio)
 
  • Gefällt mir
Reaktionen: Shakj
Banker007 schrieb:
Hab es grad bei nem ceyhändler für 38€ gezogen,bin gespannt,wie es auf ner 2070S läüft.
10700K und 32gb ram habe ich,mal sehen ob meine Kiste abraucht.^^
Auf hoch müsste gehen fhd natürlich
 
Joa. Jetzt hat man so viele Jahre gewartet. Da kann ich auch noch auf den €9,99 Sale und gefixte Performance warten :D .
 
Zurück
Oben