Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

troyan schrieb:
Wow, musst eine Wunder-PS5 haben. Die normalen sind schlechter als "hoch" auf dem PC - und das auch nur im 30 FPS Modus. Wer mit 60 FPS spielt, bekommt dann 8GB Niveau:
Geiles Video.
Die Schatten auf der PS5 zu PC sind ja echt ein Witz.
 
Also ich spiele mit den unten angegebenen specs auf Mittel und finde die Grafik sehr ansprechend.

2,5 Stdn. für das shader building gebraucht, was aber wohl an der "älteren" CPU liegt.

Ca. ne Stunde gespielt und alle gut 5 Min. ein Mikroruckler, der aber nicht wirklich stört.

Bin ganz zufrieden ... hatte schon befürchtet, ich müsste eine neue Grafikkarte kaufen ... :-/
 
  • Gefällt mir
Reaktionen: TheOpenfield
troyan schrieb:
Habe gerademal Cyberpunk angeworfen: In 3440x1440p mit allen an außer Raytracing liegt das Spiel mitten auf der Straße bei 10er von Menschen, Autos, fliegenden Objekten und Umgebung bei 7GB. Offensichtlich ist vernünftiges Texturmanagement in Spielen möglich.
Naja auch kein guter Vergleich CP2077 ist schon viel länger am Markt und war am Anfang auch richtig Grütze. 😉

Desweiteren war dass Game auch für PS4 und co aus gelegt TloU ist für die PS5 only ausgelegt. 😉
 
Und trotzdem sieht TLoU in 1080p mit Ultra-Texturen bei 13GB nicht besser aus als Cyberpunk in 1440p mit 7GB. Und es wird erst recht keine Change gegen Cyberpunk in 4K mit 10GB oder so haben.

Das Problem sind also nicht die GPUs mit weniger als 10GB und <4K Auflösung. Sondern das Spiel hat miserables Texturmanagement und benötigt doppelt soviel VRAM als nötig.
 
  • Gefällt mir
Reaktionen: Kay B., FLCL und Gortha
troyan schrieb:
Hier wurde ein Vergleichsvideo gepostet:

Danke. Genau, wie ich es erwartet hatte: die Texturen im 60 fps-Modus der PS5 sehen selbst auf meinem WQHD-Monitor unscharf aus.

Die Faustregel "RTX 2070S = PS5" scheint also nach wie vor zu gelten. Der 30 fps-Modus existiert für mich nicht.
 
Mimir schrieb:
Die Texturen kosten nur speicher und keine Performance.
Das stimmt leider so auch nicht mehr wirklich. Inzwischen belasten ausufernde Texturen und Maps aller Arten die Streaming- Engines signifikant. Zudem wollen deren Maps auch Shadergerecht abgefrühstückt werden.

In Sachen PBR kannst Du inzwischen einen Shitload an Layern auf so eine Einzeltextur legen.
Albedo/AO Map/Metalness/Roughness/Specular/Opacity/Normal/Displacement/Translucency/Refraction/Emissive/Transmissive/Clear Coat usw. usf.

Das dann über Multi- Teyture- Layering nochmals aufblasen. Dann noch texturgestützte Detail- Layer drüber. Dann noch schön ne prebaked light- und shadowmap drauf, Cubemaps drüber (weil RTRT ja nur ein Gimmick ist). Dann ist das VRAM- Fiasko komplett. Nebst dem, dass die Busse überquellen, der Festplattenplatz stöhnt und auch die Shader ordenlich zu tun bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson und Mimir
Dai6oro schrieb:
Komische Argumentationslinie, da kann ich euch teilweise nicht mehr ernst nehmen.
Wenn man Probleme beim Differenzieren hat, dann kann es sein, das man damit dann Probleme hat.

Texturen sind super, besonders wenn man sie der Auflösung gerecht gestaltet und sich Mühe bei Texturen gibt. Was viele Game-Studios einfach nicht mehr machen. Granularität wäre hier das Stichwort.
Siehe High-Res Mods von Hogan für Witcher, CP77 und andere.
Teilweise sind die Texturen kleiner vom Speicher und sehen besser aus.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, Kay B. und .Sentinel.
Ich sehe eher die CPU Performance als problematisch an. Wie bei fast allen Sony Ports.
 
  • Gefällt mir
Reaktionen: ShowOff
.Sentinel. schrieb:
weil RTRT ja nur ein Gimmick ist
Und vieles wäre mit einem richtigen PathTracer so viel einfacher. Haha. Wenn ich bedenke das ein PathTracer auf ein paar 100 Zeilen reinen Codes für fast alles kommt.
 
  • Gefällt mir
Reaktionen: rumpeLson und .Sentinel.
Disclaimer: Zum einen geb ich offen zu hab den Test nicht sorgfältig durch gelesen, durch ganz kurz quer gelesen, vielleicht steht das was ich dazu sage ja doch drin dann nehm ich das zurück. Aber da im Test z.B. keine RTX 3070 drin ist was das Paradebeispiel ist, nehm ich mal an das es nicht erwähnt wird.

Und zwar das bei aktuellen Konsolenportierungen die Nvidia Karten mit wenig Ram grad massiv unterperformen, bis hin zu unspielbar werden (auf hohen settings wo vergleichbare AMD Karten aber wunderbar laufen), selbst bei 1440p scheint das Spiel auf Ultra bei Nvidia mit 8gb vram komplett zu versagen Low FPS von 12 fps vs RX 6800 mit 70 fps:


Ja die billigste neu erwerbbare RX 6800 kostet ungefähr 10% mehr wie ne RTX 3070 aber selbst bei den Average FPS ist der Abstand ja schon pi mal Daumen 40% bei den Min sinds ja 600% oder so (also mit Nvidia als 100% gerechnet).

Klar werden wieder aussagen kommen wie nicht gut genug optimiert aber wenn die Konsolen nun mal 16gb insgesamt haben und sie das meiste davon für VRAM verwenden und Ultra auf PC sicher noch aufgewertet zu der Konsolengrafik ist, sollte das eigentlich auch nicht wundern, und schlecht optimierte Spiele ist der Normalfall.

Ich hab ja noch nicht lange her mich auch korrigiert weil ich quellen gesehen habe die Benchmarks gemacht haben wo Nvidias wenig Ram keine Rolle gespielt hat, ich bin zwar ein AMD Fanboy aber ich habe kein so kognitiven Bias oder gestörtes Ego das ich Faktenressistent bin, aber wenn wir hier eben Benchmarks haben (und es gibt vermutlich noch andere Beispiele und betrifft natürlich auch andere Karten mit noch weniger Ram), man kann sich also streiten auf wie viel % der Spiele das ne Rolle spielt, aber es ist nicht mehr nur der eine Exot wie vielleicht Battlefield oder so was (weiß gar nicht ob da der VRAM verbrauch hoch ist aber vermute schon), oder Texturmods. Wie dem auch sei, selbst wenn das Spiel hier die absolute Ausnahme wäre, finde ich es ein bisschen Schwach das das hier nicht explizit erwähnt wird.

Hab grad mal übers Fazit geschaut dort wird zwar die Ram Problematik erwähnt aber ohne Nennung von Nvidia, wenn ne AMD Karte nicht Ultra darstellen kann dann 99% sicher nicht wegen zu wenig ram sondern wenn die weniger Ram hat bringt die gar nicht die Speicherbandbreite und oder Textureinheiten / Taktraten um das dar zu stellen, der Flaschenhals dürfte da immer wo anders liegen bei AMD.

Und btw dieses RAM Problem ist kein 1 off Halo Infinite wird wohl nimmer starten unter 4GB nun hat sicher auch AMD Karten die weniger als das haben aber eben wieder im deutlich Geringpreisigeren Bereich und viele haben ja noch ne GTX 1060 die eine Variante mit 3gb hat, nun sicher extrem hohe settings sind mit ner rx480 auch nicht möglich oder ner rx580 aber immerhin läuft es zur Not selbst mit der 4gb Variante :D.

Nunja hab da nicht den breiten Blick wie viel Prozent der Neuerscheinungen das betrifft oder wie viele Spiele bald einfach nimmer auf 3gb GTX 1060 selbst starten, aber es wird wohl in Zukunft eher mehr als weniger.

Davon ab gesehen muss ich auch sagen das es zu dem Vapor Kühler hier 2 News gab eine mit 5 Updates und glaub 3000 Kommentare, wo ist denn die 1 News zu dem Nvidia Karten sterben (bis hin zu Bränden) die die Diablo IV Demo aus löst? Und davon sind potenziell deutlich mehr Kunden betroffen, da die Hauptsächlich betroffene Karte eine RTX 3080 ist, aber erstens ists nicht komplett darauf begrenzt und zweitens dürften aktuell easy 100x so viel Leute so ne Karte haben wie ne RX 7900 XT(X). Noch spielen vermutlich 90% dieser Kartenbesitzer nicht das Spiel, aber bei nem Release wird das mehr werden, sicher bis dahin wird man Workarounds finden das Spiel irgendwie so programmieren das es künstlich begrenzt wird das die Grafikkarten nicht kaputt gehen, aber das Problem ist in der Hardware oder Software kein Spiel sollte egal wie es die Grafikkarte nutzt (gezielte Attacken mal beiseite) Karten zum Verrecken/ brennen bringen.

Die Vapor Kuehlgeschichte hat AMD massiv schlechte Presse gebracht, kann man sagen zurecht, aber dann sollte das auch für Fehldesigns von Nvidia Hardware genauso gelten. Man könnte ja auch so ne Umfrage machen, wer von betroffen ist. Ich weiss nicht woher der Bias kommt, vielleicht benutzen die Autoren hier auch AMD Karten und wollen daher nicht den Anschein erwecken Biased pro AMD zu sein und kritisieren daher staerker AMD oder es ist echter Fanboy bias bewusst oder eher unbewusst, aber ich hab hier konstant nen gewissen pro Nvidia Bias ich vermute zumindest zum grossen Teil ohne Absicht, aber es ist aber trotzdem meiner Meinung nach da. Hatte ja auch schon bei dem 7900 XT(X) Test heraus gearbeitet das die Spieleauswahl hier so war das hier AMD signifikant schlechter abschnitt wie bie 90% der anderen groesseren Testseiten, also das ist nicht nur einbildung und ich stuetze das nicht nur auf 1 Vorkommnis wo ich was sehe sondern verschiedenster Indizienpunkten.
 
@.Sentinel. Gab es denn in den letzten Jahren keine Fortschritte bei Kompressionsalgorithmen für Texturen? Damit weniger Daten übertragen werden müssen, bzw. weniger im VRAM reingeschrieben wird? Oder werden die komprimiert geladen und dann sozusagen im VRAM entpackt?
Ich bin da kein Experte, aber wenn ich sehe was es für Fortschritte bei Video Encondern gegeben hat aber auch bei Bildformaten, hätte ich erwartet, dass das den Verbrauch wieder senken kann?
 
Gortha schrieb:
Wenn man Probleme beim Differenzieren hat, dann kann es sein, das man damit dann Probleme hat.
Lustig. Das gleiche gilt doch auch für RT auch hier werden teilweise Strahlen eingesetzt die keinen optischen Mehrwert bieten, dafür aber nur Leistung kosten, dabei geht es auch anders (nicht bei Nvidia gesponserten Spielen selbstverständlich).
Das gleiche Thema hatten wir bei Tesselation: Auch hier wurden aberwitzige Sachen implementiert die für die Optik nicht nötig waren, aber Leistung gekostet haben (Witcher 3 mit Hairworks z.B.) nur um einen Hersteller schlecht aussehen zu lassen.
Kritik dazu? Oftmals Fehlanzeige ist ja schließlich Schuld des Herstellers der Grafikkarte.
 
  • Gefällt mir
Reaktionen: Dittsche und bad_sign
Falc410 schrieb:
@.Sentinel. Gab es denn in den letzten Jahren keine Fortschritte bei Kompressionsalgorithmen für Texturen?
Gab es, wegen aber durch immer größere und aufwendigere Texturen aufgefressen. Es gibt einen wichtigen Unterschied hier.
Falc410 schrieb:
Damit weniger Daten übertragen werden müssen, bzw. weniger im VRAM reingeschrieben wird?
Auch wird an besseren Fähigkeiten zur Laufzeit Dekompremierung gearbeitet.
Falc410 schrieb:
bei Video Encondern gegeben hat aber auch bei Bildformaten, hätte ich erwartet, dass das den Verbrauch wieder senken kann?
In Spielen müssen die Texturen möglichst „perfekt“ sein, weswegen mit verlustfreien Komprimierungen gearbeitet wird.

Bei den modernen Videoformsten wird aber immer Verlustbehagtet komprimiert, weswegen diese Formate auch anfällig für Artefakte sind.

Das wäre für ein Spiel die Katastrophe, weil ein Fehler sich hier schnell aufschaukelt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Was bin ich froh, nach CP2077 meine 3070 gegen eine 6700XT+Zuzahlung eingetauscht zu haben. Selbst wenn es hier nur an schlampiger Entwicklung liegen sollte, was ich nicht beurteilen kann und will, ist mir der Spielraum für Texturmods usw. in anderen Spielen deutlich wichtiger als wenige Prozent mehr Leistung. Texturen beeinflussen die Grafik immer noch mit Abstand am meisten und die bessere Optik gibts bei genug VRAM ja "gratis".

Absolut gesehen sieht das für mich gar nicht schlecht aus. 1080p jederzeit über 60fps. Denke im Sale werde ich mal zuschlagen.
 
  • Gefällt mir
Reaktionen: Dittsche und Mcr-King
troyan schrieb:
Habe gerademal Cyberpunk angeworfen: In 3440x1440p mit allen an außer Raytracing liegt das Spiel mitten auf der Straße bei 10er von Menschen, Autos, fliegenden Objekten und Umgebung bei 7GB. Offensichtlich ist vernünftiges Texturmanagement in Spielen möglich.
Nur das nach paar Metern alles verschwindet. Das Popping ist immer noch übel. Frage mich, wann endlich ein Regler dafür kommt

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@DevPandi
Ich denke, du vermischt hier was. Texturkompression gibt es schon seit den Anfängen der GPUs von über 30 Jahren. Intel, nVidia und AMD lesen auch nur noch mit einer verlustfreien Speicherkompression die Informationen aus dem VRAM aus.

"Perfekte" Texturen ergeben auch nur in 4K+ Sinn, da die Struktur in niedrigen Auflösungen nicht rekonstruiert werden können. Welchen Sinn macht es in 1080p alleine für Texturen 10GB Speicher zu verwenden, wenn dem Spieler am Ende 7,5GB nicht sichtbar erscheinen?
 
  • Gefällt mir
Reaktionen: Mcr-King
Sehe wirklick das unterschied nicht zwischen Hoch und Ultra. Wieviel VRAM spart es von Ultra runtenzuschalten?
 
blackiwid schrieb:
Aber da im Test z.B. keine RTX 3070 drin ist was das Paradebeispiel ist, nehm ich mal an das es nicht erwähnt wird.

Und zwar das bei aktuellen Konsolenportierungen die Nvidia Karten mit wenig Ram grad massiv unterperformen, bis hin zu unspielbar werden (auf hohen settings wo vergleichbare AMD Karten aber wunderbar laufen), selbst bei 1440p scheint das Spiel auf Ultra bei Nvidia mit 8gb vram komplett zu versagen Low FPS von 12 fps vs RX 6800 mit 70 fps:

Ja die billigste neu erwerbbare RX 6800 kostet ungefähr 10% mehr wie ne RTX 3070 aber selbst bei den Average FPS ist der Abstand ja schon pi mal Daumen 40% bei den Min sinds ja 600% oder so (also mit Nvidia als 100% gerechnet).
Und eine RX 6800 "versagt" gegenüber einer RTX 3070 bei eingeschaltetem Raytracing...
Manche wollen eben RT, und manche wollen halt stumpf Texturen auf Ultra obwohl das häufig keine optische Verbesserung ist. Für den einen ist mehr VRAM wichtiger und der andere legt mehr wert auf andere Features (RT, DLSS Verbreitung, CUDA, Broadcast-App, etc.). Beides zusammen gibt es in der Mittelklasse leider nicht.

blackiwid schrieb:
Davon ab gesehen muss ich auch sagen das es zu dem Vapor Kühler hier 2 News gab eine mit 5 Updates und glaub 3000 Kommentare, wo ist denn die 1 News zu dem Nvidia Karten sterben (bis hin zu Bränden) die die Diablo IV Demo aus löst? ...

Die Vapor Kuehlgeschichte hat AMD massiv schlechte Presse gebracht, kann man sagen zurecht, aber dann sollte das auch für Fehldesigns von Nvidia Hardware genauso gelten....
Ich nehme mal an, bei den sterbenden Nvidia Karten zur D4 Beta waren das nur vereinzelte 3080 Ti die dauerhaften Schaden genommen haben. Ähnlich wie bei den 12VHPWR-Steckern die durch die Presse gingen, am Ende stellte sich heraus dass es nur eine Hand voll defekte gab, und auch alle weil diejenigen die sie eingebaut haben zu doof waren den Stecker ganz reinzustecken. Daraus schlussfolgere ich, die Tech-Presse schaute bei der D4 3080 Ti "Problematik" genauer hin und machte aus einer Maus keinen Elefanten.

Btw ich vermisse übrigens auch bei den aktuellen Radeons die Artikel über zu hohen Idle Verbrauch bei bestimmten Monitor Setups. Die liegt um ein vielfaches höher als bei Nvidia, einige wollen die Karten auch schon loswerden. Das ist ein großes NoGo und war bei mir persönlich einer der Hauptgründe eine zuerst bevorzugte Radeon doch nicht zu kaufen.
Für einige die den PC nur zum Zocken anschmeißen ist das weniger ein Thema.
Es gibt noch sehr viel mehr pro-contra für jede Karte!

Bei den aktuellen Karten muss man also sehr genau hinschauen ob einem eine Radeon oder Nvidia besser passt, Kompromisse gibts bei allen. Und sei es nur der Preis einer 4090 :freak:
 
  • Gefällt mir
Reaktionen: Czk666 und rumpeLson
Fighter1993 schrieb:
"Aktuell gibt es kein schöneres Spiel, TLoU ist Referenz. Das gilt, obwohl TLoU anders als viele andere Top-Titel gänzlich auf Raytracing verzichtet – was dann auch zeigt, dass Raytracing zwar ein praktisches und wichtiges Hilfsmittel ist, ein Spiel damit aber nicht automatisch gut, oder ohne automatisch schlecht aussieht."

Eine sehr schöne Aussage.
So ähnlich war das ja auch bei Atomic Heart.

2 Spiele in kurzer Zeit ohne RT und trozdem wirds die Grafische Referenz.

Gut oftmals wird RT ja auch ohne irgendeine Optimierung draufgeklatscht.
Das hinterlässt auch immer einen schlechten Beigeschmack.
Was soviel heißt wie:

Ohne Raytracing sieht ein Spiel nicht zwangsweise schlecht aus - mit vernünftig angewendetem Raytracing hätte es nur besser und realistischer ausgesehen.

Wer heute den Nutzen von Raytracing nicht erkennt und meint das wäre eine vorübergehende Erscheinung dem ist wohl nicht mehr zu helfen (nicht an dich gerichtet @Fighter1993, sondern @allgemein).
Dass nicht jeder Entwickler mit Raytracing oder der Entwicklung von Spielen im Allgemeinen vernünftig umgehen kann tut da ja nicht wirklich was zur Sache.
 
  • Gefällt mir
Reaktionen: rumpeLson, .Sentinel. und Fighter1993
Falc410 schrieb:
Gab es denn in den letzten Jahren keine Fortschritte bei Kompressionsalgorithmen für Texturen?
Da muss man sich ehrlich machen. In Sachen Komprimierung erreicht man zumindest im Augenblick in Sachen Bilddaten für die Echtzeitverarbeitung (BCx) keine nennenswert höheren Raten mehr.
Und wenn man noch etwas rausquetscht, dann geht das mit enorm erhöhter Rechenleistung auch bei der Dekompression einher oder (noch) schlechterer Bildqualität. Grundsätzlich schlecht für Realtime- Anwendungen. Hat DevPandi ja schon angemerkt.

Damit weniger Daten übertragen werden müssen, bzw. weniger im VRAM reingeschrieben wird? Oder werden die komprimiert geladen und dann sozusagen im VRAM entpackt?
Viele bleiben inzwischen gepackt im VRAM, da die GPUs die Kompressionsformate realtime dekodieren können. Für den Rastervorgang selbst ist natürlich grundsätzlich dann der rohe, entkomprimierte Datensatz der aktuellen MIP- Map gefragt. Das working- Set der aktuellen Szene liegt also unkomprimiert vor.

Ich bin da kein Experte, aber wenn ich sehe was es für Fortschritte bei Video Encondern gegeben hat aber auch bei Bildformaten, hätte ich erwartet, dass das den Verbrauch wieder senken kann?
Das sind leider zwei unterschiedliche Baustellen. Du hast einfach in Sachen Bewegungskompression deutlich mehr Stellschraueben und Möglichkeiten als bei statischen Bitmaps.
 
Zuletzt bearbeitet:
Zurück
Oben