Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

ShowOff schrieb:
wenns nicht auf der besten Karte im Portfolio läuft, dann könnte sich der Entwickler einbuddeln gehen. Das war übrigens nicht böse gemeint von mir. :schluck:
Korrekt und das wurde ja so berichtet, das der Entickler hier mächtig mist gebaut hat. Ich habe auch "nur" 80 FPS mit DLSS, also nichts mit Nativ und 120 FPS, aber dennoch sehr zufrieden ohne Abstürze etc. Laden geht auch fix nach dem ShaderBuild.
 
  • Gefällt mir
Reaktionen: Mcr-King
DevPandi schrieb:
Das wäre in dem Fall für mich dann aber eher etwas, was GameStar, Giga, PCGames (nicht Hardware) und Co machen müssten, nicht unbedingt Computerbase, die eine technische Analyse anbieten.

Ergebnis der Analyse nach reproduzierbaren Abstürzen: unfertiges Bananenprodukt, husch husch zurück ans Reißbrett.

Alles andere ist Zeitverschwendung.
 
  • Gefällt mir
Reaktionen: Gortha
Mimir schrieb:
Wieso "UHD oder Matschtexturen"?

Warum sollte die PS5 im Performance Modus eine niedrigere Texturauflösung nutzen?
Die Texturen kosten nur speicher und keine Performance.

Wenn die hochauflösenden Texturen auf der PS5 in UHD genutzt werden können (sollte den PC High Texturen entsprechen) und der Speicher dort reicht, dann reicht er in 1440p (performance modus) erstrecht.

OK, vielleicht war es falsch ausgedrückt. In modernen Games gibt es meist UHD@30 Fps, was scharf, aber ruckelig ist. Alternativ den Performance-Modus, wo 45-60 Fps drin sind, aber meist WQHD oder teils sogar darunter mit Checkerbord hochskaliert wird, Details wie Beleuchtung reduziert werden, Kantenglättung meist wegfällt und im ganzen oft unscharf wirkt. Das gleiche auch bei Last of Us Part 1. Bei dem Video hier kann man es ganz gut sehen (am Besten in 4K auf einem UHD anschauen).

 
  • Gefällt mir
Reaktionen: JMP $FCE2 und Mcr-King
Xes schrieb:
Alle anderen schauen sich 5min die Settings an, stellen einzelne Optionen die unverhältnismäßig viel Leistung kosten ein, zwei Stufen herunter und erfreuen sich auch an gut spielbaren Frameraten und guter Optik.
Oft genug lassen sich die optischen Unterschiede selbst auf statischen Screenshots kaum ausmachen, in der Action geht es dann idr. vollkommen unter ob man nun absolut alles auf Ultra oder einem guten Mix aus Ultra, High & Medium spielt.
Sicher, absolute Zustimmung.
Was dann leider mehr als nur irritiert ist das Gejaule und undifferenzierte Geheule und Geunke der PC-Nachrichten-Presse über den chronischen VRAM-Mangel der aktuellen und Grafikarten-Generationen jüngerer Vergagenheit.

Wie man bei fast allen letzten PC Titeln die in dieser Richtung "Probleme" machten sieht, waren die Entwickler unfähig.
Unfähig sich am Markt auszurichten und/ODER eine ausreichende Granularität der Grafik ausgerichtet an Grafikkarten am Markt herzustellen. Oder einfach zu blöd zu sein alleine Texturen ordentlich zu komprimieren, effizieter zu gestalten.
Man könnte alleine maximale/Ultra Texturen für UHD und FullHD gersonders bereitstellen, wobei die FullHD maximalen/Ultra Texturen geringer aufgelöst sind - alleine dafür ist man anscheinend zu faul.
 
Ich habe gerade die Mittel und Ultra miteinander verglichen und mal ehrlich, da ist kaum ein Unterschied zu sehen. Den Rest schärft man mittels Reshade nach.

Was mir besonders auffällt ist, dass all die Spiele, auf die ich Monate lang gewartet habe, sind am Ende Schrott.
Sag mir jedes Mal, kanns doch nicht sein und dann noch bei solchen aufgerufenen Preisen! Haben die den keine 0815 Kiste zum Testen gefunden oder was?! Notfalls wie bei Elden Ring, 1-2 Monate vor dem Release eine geschlossene Beta-Test starten, fixen und erst dann rausbringen. Oder halt auch mehrfach, bis die Rückmeldungen der Tester positiv ausfallen.
Wenn es so weiter geht, stirbt ein PC zum Spielen endgültig. Dann lieber ein Tablet oder Laptop zum Surfen und eine Konsole zum Spielen.
 
Caramelito schrieb:
Muss man aufgrund der Performance, falls man die 60+ erreichen möchte, nicht ohnehin mind. FSC Balanced oder gar Performance nehmen?
Dann sollte es ja auf beiden gleich gut ohne Hacker laufen und man hätte 60+ FPS?
In WQHD nicht zwingend, dass läuft auf 3080 und 6800 XT von der Rechenleistung auch so in WQHD ganz ordentlich. Ob jetzt auf einer 3080 in WQHD mit DLSS Balanced es keine Haker mehr gibt, ist schwer zu sagen. Vielleicht, garantieren würde ich es dir aber nicht.
 
  • Gefällt mir
Reaktionen: Caramelito
scootiewolff22 schrieb:
Jugendamt ist informiert
Es gibt im Spielemenü auch eine Option, die Gewaltdarstellungen zu verringern. Das Spiel ist aber ganz sicher nicht für Kinder geeignet, nicht nur wegen der Gewalt, sondern hauptsächlich wegen der sehr düsteren Story.
 
DevPandi schrieb:
Weil man damit die eigentlichen Hardwaretest zu einem Zeitpunkt X um neue Daten erweitern kann und man damit in spätere Kaufempfehlungen auch auf diese neue Datenbasis verweisen kann?

Computerbase bestimmt zu einem Zeitpunkt N das aktuelle Testsystem und den Katalog an Spielen, der für den GPU-Test benutzt wird. Damit deckt Computerbase die Leistung zu einem Zeitpunkt Y ab, alles was danach kommt, ist ert mal nicht mehr relevant.

Die Spieletests hier helfen Computerbase dabei die Datenbasis für Kaufempfehlungen und Co um neue Titel zu erweitern und auch vielleicht sogar die eigenen Empfehlungen anzupassen.

Willst du das? Ich habe bei den Spieletests von Computerbase bisher nie den Eindruck gehabt, dass hier wirklich das Spiel mit all seinen möglichen Facetten bewertet wird, sondern der Schwerpunkt auf die Technik der Spiele gelegt wird und wie "aktuelle" Grafikkarte damit umgehen können.

Hier wird in der Regel die Technik der Spiele bewertet und die Leistung aktueller Grafikkarten, die man im Handel findet/noch findet. Der Schwerpunkt wird hier sehr eindeutig auf die grafische Qualität der Spiele gelegt und wie die Grafikkarten auf dem akuellen Referenzsystem laufen.

Eine inhatliche Auseinandersetzung mit dem Spiel findet hier sehr rudimentär statt - hier sind es 5 Absätze und das war es schon. Wenn man Spieler beraten will, ob sie ein Spiel kaufen oder nicht kaufen sollen, müsste CB den inhaltlichen Schwerpunkt massiv ausbauen. Ich verstehe das hier dann schon eher als eine Beratung für Spieler, wie gut ein Spiel bei ihnen läuft.

Wenn man sich die Fazits von CB zu den Spielen ansieht, dann wird auch hier immer primär der technische Stand des Spieles bewertet und wie sich die Grafikkarten bei den festgelegten Einstellungen verhalten und wie das Spiel allgemein im Kontext von Hardware zu sehen ist. Hier wird keine Kaufempfehlung für das Spiel ausgesprochen.

Und warum Computerbase so testet, wie sie testen, kann man hier auch im letzten Absatz sehr gut nachvollziehen: "The Last of Us gehört wie zuletzt so einige andere Titel einer neuen Generation an Spielen an. Für alte Hardware ist das Spiel nichts, das muss klar sein. Und mit Mittelklasse-PCs gibt es eben nicht immer volle Grafikdetails: Das Spiel benötigt für hohe FPS einen schnellen Rechner. Aufgrund der Grafikqualität sind die Anforderungen aber definitiv nicht zu hoch."
Also für mich ist das exakt die Kaufberatung. Wenn ich mich für ein Spiel interessiere, gucke ich immer bei CB, ob und wie es auf meinem System voraussichtlich läuft. Bspw. bei Dead Space wusste ich, dass ich es in WQHD mit egal welchem Preset gar nicht probieren muss, sondern direkt WHQD mit DLSS Quality einstellen kann. Und so läuft es bei mir auch.

Im Falle von TLOU ist für mich die Info wichtig, ob ich hier überhaupt eine Chance habe mit WQHD + DLSS und wenigstens Hoch Preset. Das ist (momentan) anscheinend nicht der Fall, aber das weiß ich jetzt auch nur aus dem Forum und von anderen Seiten.

DevPandi schrieb:
Das wäre in dem Fall für mich dann aber eher etwas, was GameStar, Giga, PCGames (nicht Hardware) und Co machen müssten, nicht unbedingt Computerbase, die eine technische Analyse anbieten.
Zu den genannten Seiten gehe ich dann, um mich inhaltlich über ein Spiel zu informieren. Technisch vertraue ich GS weniger als CB.

DevPandi schrieb:
Kommt halt auf den eigenen Schwerpunkt an, den man hier gewählt hat und was der Schwerpunkt des Artikels ist. Für Computerbase steht bei den "Tests" hier einmal die Vergleichbarkeit der Grafikkarten im Mittelpunkt - deswegen alle Grafikkarten mit den selben Settings durch die Auflösungen - sowie die technische Analyse des Spieles - mit einem immer stärkere Fokus auf DLSS und FSR.

Wenn ich ein Spiel technisch analyisiere, dann versuche ich auch nicht das Spiel irgendwie "spielbar" zu bekommen, sondern wähle meine Parameter fest aus und analysiere anhand dieser Parameter das Spiel und hier eben auch wie sich die Grafikkarte verhalten.
Es geht nicht darum das spiel irgendwie spielbar zu bekommen, sondern sich zu informieren, ob es überhaupt spielbar sein wird.

DevPandi schrieb:
Ich kann auch einen anderen Schwerpunkt legen und auch sagen: Wie muss ich die Grafikkarten einstellen damit ich mindestens 30fps, 60fps und Co bekomme, oder ohne störende Ruckler usw. Das wäre dann aber wieder ein anderer Schwerpunkt.

Ich empfinde die Erkenntnisse, die ich hier aus dem Artikel ziehen kann, für sehr praxisbezogen, weil ich anhand der Beschreibungen sehr wohl einordnen kann, wie ich das Spiel ggf. bei mir Einstellen muss, damit ich vor entsprechenden Problemen verschohnt bleibe.
Das konnte ich eben für mein System nicht direkt rauslesen. Daher habe ich meinen Wunsch hier geäußert.

DevPandi schrieb:
Mir geht es an der Stelle genau anders: Wenn Computerbase die Tests so machen würde, wie du es erwartest, könnte ich kaum mehr einen Nutzen raus ziehen, weil ich dann zwar weiß, dass das Spiel mit den folgenden Einstellungen auf der Grafikkarte X läuft, ich könnte aber Freunden keine Empfehlungen mehr aussprechen, was sie ggf. kaufen sollen.
Doch anhand der Kaufberatungen und der eigentlichen GPU Tests.

DevPandi schrieb:
Genauso könnte ich an der Stelle auch nicht mehr zwischen den verschiedenen Generationen vergleichen, weil man zwar mit den Einstellungen alle "spielbar" bekommt, am Ende ich aber anfangen müsste zu interpolieren, wie sich ein 2070 S zu einer 4070 Ti verhält, weil die Einstellung so ist.
Wozu auch die Generationen pro Spiel vergleichen? Du hast du idR eine GPU im System und für die musst du wissen, wie das Spiel läuft.

DevPandi schrieb:
Alles eine Frage des Blickwinkels. Hier muss man halt den Schwerpunkt der Seite beachten und worum es genau geht. Ich finde es toll, dass die Seiten alle etwas andere Schwerpunkte legen und man am Ende aus verschiedenen Quellen viele Daten zusammen tragen kann.
Stimme zu.
 
  • Gefällt mir
Reaktionen: Kay B.
aLanaMiau schrieb:
???
Was für ein Premium Aufpreis? Dlss/fsr ist kostenlos für alle verfügbar und bringt dir mehr Leistung ohne nennenswerte Nachteile, in Form von einem Softwarepaket.
Naja wenn du das nicht siehst...?

Zumindest rührt NV sehr die Werbetrommel für KI Beschleunigung, richtig?
Auf was basiert DLSS? Richtig, KI....Tensorkerne. Das braucht aber auch erstmal Entwicklung.
Das will sich NV natürlich um Nachhinein fürstlich bezahlen lassen. Weil es ja die Zukunft ist, bla bla...sogar wichtiger als Cryptowährung (laut NVs neuesten Aussagen;))

Nunja, das Ergebnis kennen wir...knapp 2000€ für ihr Top Produkt, 1400€ für die Nr.2 und knapp 1000€ für die Nr.3, die 4070ti. (Releasepreise, jetzt sind sie schon minimal günstiger, wow ;) )

Und jetzt versuch nicht nochmal DLSS als kostenlos darzustellen :D

Das meine ich damit , man zahlt sehr wohl für die "kostenlosen" Features, die scheinbar nur du geschenkt bekommst ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
JMP $FCE2 schrieb:
60 Hz-Monitore haben ein zusätzliches Problem: kein vernünftig funktionierendes G-Sync/Freesync.

Das ist gleich doppelte Ressourcenverschwendung: man braucht die fette GPU, weil jeder kleinste Drop unter 60 fps ohne Adaptive Sync sofort störend auffällt
Deswegen wird er sicher mit einem Framelimiter auf 60 FPS arbeiten. Da die 4080 wohl nie unter 60 FPS fällt, wird er auch kein oder kaum Tearing haben.

Stört auch nicht immer so sehr. Da hat halt jeder andere Erwartungen.
Ich weiß, wenn man in Spielen mal 142/152/162 FPS vs 90 oder 60 in einer Drehung vergleicht, fällt es auf. Aber wenn man permanent die 60 gewohnt ist, stört es nicht so sehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
Erst vor kurzem von einer GTX 1060 6GB zu einer RTX 3060Ti FE gewechselt.
In den ganzen Jahren mit der 1060 hatte ich nie das Gefühl einen schlechten deal gemacht zu haben aktuell mit der 3060Ti habe ich es irgendwie nach relativ kurzer Zeit... 💩
 
  • Gefällt mir
Reaktionen: Kay B. und Mcr-King
DevPandi schrieb:
Was in 1080p nicht mal so ungewöhnlich wäre, weil aus größeren Texturen auch Informationen verloren gehen können und nur sichtbar sind, wenn man quasi direkt davor steht.
Richtig. Das Spiel benutzt einfach die selben texturen für 1080p wie für 4K. Der VRAM-Verbrauch wird also zu 90% von den Texturen bestimmt. Da zwischen Ultra und High offensichtlich wohl nur die Kompression liegt, erhält man hier weiterhin zu hoch aufgelöste Texturen. Erst mit Mittel nimmt die Qualität ab, aber deutlich stärker bei deutlich weniger Ersparnissen. Und mit Mittel sieht das Spiel ja wohl grottig aus.

Habe gerademal Cyberpunk angeworfen: In 3440x1440p mit allen an außer Raytracing liegt das Spiel mitten auf der Straße bei 10er von Menschen, Autos, fliegenden Objekten und Umgebung bei 7GB. Offensichtlich ist vernünftiges Texturmanagement in Spielen möglich.
 
ATiM- schrieb:
3060Ti habe ich es irgendwie nach relativ kurzer Zeit...
Musst du nicht.
Wie bereits geschrieben, Texturen auf High oder Middel und ein oder zwei andere Regler, fertig.
 
  • Gefällt mir
Reaktionen: ATiM-
Wolfgang schrieb:
In WQHD nicht zwingend, dass läuft auf 3080 und 6800 XT von der Rechenleistung auch so in WQHD ganz ordentlich. Ob jetzt auf einer 3080 in WQHD mit DLSS Balanced es keine Haker mehr gibt, ist schwer zu sagen. Vielleicht, garantieren würde ich es dir aber nicht.
Ich "erwische" mich einfach immer öfter, wie ich DLSS Balanced oder gar Performance anschmeiße, auch wenn genug Leistung da ist.
Ich merke sehr oft keinen Unterschied, so dass ich den verminderten Stromverbrauch zur UV-4080 nochmal mitnehme. :D

Deshalb würde ich, wenn ich zB nur 10GB Vram hätte einfach (ich habe nen 4k Moni) mit DLSS Performance spielen und Spaß haben ohne nachzudenken...Sieht einfach quasi gleich aus... Screenshots Comparison außen vor.
 
  • Gefällt mir
Reaktionen: ComputerJunge
sethdiabolos schrieb:
Das ging ja plötzlich flott, dass 16GB nicht mehr für Gaming reichen. 🙄

RAM kostet ja nichts mehr.
 
  • Gefällt mir
Reaktionen: ShowOff
Mir ist noch was mit Alderlake CPUs (12900KS) was aufgefallen:

Wenn man die e-cores deaktiviert, werden die Frametimes viel stabiler!


Das geht einfach bei modernen Boards via „legacy game mode“ im UEFI.

Bei Asus z. B. muss man auf der Tastatur die „Rollen“ Taste drücken.
Hierbei werden die e-cores einfach nur geparkt.

So kann man deutlich die Veränderung feststellen.
 
Zuletzt bearbeitet:
Gortha schrieb:
So sehe ich das auch. Absolute Fehlleistung und Fehlentwicklung der Entwickler und Sony.
Besonders wenn der Ottonormalo eben FullHD spielt und 8 GB VRAM hat.
Finde ich ja geil dass Nvidia Nutzer plötzlich, wenn es um VRAM geht, sich um die Masse Sorgen machen, bei einer Nischennische wie RT aber ist das kein Problem. Hier dürften die %Zahlen die RT Performancemäßig nutzen können im Promillebereich liegen. Aber hier wird immer schön auf RT verwiesen, wegen der "Masse" und so. Ich persönlich habe lieber schöne hochauflösende Texturen, die das Spiel sichtbar schöner machen und kaum Leistung kostet, als ein Feature, dass teilweise so eingesetzt wird, dass es unerträglich ist und dabei Leistung ohne Ende frisst.
Wer zu wenig VRAM hat muss halt auf schöne Texturen verzichten. Genauso wie man auf RT verzichten muss, wenn man eine zu lahme Karte hat. Aber bei VRAM ist nicht der Hersteller Schuld (obwohl Nvidia seit Jahren dafür kritisiert wird zu geizig in dem Punkt zu sein), sondern der Entwickler. Bei RT ist aber der Hersteller der Grafikkarte schuld (obwohl es auch RT Implementierungen gibt die dir nicht die Haare vom Kopf fressen). Komische Argumentationslinie, da kann ich euch teilweise nicht mehr ernst nehmen.
 
  • Gefällt mir
Reaktionen: Dittsche, bad_sign, Anon-525334 und eine weitere Person
Das Video hier für die 3080-Besitzer ist ganz interessant, wenn man die Settings abschätzen will. Man sieht aber auch hier, dass bei höheren Einstellungen, die Nutzung des normalen RAM hoch geht und ab 80% (25,5GB) RAM-Usage das OS anfängt vermehrt auf die Festplatte auszulagern. Da kann es schonmal zu sekundenlangen Hängern kommen. Es ist aber offensichtlich, dass mit einer 3080 keine 32GB RAM reichen, wenn man höhere Details anstrebt.

 
Zurück
Oben