• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Talos Principle 2 im Test: Unreal-Engine-5-Rätsel setzt mit Lumen auf Upscaling

Hab gestern nur den Tutorial-Abschnitt gespielt. RX 6800 mit Ryzen 5800X unter Linux.
Also bei mir stellt das Spiel mit dem entsprechenden Menü-Button automatisch auf High-Preset ohne Upsampling (Es ist also keine Default-Einstellung des Spiels). Das sieht gut aus und spielt sich angenehm flüssig. Wenn ich in das besagte Waldgebiet komme, werd ich mal FPS und Frametimes anschauen und ggf. noch bisschen optimieren. Dieses TSR macht bisher einen verdammt guten Eindruck.

Zwei unschöne Dinge sind mir aufgefallen:
1. Auf Wasser-Oberflächen ist der Screenspace-Reflection-Effekt der Bäume störend auffällig, weil dieser detailiertere Reflektionen erzeugt als nur RT, wenn der Baum aus dem Bild verschwindet.
2. Die Laser hinterlassen auf den Oberflächen dahinter eine Oberflächen-Beleuchtung. Bewegt man sich nun, bleibt diese kurz weiter an dieser Stelle zu sehen und blendet dann langsam weg. Das ist irritierend physikalisch falsch und wirkt auf mich wie ein Grafik-Fehler.

Hat das sonst noch jemand beobachtet oder ist das evtl. tatsächlich ein Fehler, der mit dem Linuxtreiber zusammenhängt?
 
  • Gefällt mir
Reaktionen: fullnewb
Linmoum schrieb:
Dieses Selbstverständnis, dass Grafikkarten xy fps schaffen müssen, ist ein Relikt aus vergangenen Zeiten
Keine Ahnung, wann diese vergangenen Zeiten waren. Halte das aber für ein Gerücht. Das ist eher eine Neuerscheinung. Früher mussten Grafikkarten häufiger getauscht werden und man war oft froh überhaupt 30 bis 40 fps zu haben. Das Alles unter 60 fps heute als nicht gut spielbar gilt, ist im Vergleich zu den frühen 2000ern ganz schönes Luxusdenken. 60 fps waren in vergangenen Zeiten teils undenkbar. Deshalb kann ich der Aussage warum das ein Relikt aus vergangenen Zeiten sein soll nicht ganz folgen.

Davon ab, würde ich das Thema als Kunde aber eher so betrachten: Ich gebe fast 2000 € für eine Grafikkarte aus und nach ein paar Monaten (sogar noch ohne Nachfolger Karten am Markt) laufen lediglich "hübsche" Spiele dann nur dank Upscaling vernünftig bzw. ohne vielleicht in FullHD. Das ist eher das tragische. Man verschleudert Tausende-€ und hofft auf ein paar Jahre Ruhe und dann läufts trotzdem bescheiden. Und die Optik bzw- Leistung(fps) steht teils kaum in Relation zur eigentlich Rechenpower. Man kauft sich einen Ferrari und bekommt eine Schlaglochstrecke nach der anderen hingeschmissen. Das ist schon frustrierend.
Einstieg bzw. Mittelklasse gibt es zumindest preislich gar nicht mehr. Bei 200 € bis 400 € wäre es irgendwo verständlich, wenn man mit sowas leben muss. Da kalkuliert man das vorweg auch mit ein, dass man eher aufrüsten muss oder die Grafik etwas runtergeregeln werden muss.
Aber je höher der Invest, desto höher auch die Erwartung.

Meine Empfindung ist eher so:
In vergangenen Zeiten haben teils top Grakas nicht lange viele fps geliefert, da es in der Grafik riesige Sprünge gab. Heute kommen wir langsam wieder genau dahin. Aber weil Gaming eine Massen-Industrie wie Hollywood Filme geworden ist und Optimierung einfach ein gut auslagerbarer kostenfaktor ist. Die grafischen Sprünge sind dabei aber eher gering.

Im Endeffekt ist das eine Kostenauslagerung an die Kunden.
Ernsthaft ich fands mit Aufrüsten echt schwierig die letzten Jahre. Bei der aktuellen Generation empfand ich so richtig herausragend und lohnend nur die RTX4090. Wobei mir das Hobby soviel Geld nicht wert ist. Aber im Vergleich zu den anderen darunter sortierten Karten wäre es wenn, wohl die geworden. Nach den letzten Technik-Tests hier, bekommt aber selbst die einen Beigeschmack.
 
nciht schrieb:
Naja, jeder hat halt seine Präferenzen
Das ist absolut legitim. Dein Vorgehen ist auch das rationalere, so wie ich das mache ist „objektiv“ Geldverschwendung.
Aber was mich wirklich stört ist diese Unterstellung, als ob alle Entwickler heute faul und unfähig wären. Crysis lief zur Veröffentlichung in max Detail mit irgendwas um die 10FPS und weil es mit Takt stärker skaliert als mit Kernzahl, sind selbst heute perfekte 120FPS kaum machbar in den Alienlevels. Trotzdem war es visionär und die Entwickler hatten wirklich was drauf. Das ist heute nicht anders. Als RDR2 auf PC kam, war das Forum voll von „miese Optimierung, Rockstar ist am PC unfähig“, jetzt wird es als Beispiel zitiert, wie toll doch damals optimiert wurde. Das ist doch lächerlich und geht mir mittlerweile stark auf den Senkel.

Edit: Natürlich sind manche spiele einfach schlecht. Die Verwendung von Upscaling oder die erreichten FPS sagen dazu aber erst mal gar nichts aus.
 
  • Gefällt mir
Reaktionen: Laphonso
Und wieder eine schlechte Skalierung für die 4090🙈.
26% mehr in 4K als die 4080 aus 69% mehr Shadern sind schon recht dürftig.
 
  • Gefällt mir
Reaktionen: Haldi
Hm, das erinnert mich ein wenig an die Grafik-Adventures vergangener Zeiten (The Pawn, Guild of Thieves, Myst, Riven, usw.), die bis auf Puzzles und Grafik (ja gut, manchmal auch Story), relativ wenig zu bieten haben.

So gesehen war der Grafik-Demo Ansatz schon klar und die hohen Anforderungen zeigen es. Schade, dass native Einstellungen ohne Upscaling nicht in der Breite getestet wurden, zumal FSR nicht gut unterstützt wird (wohl auch weil es die Unreal Engine Lösung gibt für alle ohne nVidia dGPU) und damit natürlich auch keine (A)FMF Lösung zu erwarten war.

Für mich ein weiterer Grafik-Demotitel, der mich wenig interessiert, auch da ich den Vorgänger noch nicht einmal angespielt habe und mir die Grafik dort vollkommen ausreichen dürfte für die gestellten Rätsel und ausserdem gibt es ja noch jede Menge anders aufgelegte Rätselspiele wie Viewfinder oder Fractal Space bspw., die ich mir dann eher zulegen dürfte.

Somit käme bei mir wohl absehbar auch kein Kauf von Talos Principle 2 in den kommenden Jahren (in denen es einem preislich nicht "nachgeworfen" werden dürfte, wobei der aktuelle Steam Preis unter 30 Euro relativ fair ist) in Frage, aber für Fans der Spielserie, die GPU-technisch nicht so üppig leistungsstark unterwegs sind, ist das sicherlich schwieriger.

Solange die meisten Grafik-Highlights eher Democharakter haben (mich Gameplay/Story/absehbarer Spielspaß eher nicht reizt oder überzeugen kann, denn Grafik alleine/vordergründig ist für mich kein Spielkauf- oder Aufrüstargument), wird mich das nicht dazu veranlassen diese Spiel zu holen, ganz zu schweigen davon dafür die Grafikkarte und/oder den Prozessor aufzurüsten.

Immortals of Aveum soll wohl mehr Features und Optimierungen bekommen; das fände ich technisch interessanter, auch wenn ich es im Prinzip gut finde, wenn so ein nicht-AAA Titel wie Talos Principle 2 hier erwähnt und sogar getestet wird.

Also frühestens zu RDNA5 oder RTX 6000er Marktstart würde ich ein Upgrade oder vermutlich eher neues System wohl anpeilen und denke die 16 GB Speicher sowie die Leistung meiner dGPU sollten bis dahin (in Full HD für aktuelle Titel) noch reichen .... 'mal schauen, wie es dann preislich aussieht und was die Dinger dann (mittel- bis langfristig) leisten können.

Für mich ist mittlerweile eher ein "so spät wie möglich aufrüsten" angesagt, weil die meisten Spielneuerscheinungen mich nicht (spielspaß- und optimierungstechnisch) überzeugen können ebenso wie der "RT-RT Fortschritt" über die Jahre, und die, die das können (wie bspw. Baldur's Gate 3 oder Lies of P) sind genügsamer und benötigen zwangsläufig keine aufgerüstete PC Hardware (zumal es auch noch Regler gibt und man nicht unbedingt alles in Ultra-Einstellungen spielen muss, was im CB Forum oft vergessen wird).
Ergänzung ()

Vitali.Metzger schrieb:
Wenn Sie mit RDNA 4 die angeblich laut Gerüchten nächstes Jahr kommen soll, die 4090 einholen
Das wage ich eher zu bezweifeln und würde solch eine Erwartungshaltung auch nicht schüren wollen, was ja gerne von Leakern und Influencern wie MLID getan wird (ohne dass diese dann dafür im Nachhinein gerade stehen und eher mit halbgaren Ausflüchten dann im Nachhinein kommen, obwohl es das nie offiziell vom Entwickler in Aussicht gestellt wurde sondern nur von den angeblichen Quellen dieser Leaker/Influencer ... Intel Arc A770 ist dafür ein gutes Beispiel, wo mindestens RTX 3070 Niveau im Voraus gefordert wurde ... ja, fordern kann man viel).

Wenn es - wie kolportiert - eine dGPU-Halbgeneration (ähnlich RDNA1 oder Polaris) wird und die größte Chipausgabe wegfallen soll, dann wird das absehbar wohl eher nixhts mit RTX 4090 Leistungsniveau, denn eine RX 5700XT konnte damals auch nicht ganz mit einer RTX 2070 "Super" mithalten, die in etwa GTX 1080Ti Niveau erreicht hat.

Ich lasse mich aber gerne überraschen, so ist es nicht ;).
 
Zuletzt bearbeitet:
mibbio schrieb:
Der erste Teil ist aber auch schon knapp 9 Jahre alt (kam Dez. 2014 raus). Da war die Geforce 700 Reihe noch Stand der Technik und die GTX 970 & 980 sind gerade erst auf den Markt gekommen.
Ok das ist ein gutes Argument, war mir nicht so klar das das schon so alt ist.
 
Vitali.Metzger schrieb:
Mit Sicherheit sieht Software-Lumen nicht deutlich schlechter aus als Hardware Raytracing.
Doch, mit Sicherheit tut es das. Beweise dafür kannst du hier sehen:
Bei 4:12 und 4:15 siehst du es extrem.

Es hat einen Grund, warum es für sowas dedizierte Hardwareeinheiten bzw. fixed functions gibt.
Du glaubst doch nicht ernsthaft, dass die RT- und Tensorcores nur reines Marketing sind und absolut keinen ernsthaften Nutzen bieten?

Vitali.Metzger schrieb:
Ich hoffe AMD wird mit ihrem Multi Chiplet Design spätestens mit RDNA 5 so richtig durchstarten. Wenn Sie mit RDNA 4 die angeblich laut Gerüchten nächstes Jahr kommen soll, die 4090 einholen, würde das den meisten schon reichen.
Die Gerüchte besagen eher, dass AMD gar keine Highend-Karte bringt, sondern maximal die Mittelklasse bedient. Was du da behauptest, ist Unfug...mal wieder.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Laphonso
Chismon schrieb:
Das wage ich eher zu bezweifeln und würde solch eine Erwartungshaltung auch nicht schüren wollen,
Zumal AMD ja ausch schon selber gesagt haben, dass sie erstmal nicht im Highend-Bereich konkurrieren wollen. Ich denke daher auch eher, dass sie mit RDNA4 den Ansatz erstmal weiter erproben und Erfahrungen für Optimierungen sammeln, um das dann mit einer darauf folgenden Generationen umzusetzen.
Bei den CPUs hat es ja auch etwas gedauert und erst Zen3 hat das Potential dann so richtig ausgeschöft.
 
  • Gefällt mir
Reaktionen: Chismon
RushSyks schrieb:
kann das allgemeine Performance Gemecker bitte in ein Sammelbecken
Ich möchte dieses "Gemecker" allerdings lesen, weil das Forum eben auch die allgemeine Stimmung zu einem Produkt wiedergibt. Über die Art des "Gemeckers" können wir uns unterhalten; es gänzlich zu verbannen ist ein ganz harscher Weg.
RushSyks schrieb:
Das alleine sagt überhaupt nichts über Optimierung aus.
Das vielleicht nicht, aber es spricht Bände über die Erwartungshaltung und das Bild, dass die Entwickler von der heutigen (und zum Entwicklungsbeginn ihrer zukünftigen) Hardware- und Spielerlandschaft haben und hatten.
RushSyks schrieb:
Und „nativ“ ist ein völlig inhaltsleerer Kampfbegriff
Allein dass du und ich wissen, was er bedeuten soll (=kein Upscaling), macht ihn nicht mehr "völlig inhaltsleer". Dann schreibt in Zukunft halt jeder "kein Upscaling" statt "nativ".

Und, um auf Talos Principle und den Test zurückzukommen, ich finde die Argumentation Wolfgangs, sämtliche Vergleiche mit den Upscalern durchzuführen, ebenso inakzeptabel, weil ich für mich FSR und DLSS immer noch als "nice to have optionals" einordne, und nicht als gegeben hinnehme, da sie auch nach wie vor nicht in jedem Spiel integriert sind und nicht von allen Karten unterstützt werden.
 
Amiga500 schrieb:
Schon traurig zu sehen das heut zu tage schon eine 3070 nicht mehr so ganz die 60 fps erreicht...
ES ist zwar blöd mit einem "früher war alles besser" zu kommen, aber noch vor ein paar Jahren konnte man mit einer 500,- GPU alle neuen Spiele uaf mx zocken. Mittlerweile braucht es da eine >1000,-EUR GPU.
Von der Grafik her natürlich schön. Aber dass nicht-Lumen SOOO dunkel ist geht ja gar nicht :freak:
 
  • Gefällt mir
Reaktionen: Innocience
blackiwid schrieb:
Ok das ist ein gutes Argument, war mir nicht so klar das das schon so alt ist.
Zumal die Switch Version selbst im Dock nur mit knapp über 720p lief.

@seyfhor
Mit welcher 500€ Karte ging das denn früher in UHD mit Raytracing?
 
Zuletzt bearbeitet von einem Moderator:
Innocience schrieb:
Allein dass du und ich wissen, was er bedeuten soll (=kein Upscaling), macht ihn nicht mehr "völlig inhaltsleer". Dann schreibt in Zukunft halt jeder "kein Upscaling" statt "nativ".
Ihr wisst es doch selbst nicht? Diese Abneigung gegen "Upscaler" kommt doch daher, dass es angeblich "Pixelmatsch" und "Artefakte" produziert.
Das Ding ist, dass nativ idR. TAA bedeutet und das hat genau die gleichen Probleme wie DLSS, nur häufig noch ausgeprägter.
 
MrHeisenberg schrieb:
Die Gerüchte besagen eher, dass AMD gar keine Highend-Karte bringt, sondern maximal die Mittelklasse bedient. Was du da behauptest, ist Unfug...mal wieder.
Laut Gerüchten soll AMD mit RDNA5 den High End Segment wieder angreifen.
 
Innocience schrieb:
weil ich für mich FSR und DLSS immer noch als "nice to have optionals" einordne, und nicht als gegeben hinnehme
Sei dir belassen :). Realität sieht anders aus. Bei den letzten Kartengenerationen haben z.B. bei nVidia gerade die RT- und Tensor-Einheiten die größten Sprünge hingelegt. Die waren wesentlich größer als bei der Rasterizer-Leistung. Das zeigt, wo die Reise hingehen wird. Ich sehe das wie @Wolfgang das ist gekommen, um zu bleiben und die alten Techniken zu ersetzen. Wird Zeit.
 
MrHeisenberg schrieb:
Ihr wisst es doch selbst nicht? Diese Abneigung gegen "Upscaler" kommt doch daher, dass es angeblich "Pixelmatsch" und "Artefakte" produziert.
Da legst du mir jetzt etwas in den Mund. Meine "Abneigung" rührt eher daher, dass es Vergleiche schwierig macht und Entwickler eine gute Ausrede gibt, direkt mit diesen Upscalern ihre Leistungsanforderungen zu gestalten - also genau das, was gerade passiert. DLSS Nvidia exklusiv macht die Vergleichbarkeit noch schlimmer.

Kurzum: Die Technik ist gut, aber eben nicht als Baseline.
 
  • Gefällt mir
Reaktionen: Haldi, iron_monkey und MrHeisenberg
mibbio schrieb:
dass sie mit RDNA4 den Ansatz erstmal weiter erproben und Erfahrungen für Optimierungen sammeln, um das dann mit einer darauf folgenden Generationen umzusetzen.
Eventuell basiert die Einschätzung auf dem folgenden CoreTeks Video:


Auch wenn ich CoreTeks dann und wann sicherlich gute/innovative Ideen und Argumente abgewinnen kann, liegt dieser ab oft auch sehr daneben mit seiner Vermutungen und Interpretationen, aber es wäre jedenfalls wünschenswert, wenn vieles von dem von CoreTeks im obigen Video kommunizierten Features auch schon gut laufen würde in RDNA4 Grafikkarten.

Ich schätze RDNA4 auch eher wie den tieferen Einstieg in Chiplet-Design ein (denn eine Halbgeneration würde sich dafür auch gut anbieten), ähnlich wie RDNA mit RDNA1, bevor dann RDNA5 hoffentlich ausgereifter daherkommt (analog zu RDNA2 damals).
 
MrHeisenberg schrieb:
Ihr wisst es doch selbst nicht? Diese Abneigung gegen "Upscaler" kommt doch daher, dass es angeblich "Pixelmatsch" und "Artefakte" produziert.
Das Ding ist, dass nativ idR. TAA bedeutet und das hat genau die gleichen Probleme wie DLSS, nur häufig noch ausgeprägter.
Ich denke bei DLSS kommt es stark auf Auflösung an. Ich habe derzeit einen 1440p Monitor. Bei jedem, wirklich jedem Spiel das ich bisher getestet hab sehe ICH teils starke unterschiede zwischen Nativ und DLSS, sei es auch nur DLSS Quality. Mein Frau spielt derzeit sogar noch 1080p. Da krieg ich echt das kotzen, wenn ich DLSS seh. Daher hab ich ihr meine 4070ti gegeben und bin selber auf eine 4090 umgestiegen. Ich plane irgendwann nächstes Jahr auf 4k umzusteigen. Dann werde ich DLSS nochmal eine Chance geben.
 
  • Gefällt mir
Reaktionen: iron_monkey
Trelor schrieb:
Zumal die Switch Version selbst im Dock nur mit knapp über 720p lief.
Definiere knapp? war es nur 721p? :D oder meinst du das die Hardware grade ausreichte? Ja natürlich niemand behauptet die Switch würde bei Spielen in 1080p rum idlen :D
 
Dedenne1987 schrieb:
Ich denke bei DLSS kommt es stark auf Auflösung an. Ich habe derzeit einen 1440p Monitor. Bei jedem, wirklich jedem Spiel das ich bisher getestet hab sehe ICH teils starke unterschiede zwischen Nativ und DLSS, sei es auch nur DLSS Quality.
Kann ich nur sehr schwer nachvollziehen, weil die Basisauflösung bei Q schon 1080p in WQHD ist und TAA ebenfalls mit Ghosting und Schlieren zu kämpfen hat.
Ich finde das Ergebnis selbst mit 1080p als Zielauflösung solide. DLAA/Nativ ist hier oft besser, aber es ist jetzt nicht ansatzweise so schlecht, wie du es behauptest.

Die Frage ist nicht, ob du beim 1:1 Vergleich mit der Lupe in einem Standbild irgendwelche Unterschiede siehst sondern, ob es dir in einem Blindvergleich oder während des Spielens wirklich auffallen würde, dass da DLSS am Werke ist. Ist das nicht der Fall, ist die ganze Diskussion nämlich hinfällig.

PCGH hat das ganze mal getestet und die konnten keine Verschlechterung des Bildes in einem Blindtest feststellen, aber einige User hier scheinen Adleraugen zu haben und haben wohl ein extrem negatives Beispiel erwischt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna
@blackiwid Ist eine dynamische Renderauflösung.
Hatte das auf meiner gemoddeten Switch gespielt. Ohne OC waren das ~750p-900p je nach Situation (Graphics Mode).
In der Regel um die ~800p. FPS Mode habe ich glaube ich gar nicht ausprobiert. Wahrscheinlich sind das feste 720p mit ein paar reduzierten Settings um die CPU zu entlasten.
Man sieht auch im direkten Vergleich mit der PS4 Version (1080p), wie verwaschen das aussieht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben