Fake Optimierung in heutigen Videospielen

TAA ist oft leider echte Grütze. Unscharf und Ghosting - wie auch DLSS (wobei mittlerweile ganz passabel).
Das Schlimme ist ja, dass alles auf TAA aufbaut. D.h. die Entwickler können auf unterer Ebene schlampen, denn TAA glättet ja alles am Ende sowieso weg.
Das führt zu einer völlig falschen Motivation, denn am Ende hat man keine nativ schönen Spiele mehr, sondern nur noch Spiele für die TAA eingesetzt werden MUSS. Irgendwie eine traurige Entwicklung.
 
Ein paar Gedanken zum Thema und zum Video, auch gleichzeitig ein paar Tipps im PC Gaming dazu

Spielekonsolen hauptsächlich betroffen
  • Der Videoersteller nimmt immerwieder 30 und 60fps Situationen zum Anlass, um die Schwächen von bestimmten Upscalern und Kantenglättung zu diskutieren, darunter auch das Kaschieren durch statische Szenen und Motion Blur
  • Wer PC Gaming betreibt, weis, dass höhere FPS als 60 dazu beitragen können den Input Lag zu reduzieren und das verschmieren durch TAA zu reduzieren / je nach Monitor sollte ein FPS Limit zwischen 75 und der Monitorfrequenz gewählt werden / bei G-Sync Monitoren etwas unterhalb der maximalen Bildschirmfrequenz einstellen, z.b 162-163fps bei 165Hz / Außerdem gibt es Technologien die den Input Lag massiv reduzieren und genutzt werden sollten

Ohne TAA gibt es Artefakte in modernen Titeln
  • Der Videoersteller behauptet, dass Entwickler fauler geworden sind und auf bestimmte Technologien verzichten, sobald TAA implementiert werden kann - hierdurch treten Artefakte und Ghosting auf, wenn man TAA abschaltet
  • Grundsätzlich ist TAA nicht schlecht oder falsch - es macht andere Kantenglättungen überflüssig und kann die Performance erhöhen. Jeder Spieler ist dazu angehalten zum ersten Spielstart auch kurz die Kantenglättungen durchzutesten. ich hatte bisher mit TAA / DLSS immer die besten Ergebnisse bis auch wenige Ausnahmen wo kein DLSS nativ implementiert wurde. Auch XESS war teilweise gut anzusehen

Die Unreal Engine sei ein Übeltäter
  • Der Videoersteller erwähnt ausdrücklich dass durch Nanite und Lumen die Entwickler noch weniger Ansporn haben, klassische Methoden für Beleuchtung und LoD zu implementieren
  • Dem stimmte ich grundsätzlich zu, Nanite und Lumen sind nicht perfekt. Aber Epic ist ein großes Unternehmen, dass genug Arbeitskraft und Ideen hat, um solche Technologien weiter zu verbessern, sodass klassische Methoden bald ersetzt werden können


Wer die beste Bildqualität beim PC Gaming rausholen möchte, kann folgende universelle Tipps beachten
  • Immer einen ausreichend großen Monitor mit genügend Sitzabstand nutzen
  • Der Monitor sollte 120Hz+ und ein modernes Adaptive-Sync, Free-Sync oder G-Sync haben
  • Der Monitor sollte immer mit einem kompressionsfreien DP1.4a oder besser Kabel angeschlossen werden
  • Latenzminimierende Technologien wie Nvidia Reflex aktivieren
  • FPS Limits clever setzen
  • Immer die Grafik vor dem Spielen prüfen und einstellen, besonders TAA (DLSS) gegen SMAA oder keinem AA abwägen

Es gibt einfach so unendliche viele Spiele da draußen, sodass man keine allgemeine Empfehlung zum AA geben kann. Ich hoffe mein Beitrag nutzt dem ein oder anderen Leser etwas.

Nachwort (PS): Jede neue Technologie im Grafikmarkt wird eine alte Technologie nie zu 100% ersetzen können. Das Ziel einer solchen Entwicklung ist aber die Aufwandsreduzierung. Es geht darum, doppelte oder unnötige Arbeiten zu verhindern. Ich bin mir ziemlich sicher, dass Nvidia mit der RTX 5000 neue KI Features vorstellen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ayo34 und Ark
frames p. joule schrieb:
TAA und Upscaler werden als "falsche Optimierung" bezeichnet, die die Bildqualität und Realismus beeinträchtigen
  • Diese Techniken werden von Branchenführern übermäßig genutzt, um unnötige Hardware-Verkäufe zu fördern
  • Epic Games und die Unreal Engine werden als Hauptproblem identifiziert, da sie diese Techniken stark propagieren

Wenn du in einem Blindtest mit der Hälfte am Stromverbrauch das DLSS Bild besser findest als das Andere, dann sehe ich für diese Argumentation wenig Spielraum.

Außerdem hat man früher deutlich häufiger neue Hardware gebraucht, weil neue Spiele zum Teil einfach nicht auf der 2-3 Jahre alten Hardware vernünftig liefen. Heute kann man auch auf einer 3060 mit 12GB RAM quasi noch alles völlig problemlos in FullHD spielen und mit DLSS sogar noch deutlich länger oder in einer höheren Auflösung.

Wenn man nur auf die jährlichen 20-30% mehr Leistung durch Hardware und Strom setzen würde, hätten wir deutlich weniger Fortschritt, mehr Stromverbrauch und bräuchten auch häufiger neue Hardware.


frames p. joule schrieb:
Meiner Meinung nach ist das Gegenteil der Fall. Videospiele und Gaming sind Methoden des Eskapismus, also aus der realen Welt zu fliehen oder zumindest nicht an die Regeln der realen Welt gebunden zu sein.

Je realistischer ein Spiel ist, umso weniger interessiert es mich.

Dagegen gibt es ja auch nichts zu sagen. Ich liebe auch heute immer noch Nintendo Games und die machen mir häufig sogar mehr Spaß. Und die Grafik ist komplett anders. Aber deswegen habe ich doch nichts gegen eine UnrealEngine, die eben auf Realismus setzt.

Ich finde einfach den Weg völlig egal. Am Ende ist Entscheidend, was der Bildschirm mir zeigt. Was im Hintergrund passiert, ist mir zu 100% egal.

Ich fand z.B. A Plague Tale grandios. Und dank DLSS konnte ich es problemlos in 4k + Raytracing +60FPS spielen und das mit unter 250 Watt bei der GPU. Wäre vor 5 Jahren noch unmöglich gewesen.

In den 80er und 90ern wurde übrigens noch viel viel mehr getrickst, weil man super limitiert bei der Hardware war und jeden genialen Einfall für eine Optimierung hat man direkt gesehen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger
Ich habe es nur kurz durchgeskippt, aus meiner Sicht fokussiert sich das zu sehr auf den rein technischen Aspekt. Was mir zunehmend in Spielen fehlt ist die Weiterentwicklung des Leveldesigns. Die Auflösung, die Texturen, Raytracing von Schatten und Spiegelungen etc. mag immer besser werden, aber das Leveldesign bleibt nicht selten auf der Strecke.
Aufgefallen ist es mir kürzlich bei COD BO6. Die Level wirkten oft nicht so richtig glaubwürdig, es wirkte oft wie eine lose Aneinanderreihung von Gebäuden und Räumen, eine richtige Immersion fand für mich nicht statt.

Bestes Gegenbeispiel ist für mich immer noch Kingdome Come Deliverance, da wirkt die gesamte Welt wie aus einem Guss. (ist natürlich einfacher, da man keine Großstädte erwartet und wie genau es damals dort ausgesehen hat, weiß man auch nicht)
 
  • Gefällt mir
Reaktionen: Ayo34
frames p. joule schrieb:
Je realistischer ein Spiel ist, umso weniger interessiert es mich.
Also nur noch 16bit Pixelgrafik oder was?
Warum sollte ein neues Elder Scrolls nicht möglichst realitätsnah aussehen?
Man ist doch immer noch in einer Fantasy Welt mit Magie und Monstern?
Dennoch kann man sich doch daran erfreuen, dass der Schatten nachher so aussieht, wie vom Spaziergang im Wald kennt und hier kein "uncanny valley" entsteht, weil die Objekte sich untereinander im Schattenwurf nicht berücksichtigen.
 
Naja, es darf hübsch aussehen, klar. Aber es muss nicht fotorealistisch sein um Spaß zu machen. Es muss auch nicht realistisch sein im Sinne von "hätte diese Pflanze wirklich im Schottland des 18. Jahrhunderts gestanden" (/ "gab es wirklich einen schwarzen Samurai?" :rolleyes:) Ich persönlich sehe lieber Ressourcen in gute Vertonung und Score investiert.
 
frames p. joule schrieb:
Aber es muss nicht fotorealistisch sein um Spaß zu machen.
Das hat ja auch keiner Behauptet, aber ein gutes Spiel was Spaß macht darf doch trotzdem on Top Grafik haben, die heutzutage technisch möglich ist. Und da sind wir Stand heute eben auf einem Level angekommen, wo zb die Lichtberechnung dank Raytracing eben ein sehr krasses Level erreicht hat.
Es gibt mittlerweile eben auch die hier kritisierten Bildoptimierer, die als Nachfolger des klassischen Antialiasing daher kommen und auch eine Menge Vorteile mitbringen.
 
SavageSkull schrieb:
"uncanny valley" entsteht, weil die Objekte sich untereinander im Schattenwurf nicht berücksichtigen.
Gerade beim Schattenwurf und Spiegelungen hab ich eher ein uncanny valley, wenn diese zu realistisch sind, aber z.B. die NPCs weiterhin so agil und real wie Handpuppen wirken.
Clipping von Kleidung/Rüstung/Waffen z.B. finde ich viel schlimmer als die simulierten Schatten.

Cyberpunk z.B. wurde für mich erst durch die höhere Dichte an NPCs besser und der eher unglaubwürdige Verkehr und die schlechte Fahrphysik bremsen das Spielerlebnis für mich stark aus. Da wäre mir etwas weniger gute Grafik/Raytracing lieber, dafür aber realistischeres NPC Verhalten.
 
@calippo Sehe es als einen Teil an. Ein realistischer Schatten und realistisches Licht ist besser als fehlerhafte Schatten und Licht-Pseudo Berechnungen.

Mich stört die Physik auch sehr schnell und das ist sicherlich auch nicht trivial. NPCs haben sich gefühlt seit 30 Jahren nicht weiterentwickelt, aber hier wird man durch KI in der nächsten Zeit deutlich Fortschritte sehen, gerade bei Unterhaltungen/Interaktion.
 
Ayo34 schrieb:
Ein realistischer Schatten und realistisches Licht ist besser als fehlerhafte Schatten und Licht-Pseudo Berechnungen.
In den Vergleichsbildern finde ich das Pseudolicht oft besser, weil da Lichtstimmungen von Hand gesetzt werden. Stimmungstechnisch kommt für mich z.B. wenig an HL2 Ravenholm ran, obwohl da Licht und Schatten aus heutiger Sicht in Bezug auf Realismus nicht so gut sind. Dafür passt aber das gesamte Setting aus Grafik, Ton/Score, Leveldesign, Scripting und Pacing perfekt zusammen. Heute kommt es vor, dass Grafik weit vorne ist, aber der Rest nicht mal auf Niveau von Spielen von vor 10-20 Jahren.

Bei Unterhaltungen/Interaktion wird KI Rollenspiele auf eine neue Ebene heben, aber ob das in Sachen Wegfindung, Animation, körperliche Interaktion etc. auch schon Mehrwert bringen wird?
 
  • Gefällt mir
Reaktionen: JMP $FCE2
Um mal zurückzukommen zu Bildverbesseren, Optimierung etc. - ich find das Argument ja valide, wenn man der Meinung ist, Spiele seien heute gar nicht mehr wirklich "optimiert" und mit Technologien wie DLSS/FSR/XeSS und Frame Gen würden erst spielbare Frameraten möglich sein.

Allerdings hätte ich Ende 2020 (da kam meine GPU raus) nicht gedacht, Anfang 2025 noch mit aktuellen AAA Titeln nicht nur eine für's Auge ansehnliche und zeitgemäße Grafik Grafik zu erhalten, sondern die dann auch noch in angemessenen Framerates. Um es klar zu benennen: ich bin mit einer 6700XT auf UWQHD unterwegs. Nicht kompetetiv bzw. im schnellen Multiplayer, aber ich hatte und habe durchaus viel Spaß mit einem Zero Dawn (Pre-Remastered), Forbidden West, Wukong, Indy und Stalker 2. Schon damals nur Mittelklasse, schlechtere RT Leistung, FSR bisher immer noch nicht DLSS ebenbürtig - kann man ganz ehrlich zugeben und dennoch "reicht es". Und die Regler bieten noch massiv Spielraum nach unten und dennoch verpasst man grafisch nicht wirklich was. Wäre mit einer 3060 Ti oder 2080 auch nicht viel anders.

Ich frage mich in der Hinsicht auch, ob sich die Chiphersteller Nvidia, AMD, Intel sich damit nicht teilweise auch selbst kannibalisieren, wenn diese aktiv mit Software meine Hardware länger als üblich am Leben erhalten. Bislang scheint es zumindest so zu sein.

AI wird allerdings immer wichtiger, auch hierbei. Das bringt mich zur weirden (Wunsch?)vorstellung, dass vorherberechnetes Rendering als "Brückentechnologie" auf dem absteigenden Ast ist und wir in naher oder ferner Zukunft in Spielen nur noch in Echtzeit AI-generierte Bilder zu sehen bekommen. Diese AI-Spielewelten wären anhand vorherbestimmter Merkmale vom Entwickler bestimmt, würden aber bei jedem Spieldurchlauf und für jeden Spieler anders dargestellt werden, wie quasi das sprichwörtliche Bild vor dem inneren Auge beim Lesen eines Romans. Rahmenhandlung, Orte (auch fiktive), Merkmale wären fest vorgegeben, aber was man tatsächlich zu Sehen bekommt, wäre ein in Echtzeit generiertes Videobild, keine Raytracing oder Vektorgrafik...

Und im nächsten Schritt dann eine echte Matrix... :daumen:

Wie auch immer: ich sehe das derzeit aus pragmatischer Sicht und dass ich dank FSR + FG mit meiner auf dem Papier relativ schwachen 6700XT trotzdem die grafisch anspruchvollsten Spiele heute immer noch spielen kann und damit wohlmöglich sogar den gleichen Spaß haben kann wie jemand mit einer 7900XTX/4090 - i can't even complain.

Ob die Optimierung dabei "fake" oder "echt" ist, ist mir dabei ziemlich rille. Gib' mir einfach mehr davon!
 
  • Gefällt mir
Reaktionen: JMP $FCE2
SavageSkull schrieb:
Das hat ja auch keiner Behauptet, aber ein gutes Spiel was Spaß macht darf doch trotzdem on Top Grafik haben, die heutzutage technisch möglich ist.
Das habe ich auch nicht in Abrede gestellt, nur dass das Ziel der technischen Entwicklung sein sollte, fotorealistische Grafik zu bieten.
 
Kern des Videos ist ja auch das Thema Gewinnmaximierung der Studios/Publisher.
Die Kosten sind gestiegen und müssen gedrückt werden wo es geht, alle Nachteile für den Consumer inklusive.
 
Zuletzt bearbeitet:
Zurück
Oben