akuji13 schrieb:
Letztlich könnte man auch alle die "Ich will nur nativ spielen wegen der Bildqualität!" fragen, ob sie schon einen OLED benutzen.
Gut, da kommt das Preisargument ins Spiel. Wer sich ne 4090 oder ne 5090 kauft, um in nativ zu spielen, dabei aber nen LCD nutzt setzt imho falsche Prioritäten.
Um aber gleiches mit gleichem zu vergleichen müsste man auch fragen ob in 4K gespielt wird. Jemand der in 1440p auf nativ beharrt, aufgrund der Bildqualität, der kann auch in 4K mit Quality Upscaling spielen (ebenfalls 1440p renderauflösung) und bekommt ein VIEL besseres Bild bei nur sehr geringen performancekosten.
Selbst DLSS Performance sieht trotz 1080p interner Auflösung in 4K besser aus, als 1440p nativ und läuft schneller.
Das einzige, was man halbwegs ernst nehmen kann sind Leute, die in 4K nativ spielen wollen und dabei DLAA (nicht TAA) nutzen. Das sieht natürlich nochmal nen kleinen Tick besser aus als 4K DLSS Quality. Wem es darauf ankommt, meinetwegen. Aber alles andere ist nicht ernst zu nehmen.
akuji13 schrieb:
Grundsätzlich ist es schon reichlich komisch, im Bereich der PC Spiele "unechtes" zu kritisieren.
Seit es diese gibt, werden Tricks und Kniffe angewandt um das darzustellen, was man darstellen möchte mit den technischen Limitierungen die man hat.
Jap, gerade klassisches Rasterizing ist die reinste Fake show. And das von Anfang bis Ende. Es ist in etwa so als würde man in Photoshop frei Schnauze das Licht per Hand so malen, wie man es sich vorstellt, einfach damit man einen halbwegs realistischen Look hat.
Und das ist ja tatäschlich fast im wahrsten Sinne so. Beispiel Lightmaps. Da wird die globale beleuchtung vorberechnet und in eine Lightmap "gebacken" welche dann etliche gigabyte auf der SSD belegt und die ganze Beleuchtung und Schattierung einer Szene beinhaltet. Im Spiel wird diese Lightmap dann über die Geometrie und die Texturen gelegt, damit es so aussieht, als würden Objekte realistisch beleuchtet und verschattet werden. Nur blöd, dass dann Beleuchtung und schatten an Ort und Stelle verbleiben, sobald man ein objekt mal verschiebt. Dynamische objekte können natürlich dann grundsätzlich in der Lightmap nicht abgebildet werden und "leuchten" dann innerhalb der Spielwelt erstmal unnatürlich, da sie nur sehr primitiv von der Echtzeitbeleuchtung beleuchtet und verschattet werden. Auch zu kleine Objekte können nicht erfasst werden, weil die Lightmap dann irsinnig groß (Speichergröße) werden würde. Weshalb nur größere Strukturen darin abegbildet werden. Damit nicht erfasste objekte dann halbwegs realistisch beleuchtet aussehen, klatscht man überall fake lichter und Schatten hin, teilweise mit billigen screen space effekten, um den Eindruck einer realistischen Beleuchtung zu erzeugen. Das ganze ist aber dann auch wieder sehr artefaktbehaftet und physikalisch einfach falsch. Es gleicht halt wirklich schon fast einem "Bild anmalen in Photoshop".
Das ist fast schon lächerlich primitiv, aber natürlich sehr wirksam, solange die Szene nicht dynamisch ist.
RT ist hingegen eben tatsächliche Simulation von Lichtstrahlen. Völlig anderer Ansatz und es dürfte nachvollziehbar sein, warum man den alten Mist nicht ewig so weiter führen kann. Ob man heute schon FullPathtracing braucht sei mal dahingestellt. Das ist eben ne performancefrage. Aber zumindest ne halbwegs simple RT GI ist das mindeste, was ich heutzutage bei einem grafisch aufwändigen Spiel sehen will. Mit UE5 und Lumen wird das aber eh zum Standard.