Bevor jemand wegen der Performance meckert. Die Legacy of Thiefs Collection ist bereits ein kleines Remaster des PS4 Originals mit besseren Texturen, LoD, Schatten usw.
Sonst würden sich die Anforderungen auch nicht erklären lassen.
Ansonsten passt es ganz gut. Die PS5 schafft 1440p mit 60 FPS oder 4K Nativ mit 30 FPS.
Und das entspricht in etwa einer 3060ti.
Wenn man dann noch die AMD lastigkeit und leichte Optimierungen auf der Konsole dazunimmt kommt das ziemlich gut hin. Soll heißen, auch wenn die Anforderungen nicht gerade niedrig sind, die Performance zwischen PS5 und PC ist bei gleicher GPU Leistung in dem Spiel in etwa gleich.
Wobei sich dank FSR2 und DLSS ja eh noch einiges rausholen lässt.
Du brauchst für 3D Grafik immer eine Form von Kantenglättung um das Flimmern und Aliasing wegzubekommen.
Prinzipiell passiert das immer indem man sogenannte "Samples" also quasi weitere Pixel bzw. Bildinformationen über die Szene sammelt, die man vorher noch nicht hatte, um dann mit diesen Informationen das ausgegebene Bild "präziser" berechnen zu können. Je mehr Bildinformationen man hat, desto schärfer ist das Bild und desto weniger Aliasing hat man.
Klassisch hat man diese Bildinformationen zur Kantenglättung gewonnen, indem man diese zusätzlichen Informationen bzw. Samples einfach berechnet hat. Klassisches MSAA oder SSAA kostet deshalb unmengen an leistung, da das Bild praktisch ein höherer Auflösung oder zumindest in Teilen in höherer Auflösung berechnet wird. Man könnte auch sagen, die 3D Szene wird feiner abgetastet.
Bei TAA war man so schlau und hat sich diesen berechnungsaufwand komplett gespart, weil man auf die Idee kam, dass in den vorherigen Frames ja schon quasi alle Bildinformationen stecken, die man theoretisch zur Kantenglättung brauchen würde. Heißt, wenn man nur genug Frames hat und sich mit jedem Frame die Szene leicht ändert, gewinnt man über die Zeit irsinnig viele Bildinformationen (Samples) über die aktuelle 3D Szene. Alles Informationen, die richtig zugeordnet zur Kantenglättung genutzt werden können. Damit ist also erstmals nahezu "kostenlose" Kantenglättung möglich gewesen, was damals eigentlich schon ein wahnsinns Durchbruch war (nur selten so wahrgenommen wurde, weil die ersten TAA implementierungen das Bild extrem unscharf gemacht haben)
DLSS, FSR2 und XeSS funktionieren jetzt praktisch genauso wie TAA (selbes Grundprinzip), nur sind die Verfahren jetzt so gut, dass man sogar noch die Zahl der von der GPU berechneten Samples (also die Auflösung) drastisch reduzieren kann, weil man mittlerweile über mehrere Frames hinweg so viele Bildinformationen gewinnt, dass die Menge an Daten bzw. Samples ausreicht, um nicht nur die Kanten zu glätten, sondern auch ein Bild in höherer Auflösung zusammenzusetzen.
Nenn es meinetwegen TAA auf Steroiden.
Das Fazit ist dann ganz einfach: Wenn DLSS und FSR2 es schaffen, über Zeit mehr Samples zu sammeln und richtig zuordnen können, als TAA, dann ist das Bild schärfer. Wenn DLSS und FSR2 das trotz geringerer Renderauflösung schaffen, weil sie die fehlenden Informationen über das auswerten von zusätzlichen vergangenen Frames ausgleichen, dann ist das in der Tat beeindruckend.
Die Problemstelle ist eben das Auswerten und korrekte Zuordnen der Bildinformationen aus vergangenen Bildern. Je mehr Bilder man nutzt, desto mehr Informationen kann man theoretisch gewinnen, aber desto schwieriger wird es die Informationen richtig zu verwerten. Um also möglichst viele Bilder zu verwerten und somit möglichst viele verwertbare Samples zu bekommen, haben Nvidia und Intel versucht, das Problem mit Machine Learning anzugehen.
Sonst würden sich die Anforderungen auch nicht erklären lassen.
Ansonsten passt es ganz gut. Die PS5 schafft 1440p mit 60 FPS oder 4K Nativ mit 30 FPS.
Und das entspricht in etwa einer 3060ti.
Wenn man dann noch die AMD lastigkeit und leichte Optimierungen auf der Konsole dazunimmt kommt das ziemlich gut hin. Soll heißen, auch wenn die Anforderungen nicht gerade niedrig sind, die Performance zwischen PS5 und PC ist bei gleicher GPU Leistung in dem Spiel in etwa gleich.
Wobei sich dank FSR2 und DLSS ja eh noch einiges rausholen lässt.
thepate94227 schrieb:Wie kann das sein, dass das Bild in nativ 4K schlechter ist als mit DLSS oder FSR??
Du brauchst für 3D Grafik immer eine Form von Kantenglättung um das Flimmern und Aliasing wegzubekommen.
Prinzipiell passiert das immer indem man sogenannte "Samples" also quasi weitere Pixel bzw. Bildinformationen über die Szene sammelt, die man vorher noch nicht hatte, um dann mit diesen Informationen das ausgegebene Bild "präziser" berechnen zu können. Je mehr Bildinformationen man hat, desto schärfer ist das Bild und desto weniger Aliasing hat man.
Klassisch hat man diese Bildinformationen zur Kantenglättung gewonnen, indem man diese zusätzlichen Informationen bzw. Samples einfach berechnet hat. Klassisches MSAA oder SSAA kostet deshalb unmengen an leistung, da das Bild praktisch ein höherer Auflösung oder zumindest in Teilen in höherer Auflösung berechnet wird. Man könnte auch sagen, die 3D Szene wird feiner abgetastet.
Bei TAA war man so schlau und hat sich diesen berechnungsaufwand komplett gespart, weil man auf die Idee kam, dass in den vorherigen Frames ja schon quasi alle Bildinformationen stecken, die man theoretisch zur Kantenglättung brauchen würde. Heißt, wenn man nur genug Frames hat und sich mit jedem Frame die Szene leicht ändert, gewinnt man über die Zeit irsinnig viele Bildinformationen (Samples) über die aktuelle 3D Szene. Alles Informationen, die richtig zugeordnet zur Kantenglättung genutzt werden können. Damit ist also erstmals nahezu "kostenlose" Kantenglättung möglich gewesen, was damals eigentlich schon ein wahnsinns Durchbruch war (nur selten so wahrgenommen wurde, weil die ersten TAA implementierungen das Bild extrem unscharf gemacht haben)
DLSS, FSR2 und XeSS funktionieren jetzt praktisch genauso wie TAA (selbes Grundprinzip), nur sind die Verfahren jetzt so gut, dass man sogar noch die Zahl der von der GPU berechneten Samples (also die Auflösung) drastisch reduzieren kann, weil man mittlerweile über mehrere Frames hinweg so viele Bildinformationen gewinnt, dass die Menge an Daten bzw. Samples ausreicht, um nicht nur die Kanten zu glätten, sondern auch ein Bild in höherer Auflösung zusammenzusetzen.
Nenn es meinetwegen TAA auf Steroiden.
Das Fazit ist dann ganz einfach: Wenn DLSS und FSR2 es schaffen, über Zeit mehr Samples zu sammeln und richtig zuordnen können, als TAA, dann ist das Bild schärfer. Wenn DLSS und FSR2 das trotz geringerer Renderauflösung schaffen, weil sie die fehlenden Informationen über das auswerten von zusätzlichen vergangenen Frames ausgleichen, dann ist das in der Tat beeindruckend.
Die Problemstelle ist eben das Auswerten und korrekte Zuordnen der Bildinformationen aus vergangenen Bildern. Je mehr Bilder man nutzt, desto mehr Informationen kann man theoretisch gewinnen, aber desto schwieriger wird es die Informationen richtig zu verwerten. Um also möglichst viele Bilder zu verwerten und somit möglichst viele verwertbare Samples zu bekommen, haben Nvidia und Intel versucht, das Problem mit Machine Learning anzugehen.
Zuletzt bearbeitet: