Bright0001 schrieb:
Das stimmt so aber nur, wenn beide Technologien sich im Gleichschritt weiter entwickeln und den Abstand halten.
Wir sprechen hier von AI gegen einen "linearen" Algorithmus.
Die Ansätze sind nunmal technisch so weit voneinander entfernt....
Auch ein DLSS hat sich im eigentlichen Sinne einer Produktpflege nicht inkrementell weiterentwickelt. Man hat das erste Konzept KOMPLETT in die Tonne getreten und alles neu gemacht.
Also ja- Wenn AMD ihren Ansatz ebenfalls komplett in die Tonne tritt und etwas mit vollständig anderer Gewichtung raushaut, dann können die sich natürlich auch verbessern. Mit der aktuellen Technik ist mit nicht spezialisierter Hardware aber das Forschungsspektrum im Augenblick ausgereizt. Da wird länger nichts mehr nachkommen.
Was meines Erachtens aber auch garnicht schlimm ist. FSR Ultra quality mit 20-30% Performancegewinn ist "good enough".
Die Frage die sich hier nur noch niemand gestellt hat ist, wie sich FSR gegen CAS und niedrigerer Auflösung schlägt. Da sehe ich zwar Fortschritte, aber ehrlich gesagt nicht sehr große.
Bright0001 schrieb:
Dass AMDs Ansatz in Theorie DLSS 2 nicht schlagen kann, ist gar nicht mal so selbstverständlich; Selbst bei "stupidem" Upsampling ist noch nicht aller Tage Abend, da geht noch ordentlich was.
Schau Dir die gängigen GAN Verfahren an und die Pamphlete, die es von AMD inkl. deren Patente zu lesen gibt. Das ist state of the art. Da holt AMD schon unglaublich viel raus.
Problematik am Verfahren ist genau das, was viele von DLSS immer wieder behaupten. Es kann nie besser als nativ sein. Und wenn es das tatsächlich sein sollte, sind die vermeintlichen Details eine Schätzung bzw. dazuerfunden.
Und das ist der gravierende Unterschied, wenn es um ein Potenzial oder auch um Zukunftsaussichten geht.
Im Gegensatz zu anderen sehe ich beide Verfahren, die sich noch auf unterschiedlichste Arten weiterentwickeln oder komplett überholen werden, als zeitgleich gültig - Ähnlich nvidias PCSS und AMDs CHS.
So sehr sich die User auch wünschen würden, dass es nur noch ein Verfahren gibt und das eine die anderen "weghaut",, so unrealistisch ist das aufgrund der technischen Unterschiede und auch aufgrund der erzielbaren Resultate.
Meine Prognose ist, dass AMD mit der nächsten generation nachziehen wird und spezielle inferencing Einheiten integrieren wird (ähnlich den tensor cores).
Und dann werden sie ähnlich dem Ansatz von NVIDIA auf temporale Akkumulation und history rectification/clamping setzen.