.Sentinel. schrieb:
(nein- keine UE4 One- Klick- Integration)
Genau darum ging es mir auch, in die Unreal Engine zwar integriert/interfaced, aber trotzdem braucht es mehr Arbeit, weil es komplexer ist.
Es ist ja nicht so, als ob Du die KI-Optimierung da herauslassen kannst und ja klar, FSR 2 hat nun eben auch spatiale und quasi-temporale Komponenten (im Gegensatz zu FSR 1, spatial algorithmisch begrenzt beim Upscaling auf jeweils einen Frame), aber trotzdem nicht auf dem Level wie nVidias DLSS 2.X, denn sonst wuerde es nicht auch gut auf aelteren Radeon Karten (vor RDNA3) laufen, wohingegen bei nVidia eben Tensor Kerne ein Muss sind (vor Turing laeuft da nichts mit DLSS).
Das ist doch ein Wink mit dem Zaunpfahl und dann auch immer noch Grund, weswegen das anders ausgelegte (zusatzkernelos funktionierende und damit schlankere) FSR 2.X nicht ganz an das (zusatzkernebasierte, umfangreicher zu optimierende) DLSS 2.X in den meisten Faellen heran kommt (auch wenn man da teilweise schon mit einer Lupe unterwegs sein muss um Unterschiede zu finden, was natuerlich aberwitzig ist.
Welcher Gamer nimmt sich im Spiel die Auszeit - insbesondere von vielen juengeren Speedrunnern, die (kompetitiv verblendet?) nur noch durchhetzen ohne den Content (Story, Grafik/Artwork, Sound, etc.) zu geniessen - und sucht danach minutenlang (abgesehen von Entwicklern und Upscaling-Technik-Testern)?
.Sentinel. schrieb:
Du musst für DLSS nichts zahlen.
Zahlen oder mehr kosten im Sinne von Mehraufwand/Entwicklungszeit (Zeit ist Geld); natuerlich kostet das nichts als Entwicklungswerkzeug extra, dann wuerden es sich noch mehr Entwickler sparen es zu integrieren (und einfach wieder ressourcenschonender programmieren).
Somit ist das definitiv ein Argument bei der Spielentwicklung, egal ob es um Resident Evil 4 oder Boundary oder andere zukuenftige Titel geht. Ob das wirklich den Ausschlag gegeben hat und daraus ein Trend bei kleinen und grossen Entwicklern wird, sollte man natuerlich abwarten.
.Sentinel. schrieb:
Nicht immer setzt sich der überlegene Standard durch.
Das ist wahr, wobei die Frage ist, ob DLSS wirklich ueberlegen ist, denn ja, das Endergebnis mag marginal besser sein, aber der groessere Aufwand der aelteren Technik (platzraubende Kerne muessen dafuer in dGPUs verbaut sein, man muss die KI trainieren und Server dafuer unterhalten, etc.) und die geringere Kompatibilitaet eher keine Ueberlegenheit im Vergleich zu FSR ist und somit fuer letztere Upscaling Technik insgesamt sprechen wuerde.
Wenn der qualitative Nutzen von DLSS - wie jetzt - nur marginal bleibt fuer einen deutlich kleineren Nutzer-/Kundenkreis als bei FSR oder XeSS, dann reiht sich das wie etwa der C-64 (technisch dem Schneider CPC 464/664 oder auch Atari 800XL damals auch deutlich unterlegen) eher in die Kategorie, welche Technik ist am Markt breiter aufgestellt/kompatibler ein.
.Sentinel. schrieb:
An welche Tensor- Cores hätte denn die DLSS API die Instruktionen bei AMD schicken sollen?
Man haette die Upscaling-Technik wie AMD/RTG mit FSR vorher von vornherein bei nVidia ja auch offen und nicht Tensor-Kerne-propriertaer entwickeln koennen.
nVidia hat da eine lange unruehmliche Historie bzgl. propriertaere Techniken um Marktanteile/-dominanz gewinnen zu koennen, nicht nur das zwar noch existente aber durch den Aufpreis und mangels Verbreitung (im Vergleich zu Free-Sync) wenig relevante G-Sync oder man denke an die Gameworks Features wie bspw. Hairworks (um die Konkurrenz schlechter aussehen zu lassen, wobei dann AMD/RTG mit TressFX ein besseres und effzienteres Gegenstueck geboten hat) oder lange auch das gehypte Phys-X (welches sang- und klanglos in der Versenkung verschwunden ist und dabei hatte ich mich auch damit noch bei meinem Kepler-GPU Kauf noch locken lassen).
.Sentinel. schrieb:
anhand von der FG von FSR 3 sehen wo da der Hund begraben liegt.
Warten wir es ab, denn FSR 3 duerfte nach dem was ich bisher darueber lesen konnte auch wieder komplett anders aufgebaut sein als DLSS3.
Wenn man bei AMD/RTG die vorherigen Versprechen, dass es auch noch auf RDNA2 (evt. auch RDNA1 und ab nVidia GTX Pascal und Intel Arc Alchemist) laufen soll, dann muss die FSR 3 Frame-Interpolationstechnik (nicht Frame-Generationstechnik wie bei DLSS3) ja auch anders funktionieren/entwickelt worden sein.
Wie gut FSR 3 bisher laeuft bzw. fortgeschritten ist auf den Karten unterschiedlicher GPU-Chip-Entwickler (was eine deutlich groessere Leistung sein duerfte als das was DLSS 3 bei nVidia bisher nur die Ada Lovelace Archtiektur bereit gestellt hat) natuerlich ausserhalb AMDs/RTGs bisher nicht einschaetzbar, aber deswegen wird es wohl - wie auch zuvor angekuendigt - auch noch bis Ende der zweiten Quartals (evt. kommt es dann zeitgleich mit den Navi 32/33 RDNA3 Grafikkarten-Martkstarts) optimiert werden.
Am Anfang duerfte FSR 3 mit Sicherheit noch buggy sein, aber das war und ist bei DLSS3 (mit deutlich weniger Optimierungsaufwand auf unterschiedliche GPU-Architekturen) ja auch so.
Ich freue mich jedenfalls trotzdem darauf und dass AMD/RTG keine Daeumchen drehen bei der Feature-Entwicklung und m.M.n. mindestens genauso aktiv wie nVidia sind (trotz deutlich kleinerer Belegschaft und weniger Ressourcen) zeigt ja auch
die (neben FSR 3) angekuendigte FidelityFX SDK Erweiterung .