Korben2206 schrieb:
Doch gibt es, zumindest lt. nvidia: DLSS 3.0 hängt stark von den Tensor Cores ab (und vom "Optical Flow Accelerator", was auch immer das ist), und die haben sich mit der 40x Generation nicht nur von Gen3 auf Gen4 weiterentwickelt sondern sind auch in der Anzahl stark gestiege
Ich weiß schon, was nVidia erzählt/andeutet - aber die Märchen muss ich ja nicht glauben. Zumal man es ja schon vorher so gehandhabt hat, dass Features (DLSS 1 und 2) hardwarebedingt umgesetzt wurden, obwohl das überhaupt keine Frage von Tensor-Cores und Leistung war, mit quasi der gleichen Begründung. Und wie würde das bitte klingen, wenn die stattdessen erzählen würden, dass man entweder zu faul ist das auf alten Karten zu supporten, oder man sich das Geld sparen will, oder neue Features generell lieber nur auf neuen Karten anbieten will, um Kaufreize zu schaffen - Nene, die überlegen sich die Antworten vorher schon gut und wenn auch nur einer der Punkte oben die tatsächliche Wahrheit sein sollte, dann würde man sicherlich trotzdem lieber halb lügen, als es so zu sagen. Solche Halbwahrheiten sind eben immer die Balance zwischen Gewinnorientiert und Kundenfreundlich.
Korben2206 schrieb:
auch in der Anzahl stark gestiegen: von 328 (3080) bzw. 336 (3090 Ti) auf 576 (4090).
Die Leistung der TCs ging (schon immer) fast vollständig ins Ray-Tracing. Die Hand-Voll TCs, die jetzt für DLSS3 genutzt werden, hat wohl auch jede andere RTX-Karte übrig. Und falls es doch knapp wird, warum nicht bei einer RTX 2060 sagen - OK, du kannst RT, oder DLSS3, aber nciht beides - dafür hast du nicht genug TCs, bzw. die sind zu schwach dafür, weil das jetzt eben mehr als nur Upscaling ist? Gerade die kleineren und älteren Modelle haben doch die kommenden Jahre generell zu wenig Leistung für RT, da wäre DLSS3 ohne RT doch super. Und wenn es eine Frage der Treiber-Updates, Firmware/Software-Support ist, dann würde das wohl heißen nVidia ist einfach zu faul (das ist es denen nciht wert Geld in die Entwicklund zu investieren - sollen die Leute halt ne neue Karte kaufen)...
Korben2206 schrieb:
FSR wurde ja schon mit dem Gedanken entwickelt das es auf anderen GPUs laufen kann. Insofern hinkt der Vergleich etwas
Korrekt, das ist eben der andere Ansatz, aber der Vergleich hinkt eben nicht, da AMD zeigt, wie wenig Leistung AI-Upscaling kostet, selbst wenn man es auf Hardware betreibt, die dafür nicht spezifisch gedacht ist. - Nun kommt man dann halt zu der Schlussfolgerung, dass AI-Upscaling vom Konzept nicht so sonderlich Hardwarebedingt sein kann (die normalen Cuda-Cores können das eben auch), bzw. auch nicht so wahnsinnig Leistung kostet im Vergleich zur Kantenglättung. Die TCs sind auch nur Cores, die für bestimmte Aufgaben ggf. besser geeignet sind. Ich behaupte mal, die Qualitätsunterschiede von FSR und DLSS, sind aber zum größten Teil Softwareseitig zu erklären (bessere AI dahinter, etc.) Wer jetzt 1 und 1 zusammenzählen kann, merkt ggf. auch, dass sich das finanziell für nVidia zufällig einfach lohnt, wenn man ältere Karten außenvor lässt. DLSS3 ist ja zudem auch im Grunde etwas völlig anderes als DLSS vorher war mit der Frame-Generierung - das hätte man eben auch mit dem Gedanken entwickeln können, es auf älteren RTX-Karten verfügbar zu haben - aber das würde nVidia halt auch so überhaupt nciht ähnlich sehen.
Korben2206 schrieb:
das scheint mir aber nicht zu nvidia zu passen.
Das ganze ist mehr Verkaufs-Strategie, bzw. Kosten(Aufwand)/Nutzen, als wirklich eine Diskussion darüber, ob die Hardware das könnte. Genau das passt auch wunderbar zu nVidia.