Taurus104 schrieb:
Dann hätte ich auch bitte das DLSS3 und Frame Generation auf AMD GPUs laufen.
Das läuft auch auf AMDs GPUs- Nur bist Du dann halt mit Deinen Frameraten teils erheblich schlechter dran, als wenn Du das nativ machen würdest.
Deswegen ist es auch komplett Sinnlos ein Verfahren, welches auf brachiale DEDIZIERTE Rechenkraft von gesonderten und teils nochmal spezialisiert verschalteten Rechenblöcken setzt, dann von einer Karte, die Nativ am Limit mit ihren Standardrechenwerken arbeitet, für solch ein Konstrukt zu portieren oder veröffentlichen.
Wenn ich nvidia gewesen wäre, dann hätte ich schon nicht die Zeit darin verschwendet, Software DXR auf Pascal- Karten zuzulassen, weil es aus den gleichen Gründen eben nichts bringt.
Diejenigen, die hier immer von proprietärem Mist reden verdrängen vollständig, dass dies meist Hardwaregekoppelte, neue Features ohne bestehenden Standard waren, für die eine Softwareschnittstelle geschaffen wurde.
Da ist es eben auch völlig schnurz, ob open source oder nicht, weil der Konkurrent auch mit der Source seine Hardware nicht bedienen könnte.
Es gibt bei den Grafikkartenherstellern nicht sowas wie ein Gremium, welches einvernehmlich die Fahrtrichtung der Hardware bestimmt und was als nächstes von allen implementiert werden muss.
Die Hardware ist und bleibt immer proprietär. Bei nvidia und bei AMD. Und ebenso wird immer ein Teil der Software proprietär bleiben (müssen).
Fast sollte man nvidia raten, DLSS3 auf allen Karten freizugeben. Nur um den Leuten mal zu zeigen, was für eine unsägliche Ressourcen, Geld und Energieverschwendung das dann gewesen ist, weils eben inakzeptabel läuft.
Und wer glaubt, dass AMD nicht sofort eine FSR3 FG auf den Markt werfen könnte, der irrt.
AMD hat nur einfach einen Zielkonflikt bezüglich der Ressourcen auf ihren Karten zu lösen, der aber ohne dedizierte Einheiten schier unlösbar erscheint.
Da deren Einheiten und Pipelines bereits mit Raster, RT und FSR bis zum Brechen gefüllt sind, muss die Rechenkapazität für eine Flow basierte Frame- Generation irgendwo zusätzlich herkommen.
Geht diese zu Lasten der Standardberechnungen bzw. opfert man die Rechenzeit dadurch, dass man noch weniger Samples bei FSR analysiert, wird das Bild tatsächlich irgendwann zu schrottig, oder man potenziert den Stutter, so dass es die zusätzlichen Frames, die man rausquetscht nicht Wert ist.
nvidia stellt für derlei Operationen zusätzlich! auf seinen Karten, ja zusätzlich, ab einer 4080 z.B. 190 TFLOPS zur Verfügung (Tensor FP16) bzw. eine fixed function Hardware, die das beschleunigt, OHNE die übrigen Einheiten zu belasten.
Diese aberwitzige Rechenleistung ist von AMD nur über seine Standardrechenwerke, die auch noch andere Aufgaben darüber abwickeln müssen, also nicht dediziert, auf (immernoch starke) 113 TFLOPS beschränkt.
Nur muss sich die Karte bei AMD umd diese 113 TFLOPS mit allen Gewerken/Einheiten schlagen. Raster, FSR und Frame- Generation.
Ich seh hier schon wieder den Traum einiger zerplatzen, die sich mit einer 1080TI oder einer kleineren AMD Karte ausmalen, wie sich deren Frameraten sich mit FSR3 dann nicht explosionsartig in die Höhe bewegen werden.
Das wird mal wieder lange Gesichter geben, wenn herauskommt, dass das eben auch nur für einen kleinen Bruchteil verfügbarer Hardware auch wirklich akzeptabel funktioniert.
Von nichts kommt nichts. Und kochen tun sie alle nur mit Wasser.