Teralios schrieb:
Muss nicht zwingnd sein, dass DLSS dann tot ist, wir könnten auch sehen, dass NVIDIA und AMD dann ggf. an einem gemeinsamen "Standard" arbeiten. *Ich werde ja wohl noch träumen dürfen.
Die Lösung von AMD ist ein gemeinsamer Standard und sie funktioniert auch auf Konsolen. Ist die Qualität bzw. Performance vergleichbar, so werden alle Spiele diese Lösung auf Grund der Konsolen unterstützen und dann 1:1 auf den PC portiert werden.
Nvidia wird dann einfach auch den offenen Standard unterstützen.
Nein, NVIDIA schafft die DLSS 2.0 Qualität nicht, weil sie extra Tensor-Cores haben. DLSS1.0 lief ja über die Shader und auch DLSS2.0 kann man über die Shader laufen lassen.
Ja und die Qualität und Performance von DLSS 1.0 war auch genau auf dem Level, den man von einer shaderbasierten Lösung erwarten kann, was wohl auch der Grund ist, warum dies nicht schon viel früher jemand probiert hat.
Die DLSS2.0 Qualität schafft NVIDIA, weil DLSS nicht mehr rein auf Deepl Learning basiert, sondern nun auch klassische Upscaleing-Algoritmen hinzu gezogen werden, die auf verschiedenen Ansätzen - temporale Ansätze, Subrendering usw - aufbauen.
Mag sein, dass dies auch einen Einfluss hat aber abgesehen von den optischen Verbesserungen gab es in erster Linie Verbesserungen bei der Performance. DLSS 1.0 hat mit der Renderingauflösung des Performance Mode gearbeitet. DLSS 2.0 schafft beim Quality Mode dieselbe Framerate.
Nicht nur dass die Tensor Kerne schneller sind: Sie machen das parallel zu den Shadern und beieinflussen deren Leistung kaum.
Die KI ist dann zwar immer noch wichtiger Bestandteil, aber nicht mehr allein.
Interessant zu wissen aber ich denke einmal der Hauptvorteil daraus war eher, dass man nun mit dem generischen Modell durchkommt.
Man muss ja nicht unbedingt auf Deep Learning aufsetzen, es gibt da ja einige interessante Verfahren für, de auch sehr gut greifen und durch das herauslassen von DL, kann das Ergebnis sogar vohersehbarer werden.
Es gibt eine Menge Verfahren, die wirklich hervorragende Ergebnisse produzieren. Die Frage davon ist welche performant genug sind um dies bei 4K und 100fps immer noch schaffen ohne mehr als 10-20% der GPU Ressourcen zu verbrauchen.
Und warum sollte Sie? die Titel, die aktuell DLSS1.0 und 2.x unterstützen kann man immer noch gefühlt an 2 Händen abzählen.
Die meisten Spiele unterstützen es nicht, weil sie so alt sind, dass DLSS 2.0 noch kein Thema war als sie entwickelt wurden und die entsprechenden Entscheidungen getroffen wurden. Mittlerweile wird ein großer Teil der neuen AAA Titel unterstützt. Die kleineren Titel sind derzeit noch nicht so performancehungrig dass es notwendig wäre und werden wohl in Zukunft mit dem Unreal Engine Plugin DLSS haben und wenn bereits die kleinen Titel DLSS unterstützen werden es die großen auch bald tun müssen. Das ist wie mit TAA. Da sieht man heute auch nicht mehr viele Spiele, die es nicht unterstützen.
Klar, es kommt jetzt als Plugin in die UT, was helfen wird, nur muss man hier als Spieleentwickler immer noch einiges an Aufwand betreiben.
Mag sein aber der Performancegewinn ist auch riesig und man kann sich damit auch diverse Performanceoptimierungen an anderen Stellen sparen bzw. kann viele Effekte in der Form gar nicht bringen.
Es wird NVIDIA helfen, am Ende müssen wir alle uns aber überlegen, ob wir als Spieler wirklich diesen Properitären ansatz wirklich gut finden wollen.
Es gibt viele Dinge, die ich an Nvidia nicht gut finde z.B. woe sie alle ihre Geschäftspartner und Kunden behandeln aber trotzdem werde ich am Schluss rational sein und die Karte mit dem besten Preis/Leistungsverhältnis kaufen ganz egal wie sympatisch mir der Hersteller ist.
Und das hoffe ich auch irgendwie bei DLSS, dass wir hier von MS und Co eventuell etwas unabhängies bekommen.
Dass wir etwas bekommen steht ja schon fest (angeblich schon im Frühling). Die Frage ist nur wie brauchbar dieses etwas sein wird.
Na ja ... Optimieren tuen sie alle, nur sollte einige langam verstehen, dass gewisse Sachen einfach nicht weiter optimiert werden können.
Wer Super-duper-Hyper-Grafik will, muss eben damit leben dass die Spiele immer Größer werden usw.
Zu einem gewissen Teil hast du hier Recht. In vielen Fällen hat es aber auch einfach finanzielle Gründe. Da wird eine Menge Zeit und Geld rein gesteckt um ein Spiel auf 7 Jahre alten Konsolenkrücken zum Laufen zu bringen, weil es einfach notwendig ist. Und dann wird ein halbherziger PC Port nachgeschmissen, der trotz deutlich mehr Rohleistung auch nicht mehr Performance hat, weil es beim PC einfach nicht notwendig ist, da die Leistung ja sowieso da ist und man teilweise die schlechte Performance sogar als Marketing nutzt, weil es jeder als Benchmark benutzt.
Sind wir uns mal ehrlich: Wieviele Benchmarks sieht man von Cyberpunk und wieviele von Fortnite?