Klever schrieb:
(das zur Frage, dass Karten durch "Tricks" nicht schneller werden, wie nennt sich dann ein hardwareseitig verbauter "Trick" in Form von Tensor-Kernen, die eine Seite verbaut hat und die andere nicht)
Nur das die Tensor-Kerne in dem Fall nicht der relevante Punkt sind - und auch nicht, dass diese asynchron ausgeführt werden können. Ich hab mir in letzter Zeit mal diese Sachen zu Gemüte geführt und ähnlich wie bei DLSS 1.0 kann DLSS2.0 theoretisch auch auf den Shadern bei annehmbarer Geschwindigkeit laufen.
Der Hauptimpact für die Leistung ist die - je nach Einstellung - teilweise drastisch reduzierte Pixel-Menge, die berechnet werden muss. Und gerade DLSS2.0 geht sogar von einem simplen KI-Upscaling ein Stückweit zurück, da die KI alleine eben nicht entsprechend gut agieren kann.
Es gibt und gab bereits vor DLSS 1.0 eine Reihe von sehr guten Algorithmen, mit denen man Bildern entsprechend von einer niedrigeren Auflösung in eine höhere Skalieren konnte. Jeder dieser Algorithmen hat dabei jedoch Vor- und Nachteile und benötigt auch unterschiedlich viel Zeit. NVIDIA hat bei DLSS 2.0 sich auf einige dieser Algorithmen - besser den Techniken dahinter - besonnen, darunter eine temporale Komponente - vorherige Bilder werden als Datenquelle genutzt - sowie das Teilschritte der Berechnung genutzt werden, die sich relativ einfach skalieren lassen.
Die jetzige DLSS-KI hat dabei gelernt aus diesen Teilschritten und den vorherigen Bildern nun das Endresultat zu bilden. Die KI-Komponente bei DLSS ersetzt dabei die aufwendigen und langsamen Algorithmen, die sonst zur Anwendung kommen müssten.
Und direkt vorweg, da ich deine weiteren Beiträge gelesen habe: Ja Tensor-Kerne kamen mit Volta, jedoch kann man Tensor-Operationen auch auf den Shadern ausführen und man kann hier sogar entsprechend den Code optimieren, dass die Vektor-ALUs entsprechend effizienter arbeiten, als unoptimierter Code.
Da DLSS auch nicht wirklich "asynchron" abläuft - da man das fertige Bild am Ende braucht um hoch zu skalieren, kann man DLSS auch über die Shader laufen lassen.
Um den Impact der Tensor-Kerne wirklich zu ermitteln, müsste man heute den Algorithmus einmal auf den SM laufen lassen und einmal eben auf den TCs, ist aber so nicht mehr wirklich möglich. Nur der Zuwachs an Performance ist recht gut vorhersehbar und liegt in dem Bereich, den man erwarten kann, wenn man sieht, welche Pixelmenge dann berechnet wird.
DrFreaK666 schrieb:
Man hätte es erwähnen müssen. Nvidia kann Nichts dafür dass AMD solch ein Feature noch nicht hat
Das Problem ist, dass DLSS so verschlossen ist, dass AMD es nicht mal nutzen könnte, wenn sie denn was ähnliches hätten.
So sehr ich DLSS mag, gerade die 2.0 zeigt echt gut, was möglich ist, wenn man klassiche Ansätze mit KI verschmilzt und die KI an den kritischen Punkten die Arbeit gibt, bei denen die klassischen Algorithmen viel zu langsam sind.
Würde NVIDIA irgendwann DLSS soweit öffnen, dass AMD und Intel quasi auch mit mischen können, wäre ich sofort und jetzt dafür DLSS mit in jede Standardwertung aufzunehmen, da es ohne solche Techniken oberhalb von 4K kaum mehr wirklich funktioniert.
GERmaximus schrieb:
Die 6800XT scheint sich auch immer weiter von der 3080 absetzen zu können. Mal sehen wie sich das mit echten nextgen entwickeln wird, wenn 16gb Vram auf 8 bzw. 10gb Vram treffen. Ich denke der Abstand wird weiter wachsen
Da ja Fidelity FX in das XBox SDK eingezogen ist und MS ja andeutet, dass XBox und "PC" zusammen wachsen, auch was die Entwicklung angeht, kann man sich zumindest sicher sein, dass für AMD Hardware nun wirklich mal optimiert wird und die Optimierungen einfach von XBox auf den PC ziehen können, ansonsten:
Man wird abwarten müssen. Die 8GB-VRAM könnten gerade in 4K schnell zu wenig werden, allgemein. Die 10 könnten noch reochen, aber man darf nicht vergessen: Die XBox hat auch nur 10GB für die GPU und 6 für alles andere.
Wichtiger ist hier: Wie wird sich DirectX Storage entwickelt und wie schnell wird das von den Spieleentwickler angenommen.
Dai6oro schrieb:
Sehr schön, dass beide Hersteller so nahe beieinander sind, wer hätte das letztes Jahr noch gedacht.
Na ja, dass AMD und NVIDIA sich ein Kopf-an-Kopf Rennen liefern, das habe ich vorletzten Jahr und letztes Jahr durchaus erwartet, als die ersten Gerüchte zu Ampere und NAVI kamen - 5120 ALUs gegen 5376. Nur wenn das Monster GA100 - mit seinen 128 SM - 8192 ALUs - ein Blick auf die GA102 gewesen wäre, wäre NVIDIA wirklich wieder ein Stück davon gewesen.
Als NVIDIA für Ampere die 84 * 128 angekündigt hatten und sagten, dass die RTX 3070 auf 2080 Ti Niveau landet, war ich einer der wenigen hier, die damals noch sagten, dass Navi sich mit der 3080 anlegt und mal schneller, mal schlechter sein wird. Als dann die ersten "Sneakpreviews" kamen, war ich auch einer der, die sagten: 3080 ist realistisch, eine 3090 möglich, auch wenn ich letzteres eher für unwahrscheinlich hielt.
Ein wenig Grundlagenwissen in Informatik und Mathematik und dazu ein wenig Erfahrung, und man kann Zahlen als auch Marketing-Sprech gut trennen und auch sehen, was kommt.
Fighter1993 schrieb:
Kenne auch Leute die mit ner 6800XT auf 4k gehen wollen.
Was theoretisch auch kein Problem ist.
Trefoil80 schrieb:
"Drehe die Auflösung runter, mache einen Matschfilter drüber, und fertig ist DLSS!"...
DLSS ist in Verson 2.0 kein wirklicher Matchfilter mehr, sondern eigentlich sehr gut.
Das primäre Problem ist hier nur, dass die KI eben gewisse "Berechnungen" übernimmt, die sehr Zeitaufwendig sind und da aus Erfahrung "schätzt", was aber in der Regel oft sehr gut geht.
Ich hab in letzter Zeit mal aus Spaß mich mit den üblichen Bildskalierungsalgorithmen beschäftigt, darunter auch die Super Sampling-Methoden und seit dem Verstehe ich recht gut, wie DLSS 2.0 funktioniert und warum es an gewissen Punkten schwächen hat, aber an anderen voll überzeugen kann.
Und genau so verstehe ich, warum NVIDIA hier diesen Schritt gegangen ist. DLSS ist nicht nur die Wundermechanik KI, sondern DLSS ist
flappes schrieb:
Ohje, geht das wieder los... wie hieß noch der andere der hier dauernd auf DLSS pocht? Ich habs schon verdrängt.
Ich poche auf DLSS! Aber nicht im Standardtest, sondern allgemein als Technologie, weil es spannnd ist, weil es zeigt, wie man KI und klassische Algorithmen und Techniken verbinden kann und damit die benötigte Rechenleistung reduziert.
Die klassischen Super Sampling-Ansätze kann man beim Rendern schon beschleunigen, weil viele Informationen während des Renders bereits vorliegen und man diese Schritte speicher kann - deswegen muss es ja auch in die Engine und die Spiele integriert werden, damit man am richtigen Punkt die richtigen Ergebnisse abgreift. Würde man Super Sampling für die Skalierung nach Oben klassisch ansetzten, müsste man erst über verschiedene Algorithmen bestimmte "Teilbilder" heraus rechnen und anhand dieser Daten dann das Bild skaliren - Kantenverläufe usw.
Ich denke, dass ich da sogar schon einen Verdacht habe, wie AMD an ihr FXSR geht, ohne dass sie Großartig auf KI setzen müssen und denoch gute Ergebnisse bekommen.
Gabro schrieb:
Ich befürchte das die 4090 das FPS-Problem nicht lösen wird.
Wird sie auch nicht wirklich, da das FPS-Problem von einigen Faktoren abhängt.
Gabro schrieb:
Ich glaube nicht das es an der Performance der Grafikkarten liegt, dass diese Spiele nicht über 60 FPS bleiben, sondern eher an der fehlenden Optimierung durch die Entwickler.
Viele Entwickler optimieren bereits so gut sie können, was ihre Engines angeht und auch ihre Spiele. Nur ist das Optimieren auf dem PC quasi unmöglich, da zu viele Faktoren die Performance beeinflussen.
Prozessoren, Mainboards, RAM, Grafikkarte, Festplatten, SSD, OS, Treiber und ggf. noch andere Software auf dem System.
Blackfirehawk schrieb:
Mit gleichen Einsatz hätte man aber auch aus klassischen Effekten noch einiges rausholen konnen.
Nein hätte man nicht und ich habe es sehr oft sehr ausführlich hier ausgeführt, wo das Problem der klassischen Effekte ist und warum wir an einem Punkt angekommen sind, in denen der Impact von RT-Effekten quasi genau so hoch ist, wie wenn wir die Effekte verbessern.
Und gerade Spiegelungen sind immer ein gutes Beispiel dafür: Für jede dynamische Reflexion muss man einen weiteren Screenspace/Renderspace aus der Perspektive der Fläche öffnen. Je nach Auflösung der Fläche muss man die ganze Szene nun erneut rendern, auch mit den Effekten und daraus dann die Textur erstellen. Jede Spiegelung verzögert dann das Rendern des eigentlichen Bildes.
Und klar, man kann Screenspace Reflections umsetzten, ist aber dann nur bedingt dynamisch und auch hier ist entscheidend wie viele Flächeln spiegeln.
Was man bei RT on-the-fly mit nimmt in der Rechenleistung später, muss hier immer gesondert berechnet werden.
Gleich verhält es sich mit Schatten und zum Beispiel nun mit SSAO. Wirklich "bessere" SSAO-Effekte benötigen immer mehr Leistung, weil man dann über immer mehr Tricks die Linien und Schatten besser nachzieht, was Zeit kostet. Eine weitere Annäherung an die Realität kostet vergleichsweise viel Ressourcen, weil man nun dann quasi das Bild noch mal "Rendert" um die Kanten bestmöglich zu bekommen usw.
Dazu kommt, dass Effekte wie Screenspace-Reflection, SSAO und Co immer komplexer in der Entwicklung werden und schwerer zu warten sind.
Bei einem "simplen" Pathtracer nimmt man die meisten Effekte on-the-fly mit, weil alleine die Raytracing-Methode viele dieser Effekte bereits beinhaltet.
Klar, man kann "ähnliche" Ergebnisse auch mit aktuellen Rasterizer erreichen, nur muss man dann entweder sehr viel vorberechnen und das Bild wird "statisch" oder man muss über Umwege gehen - Screen Space Reflections - die dann nur Annäherungen sind - oder man mindert drastisch die Qualität oder beschränkt sich massiv - richtige "Reflektionen".
Blackfirehawk schrieb:
Bei 95% der spiele ist der Effekt einfach Lachhaft im Vergleich zum performance drop.
Was zu großen Teilen daran liegt, dass die Effekte nachträglich in eine Engine eingepflegt werden, die dafür nicht ausgelegt sind.
Quake 2 RTX als auch Minecraft RTX sind volle Pathtracer und zeigen sehr gut, wie viele Effekte da On-the-Fly mit genommen werden und sowohl Minecraft RTX als auch Quake 2 RTX zeigen beide sehr gut, das der Impact von RT zwar durchaus vorhanden ist, aber es doch performanter geht.
Minecraft RTX ist von der Bildqualität durchaus mit den SEUS-Shadern vergleichbar, der Impact von den SEUS-Shadern ist dabei in Minecraft Java sehr groß, warum? Weil die Shader auf die Engine geplanscht werden, obwohl sie nicht dafür ausgelegt war. Minecraft RTX läuft bei gleicher grafischer Qualität besser als Minecraft Java mit SEUS-Shadern, auch wenn man über Optifine und Co Minecraft sich durchaus optimieren lässt.
Quake 2 RTX wiederum zeigt, dass man eine brauchbare Performance - auch ohne DLSS - bei allen Effekten bekommt. Gleichzeitig zeigt eine grafisch ähneliche Version, dass es schneller geht, aber alles statisch soweit vorberechnet werden muss, dass der Speicherbedarf um ein vielfaches steigt.
Wir befinden uns in einer Übergangszeit, bis die ersten wirklichen Pathtracer kommen, wird es noch einige Zeit dauern, vermutlich erst mit der nächsten Konsolengeneration, nur dann spielt der Impact quasi keine Rolle mehr, weil die Hardware damit umgehen kann und die Engine von Anfang an darauf ausgelegt ist.