KlaraElfer schrieb:
Aber ist die Bildqualität in der nativen Auflösung mit den jeweiligen Glättungsverfahren wie beispielsweise TAA nicht auch schwankend? Du vergisst für mich an der Stelle den riesigen Performancevorteil.
… Ganz ehrlich: »Gnagh!«.
Ich vergesse da gar nichts, weil es nicht das Thema der Diskussion war, auf das ich eingegangen bin. Um die Preformance ging es nicht, sondern um die Bildqualität und dass DLSS mal wieder als »Trickserei« oder eben als »Mogeln« bezeichnet wird, was es aber nicht ist.
Des weiteren habe ich hier als auch in einem anderen Thema geschrieben, dass DLSS für mich eines der interessantesten Features der letzten Jahre ist, gerade auch bei der Entwicklung, die es hingelegt hat.
DLSS zeigt auf der einen Seite wunderbar die Limitierung von Deep Learning, gleichzeitig zeigt es seit version 2.0 auch dessen stärken.
Deep Learning kann keine guten Algorithmen ersetzen, DL kann aber gute Algorithmen beschleunigen bei solch komplexen Themen.
KlaraElfer schrieb:
Zu DLSS 1.0 sind das Welten, vielleicht mit Ausnahme von FinalFantasy.
Erzähl mir bitte etwas, was ich nicht bereits in einem Diskussionsthema zu DLSS geschrieben habe. Ich hasse es, wenn Leute meinen versuchen mir etwas zu erklären, was ich bereits weiß und was ich merhfach auch angesprochen habe.
KlaraElfer schrieb:
Sehe ich auch anders, da man durch Auflösung an sich kaum mehr an BQ hinzugewinnen kann.
Deshalb habe ich mich seitdem, wo Deep Learning Super Sampling aufkam, sofort für einen WQHD Bildschirm mit entsprechend hohen Hertzzahlen entschieden und sehe keinen Grund mehr höhere Auflösungen zu fahren.
Das ist ja das Schöne an DLSS, dass es die Bildqualität bei gleicher Auflösung oder etwas geringere Auflösung sogar erhöhen kann, weil gewisse Strukturen, die vorher durch den Rasterziger gefallen sind, wieder rekonstruiert werden usw.
KlaraElfer schrieb:
Auflösung ist für mich momentan ein wenig der Fortschrittkiller was Fotorealistische Grafik anbelangt.
Für dich, für mich auch. Ich mag meinen 1440P-Monitor total. Aber ich kenne genug Leute, die es anders sehen.
KlaraElfer schrieb:
Aber dafür ist doch das Forum auch da, ansonsten könnten wir die Kommentarfunktion doch auch deaktivieren, wenn jeder über alles informiert wäre.
Das Problem ist aktuell, dass die Leute immer nur Schlagzeilen lesen und dann einfach ihre Gedanken heraus plärren und damit oft dann auch Halbwahrheiten bis Unwahrheiten verbreiten, was in 90% der Fälle unnötig wäre, wenn man einmal ein Artikel vollständig liest und sich auch mal mit einem Thema beschäftigt.
Wenn ich von etwas keine Ahnung habe, dann lese ich mir einen Artikel durch und wenn ich meine etwas zu kommentieren, dann schreibe ich sehr klar dazu, dass ich mir nicht sicher bin und ich gerne mehr wissen will, statt mein Halbwissen als Tatsache hinzustellen und wenn mir letzteres doch mal passiert, dann bin ich über jeden froh, der mein Wissensschatz vermehrt, statt das ich an meinem Halbwissen festhalten.
Kacha schrieb:
AMD nutzt ihre Shader schon dynamisch, oder? Das war mein letzter Stand.
AMD hat mit GCN eine relativ flexible CU gestaltet. Zwar hat eine CU nominell 64-ALUs, aber die haben sich von Anfang an in 4 * Vec16 geteilt. Jede Vec16 wird bei GCN über einen Wave16-Befehl angesprochen. So konnte bereits von Anfang an jede Vec16 Alu eine eigene Operation mit einem eigenen Datentyp durchführen.
Als Beispiel: 1. Vec16 hat 16 FP32-Werte berechnet, die 2. Vec16 hat 16 INT32-Werte berechnet, die 3. Vec16 dann zum Beispiel 32 FP16 usw. (FP16 Support usw. kam später dazu.) Mit der Zeit hat AMD, um die Auslastung zu erhöhen die CU versucht "kontextlos" zu gestalten - vergrößert die ALU ein wenig - um auch Mixed Wave16-Befehle zu ermöglichen. Bei einer Vec16/Vec32 ist es also nicht mehr notwendig, dass sie nur "FP" oder nur "INT" berechnet, sondern dass man, solange es die selbe Operation ist, unterschiedliche Datenformate verrechnen kann.
AMDs CU sind, wenn man es so will, wahre flexible Monster, die während der GCN Zeit jedoch 4 Threads pro CU benötigten, damit die CU ganz ausgelastet wird. Seit RDNA ist das Monster ein wenig gezähmt worden, in demm nun nicht mehr theoretisch 4 unterschiedliche Operationen in der CU laufen, sondern nur noch derer 2. Aber was Datenformate angeht. …
GCN als auch RDNA sind da sehr nahe an den AVX-FPUs moderner Prozessoren, die zum Beispiel auch eine Operation auf einen Vektor anwenden und im Vektor werden verschiedene Datentypen verpackt.