News Preview zu FSR 4: AMDs KI-Upsampling überrascht mit sehr gutem Ersteindruck

ElliotAlderson schrieb:
Funfact: die Bildqualität steigt. Nativ müsste man an anderen Stellen Abstriche machen und das reduziert deine Grafikquali ebenfalls.
funfact: wenn man irgendwo das wort fact davor schreibt, macht es das noch lange nicht zu einem.

die bildqualität steigt ist so pauschal schlicht falsch - es gibt games und engines da funktioniert das verfahren recht gut und es gibt fälle da ist es grausig.
und nur weil ich keine perfekte lösung für ein problem an der hand habe, heißt das nicht dass ich die vermeintliche lösung nicht kritisieren kann.
Ergänzung ()

ElliotAlderson schrieb:
Ja und vor 100 Jahren sind wir noch mit Kutschen gefahren. Was ist das denn für ein Argument? Die Technik hat sich weiterentwickelt und das Renderingverfahren verändert.
eben nicht. das ist ja das traurige..in den letzten 10-15 jahren hat sich die technik eben nicht grundlegend verändert oder gar verbessert - das ist ja der knackpunkt.
schaut man sich games in den ersten jahren seit taa genutzt wurde, stellt man fest das es absolut die gleichen schwächen vorweist wie die games welche es nun nutzen, nur dass ich jetzt nichteinmal die option habe es zu deaktivieren...
 
Taxxor schrieb:
Funktioniert halt nur, wenns ne Alternative gäbe, die nicht Verzicht heißt.

Ich mag es auch nicht, arbeiten gehen zu müssen, aber weil ich Geld brauche, will ich die Alternative halt noch weniger^^
Das ist dann aber in 95% der Fälle Consoomer-haben-wollen und nicht brauchen. Wer seine GPU für die Arbeit zur Berechnung braucht, immer raus mit der Kohle. Wer einfach immer das Beste und Teuerste im PC haben will auch gerne, aber dann jammer halt nicht über Features, die einer GPU fehlen, die du eh nicht kaufst. Als wäre hier jemand zur 4090 gezwungen worden, nur wegen irgend einem überlebenswichtigen Feature.

Das erinnert ein wenig an die Pustblumen, die bei allem unter 4k @ 120 fps in Augenkrämpfe abrutschen. Aber es gibt halt Menschen die verbringen Ihr PC Gaming mit benchmarken statt zu spielen.

Und ich will gar nicht abstreiten, dass Nvidia oft das bessere Featureset oder die effizientere GPU abgeliefert hat. Dennoch ist das immer auch eine Frage der persönlichen Priorisierung. Für viele ist Nvidia das Safe Bet und die Leute kaufen auch bei objektiv schlechterem Preis-Leistungsverhältnis eine NV GPU. Genau deshalb kann NV den Leuten auch ne Karte verkaufen die 2025 immernoch nur 12GB hat. Es wird dann gejammert und trotzdem gekauft. Dann wird wieder das Märchen vom schlechten AMD Treiber rausgekramt, ohne jemals selbst eine AMD Karte besessen zu haben.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
cypeak schrieb:
die bildqualität steigt ist so pauschal schlicht falsch - es gibt games und engines da funktioniert das verfahren recht gut und es gibt fälle da ist es grausig.
und nur weil ich keine perfekte lösung für ein problem an der hand habe, heißt das nicht dass ich die vermeintliche lösung nicht kritisieren kann.
Du verstehst es nicht. Die Bildqualität steigt, weil durch DLSS mehr Ressourcen/Leistung vorhanden sind, die genutzt werden können.
Mit DLSS und FG können deine FPS verdreifacht werden. Ohne diese Techniken musst du dir irgendwo die Leistung herholen oder gibst du dich mit 30 FPS zufrieden? Ich denke nicht.
Und das endet dann in weniger detailreiche Objekte, simplere Shader oder eben weniger.

cypeak schrieb:
eben nicht. das ist ja das traurige..in den letzten 10-15 jahren hat sich die technik eben nicht grundlegend verändert oder gar verbessert - das ist ja der knackpunkt.
Bitte was? RT/PT, PBR, DLSS und FG hatten wir vor 10 Jahren noch nicht.
Früher war Forward Rendering der Standard und heute nutzt man eher Deferred: https://dev.epicgames.com/documenta...ine/forward-shading-renderer-in-unreal-engine

Mit Forward sind z.B. keine SSR möglich, aber dafür MSAA. Letzteres beist sich aber mir Deferred Rendering.

cypeak schrieb:
eben nicht. das ist ja das traurige..in den letzten 10-15 jahren hat sich die technik eben nicht grundlegend verändert oder gar verbessert - das ist ja der knackpunkt.
schaut man sich games in den ersten jahren seit taa genutzt wurde, stellt man fest das es absolut die gleichen schwächen vorweist wie die games welche es nun nutzen, nur dass ich jetzt nichteinmal die option habe es zu deaktivieren...
Die Technik hat sich nicht verbessert, weil es noch die gleiche Schwäche hat? Ist das dein Ernst?
Verbesserung heißt nicht, dass Probleme komplett verschwinden. Eine Abschwächung der Probleme ist ebenfalls eine Verbesserung.

Das ist auch das Problem in diesem Forum. Es muss immer alles perfekt sein, sonst wird es kritisiert oder abgelehnt, aber die alte Technik, die ebenfalls voller Fehler ist, die will man haben. Ergibt absolut keinen Sinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Powl_0, RushSyks und eine weitere Person
ElliotAlderson schrieb:
Bei Spielen ist alles ein Kompromiss.
Die ganze 3d-Grafik per Rasterizer ist bereits ein grundlegender Kompromiss. Polygone anhand eines Raster in Pixel wandeln, dann für den Pixel das richtige Texel und früher wurde das ganze star mit Light/Shadow-Maps versehen.

Alles ist seit dem, dass man sich von dem ultra staren Kompromiss löst, damit die Grafik "dynmaischer" wird. Seit DX8 und erst recht mit DX9 wurde die Renderpipeline zudem gehörig aufgemischt.
ElliotAlderson schrieb:
MSAA erzeugt ein super Bild, frisst aber Performance ohne Ende. 8x kann dir die FPS gerne mal halbieren.
Ja und Nein, einer der Gründe, warum heute kaum noch oder kein MSAA genutzt wird, hat mit der Renderpipeline zutun.

MSAA war eine super Alternative zu SSAA im DirectX 6 - 8 und Anfangs auch im DirectX 9 Zeitalter, weil die Renderpipeline noch relativ star war und das Rastern "spät" genug statt fand, dass die meisten Kanten - außer es waren Texturen - mitgenommen wurden.

Mit DirectX 10 und ebenso DirectX 11 und den Funktionen der Spectular-Maps, Tesselation und Co, ist die Pipeline immer komplexer geworden und die finalen Kanten sind teilweise beim Rastern noch garnicht bekannt.
ElliotAlderson schrieb:
Da das Licht nicht mehr prebaked ist, kann du die Umgebung theoretisch komplett zerstören, ohne fehlerhafte Schattierungen zu erzeugen.
Da muss man aber dazu schreiben, dass die Licht- und Schattenberechnung auch bei vielen "klassischen" Rasterizer-Engines heute nicht mehr prebaked sind, sondern dynmaisch berechnet werden.

Vorberechnete Light- und Shadow-Maps kennt man in der Form primär aus der prä-DirectX 9-Ära. Mit dem aufkommen der Vertex- und Pixelshader unter DirectX 8, wurde die Beleuchtung nach und nach dynamischer. Das Problem ist dabei nur, dass moderne Rasterizer-Beleuchtung mit jeder dazu kommende Lichtquelle immer komplexer wird und auch mehr Rechenleistung benötigt, wodurch man entsprechend auf allzuviele dynmaische Lichtquellen verzichtet.

Auch die "Globalebeleuchtung" gibt es bei Rasterizer-Engines, nur auch hier: Je mehr Lichtquellen vorhanden sind, um so komplexer wird es und auch Fehleranfällig.

Weil man aber "mehr" Lichtquellen haben will, wird heute zum "sparen" von Rechenleistung, die Beleuchtung nicht mehr mit jedem Frame aktualisiert, sondern teilweise in zeitlichen Abständen, was man dann auch merkt.

PT hat hier den Vorteil, dass quasi bleiblig viele Lichtquellen ermöglicht, ohne dass die Kosten als auch die Komplexität explodiert.
cypeak schrieb:
das ist so schlicht falsch; natürlich verzichtet man auf buidqualität, denn die leistung ist hier der treibende faktor.
Fakt ist, dass ihr beide sowohl recht als auch unrecht habt.

Das schöne an Upscalern ist, dass sie durch die temporale Komponente, teilweise wesentlich mehr Daten haben können, als wenn ein Bild "nativ" berechnet wird und dazu kommt sogar, dass durch die temporale Komponente Details sichtbar sind, die beim Rasterizer sonst untergehen.

Natürlich kann es durch die Artefakte auch Nachteile geben, aber ebenso vorteile. Die Wahrheit ist hier also mehr ein Grau als ein Schwarz oder weiß. ;)
 
  • Gefällt mir
Reaktionen: Ghostfacekalle, Powl_0, msv und 2 andere
DevPandi schrieb:
Da muss man aber dazu schreiben, dass die Licht- und Schattenberechnung auch bei vielen "klassischen" Rasterizer-Engines heute nicht mehr prebaked sind, sondern dynmaisch berechnet werden.
Echt? Welche denn und wie wir das dynamisch berechnet, wenn nicht mittels RT?

DevPandi schrieb:
Auch die "Globalebeleuchtung" gibt es bei Rasterizer-Engines, nur auch hier: Je mehr Lichtquellen vorhanden sind, um so komplexer wird es und auch Fehleranfällig.
Ja, die ist aber vorberechnet. Enlighten wäre ein Beispiel für GI und wenn du dort z.B. die Geometrie des Levels änderst, passen sich die Schatten nicht automatisch an. Das muss wieder berechnet werden.

Das mag bei statischer Geometrie funktionieren, aber mit dynamischer schon nicht mehr. Jedenfalls ist mir dahingehend nichts bekannt.

DevPandi schrieb:
Fakt ist, dass ihr beide sowohl recht als auch unrecht habt.

Das schöne an Upscalern ist, dass sie durch die temporale Komponente, teilweise wesentlich mehr Daten haben können, als wenn ein Bild "nativ" berechnet wird und dazu kommt sogar, dass durch die temporale Komponente Details sichtbar sind, die beim Rasterizer sonst untergehen.
Ich wollte darauf hinaus, dass DLSS mir mehr FPS liefert, was vom Entwickler genutzt werden kann um noch detailierte Level und Objekte zu nutzen. Also steigt die Bildqualität durch DLSS immer, auch wenn DLSS da nicht unbedingt aktiv drauf Einfluss nimmt, kann es passiv genutzt werden.
 
Zuletzt bearbeitet:
rorian schrieb:
Das ist dann aber in 95% der Fälle Consoomer-haben-wollen und nicht brauchen. Wer seine GPU für die Arbeit zur Berechnung braucht, immer raus mit der Kohle. Wer einfach immer das Beste und Teuerste im PC haben will auch gerne, aber dann jammer halt nicht über Features, die einer GPU fehlen, die du eh nicht kaufst. Als wäre hier jemand zur 4090 gezwungen worden, nur wegen irgend einem überlebenswichtigen Feature.
Ich weiß nicht, wo du hier "jammern" siehst. Es ist einfach nüchterne Kritik, die kann man auch äußern, wenn man selbst nicht davon betroffen ist.


rorian schrieb:
Für viele ist Nvidia das Safe Bet und die Leute kaufen auch bei objektiv schlechterem Preis-Leistungsverhältnis eine NV GPU.
Ein objektiv schlechteres Preis-Leistungsverhältnis gibts schon mal gar nicht, da jeder für sich persönlich die gewünschten Leistungen bewertet.
Möchte ich z.B. unbedingt die Qualität von DLSS als Upscaler haben weil mir FSR nicht gut genug ist, kann die GPU imGrunde kosten was sie will, das P/L Verhältnis wird für meine Anforderung nie schlechter sein als bei einer AMD Karte.
 
Apocalypse schrieb:
Kann ich jetzt nicht bestätigen, 600€ 4070super aus der Schnäppchenecke scheint doch eigentlich auch mit PT gut genug zu laufen für QHD zumindest.
Die ist jetzt zugeben relativ neu, aber in der next Gen könnte das auch so gerade ausgehen.

Und natürlich gilt, das wenn es für PT genug ist, dann reichts für ein wenig RT natürlich spielend.

RT läuft auch auf meiner 7900XT Pulse flüssig, aber eben doch mit sattem FPS-Verlust. Ich schalte es nicht ein weil RT-Grafik in keinem Verhältnis dazu steht. In vielen Games fällt RT/PT kaum bis gar nicht auf, man hat aber erheblich weiger FPS und mehr Stromverbrauch. Sobald sich das ändert und die Karten RT mit annehmbaren FPS stemmen können, werd ich es sicher auch mal nutzen.
 
@Tommy64 Kannst du hier auch nur schwer mit Nvidia vergleichen, AMD hat fast nix an Chipfläche für das Zeug exklusive am Die. Bei Nvidia langweilen sich die RT einheiten natürlich bei Rastergrafik, dafür Stemmen die dann auch den großteil der RT Last.

Bei AMD sind dann stattdessen viele der Einheiten die sonst Raster machen plötzlich mit RT beschäftig, also genau das umgekehrte Problem zu Nvidia. Deswegen ist AMD j generell in Raster solide bis stark und je mehr RT Last, desto mehr bricht die Performance dann ein. PT kostet natürlich dann trotzdem Leistung, aber eben nicht so krass viel wie bei AMD.

Ergebnis, ne 4070super kann das schon gut spielbar auf die Reihe bekommen, eine 7900xtx nicht. Dafür sind die AMD Chips halt bei Rastergrafik stark, und gerade unter 600€ ist das imho auch wichtiger. Mal schauen ob das diese Generation auch so bleibt, wahrscheinlich.

https://www.computerbase.de/2023-10...l_hd_wqhd_und_ultra_hd_mit_pathtracing_update

https://www.computerbase.de/2023-10/nvidia-dlss-3-5-test/2/
 
Holgmann75 schrieb:
Grad bei PT bin ich gespannt, wie es da mit RDNA 4 aussieht.
Also wird man es überhaupt nutzen können?
Mit der rt Leistung entscheidet sich bei mir auch ob ich mir eine hole. Nur bischen besser rt gegenüber 7900xt wäre mir zu wenig.
 
  • Gefällt mir
Reaktionen: Apocalypse und Holgmann75
cypeak schrieb:
"profitieren" kann man nur wenn die höhere auflösung auch entsprechend für bildqualität und den detailgrad ausgenutzt wird
Wenn intern ~1440p gerendert wird und auf UHD upscaled, dann hat das Ausgabebild mehr Information als natives 1440p. Also profitiert man dann bereits von einem UHD Panel, auch wenn man das Potenzial nicht voll ausschöpft.
Ergänzung ()

cypeak schrieb:
vor 2013 kam man auch ohne taa
Nun vergleiche den Detailgrad damaliger Spiele mit heute. MSAA kommt zB nicht mit Transparenz klar, damals sahen dann fast alle Spiele mit viel feiner Vegetation grieselig aus. Hat halt nicht gestört, als Vegetation und Transparenzen nur auf wenige und klobige Polygone verteilt waren.

Die grundlegenden Rendering Techniken haben sich industrieweit verändert. Mit Umstieg auf deferred rendering war MSAA komplett inkompatibel, deshalb kam auch TAA stark auf.
Ohne deferred schafft man nicht ansatzweise so viel Dynamik in der Beleuchtung wie in modernen Spielen, deshalb sind auch alle darauf umgestiegen.

Temporales AA macht auch Sinn, da die Auflösungen heute so hoch sind und die Details oft so klein, dass du sonst enormes schimmern und glitzern im Bild hast, sobald Details kleiner als die Pixelgröße werden.
Das Bild ist ohne TAA in Bewegung stark sichtbar instabil.

TAA an sich hat sich in den Jahren auch stark verbessert. Erste Implementierungen haben viel stärker geschmiert oder ghosted als einige Jahre später. DLSS und FSR haben das nochmal auf ein besseres Niveau gehoben. So langsam nähern sich diese Verfahren also einer Qualität, die tatsächlich konsistent die Schärfe von nativem Rendering schaffen, dabei aber in Bewegung stabil bleiben, und dabei sogar gleichzeitig noch spürbar schneller laufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ghostfacekalle, ElliotAlderson und Apocalypse
ElliotAlderson schrieb:
Du verstehst es nicht. Die Bildqualität steigt, weil durch DLSS mehr Ressourcen/Leistung vorhanden sind, die genutzt werden können.
nein.
leistung und bildqualität sind zwei paar schuhe.
ElliotAlderson schrieb:
Bitte was? RT/PT, PBR, DLSS und FG hatten wir vor 10 Jahren noch nicht.
davon spreche ich nicht. und dlss ist schonmal keine "errungenschaft" in dieser kategorie.
schlechte visuals verden auch mit raytracing nicht plötzlich hübsch - oder hat man schon vergessen wie die ersten gehversuche mit raytracing waren, als man es an vorhandene games drangeklatscht hat? und selbst heute verzichten viele titel bewusst auf rt oder verwenden andere beleuchtungsmodelle.
es gibt ganze subreddits und foren welche sich genau damit beschäftigen dass games heute wesentlich höhere anforderungen haben, ohne dass die visuelle qualität sich merklich verbessert hätte..
ElliotAlderson schrieb:
Die Technik hat sich nicht verbessert, weil es noch die gleiche Schwäche hat? Ist das dein Ernst?
ja, das ist mein ernst; wenn man über 10 jahre lang die gleiche leier fährt, diese dann sogar mandatory macht und exakt die gleichen probleme wie aus den anfangsjahren des taa zu kaschieren versucht, dann weiß ich nicht wie ich das anderes bezeichen soll...
ElliotAlderson schrieb:
Das ist auch das Problem in diesem Forum. Es muss immer alles perfekt sein, sonst wird es kritisiert oder abgelehnt, aber die alte Technik, die ebenfalls voller Fehler ist, die will man haben. Ergibt absolut keinen Sinn.
das ist ziemlich übertrieben.
wenn du meine beiträge gelesen hättest, würdest du sehen dass ich durchaus die positiven effekte von dlss/fsr und konsorten würdige und schätze und das tun viele andere auch. wenn ich so etwas wie (m)fg kritisiere, heißt das nicht das alles was dlss mitgebracht hat schlecht ist.

ich habe nur ein problem damit wenn leute in so einem fachforum einfach unkritisch narrative übernehmen und so marketinggläubig sind wie ich das bisher noch nie erlebt habe - ich mag zwar durchaus nvidias produkte, aber ich werde nicht von denen bezahlt um alles was aus deren pr ecke kommt vorbehaltlos zu hinzunehmen, den nvidia hat nvidias interessen im fokus und nicht meine. das gilt auch für alle anderen hersteller.

genausowenig bin ich der hypes leidig - nun ist es ki welche uns alle in eine glorreiche zukunft führen wird.
wenn ich z.b. lese dass rasterizing tot ist und ki-techniken als zukunft gelobt werden, dann frage ich mich schlicht ob die leute grundsätzlich verstehen wie rendering funktioniert und was überhaupt voraussetzungen sind damit so etwas wie dlss effektiv arbeiten kann.
Ergänzung ()

Powl_0 schrieb:
Wenn intern ~1440p gerendert wird und auf UHD upscaled, dann hat das Ausgabebild mehr Information als natives 1440p. Also profitiert man dann bereits von einem UHD Panel, auch wenn man das Potenzial nicht voll ausschöpft.
und die details kommen dann woher? sie werden doch nicht aus dem luftleeren raum in die bildinformation eingefügt, sondern bisher hauptsächlich durch ml-algorithmen rekonstruiert. und rekonstruktion heisst aus den vorhandenen informationen werden die fehlenden informationen eränzt - im dem fall von (vereinfacht gesagt) relativ komplexen angelernten mustern.
Powl_0 schrieb:
TAA an sich hat sich in den Jahren auch stark verbessert. Erste Implementierungen haben viel stärker geschmiert oder ghosted als einige Jahre später. DLSS und FSR haben das nochmal auf ein besseres Niveau gehoben. So langsam nähern sich diese Verfahren also einer Qualität, die tatsächlich konsistent die Schärfe von nativem Rendering schaffen, dabei aber in Bewegung stabil bleiben, und dabei sogar gleichzeitig noch spürbar schneller laufen.
das was dlss/fsr besser können, ist das verarbeiten der temporalen komponente um das flimmern zu eliminieren - also im grunde das was nvidia mit dlaa bezeichnet.
das ist das eine. das andere ist der performance zugewinn, indem intern mit niedrigerer auflösung gerendert wird und dann eine bildrekonstruktion stattfindet um fehlende details zu ergänzen oder unschärfen nachzubessern.
 
Zuletzt bearbeitet:
Turrican101 schrieb:
Jo und das wird halt erstmal nVidia-Technik unterstützen. AMD kommt dann irgendwann später. So wie bei CP2077, wo FSR3 mehr als 1,5 Jahre nach DLSS3 integriert wurde. Das sehe ich halt auch noch als Hauptproblem bei AMD. Ne Karte, die in der Theorie toll ist bringt mir dann in der Praxis eben weniger, wenns keiner unterstützt. Oder erst viel später.
Hier ist das Porblem nur das NV Geld gezahlt hat. Schließlich war CP ein "Techdemo"-Partner.
Sprich das mit den 1,5 Jahren war absicht.
 
DevPandi schrieb:
Fakt ist, dass ihr beide sowohl recht als auch unrecht habt.
Ich kann mir jetzt die ganz wenigen Fälle heraussuchen in denen DLSS heute noch schlechter aussieht als die Native Auflösung und dann sagen: Schau her. Das ist halt das typische Nitpicking. Dasselbe auch mit TAA und FG. Konzentration ausschließlich auf negative Aspekte, Vorteile unterm Strich werden nicht gesehen.

Jetzt mit FSR4 wird das nochmal anders werden. Ich kann mir bald vorstellen, dass die Standardeinstellung.
DLSS Performance/FSR Performance ist, beginnend ab WQHD und für 4K. Für Full HD dann DLSS/FSR Q.
 
Quidproquo77 schrieb:
Jetzt mit FSR4 wird das nochmal anders werden. Ich kann mir bald vorstellen, dass die Standardeinstellung.
DLSS Performance/FSR Performance ist, beginnend ab WQHD und für 4K. Für Full HD dann DLSS/FSR Q.

Kommt drauf an - ich werde vermutlich meistens Quality über Performance stellen solange ich damit auf über 60FPS komme habe - bisher selten Framegen verwendet (mir stand nur FSR zur Verfügung wegen alter Karte), weil es mir eben zu viele schlieren und Artefakte verursachte - das zu minimieren und die Grafik inklusive RT möglichst hoch stellen zu können ist mir wichtiger als die vollen 144Hz meines Monitors voll nutzen zu können.
 
DevPandi schrieb:
Wenn jetzt die Leistung von der 9070 XT wirklich zwischen 7900 XT und 7900 XTX liegt, dann benötigt man beide Grafikkarten in der Form auch nicht mehr.

Was für Navi41/42/43 angedacht war, ist nur schwer nachzuverfolgen. Wäre es ein GCD+MCD gewesen, wären es zwei GCD gewesen ohne MCD.

Am Ende ist das aktuell alles Rätselraten, spannend, am Ende aber auch nur das.

Die Probleme von RDNA 3 sind nicht wirklich im GCD + MCD-Aufbau zu suchen, der hatte zwar seine Nachteile, bei RDNA 3 gab es die Probleme aber an ganz andere Stelle.

Um mal eine Sache hier direkt klarzustellen, bevor es wieder anfängt, dass man zig Begriffe zusammen wirft und doch versucht unterschiede zu finden:

Egal ob man von AI-Core, Matrix-Core, Tensor-Core oder von TPU und Co: In der Regel wird hier immer das gleiche gemeint: Ein Kern, der Matrix-Operationen deutlich schneller und effektiver Ausführen kann. Nvidia nennt es Tensor-Core, bei AMD in CDNA wird es Matrix-Core genannt. Intel nennt es XMX (Xe Matrix eXtension). Alle machen das dasgleiche.

Die AI-Accelator in RDNA 3 wiederum sind keine KI-Kerne, sie bereiten die Daten nur so vor, dass man eine Matrix wesentlich effektiver auf den Vec-ALUs berechnen kann.

Das ist so nicht richtig und vermischt hier zwei Probleme miteinander, die so aber nichts miteinander zutun haben.

Egal ob DLSS, FSR oder Intels XeSS oder jetzt eben FSR 4: Das alles ist Software. Weder DLSS, XeSS oder FSR werden in Hardware beschleunigt, berechnet oder in irgendweinerweise in Hardware ausgeführt!

Der Unterschied zwischen XeSS, DLSS und FSR 1 - 3.1 besteht darin, dass DLSS und XeSS auf die Hilfe eines Neuronalen-Netzwerkes zurückgreifen, während FSR bis 3.1 einen klassischen algorithmischen Ansatz verfolgt. FSR 1 ist ein reiner algorithmischer Upscaler, FSR 2 und FSR 3 haben dazu eine temporale Komponente bekommen.

DLSS 1 war anfangs ein überwiegender KI-Upscaler, was damals grottig aussah - und DLSS 2 ist - SEHR STARK VEREINFACH(!!!) - jetzt ein "algorithmischer" Upscaler mit einem neuronalen Netzwerk und der temporalen Komponente.

AMD hat lange Zeit also versucht mit klassischen Methoden die Probleme zu lösen und ist da auch mehr oder weniger gut mit gefahren.

Was bei DLSS und XeSS in Hardware beschleunigt wird, ist das Neuronale Netzwerk, das ist aber nur ein Bestandteil der ganzen Kette. (Und wenn wir hier genau sind, wird nicht mal das neuronale Netzwerk wirklich in Hardware beschleunigt, sondern die Matrizen-Operationen.)


Kommt an der Stelle darauf an, was du wie genau meinst. Ein neuronales Netzwerk auf den Shadern laufen zu lassen funktioniert, und das sogar relativ gut. Kann man an Stable Diffusion und Co auch auf RDNA 2 und RDNA 3 gut sehen, gerade unter Linux, wenn man ROCm entsprechend anpassen kann.

Du hast aber natürlich recht, spezialisierte Matrix-Kerne können die Matrizen-Operationen deutlich schneller und effizienter ausführen. Bei FSR 4 ist dann die Frage, wie komplex das neuronale Netzwerk ist und ob am Ende dann die Berechnungszeit auf den Shadern die Berechnungszeit übersteigt, die man durch die Auflösungsverringerung erreicht.

Am Ende ist es immer eine Frage, in weiweit gewisse Limitierungen "künstlich" erzeugt wurden. Am Ende kann man da aber nur Mutmaßen, wirklich wissen kann man es nicht.

Sieht man sich jetzt FMF und FG im Vergleich an: FMF arbeitet vergleichbar "gut", benötigt die Optical-Flow-Accelator und Co dabei nicht. Jetzt ist die Frage bei FG aber, in wieweit das alles mit dem Blick auf die Optical-Flow-Accelator auch entwickelt wurde. Nur weil es auch ohne geht, bedeute es am Ende nicht, dass sie nicht notwendig sind für FG.

Etwas, was ich in letzter Zeit bei anderen Entwicklungen bei mir merke, wo auch die Diskussion auf kommt. Manchmal kann man einen komplizierteren Weg gehen, der auch geht und ältere System auch mit nimmt, oder man geht den kürzeren neuen Weg, der Arbeit spart. Und da muss ich selbst so fair sein: Wenn die Entwickler bei Nvidia FG als auch jetzt MFG mit Blick auf die neue Technik von eben Ada oder nun Blackwell entworfen haben, dann ist das ihr gutes Recht. Ich selbst kann da nicht verlangen, dass Sie es auch "umständlich" versuchen.

Das ist zwar für uns als Kunden vielleicht nicht immer optimal.
Jetzt stimme ich Deiner Klarstellung weitgehend zu - ja, am Ende ist alles abhängig von der Software, allerdings ging's mir darum, daß es einen sehr großen Unterschied machen kann, wenn die Software zB Matrizenberechnungen auf dedizierten Matrix Kernen ausführen kann, oder ob das algorithmisch auf den Shaders gemacht werden muss. Ersteres benötigt deutlich weniger Compute Leistung der Shader als letzteres. Deshalb wurden solche spezialisierten Kerne ja überhaupt eingeführt. Aber ja, Hardware kann immer nur das ausführen, was die Software auch aufruft.
 
Zuletzt bearbeitet:
Zurück
Oben