Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

ZeroStrat schrieb:
Hatte ich leider verpasst. Sooorry. :heilig:
Nebst dem, dass das Bild eben im Normalfall auch nie ganz in sich ruht, in diesem Zuge auch nochmal der Hinweis - Als Jittermuster wird die "Halton sequence" emfohlen.
http://behindthepixels.io/assets/files/DLSS2.0.pdf Seite 76

Interessant dazu:
https://observablehq.com/@jrus/halton
Ergänzung ()

ZeroStrat schrieb:
Ich hoffe, dass sich eine allgemeine Schnittstelle durchsetzt, wo Nvidia, Intel und AMD sich dann mit ihren speziellen Implementierungen dranhängen können.
Die ist ja bei jedem Spiel, welches eine TAA Integration hat, ja zu 99% schon geschaffen....
Du schickst halt Deine Buffer/Targets dann einfach an die Bibliothek anstatt intern damit weiterzumachen.

Deswegen sehe ich auch nicht, was da an FSR für mich "leichter" zu integrieren sein soll....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und ZeroStrat
.Sentinel. schrieb:
Die ist ja bei jedem Spiel, welches eine TAA Integration hat, ja zu 99% schon geschaffen....
Du schickst halt Deine Buffer/Targets dann einfach an die Bibliothek anstatt intern damit weiterzumachen.
Ich denke da noch einen Schritt weiter. Eine allgemeiner Ansatz sähe dann so aus, dass man in den Gamesettings nichts Spezielles mehr wie DLSS konfiguriert, sondern so was wie AISS (AI Super Sampling) beispielsweise und standardisierte Modi.

Ich stelle mir das ab einem gewissen Umfang an Implementierungen chaotisch vor. AI Ansätze von Nvidia, AMD und Intel und dann noch TAAU, FSR, TSR usw. usf. Wer soll da noch durchblicken? ^^
 
ZeroStrat schrieb:
Ich denke da noch einen Schritt weiter. Eine allgemeiner Ansatz sähe dann so aus, dass man in den Gamesettings nichts Spezielles mehr wie DLSS konfiguriert, sondern so was wie AISS (AI Super Sampling) beispielsweise und standardisierte Modi.
Ja- Das wäre denkbar. Ebenso eine Vendor- Abfrage, dass dann automatisch die entsprechende Lösung des Herstellers XY zum Tragen kommt.

ZeroStrat schrieb:
Ich stelle mir das ab einem gewissen Umfang an Implementierungen chaotisch vor. AI Ansätze von Nvidia, AMD und Intel und dann noch TAAU, FSR, TSR usw. usf. Wer soll da noch durchblicken? ^^
Ja- Wenn man sieht, was teils alles an Anti- Alias- Verfahren zur Verfügung steht, dann sollte man das bei den Upscalern vielleicht einfacher halten und dort nur grob Ansätze (AI, klassich) und Qualität unterscheiden.
 
.Sentinel. schrieb:
Ja- Wenn man sieht, was teils alles an Anti- Alias- Verfahren zur Verfügung steht, dann sollte man das bei den Upscalern vielleicht einfacher halten und dort nur grob Ansätze (AI, klassich) und Qualität unterscheiden.
Mal als Gedankenexperiment, man stelle sich vor, dass die AI Super Sampling Implementierungen zum Großteil an sponsered Titeln hängen, dann hat man bei Gleichverteilung* ne Chance von ca. 1/3, dass eine AI Super Sampling Unterstützung für den einen bestimmten Titel kommt, den man spielen will. Das ist natürlich grob vereinfacht, aber wenn das ungefähr so käme, puh, ätzend um ehrlich zu sein.

* Hier ist wohl der größte Knackpunkt bei dieser Argumentation. Gleichverteilung ist nicht unbedingt realistisch.
 
ZeroStrat schrieb:
dann hat man bei Gleichverteilung* ne Chance von ca. 1/3, dass eine AI Super Sampling Unterstützung für den einen bestimmten Titel kommt, den man spielen will. Das ist natürlich grob vereinfacht, aber wenn das ungefähr so käme, puh, ätzend um ehrlich zu sein.
Es geht doch letztenendes darum, dass mir das als Integrator releativ egal ist. Die Daten sind ja da und ob ich jetzt ein par davon an die FSR Sub- Routine schicke oder an eine NVIDIA Bibliothek oder an irgendwas Richtung Intel ist ja egal.

Das geht alles nur mit minimalen Modifikationen einher. Somit spricht aus technischer und wirtschftlicher Sicht wirklich garnichts dagegen, Methodiken aller 3 Hersteller zu unterstützen und vielleicht zudem noch eine von MS direkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
.Sentinel. schrieb:
Das geht alles nur mit minimalen Modifikationen einher. Somit spricht aus technischer und wirtschftlicher Sicht wirklich garnichts dagegen, Methodiken aller 3 Hersteller zu unterstützen und vielleicht zudem noch eine von MS direkt.
Solange die Spielehersteller tatsächlich alle Grafikkartenhersteller unterstützen, ist ja alles schick. Problematisch wird's erst, wenn es exklusiv wird. Und all die Feature-/Markennamen für das ganz Zeuch, holy Makaroni, das können die Spielehersteller in ihren Settings gerne vereinfachen.
 
  • Gefällt mir
Reaktionen: Mcr-King und .Sentinel.
foo_1337 schrieb:
Langsam wird es interessant: https://videocardz.com/newz/amd-fid...ble-in-grand-theft-auto-5-thanks-to-a-fan-mod

Irgendjemand hatte doch hier im Thread mal nach der Machbarkeit solcher Mods gefragt. Hier ist die Antwort.

Ergänzend dazu, weil es im Videocardz-Artikel leider nicht steht:
Die Bilder im Artikel sind GTA-Upscaler vs. FSR. - Er klebt halt dauerhaft im CPU-Limit deswegen kein Performance-Gain.

Hier ein paar Screens vom Modder mit Nativ vs. FSR:
https://screenshotcomparison.com/comparison/15427/picture:3


Quality und UQ sehen durchaus solide aus. - Vlt. etwas Over-Sharpened aber an sich echt ok.
Performance und Balanced sind dann aber (wie erwartet) ziemlich Matsch.
 
  • Gefällt mir
Reaktionen: Mcr-King, Czk666 und foo_1337
Und damit unterscheidet sich die Zielsetzung von FSR. AMDs Technologie soll deutlich mehr Performance bei minimalem Qualitätsverlust liefern, während Nvidia deutlich mehr Performance bei vergleichbarer Qualität verspricht.

Wortklauberei auf höchstem Niveau...
"vergleichbarer Qualität" ist Marketing-Sprech für minimal schlechter...

Die Realität muss dann eh der Anwender/Tester beurteilen.

Aber mal so nebenbei... Da mir Raytracing immer noch relative am A.... vorbei geht, hat mich die DLSS-Technik noch nicht so sehr interessiert. Heißt ständig weiter entwickeltes neuronales Netz (KI) hier, dass man dazu zwingend eine Verbindung zu einem Nvidia-Server benötigt, oder läuft das doch lokal ab?
 
@TrueAzrael

DLSS kann auch übrigens das Gegenteil von Verschlechterung der IQ bewirken, nämlich eine Verbesserung der Bildqualität im Vergleich zu nativ durch eine viel bessere Kantenglättung. Kein lästiges Flimmern mehr wie bei nativ, das je nach Spiel auch sehr sichtbar ist. FSR kann dies nicht bewirken. Was die Details angeht, so ist das sicherlich von Spiel zu Spiel unterschiedlich.

Auch braucht du keine Internet Verbindung damit es läuft. DLSS wird bei Karten der Turing- und Ampere Gen durch die Treiber bereitgestellt.
 
  • Gefällt mir
Reaktionen: foo_1337
Klever schrieb:
Auch braucht du keine Internet Verbindung damit es läuft. DLSS wird bei Karten der Turing- und Ampere Gen durch die Treiber bereitgestellt.

Heißt das die "KI" lernt dann doch nicht bzw. nur eingeschränkt? Also entweder nur beim konkreten User oder nur bei Nvidia die die KI zum anlernen weiter mit Daten füttern?
Wäre doch brauchbarer, wenn das was die KI bei User A lernt, auch bei User B zur Anwendung kommt. Geht natürlich nur mit einer Verbindung zu einem Server, die aber mMn maximal optional sein sollte.
 
TrueAzrael schrieb:
Heißt das die "KI" lernt dann doch nicht bzw. nur eingeschränkt? Also entweder nur beim konkreten User oder nur bei Nvidia die die KI zum anlernen weiter mit Daten füttern?

Die KI tut sehr wohl lernen - das neuronale Nezwerk läuft auf Supercomputern wie der DGX Reihe bei Nvidia, die eine zigfach höhere Rechenleistung haben als jegliche Userhardware put together. Da braucht die KI auch nicht auf Userhardware für Learning zu laufen, die nicht so viel kosten darf und kann, wie z.B. 50 DGX Server die einen Supercomputer ausmachen, wo jeder einzelne Server 200 000 Dollar kostet. Kein User wird sich Hardware in Wert von 10-11 Millionen leisten können, damit die KI richtig angelernt wird.

TrueAzrael schrieb:
Wäre doch brauchbarer, wenn das was die KI bei User A lernt, auch bei User B zur Anwendung kommt. Geht natürlich nur mit einer Verbindung zu einem Server, die aber mMn maximal optional sein sollte.

Ich denke, die Nvidia Ingeneure wissen schon, welche Hardware für ein KI Netzwerk gebraucht wird, und das ist bestimmt nicht eine kleine GPU in einem Gamersystem, oder selbst mehrere tausend davon.

NVIDIA-GTC20-Keynote-Briefing-00011_B6A2192619C84AB285CB4B0D30C9E7A6.jpg
 
Zuletzt bearbeitet:
Klever schrieb:
Die KI tut sehr wohl lernen - das neuronale Nezwerk läuft auf Supercomputern wie der DGX Reihe bei Nvidia, die eine zigfach höhere Rechenleistung haben als jegliche Userhardware put together. Da braucht die KI auch nicht auf Userhardware zu laufen, die weder darauf ausgelegt ist noch so viel kosten soll, wie z.B. 50 DGX Server die einen Supercomputer ausmachen, wo jeder einzelne Server 200 000 Dollar kostet. Kein User wird sich Hardware in Wert von 10-11 Millionen leisten können, damit die KI richtig angelernt wird.

Alles schön und gut, aber woher bekommt das Netzwerk seine Daten zum Anlernen? Sind das nur vorab von Nvidia/dem Spielehersteller eingespeiste Daten für diesen Zweck? Die meisten Daten zum Lernen fallen wohl im Echtbetrieb bei den Millionen von Usern die täglich ein Spiel auf einer Nvidiakarte starten an, diese Daten werden aber scheinbar nicht ans Rechenzentrum zurück geschickt, sonst wäre ja eine Internetverbindung erforderlich, oder hat Nvidia jeder GPU ein Heinzelmännchen beigelegt, dass die Daten aus dem Realbetrieb ins Rechenzentrum trägt?
Irgendwie scheint mir das Ganze so als ob Nvidia da im eigenen Rechnenzentrum KI-Blobs antrainiert die dann in den Treiber gepastet werden.
Ist ja auch legitim, ich hatte das nur irgendwie so verstanden, dass die Software mit jeder weiteren Ausführung intelligenter wird, weil eben Daten gesammelt, analysiert und daraus gelernt wird. Scheinbar war ich da weiter als die Realität.

Ich denke, die Nvidia Ingeneure wissen schon, welche Hardware für ein KI Netzwerk gebraucht wird, und das ist bestimmt nicht eine kleine GPU in einem Gamersystem, oder selbst mehrere tausend davon.

Davon war eigentlich auch nie die Rede...
 
Das neuronale Netzwerk lernt anhand von generischen Bildern, die in verschiedensten Auflösungen vorliegen. Es wird weder Input von Gamern noch von den Entwicklern/Publishern benötigt. Wie du schon richtig schreibst, landen die Trainingsergebnisse dann im Treiber und die Tensor Cores der GeForce Karten greifen auf diese Daten zu.
 
  • Gefällt mir
Reaktionen: Klever
TrueAzrael schrieb:
Irgendwie scheint mir das Ganze so als ob Nvidia da im eigenen Rechnenzentrum KI-Blobs antrainiert die dann in den Treiber gepastet werden.
So ist es im Grunde auch, alles was gemacht wird, ist die KI auf den eigenen Rechenzentren mit generischen Daten weiter zu verbessern.
Und soweit ich weiß, kommt das auch nicht über den Treiber, zumindest noch nicht, denn die unterschiedlichen Versionen von DLSS sind in den Spieldateien der einzelnen Spiele als dll enthalten.

Immer dann wenn man der Meinung ist, dass die Fortschritte groß genug sind, wird eine neue dll rausgegeben, die die Entwickler dann entsprechend in ihren Spielen mit dem nächsten Patch einsetzen können.
Alternativ können sich die User selbst auch die aktuellste dll besorgen und damit die vorhandenen in ihren Spielen mit dieser ersetzen.

Ich denke über kurz oder lang wird es Nvidias Ziel sein, diese dll nur einmal auf dem System zu haben und über den Treiber aktuell zu halten. Alle Spiele, die DLSS nutzen, greifen dann auf diesen Ort zu, statt für jedes Spiel eine eigene dll zu haben
 
Die DLSS dll ist die Bibliothek gegen die die Spieleengine gelinkt ist. Sie stellt quasi die Runtime für das Spiel selbst dar. Daher sind hier auch Dinge wie Ghostingprobleme etc. mal besser, mal schlechter. Das Upsampling führen die Tensor Cores durch, die sich wiederum an dem AI Model bedienen, was über den Treiber mitausgeliefert wird. So zumindest beschreibt es nvidia.
 
Klever schrieb:
Ich denke, die Nvidia Ingeneure wissen schon, welche Hardware für ein KI Netzwerk gebraucht wird, und das ist bestimmt nicht eine kleine GPU in einem Gamersystem, oder selbst mehrere tausend davon.
Genau deswegen kosten RTX20/3ßer ja auch wesentlich mehr als ihre GTX Vorgänger oder die guten GTX16er
 
Mcr-King schrieb:
deswegen kosten RTX20/3ßer ja auch wesentlich mehr als ihre GTX Vorgänger
bist du dir da wirklich sicher? gtx 1070 499euro /rtx2070 (custom modell) 519euro /rtx 3070 519euro. also 20euro nennst du wesentlich mehr? selbst wenn es 50euro währen ist das kein grosser unterschied, Je nach modell wirst du noch solche unterschiede zu release finden.
Der Sprung von gtx970 zu 1070 der war gross.
 
Zurück
Oben