Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

Was hat eigentlich Amd für ein ´´DLSS´´ ausfgebot? Ohne werden die Untergehen ausser es bleibt bei 20 Games. Die kommen ja ohne nicht mal nach mit erst puh.
 
Das ist echt bemerkenswert
 
  • Gefällt mir
Reaktionen: pietcux
Mcr-King schrieb:
Hi Zero naja zum Teil sage ich NV ist nicht wirklich unbedingt unschuldig daran sage nur Zwei Klassen Gesellschaft GTX / RTX.

Auch ein Grund warum es immer mehr Konsolengamer gibt, auch die Preise der Games und DLC und die ganze Monetarisierung. 😣
Ist schon klar- Das ist ja das was ich mit der Besitzstandswahrung ausdrücken wollte.
Niemand möchte zu dem Kreis gehören, der plötzlich nicht mehr mitspielen kann. Was früher gang und gäbe war, kennen viele jüngere User so garnicht mehr.

Aber irgendwann ist immer der Zeitpunkt gekommen, an dem man einfach mal einen Punkt machen muss, wenn man sich bezüglich einer Entwicklung in der Sackgasse bzw. am Ende der Fahnenstange befindet.

Was willst Du denn aus den Rasterisierten Spielen noch groß rausholen?
Immer mehr Effekte, die in den Spielen untergebracht sind, nehmen eh schon große Anleihen an der RT Technik (auf Kosten der Performance) und das unter erheblichen Qualitätseinbußen und teils offensichtlich fehlerhafter Darstellung.

Wie gesagt auch zusätzlich unter der Prämisse, dass die Szenerie statischer wird, je besser die Grafik vorberechnet ist.

Irgendiwe muss es da ja weitergehen - Diesen Weg bereitet man gerade vor.
Mit allen Vor- und Nachteilen, die so ein Technologiewechsel immer mit sich bringt.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, Mcr-King, tidus1979 und eine weitere Person
iqhigherthanshi schrieb:
Solange es nicht von Nvidia kommt sowieso, aber ´´Leaks´´ Heutzutage kommen meistens nicht von Irgendwo her, wir werden sehen. :)
Nvidia hält im Gegensatz zu AMD und Intel den Laden dicht. War bei den vergangenen Gens schon so.
Es kommt erstmal das Prof Segment.
 
tidus1979 schrieb:
Ich glaube, da unterschätzt du KI. Das ist mehr als ein einfacher Filter. Hier holt man tatsächlich "mehr" Information raus als ursprünglich da war. Das ist ja das neue daran. Die Technologie ist extrem spannend.
Nein das ist unumstößlich und grundsätzlich falsch! Da gibt es weder Interpretationsspielraum noch zwei Meinungen. Man kann nicht mehr Informationen ausgeben als man hat! Das ist wie Unschärferelation, da kann man mit Technologie auch nix machen.

Man hat nur die Informationen die man hat, das einzige was man tun kann ist eigene Informationen hinzufügen oder mit künstlerischer Freiheit Informationen erzeugen und hinzufügen. Diese basieren im besten Fall auf Erfahrung und intelligenter Interpretation, im schlechtesten Fall auf dem Zufallsprinzip.

Bei Schrift ist es besonders kritisch. Eine unscharfe Aufnahme von einem Text beinhaltet nicht die Informationen die im Text einhalten sind. Es ist ohne Kenntnis des Originaltextes nicht möglich den Informationsgehalt zu erhöhen. Jemand oder eine KI könnte einen anderen Wortlaut mit ähnlicher Länge auf die unscharfe Aufnahme editieren, aber das sind dann andere Informationen.

Ich erkläre das mal konkreter am Beispiel Foto. Man nimmt ein altes schwarzweiß Foto. Es ist relativ unscharf und ohne Farben. Man möchte das Motiv in Farbe auf 8K ansehnlich darstellen. Auf Grundlage von Informationen aus der fotografierten Welt kann man nun hingehen und das Foto färben wenn man sich mühe gibt und recherchiert erhält man ggfls. Informationen die auf dem Bild nicht enthalten sind die man dem Motiv hinzufügen kann. Dann hat man am Ende mehr Informationen als vorher, die auch Fundiert sind. Konkret simples Beispiel, man weiß das der Himmel blau ist, also malt man den blau beim kolorieren und nutzt die Grauwerte für die Farbe so gut es geht. Wurde das Bilder aber eigentlich vor einer Kulisse gemacht das aus bestimmten Gründen grünen Himmel hatte, verfälschen die hinzugefügten Informationen "blau" die Quelle.
Ist auf dem alten unscharfen Foto im Hintergrund ein Menschen zu sehen, dessen Gesicht selbst unterm Mikroskop nur ein grauer Punkt ist. Könnte ein Künstler beim erstellen das Motivs, dem grauen Fleck ein Gesicht rein malen. Anhand der Kleidung eher ein männliches Gesicht oder ein weibliches Gesicht. Anhand der Lokalisation vll sogar ein kaukasisches oder eher ost-asiatisches Gesicht. Das könnte eine KI theoretisch durchaus leisten, mehr korrekte Informationen hat man dadurch aber nicht. Diese hinzugefügte Information kann nur generisch sein, ein echter digitaler Zoom bei dem man das tatsächliche Gesicht des Menschen erkennt der da zufällig eingefangen wurde wird man nie bekommen.
Wenn in einer Aufnahme, sei es Video oder Spiel der Künstler oder die KI das Verwaschene Abbild von dem was die Mona Lisa sein könnte erkennt(interpretiert), könnte er ein scharfes Bild der Mona Lisa in einem Archiv raus suchen und in die Quelle einfügen. Das wäre so was wie eine Restaurierung bzw. Verfälschung der Information anhand externen Information. Auch das könnte eine KI auf Basis von neuronalen Netzwerken ausgestattet mit einer Datenbank theoretisch leisten. Verfälschung weil die KI ohne Zusatzinformation nicht leisten kann ob es Absicht war das diese Textur unscharf ist oder ausschließlich der Bildqualität geschuldet ist. Da kann der Künstler interpretieren und das Video oder Spiel so restaurieren das die Intention des Autors erhalten beleibt.

Was Künstler und ggfls KI machen können ist interpretieren, Erfahrungen nutzen und damit Bilder aufhübschen. Im Extremfall externe Informationen nutzen und dem Material hinzufügen. Diese Informationen können so weitreichend sein wie "Äpfel haben eine Flache und keine gerasterte Oberfläche" und schon wird der Apfel von 720p auf 4K mit glatten Rändern hoch skalliert. Was ist aber wenn der "Apfel" ein bemaltes Modell aus einem 3D-Drucker ist? Dann ist die Oberfläche tatsächlich gerastert auch in 12K, was macht die KI jetzt?
 
  • Gefällt mir
Reaktionen: Penicillin, Iscaran, Floppes und eine weitere Person
ZeroZerp schrieb:
Ist schon klar- Das ist ja das was ich mit der Besitzstandswahrung ausdrücken wollte.
Niemand möchte zu dem Kreis gehören, der plötzlich nicht mehr mitspielen kann. Was früher gang und gäbe war, kennen viele jüngere User so garnicht mehr.

Aber irgendwann ist immer der Zeitpunkt gekommen, an dem man einfach mal einen Punkt machen muss, wenn man sich bezüglich einer Entwicklung in der Sackgasse bzw. am Ende der Fahnenstange befindet.

Was willst Du denn aus den Rasterisierten Spielen noch groß rausholen?
Immer mehr Effekte, die in den Spielen untergebracht sind, nehmen eh schon große Anleihen an der RT Technik (auf Kosten der Performance) und das unter erheblichen Qualitätseinbußen und teils offensichtlich fehlerhafter Darstellung.

Wie gesagt auch zusätzlich unter der Prämisse, dass die Szenerie statischer wird, je besser die Grafik vorberechnet ist.

Irgendiwe muss es da ja weitergehen - Diesen Weg bereitet man gerade vor.
Mit allen Vor- und Nachteilen, die so ein Technologiewechsel immer mit sich bringt.

LG
Zero

Bessere KI die ist zu großen Teil käse da must du mir recht geben. Auch lebendigere Welten wären mal klasse und was ich da auf der Xbox SX gesehen haben nicht schlecht bis jetzt. ;)
 
  • Gefällt mir
Reaktionen: pietcux und .Sentinel.
miagi schrieb:
Wenn in einer Aufnahme, sei es Video oder Spiel der Künstler oder die KI das Verwaschene Abbild von dem was die Mona Lisa sein könnte erkennt(interpretiert), könnte er ein scharfes Bild der Mona Lisa in einem Archiv raus suchen und in die Quelle einfügen.
Du bist aber, was dein Beispiel angeht, sehr weit oben in der Hierarchie. Hier geht es viel mehr darum, dass aus dem KI-Training bestimmte Muste bekannt sind und dann eine verwaschene Kante auch als Kante detektiert wird. Der Algorithmus verändert die Pixel daraufhin so, dass eine scharfe Kante daraus wird, behält aber die Farben bei.

Dass es dabei zu Fehlern kommen kann, wenn das falsche Muster erkannt wurde, sieht man ja an den Artefakten. Da muss man dann soviel Training in den Algorithmus stecken, bis die Fehler vernachlässigbar wenig werden.
 
Floppes schrieb:
Nvidia hält im Gegensatz zu AMD und Intel den Laden dicht. War bei den vergangenen Gens schon so.
Es kommt erstmal das Prof Segment.

Ähm nee nicht wirklich die haben nur strengere NADs. ;)
 
miagi schrieb:
Nein das ist unumstößlich und grundsätzlich falsch! Da gibt es weder Interpretationsspielraum noch zwei Meinungen. Man kann nicht mehr Informationen ausgeben als man hat! Das ist wie Unschärferelation, da kann man mit Technologie auch nix machen.

Man hat nur die Informationen die man hat, das einzige was man tun kann ist eigene Informationen hinzufügen oder mit künstlerischer Freiheit Informationen erzeugen und hinzufügen. Diese basieren im besten Fall auf Erfahrung und intelligenter Interpretation, im schlechtesten Fall auf dem Zufallsprinzip.
Und wieder zeigst du, dass du DLSS nicht verstehst.
Man hat durch DLSS eben mehr Informationen, als die GPU rendert.
Weil das neuronale Netzwerk alle Informationen bereits vorab hunderttausende Male in 4K berechnet hat und ziemlich genau weiß, welche Informationen an den entsprechenden Stellen durch die Reduzierung der Render-Auflösung beim Upscaling fehlen und somit auch, welche ergänzt werden müssen.
Genau deshalb funktioniert DLSS ja auch nicht einfach so, sondern muss für jedes Spiel einzeln eingebaut werden und den Rechenzentren Zeit gegeben werden, die benötigten Informationen für genau dieses Spiel zu sammeln.

miagi schrieb:
Was Künstler und ggfls KI machen können ist interpretieren, Erfahrungen nutzen und damit Bilder aufhübschen. Im Extremfall externe Informationen nutzen und dem Material hinzufügen. Diese Informationen können so weitreichend sein wie "Äpfel haben eine Flache und keine gerasterte Oberfläche" und schon wird der Apfel von 720p auf 4K mit glatten Rändern hoch skalliert. Was ist aber wenn der "Apfel" ein bemaltes Modell aus einem 3D-Drucker ist? Dann ist die Oberfläche tatsächlich gerastert auch in 12K, was macht die KI jetzt?
Die KI hat in dem Fall vorab genau dieses Modell bereits unzählige Male in 4K gerendert und weiß demnach, was sie beim Upscaling von 720p wo einsetzen muss.
Du stellst es so dar als würde die KI erst mit dem Rendern eines Bildes in 720p beginnen, herauszufinden, wie es denn in höherer Auflösung aussehen könnte. Das weiß sie aber vorher schon, bevor du überhaupt das Spiel startest, weil alles schon vorher in höherer Auflösung abseits von deinem eigenen PC berechnet wurde.


So auch bei deinen anderen Beispielen
miagi schrieb:
Bei Schrift ist es besonders kritisch. Eine unscharfe Aufnahme von einem Text beinhaltet nicht die Informationen die im Text einhalten sind. Es ist ohne Kenntnis des Originaltextes nicht möglich den Informationsgehalt zu erhöhen.
DLSS hat aber eben Kentniss über den Originaltext, das ist ja der Grund, warum es funktioniert.
Es fängt nicht an zu versuchen aus dem unscharfen Text etwas herauszulesen, sondern weiß bereits, wie der unscharfe Text in scharf aussieht und setzt die fehlenden Pixel entsprechend ein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Andybmf und KlaraElfer
Nice! Wenn das zB gut in AC Valhalla und Cyberpunk integriert wird, kann man diess Spiele in hohen Qualis sehr gut genießen. Schon mit ner 2060s in 1440p ohne RT, dafür Dlss2 sicher hohe Frameraten :)
 
  • Gefällt mir
Reaktionen: Esenel
iqhigherthanshi schrieb:
Was hat eigentlich Amd für ein ´´DLSS´´ ausfgebot? Ohne werden die Untergehen ausser es bleibt bei 20 Games. Die kommen ja ohne nicht mal nach mit erst puh.
DirectX ML haben sie wie auch Image Scharping.
 
Weis ich RIS, hatte ja ne 5700xt aber die Treiberprobleme haben mich dazu veranlasst die Karte zurückzusenden.

Von DirectXML habe ich noch nie gehört, welches Spiel unterstützt es?
 
Wolfgang schrieb:
Da macht DLSS einen ordentlichen Job.
Ich gestehe dass jetzt nicht komplett angeschaut zu haben bisher aber hier wären Videos oder Slowmo unkompressed GIFs ka cool um Mal so einen bewegten Zaun oder Alpha Textur zu sehen :)
 
  • Gefällt mir
Reaktionen: KlaraElfer
Die Technik ist ansich recht interessant und die Ergebnisse können sich eigentlich schon sehen lassen. In Bewegung fallen einem die Details ach nicht so arg auf und einen Direktvergleich wie hier zwischen den Bildern mal eben hin und her schalten ist dann auch nicht drin. Dafür bringt es einiges an Performance für einen flüssigeren Spielbetrieb bei hübsch anzusehen.
Schmerzen hab ich nur damit, dass es wieder eine propritäre Lösung ist, die in ein Monopol locken will. Wenn DLSS reif ist und in vielen Titeln integriert wird, wird es für die Konkurrenz noch mal schwerer, sich durchzusetzen. Der kleine Fisch AMD wird da kaum mithalten können, und auch Intel muss sehen, wo die Reise mit ihren Grafikkarten hingehen soll.
 
ich seh da jetzt keinen unterschied, muss man an den zäum zoomen?

Digga wenn man erstmal zoomen und suchen muss, das braucht ein normaler Gamer nicht.
Ergänzung ()

ich schieb spiel in Konsole ein und es Sol laufen, dann gemütlich auf der Couch mit grossem Fernseher. kein Bock auf irgendwelche einstellungen hin und her an aus schalten die ganze scheisse interessiert nur paar freaks
 
miagi schrieb:
Man hat nur die Informationen die man hat, das einzige was man tun kann ist eigene Informationen hinzufügen oder mit künstlerischer Freiheit Informationen erzeugen und hinzufügen. Diese basieren im besten Fall auf Erfahrung und intelligenter Interpretation, im schlechtesten Fall auf dem Zufallsprinzip.
Miagi- An sich eine sehr schöne Darstellung.
Nur hat DLSS einen entscheidenden Unterschied- Es hat den vielfachen um die Motionvektoren korrigierten Informationswert des "Originals".

Als Grundlage nimmt DLSS kumuliert gejitterte Informationen von 3 Frames.
Das heisst Du hast, wenn die Bewegungsvorhersage gut funktioniert tatsächlich den 3- Fachen Informationsgehalt. Aus den drei Bildern nimmt sich DLSS jeweils an drei unterschiedlichen Stellen einzelne Puzzleteile raus und setzt sie dann im Zielframe zusammen, welches dann die 3- Fache Auflösung der Ursprungsauflösung von DLSS hat und somit auch 1/3 höher ist, als die Nativ- Auflösung.

Deswegen ist DLSS eben auch in der Lage Details darzustellen, die es nativ mangels Auflösung eben nicht schaffen. Und daher ist DLSS auch ein Supersampling- Verfahren und kein Upscaling.

Aber:
Da aber die aufeinanderfolgenden Bilder nicht statisch sind, sondern jemand dauernd am Puzzletisch rüttelt, während das System versucht die Teile aneinanderzulegen, geht eben dann doch noch ein Teil der Auflösung wieder verloren.

In Summe sollte es dem nativen Bild aber immer überlegen sein, zumal die Texturauflösung lt. Techtalk Nvidia unangetastet bleibt.
Deswegen wundert es mich dann doch, wenn Texturen dann auf dem ein- oder anderen Vergleichsbild plötzlich unschärfer wirken. Das widerspäche den Aussagen von Nvidia bzw. deutet auf eine nicht korrekte Einbindung von DLSS hin.

Das aber nur nochmal so als Hintergrundinformation bezüglich der Funktionsweise. Der AI Part führt am Ende des Assemblierens der einzelnen Bildbestandteile eine Mustererkennung inkl Angleichung an den im Inferencing Datensatz gespeicherten "Charakter" eines Supersampled hochaufgelösten Bildes ohne Alias durch, was dem ganzen nochmal einen zusätzlichen Schliff verleiht.

Das Schaubild zeigt es eigentlich schon richtig gut:
1588704034823.png


Ich kann da auch wirklich jedem, der sich dafür interessiert nochmal den Tech- Talk der GTC ans Herz legen.
Da wird genau erklärt, wie sie es machen:

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Penicillin, miagi, adAstra und 4 andere
miagi schrieb:
Nein das ist unumstößlich und grundsätzlich falsch! Da gibt es weder Interpretationsspielraum noch zwei Meinungen. Man kann nicht mehr Informationen ausgeben als man hat! Das ist wie Unschärferelation, da kann man mit Technologie auch nix machen.


Doch, natürlich gibt es da Interpretationsspielraum. Information wovon? Ein hoch skaliertes Bild hat immer mehr Information als das Original - Mehr Information in Form von Pixeln.

Du redest von Information in einem Symbolbezug zu einem realen Original. Mehr Information heißt für dich: Näher am Original. Da hast du dann natürlich Recht, solche Information kann man nicht generieren. Das ist aber bei der Betrachtung der Qualität von Bildern, insbesondere pixelgenerierten Bildern, nicht notwendigerweise die maßgebliche Art von Information. Wenn eine KI einen Apfel schärfer aussehen lässt als er auf dem mit der Kamera eingefangenen Bild abgebildet war, dann ist das ein qualitativer Vorteil. Die zusätzliche Struktur, die die KI dem Apfelbild gegeben hat, kommt natürlich nicht von dem realen Apfel, wovon das Bild ein Symbol ist. Sie kommt von der Erfahrung der KI mit der Struktur von Bildern anderer Äpfel. Aber die neue Schärfeinformation muss ja auch nicht aus dem realen Objekt stammen, sie muss nur für einen Betrachter glaubwürdig aussehen und besser als vorher.


EDIT: Und wie Taxxor gesagt hat, ist es bei DLSS noch ein bisschen anders. Man hat ja immer die gleichen Objekte und Szenen und die KI muss also nicht verschiedene Bilder vergleichen und daraus Rückschlüsse auf andere Bilder schließen, sondern sehr gleiche Bilder. Das macht es viel einfacher und präziser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Revan1710 und .Sentinel.
ppkrok schrieb:
ich seh da jetzt keinen unterschied, muss man an den zäum zoomen?

Digga wenn man erstmal zoomen und suchen muss, das braucht ein normaler Gamer nicht.
Das ist doch der Witz- Wenn Du keine Unterschiede siehst, hat DLSS seinen Job voll und ganz erledigt.

Wenn Du die Option eingeschaltet hast, kriegst Du das doppelte an FPS, ohne dass sich das Bild spürbar verändert.

LG
Zero
 
  • Gefällt mir
Reaktionen: Strubbel99, iqhigherthanshi und adAstra
Zurück
Oben