Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

DarkerThanBlack schrieb:
Natürlich...Wir haben ja jetzt sämtliche Spiele die DLSS 2.0 unterstützen und alles läuft perfekt...
Ist ja universell und kann für alles eingesetzt werden...Träumt mal ruhig weiter...
Wer reded denn von jetzt? Es geht um die Zukunft, um Spiele, die genau jetzt entwickelt werden.
Und selbst bei vielen schon vorhandenen Spielen halte ich nachträgliche Patches für sehr wahrscheinlich.
 
  • Gefällt mir
Reaktionen: v_ossi
iqhigherthanshi schrieb:
Das überfordert wohl den Herren.

Es gibt keine K.I.
Bist du etwa so ein Träumer?
Ergänzung ()

Taxxor schrieb:
Also wenn auf 99 gute Ergebnisse mal ein schlechtes kommt, welches mit der Zeit ebenso zu einem guten werden kann, ist das Feature unnütz?

Nein. Aber wenn 99% schlecht sind, so wie jetzt, dann ist das Feature unnütz.
 
DarkerThanBlack schrieb:
Nein. Aber wenn 99% schlecht sind, so wie jetzt, dann ist das Feature unnütz.
Hast du dir die Links von @ZeroZerp auch angesehen? Oder das DigitalFoundy Video zu Control? Wo man auf 400-800% Zoom stellen musste, um Unterschiede von 1080p DLSS zu nativem 4K zu sehen und stellenweise 1080p DLSS in Bewegung sogar besser aussah?
 
Ob es besser aussieht ist nur deine Wahrnehmung. Ich sehe nur schlechter, da eben nicht nativ.
Vorallem weil man bei den Videos oft den Umstand vergisst, wie sie zustanden kamen.
Bei FullHD wird gerne AA dazu geschaltet um die Treppenbildung zu verhindern. Das verschlechterst den Vergleich. Ab 4k braucht man kein AA mehr.
Und schon hat man ein besseres Ergebnis als DLSS2.0!
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Ich sehe nur schlechter, da eben nicht nativ.

Kann ich nicht nachvollziehen, ich glaube du bist da voreingenommen und täuschst dich da.
Und dass man in 4K kein AA mehr braucht, ist völlig absurd. Für eine flimmerfreie Darstellung benötigt man zumindest Postprocessing wie TAA.
Gerade eben bei RDR2 mal wieder geprüft. 4K ohne TAA flimmert fies, und das auf nur 28 Zoll.
Selbst WQHD mit Downsampling ist wesentlich flimmerfreier mit TAA.
 
  • Gefällt mir
Reaktionen: Wintermute, captain kirk, RogueSix und 5 andere
DarkerThanBlack schrieb:
Es gibt keine K.I.
Bist du etwa so ein Träumer?
Was ist bei dir eine KI? Es ist schon eine KI wenn ein minimales Neuronales Netzwerk bei 2x2 Pixeln zB 2 verschiedene Muster erkennen kann. KI deswegen weil man eben nicht dem Code sagt wie es zu gehen hat sondern ein leeres Konstrukt / das Netzwerk hinlegt und mit Training lernt dieses Netzwerk wie es zum Ziel kommt. Und ja, das lernt es. Es versucht immer weniger Fehler zu machen und je mehr gute Trainingsdaten da sind und je besser das Netzwerk designed ist umso besser wird es.

Das funktioniert übrigens ganz identisch wie es auch in deinem Kopf hoffentlich abläuft. Deine Synapsen verknüpfen sich miteinander wie die Knotenpunkte im neuronalen Netzwerk. Zudem gibt es eine Gewichtung auf diesen Verknüpfungen.

Wie würdest denn du zB deinem Code beibringen dass es Bäume erkennen soll? Oben im Bild min 40 % der Fläche grün und unten Braunanteil?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux, iqhigherthanshi, [wege]mini und 3 andere
Also tut mir Leid, aber du bist nur ein voreingenommener Dummschwätzer, welcher keine Ahnung von Algorithmen hat.

Also man kann schon alles schlecht reden wenn man Sachen nicht versteht....
 
  • Gefällt mir
Reaktionen: Strubbel99, iqhigherthanshi und icetom
Und wenn die Argumente ausgehen, dann kommen die Beleidigungen...War ja klar.
Entschuldige bitte, dass ich deinen Gott in Frage gestellt habe.

Der Nächste bitte...
 
DarkerThanBlack schrieb:
Ob es besser aussah ist nur deine Wahrnehmung. Ich sehe nur schlechter, da eben nicht nativ.
Vorallem weil man bei den Videos oft den Umstand vergisst, wie sie zustanden kamen.
Bei FullHD wird gerne AA dazu geschlatet um die Treppenbildung zu verhindern. Das verschlechterst den Vergleich. Ab 4k braucht man kein AA mehr.
Und schon hat man ein besseres Ergebnis als DLSS2.0!
Du wirst von gefühlt hunderten Usern, davon einige mit sehr ausgeprägten Fachwissen, ständig berichtigt aber du siehst es einfach nicht ein, bleibst stur auf deinem DLSS ist scheiße Gaul und versuchst krampfhaft die Technik schlecht zu reden noch dazu hast du null Ahnung was DLSS überhaupt ist.

Ganz ehrlich, lass es doch einfach sein. Auf mich wirkt es fast so, als würdest du dich innerlich sehr ärgern, dass du das Feature nicht nutzen kannst.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Strubbel99, SyntaX und 8 andere
dampflokfreund schrieb:
Ganz ehrlich, lass es doch einfach sein. Auf mich wirkt es fast so, als würdest du dich innerlich sehr ärgern, dass du das Feature nicht nutzen kannst.

Er versteht das Feature nicht.
Das ist sein Problem.
Und wenn Leute Dinge nicht verstehen, dann muss es schlecht oder böse sein...
 
  • Gefällt mir
Reaktionen: RogueSix
DarkerThanBlack schrieb:
Ob es besser aussieht ist nur deine Wahrnehmung. Ich sehe nur schlechter, da eben nicht nativ.
Wir beide sehen also den gleichen Shot aus der Bewegung heraus, wo auf 400% auf das Gesicht rangezoomt wird und beim 1080p DLSS sehr viel mehr Details zu sehen sind als beim nativem 4K.

Ich, Digital Foundry und jeder andere hier der diese Bilder bewertet, sagt nun der DLSS Shot sieht besser aus, als der native, weil schärfer und mit mehr Details.
Und dein einziges Argument, warum es schlechter sein soll ist "weil nicht nativ"?

Und du redest von Argumente ausgehen...
 
  • Gefällt mir
Reaktionen: iqhigherthanshi, .Sentinel., Esenel und 2 andere
Ich verstehe das Feature sehr gut. Es ist reines Marketing, worauf man viel Manpower auf ein paar ausgewählte Produkte gelegt hat. Das Ergebnis muss noch recht schön geredet werden...

Braucht kein Mensch...
 
tidus1979 schrieb:
Ein hoch skaliertes Bild hat immer mehr Information als das Original - Mehr Information in Form von Pixeln.
Nein ganz genau das ist eben nicht der Fall. Bei einem hoch skalierten Bild werden die Pixel nur größer. Einen Mehrwert, mehr Informationen, mehr Datenpunkte erhälst du nicht oder anders herum du brauchst nicht mehr Bits dafür. Die Pixel werde nur größer.

Wenn ich z.B. ein 720p Video auf meinem WQHD TFT-Bildschirm schaue, kann ich im Video-Player auch auf Vollbild klicken. Das Video ist dann größer, aber an der Datenmenge des Videos und somit den enthaltenen Informationen ändert sich nicht. Das Video hat nach wie vor die Datenmenge von 690 MB, wird jetzt nur größer dargestellt als zuvor. Beim Video-Encoden werden Videodateien kleiner bei gleicher Qualität. Also theoretisch weniger Daten bei gleicher Information(smenge). Da macht man sich zu nutze das Informationen die sich nicht verändern komprimiert abgespeichert werden können. Dafür steigt aber die benötigte Rechenleistung gegenüber dem "nativen" Video. Nichts ist umsonst, man zahlt mit mehr Dekodierungsaufwand bzw. Rechenaufwand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foxio und Mcr-King
DarkerThanBlack schrieb:
Es ist reines Marketing, worauf man viel Manpower auf ein paar ausgewählte Produkte gelegt hat.
Und so sprach er weiter über DLSS 1.9 und hat den Artikel über DLSS 2.0 noch immer nicht verstanden.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Wintermute und Esenel
Und schon wird wieder DLSS1.9 erfunden... Gibt es auch Argument? Ich habe bis jetzt außer Beleidigungen kein einziges gefunden.

Dann will ich euch einmal aufklären, was es mit DLSS2.0 auf sich hat. Und warum NVIDIA soviel Manpower reinsteckt.😊
NVIDIA will ja die neue Generation Ampere vorstellen. Diese wird auf den Namen RTX3000er hören.
Aber leider wird die Leistung nicht ganz so toll sein, wie sie erhofft wird. Man munkelt nur von 20-30%.
Aber hey, ihr habt ja jetzt ein neues Feature DLSS2.0. Mit dem könnt ihr ja eure 70% und mehr Leistung simulieren, wenn es funktioniert und nur bei ausgewählten Produkten...

Also seid glücklich, dass ihr DLSS2.0 nutzen könnte...
Na, alles nun erklärt und noch weitere Fragen offen?
 
Zuletzt bearbeitet:
MIt eingeschaltetem DLSS2.0 ist also eine 2060S auf 2080 Ti (Nativ) Niveau. Das kann die GPU Lebensdauer also massiv verlängern und ist ein absoluter Riesenvorteil gegenüber AMD. Hoffe es kommt mal ein DLSS3.0, wo man auch die Grafikfehler noch ausmerzt und das von mehr Spielen genutzt wird - oder es kommt eine Open-Source Variante von AMD die für alle Spiele nutzbar ist, denn im Moment müsste ich bei ähnlicher Performance AMD ganz klar den Laufpass geben wenn ich die Wahl hätte. Allein schon die Perspektive, die GPU in einer wesentlich höheren AUflösung zu nutzen oder länger zu nutzen...

Wie gesagt: WENN es mehr Spiele supporten.
 
  • Gefällt mir
Reaktionen: icetom
Wieso wurde 1920x1080 mit anderen Einstellungen gefahren wie mit 4K. Der entscheidende Vergleich ist doch eher nativ 1920x1080 vs. DLSS Performance mit 4K. Da sieht man was DLSS eigentlich kostet. Dass es schneller ist als natives 4K ist irgendwie klar
 
incurable schrieb:
Ich finde es mehr als auffällig, dass zwei der (überall) für den Vergleich der Bildqualität herangezogen Spiele (Control, Wolfenstein) dafür bekannt, man möchte sagen berühmt-berüchtigt, sind, in den Standardeinstellungen durch aktivierte, u.a. temporale Filter Matsch² auszugeben.

Man könnte fast vermuten, dass hier einfach intern die Matschfilter deaktiviert werden, und das allein für massiv bessere Details als 'out of the box' sorgt.

DarkerThanBlack schrieb:
Dann will ich euch einmal aufklären, was es mit DLSS2.0 auf sich hat. Und warum NVIDIA soviel Manpower reinsteckt.😊
NVIDIA will ja die neue Generation Ampere vorstellen. Diese wird auf den Namen RTX3000er hören.
Aber leider wird die Leistung nicht ganz so toll sein, wie sie erhofft wird. Man munkelt nur von 20-30%.
Aber hey, ihr habt ja jetzt ein neues Feature DLSS2.0. Mit dem könnt ihr ja eure 70% und mehr Leistung simulieren, wenn es funktioniert und nur bei ausgewählten Produkten...

die rote Community baut sich schon wieder Sombreros aus Alufolie weil Nvidia im Header steht...
aluhut.jpg


kann ja nicht angehen das Tester sowas wie Raytracing oder DLSS auch noch loben:heuldoch:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Hoshi, SyntaX, iqhigherthanshi und 3 andere
Zurück
Oben