Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

FX-Multimedia schrieb:
So überzeugend finde ich DLSS 2.0 aber nicht. Gerade in UHD sieht man das DLSS 2.0 viel unschärfer ist, vor allem bei den Texturen.
DLSS kann richtig integriert nicht unschärfer bei den Texturen sein, weil der Texture- Pass im Gegensatz zu den anderen Berechnungen in voller Auflösung betrieben wird.

Siehe auch aus meinem Link
1588709469630.png


Die Texturen sollten also, wenn DLSS 2.0 richtig integriert ist, unberührt bleiben. Ob die Entwickler das wiederum beherzigen - Keine Ahnung.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran, captain kirk und Mcr-King
Shoryuken94 schrieb:
Aktuell ja, sollte DLSS irgendwann mal so wie angedacht funktionieren, braucht es theoretisch keine Abschaltoption mehr ^^ Sicher wird das noch etwas dauern, wie am Anfang jeder Technik.
Ich finde das tut es hier schon absolut, wie gedacht jedenfalls. Perfekt wird sowas mit AI ja nie sein aber eben besser werden. Und gerade das besser werden ist ja wichtig, es zeigt wie die AI und Nvidia hier auch dazu lernt.


Ganz interessant diese Unterschiede von 1.9 auf 2.0.
 
  • Gefällt mir
Reaktionen: captain kirk, Shoryuken94, Mcr-King und eine weitere Person
@DarkerThanBlack ja den Unterschied auf 8k kann man gut erkennen auch auf 32 Zoll zumindest war es bei mir so mit 80cm Abstand zum Monitor. Natürlich wenn die generelle Qualität schlechter ist als beim vorherigen sieht es teils schlechter aus aber die Schärfe merkt man doch.
 
Taxxor schrieb:
Und wieder zeigst du, dass du DLSS nicht verstehst.
Man hat durch DLSS eben mehr Informationen, als die GPU rendert.
Weil das neuronale Netzwerk alle Informationen bereits vorab hunderttausende Male in 4K berechnet hat und ziemlich genau weiß, welche Informationen an den entsprechenden Stellen durch die Reduzierung der Render-Auflösung beim Upscaling fehlen und somit auch, welche ergänzt werden müssen.
Diese Aussage widerspricht leider jeglicher Logik. Wenn man genau weiß welche Informationen wo "verloren" gehen, gehen keine Informationen verloren.
Taxxor schrieb:
Genau deshalb funktioniert DLSS ja auch nicht einfach so, sondern muss für jedes Spiel einzeln eingebaut werden und den Rechenzentren Zeit gegeben werden, die benötigten Informationen für genau dieses Spiel zu sammeln.
Ich zitiere:
DLSS 2.0 kommt mit zahlreichen Veränderungen gegenüber DLSS 1.x daher. Das fängt bereits beim neuronalen Netzwerk selbst an. Während bis jetzt jedes Spiel separat vom KI-Algorithmus antrainiert werden musste, gibt es mit DLSS 2.0 ein einziges Netzwerk, das auf alle Spiele angewendet werden kann.


Taxxor schrieb:
Die KI hat in dem Fall vorab genau dieses Modell bereits unzählige Male in 4K gerendert und weiß demnach, was sie beim Upscaling von 720p wo einsetzen muss.
Du stellst es so dar als würde die KI erst mit dem Rendern eines Bildes in 720p beginnen, herauszufinden, wie es denn in höherer Auflösung aussehen könnte. Das weiß sie aber vorher schon, bevor du überhaupt das Spiel startest, weil alles schon vorher in höherer Auflösung abseits von deinem eigenen PC berechnet wurde.


So auch bei deinen anderen Beispielen

DLSS hat aber eben Kentniss über den Originaltext, das ist ja der Grund, warum es funktioniert.
Es fängt nicht an zu versuchen aus dem unscharfen Text etwas herauszulesen, sondern weiß bereits, wie der unscharfe Text in scharf aussieht und setzt die fehlenden Pixel entsprechend ein.
Nein so funktioniert Mustererkennung auch nicht. Die KI hat vll ein ähnliches Modell schon in 4K gerendert und nutzt mit Mustererkennung diese Information. "Genau dieses Modell" wäre ja ein krasse Einschränkung, setzt außerdem voraus das es so ein hoch aufgelöstes Modell überhaupt existiert. Das würde auch bedeuten das jedes Modell auch hoch-aufgelöst auf dem PC vorliegt damit die KI das abgleichen kann. Das würde die Datenmenge auf dem PC ordentlich nach oben treiben. Das wäre wie gesagt auch keine Mustererkennung sondern simpler Datenabgleich. Das was du zu dem unscharfen Text sagst macht auch keinen Sinn. Wie soll die KI raffen das der Text auf deutsch nicht mehr lesbar ist, er aber auf deutsch lesbar sein soll und zudem es eine auf deutsch lesbare Version der Texturdatei gibt? Einfach eine höher Aufgelöste Texturdatei einzusetzen benötigt keinerlei Post-Processing, wieso lädt der das nicht gleich? Antwort, weil die Informationen fehlen. Teile des Bildes in hoher Auflösung neu zu rendern weil sie nach dem hoch skalieren unscharf sind würde viel Zeit benötigen, alleine das Texturen nachladen. Das widerspricht auch dem Performance rendern in niedriger Auflösung, smart am Bild rumfuschen statt aufwendig in hoher Auflösung rendern, das ist die Kernidee. Die Beispiele von Deliver Us The Moon zeigen auch genau das Gegenteil von dem was du sagst. Einige Texturen z.B. Warnbilder die sogar für die Story oder Game-Play relevant sein könnten, verschwinden vollständig, ist der KI egal. Die meisten Texturen in den Bildern drinn, sind unschärfer gegenüber dem nativen Bild weil schärfere Texturen mehr Informationen bedeuten und diese nicht für alle vorstellbaren Objekte aus allen vorstellbaren Blickwinkeln existieren können.

Colindo schrieb:
Du bist aber, was dein Beispiel angeht, sehr weit oben in der Hierarchie. Hier geht es viel mehr darum, dass aus dem KI-Training bestimmte Muste bekannt sind und dann eine verwaschene Kante auch als Kante detektiert wird. Der Algorithmus verändert die Pixel daraufhin so, dass eine scharfe Kante daraus wird, behält aber die Farben bei.

Dass es dabei zu Fehlern kommen kann, wenn das falsche Muster erkannt wurde, sieht man ja an den Artefakten. Da muss man dann soviel Training in den Algorithmus stecken, bis die Fehler vernachlässigbar wenig werden.
Ist halt nur ein anschauliches Beispiel. Ist durchaus eher Endgame als aktuell Anwendung aber mit Musterkennung vorstellbar. Ohne weitere Informationen wird es immer zu Fehlern kommen. Denn in der niedrigen Auflösung ist es irgendwann nicht ersichtlich ob es eine weiche oder scharfe Kante sein sollte. Wenns richtig smart wird und wenn Objekte überhaupt in hoher Qualität hinterlegt sind, könnte für einen Frame eine hochqualitative bzw. hochaufgelöste Version gerendert werden und diese Informationen genutzt werden. Passiert das ohne lag könnte die KI viel richtig korrigieren. Das hat aber viele Probleme. Es ist Teilweise schon mühsam Objekte und Texturen in normaler Qualität rechtzeitig Nachzuladen wenn die Szenerie schnell wechselt, wie soll da Zeit sein für eine detalierte Version bevor man wieder aus dem Raum raus rennt. Bewegt man sich langsam benötigt man auch nicht viele FPS damit das Bild flüssig aussieht, dann könnte man also brute force hochaufgelöst rendern und ggfls Zwischenbilder faken. Um solche Strategien zu fahren müsste die KI aber wohl schon zugriff auf die Engine haben. Und aus Fallout76 Reviews weiß ich das die Bethesda Engine bei weiter entfernten Texturen den Detailgrad reduziert, bzw. bei Fallout76 auch relativ nahe Texturen :D und das sehr abrupt.

@ZeroZerp
Die Informationen von umliegenden oder selbst vorherigen nativen Bildern zurate ziehen ist wohl das beste was man ohne Datenbanken oder ohne hochaufgelöste Versionen zu haben, machen kann. Die möglichkeit steht bei einem upsamplen von einem Bild nicht zur Verfügung, bei Bewegtbildern ist das halt Teil der "Interpretation" die ich meinte. Deshalb ist die Datenmenge bei einem Film und somit ja auch der Informationshalt so viel höher als bei einem jpg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Penicillin und [DsO] BuRNeR
ZeroZerp schrieb:
Ein Kompromiss wozu? Wenn sie noch ein bißchen dran schrauben kriegst Du mit 1/2 des Rechenaufwandes ein Bild was 1/3 über der Auflösungsqualität des nativen Bildes liegt (funktioniert Szenenabhängig bereits jetzt).


Es wird anstatt TAA implementiert / das kannst Du 1:1 statt des TAA Aufrufes einfügen. Also kein Mehraufwand, weil die deutlich überwiegende Zahl an Titeln inzwischen temporales antialias benutzen.

Sorry, aber das ist Quark was du erzählst. Das ist keine einfache 1:1 Implementierung die man als Funktion einfach ON/OFF schaltet. Da müssen langwierige Deeplearningprozesse durchlaufen, welche noch händisch und aufwendig korrigiert werden. Dann hat man eine Matrix, mit deren man die Tensors füttert.

Das ist auch eine Fehlinformation- Es muss nicht mehr gefüttert werden. Der Basisdatensatz ist inzwischen ausreichend, um universell auf alle Spiele angewendet werden zu können.

Deshalb funktioniert DLSS bei jeder Anwendung?
Das ist doch von dir frei erfunden ohne jeglichen Bezug dazu.

Es muss nicht mehr gezielt trainiert werden, wobei der Inferencing- Datensatz natürlich trotzdem laufend erweitert wird.

Doch muss es. Weil das ganze auf Deeplearning basiert und man für jedes Spiel einen eigens dafür kreierten Algorithmus benötigt, weil es sonst scheiße aussieht.

Die Frage stellst Du jetzt nicht wirklich, oder?

Warum ein Verfahren, welches einfach mal so zwischen 60% und 300% so gut wie Kostenlose Leistung bringt?

Natürlich stelle ich diese Frage. Nativ ist nativ und hochskaliert ist hochskaliert. Man kann nicht aus wenig viel machen.
Am Ende ist es immer ein Kompromiss und die Qualität leidet darunter, so wie man es sehr schön an den Bilder hier erkennen kann.

Bei 4K das AA abschalten, aber DLSS 2.0 als "Kompromiss" sehen?
Da hast Du aber eine außergewöhnlich selektive Wahrnehmung.

:confused_alt:

Ein AA ist ein Filter um Kanten zu Glätten. Dabei wird das Ursprungsmaterial verfälscht und die Texturen matschig. Diese Bilderfilterung wurde damals eingeführt, als die Auflösungen noch nicht besonders hoch waren und der Speicher sehr teuer und knapp war und man dadurch eine höhere Auflösung quasi simuliert hat um Speicher zu sparen. Das hat das Bild merklich verbessert, da man vorallem Rundungen nun besser optisch darstellen konnte ohne diese sichtbare Treppenbildung.

Aber ab 4K ist so eine Kantenglättung einfach nicht mehr nötig, da die Pixel so klein geworden sind, dass man sie nur schwer erkennen kann.
Ergo: Ab 4K ist AA als Kantenglättung nicht mehr nötig und die Texturen werden 1:1 angezeigt und wirken nicht verwaschen und trotzdem glatt und rund sowie knackig scharf

Vielleicht solltest du deine Wahrnehmung etwas korrigieren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [DsO] BuRNeR
Ich finde bei der 2ten Bildreihe, bei dem Schlauch oben im Bild geht einiges an Schärfe mit DLSS verloren.
Bei Wolfenstein jedoch sieht für mich DLSS quality besser aus als nativ.
Scheint also auch bei jeden Spiel leicht anders zu arbeiten und würde erklären warum bei WJB der fps Gewinn geringer ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
miagi schrieb:
Wie soll die KI raffen das der Text auf deutsch nicht mehr lesbar ist, er aber auf deutsch lesbar sein soll und zudem es eine auf deutsch lesbare Version der Texturdatei gibt? Einfach eine höher Aufgelöste Texturdatei einzusetzen benötigt keinerlei Post-Processing, wieso lädt der das nicht gleich?
Die meisten guten Texturen sind ja höher aufgelöst vorhanden, aber je nach Größe und Entfernung im Game sowie dem Setting werden diese eben nicht sauber dargestellt.

Das eigentlich gerenderte Bild ist hier ja zB teils 1080p bei 4k Out. Da kann die Textur noch so hoch aufgelöst da liegen, das Rednern gibt die Auflösung vor. Die AI interpoliert das ja nur möglichst intelligent, kann da aber nichts anhand der original Textur "einsetzen"
Im Idealfall sieht der Unterschied nur klein aus.
Ergänzung ()

DarkerThanBlack schrieb:
Deshalb funktioniert DLSS bei jeder Anwendung?
Das ist doch von dir frei erfunden ohne jeglichen Bezug dazu.
Die Chancen stehen ja nicht so schlecht dass es wie ein allgemeiner AA Modi bald überall zugeschaltet werden kann, quasi mit Ausgang ungewiss. Ein universal KI Modell.
Parallel dazu kann man ja dennoch einzelne Titeln optimieren.

Das fängt bereits beim neuronalen Netzwerk selbst an. Während bis jetzt jedes Spiel separat vom KI-Algorithmus antrainiert werden musste, gibt es mit DLSS 2.0 ein einziges Netzwerk, das auf alle Spiele angewendet werden kann. Dadurch erhofft sich Nvidia unter anderem eine deutlich schnellere Verbreitung der noch neuen Technologie.

Edit: ich weiß ja nicht wie es euch geht aber das letzte was ich in Games umstelle ist die Auflösung. Da bleibt man doch quasi immer auf native.
Und wenn man eine krumme Auflösung einstellt siehts sofort richtig assig unscharf aus.

Wenn ich überlege was da mit DLSS an Performance drin ist sind die Grafikfehler die CB hier erwähnt vermutlich ein kleines Übel verglichen zu dem wie es in kleiner krummer Auflösung aussehen würde. Ich erwarte da kein natives Bild, aber gerade die Schärfe soll hier bei 2.0 gut sein. Würde es gerne mal testen. Naja, vllt werde ich Amped.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux, miagi und Mcr-King
DarkerThanBlack schrieb:
Sorry, aber das ist Quark was du erzählst. Das ist keine einfache 1:1 Implementierung die man als Funktion einfach ON/OFF schaltet. Da müssen langwierige Deeplearningprozesse durchlaufen, welche noch händisch und aufwendig korrigiert werden. Dann hat man eine Matrix, mit denen man die Tensors füttert.
DLSS2.0 ist inzwischen eine im Treiber integrierte API, die Du als Blackbox aus Deiner Entwicklung aus aufrufen kannst. Da wird nichts mehr "gezielt" von dem Spiel gefüttert.

Es muss nicht mehr pro Spiel trainiert werden. Hol Dir den UE4 Branch mit der DLSS2.0 Integration, lade eine x- Beliebige Szene und aktiviere beim Kompilieren die DLSS2.0 Option.

Voilá - Es funktioniert. Ganz ohne Training.

Deshalb funktioniert DLSS bei jeder Anwendung?
Das ist doch von dir frei erfunden ohne jeglichen Bezug dazu.
Wie lange willst Du einer Mustererkennungs- KI denn antrainieren, was Kanten sind, die zu Aliasing tendieren?
Natürlich ist der Datensatz irgendwann so weit, dass er weiss, wann eine Kante zum Aliasing neigt und wo gefiltert werden muss.


Doch muss es. Weil das ganze auf Deeplearning basiert und man für jedes Spiel eine eigens dafür kreierten Algorithmus benötigt, weil sonnst scheiße aussieht.
Was glaubst Du, was nvidia jetzt 1,5 Jahre gemacht hat? -> Ich verrats Dir: Die KI trainiert.

Wenn Du irgendwann mal weisst, wies Fahrradfahren geht, dann beherrschst Du das auf den unterschiedlichsten Drahteseln. -> Das ist ja überhaupt der Kernnutzen einer DL KI.

Natürlich stelle ich diese Frage. Nativ ist nativ und hochskaliert ist hochskaliert. Man kann nicht aus wenig viel machen.
Du machst aus wenig durch kontinuierliches Sammeln weiterer Informationen über die Frames viel und daraus dann wieder weniger, das ist der Unterschied.

Am Ende ist es immer ein Kompromiss und die Qualität leidet darunter, so wie man es sehr schön an den Bilder hier erkennen kann.
Ich habe genügend Bilder, auf der klar zu erkennen ist, dass DLSS in einigen Szenarien auch das deutlich bessere Bild liefert.
Der Algorithmus ist noch nicht perfekt, aber in Summe gleich der nativen Auflösung.

Der einzige Kompromiss, den man eingehen muss ist, dass man ein Frame zusätzlichen Lag generiert.

Ein AA ist ein Filter um Kanten zu Glätten. Dabei wird das Ursprungsmaterial verfälscht und die Texturen matschig.
Es gibt unterschiedlichste Arten von AA. Supersampling AA (das aufwändigste) macht überhaupt nichts matschig. Im Gegenteil- Details werden besser herausgearbeitet und Kantenflimmern je nach Supersampling- Faktor komplett eliminiert. Kostet halt einen Haufen Leistung.

Diese Bilderfilterung wurde damals eingeführt, als die Auflösungen noch nicht besonders hoch waren und man dadurch eine höhere Auflösung quasi simuliert hat.
Diese Bildfilterung wurde einzig und allein eingeführt um den Flimmer- oder Treppeneffekt von zu kontraststarken Pixelübergängen zu glätten.

Sonst hätte man eine einzige Flimmerhölle ertragen müssen.
z.B. hier ab Sekunde 25

Das hat das Bild merklich verbessert, da man vorallem Rundungen nun besser optisch darstellen konnte ohne diese sichtbare Treppenbildung.
Du meinst SSAA, also genau das, was DLSS zu einem gewissen Grad macht.

Aber ab 4K ist so eine Kantenglättung einfach nicht mehr nötig, da die Pixel so klein geworden sind, dass man sie nur schwer erkennen kann.
Das ist eine unzulässige Verallgemeinerung. Denn nicht nur die Auflösung ist ein Faktor, sondern auch die Diagonale.

So kannst Du auch bei 4K Auflösung bei entsprechend großer Diagonale und entsprechend geringem Sitzabstand auf eine ähnliche PPD- Zahl (Pixel per degree) kommen, wie mit einem FullHD Bildschirm kleinerer Diagonale und größerem Sitzabstand.

Ergo: Ab 4K ist AA als Kantenglättung nicht mehr nötig und die Texturen werden 1:1 angezeigt und wirken nicht verwaschen und trotzdem glatt und rund.
Siehe oben.

Vielleicht solltest du deine Wahrnehmung etwas korrigieren...
Die ist schon ganz gut so, wie sie ist...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99, Penicillin, captain kirk und 3 andere
MrNejo schrieb:
In einigen Szenarien hat man allerdings >50FPS anstatt ~25 und das ist dann eben ein Einsatzbereich für DLSS, vor allem im Zusammenspiel mit Raytracing.

Allgemein sehr beeindruckende Ergebnisse und eine Technologie mit einer Menge Potential.

Schon komisch, werden doch die Karten für ultimatives 4k-Gaming und 140 Hz beworben ...

NVidia arbeitet an neuen Lösungen und entwickelt gute Karten. Man fragt sich, warum die ihr manisches Marketing nötig haben.
 
Krautmaster schrieb:
ich weiß ja nicht wie es euch geht aber das letzte was ich in Games umstelle ist die Auflösung. Da bleibt man doch quasi immer auf native.
Und wenn man eine krumme Auflösung einstellt siehts sofort richtig assig unscharf aus.

Seitdem Spiele Skalierungsslider haben und seitdem es "GPU Scaling" im Nvidia Treiber gibt, der automatisch nachschärft, stelle ich doch tatsächlich öfter mal von UHD auf 1440p runter mit meiner GTX 1080 :)

Sieht lange nicht mehr so grottig aus wie früher. Gerade die Nvidia Variante finde ich echt ok. Klar, das Bild wird etwas unschärfer, aber die Stärke des Schärfefilters kann man ja immer einstellen.

Ich finde, dass auf meinen 24 Zoll mit den aktuellen Algorithmen 1440p oder 1620p skaliert mit hohen Details meistens besser aussieht als 2160p mit niedrigen Details. Aber das ist völlig subjektiv. DLSS jedenfalls ist ja einmal eine ganz andere Geschiche und ein echter Gamechanger. Schade, dass die alte GTX das nicht kann.
 
  • Gefällt mir
Reaktionen: Wintermute, Mcr-King und Krautmaster
Taxxor schrieb:
Ich kann echt nur hoffen, dass AMD ein vergleichbares Feature in naher Zukunft zu bieten hat, ansonsten wird man bald tatsächlich mit Nvidia Karten überall DLSS 3.0 , 4.0 ect. aktivieren können und bei gleicher Optik einfach mal 100% vor der AMD Konkurrenz liegen können.
Und das wäre bei Nvidias Preispolitik auch für Nvidia Käufer wirklich nicht gut^^


Passend übrigens, dass der letzte Retro Artikel sich mit den Unterschieden bei der Optik von AF bei älteren ATI und Nvidia Karten beschäftigt hat, ich vermute, wir werden in 2-3 Jahren das gleiche Spiel mit DLSS und dem (hoffentlich verfügbaren) AMD Gegenpart sehen.

Da sagst du was. Nvidia hat dan preislich freie Fahrt, dass aber nur in einer Richtung.
 
  • Gefällt mir
Reaktionen: Mcr-King
ZeroZerp schrieb:
Die ist schon ganz gut so, wie sie ist...

Wie schon gesagt. Deine Wahrnehmung scheint etwas schief zu liegen.

Es gibt keine K.I. die alles regelt. Das sind nur alles Algorithmen, die individuell angepasst werden müssen.
Das NVIDIA dazu 1,5 Jahre benötigt um bei ein paar Spielen ein einigermaßen brauchbar Ergebnis hervorbringen zu können oder auch nicht, zeigt doch schon den immensen Aufwand der betrieben werden muss und eben NICHT einfach so auf alle Spiel übertragbar ist!

Du kannst ruhig weiter die Augen dazu verschließen und so tun als ob DLSS der Heilige Gral wäre. Aber es gibt auch Leute, die das ganze sehr kritisch sehen und sich eben nicht blind darauf stürzen.
Am Ende ist es wie jedes Feature. Nur ein Feature...

Und AA ist ein Kantenglättungsfilter, egal wie du es erklären möchtest...
https://de.wikipedia.org/wiki/Antialiasing_(Computergrafik)

Ich brauche es nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
DarkerThanBlack schrieb:
Das NVIDIA dazu 1,5 Jahre benötigt um bei ein paar Spielen ein einigermaßen brauchbar Ergebnis hervorbringen zu können oder auch nicht, zeigt doch schon den immensen Aufwand der betrieben werden muss und eben NICHT einfach so auf alle Spiel übertragbar ist!
DLSS 2.0 ist doch genau das, worauf man 1,5 Jahre hingearbeitet hat, um es eben nicht mehr für einzelne Spiele anwenden und optimieren zu müssen, wie man es noch bei DLSS 1.9 tun musste.

Du argumentierst hier nur gegen DLSS 1.9

Ich für meinen Teil bin echt gespannt auf die nächste Zeit, in der man für einen 60-70% Performance Schub nicht mal mehr die GPU aufrüsten, sondern einfach nur einen Haken setzen muss, bei gleichzeitiger Aufrüstung der GPU dann sogar 100%+ erhalten kann.

Wenn ich mir da das Control Video weiter oben anschaue und den dortigen Vergleich zwischen 1080p und DLSS 540p, dann staunt man echt nicht schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99, Esenel und .Sentinel.
@DarkerThanBlack
Du hast halt anscheinend wenig Ahnung von Themen wie Programmierung oder dem Anlernen eines Algorithmus.
Man hat bei solchen Themen immer einen hohen initialen Aufwand.

Der ist nun mit DLSS 2.0 überwunden.
Version 1.x war scheiße. Ohne Frage.

Aber mit der neuen Methode - ein Algorithmus für alles - wirds nun viel schneller und einfacher gehn.
 
  • Gefällt mir
Reaktionen: Strubbel99, v_ossi, adAstra und 2 andere
Natürlich...Wir haben ja jetzt sämtliche Spiele die DLSS 2.0 unterstützen und alles läuft perfekt...
Ist ja universell und kann für alles eingesetzt werden...Träumt mal ruhig weiter...
 
  • Gefällt mir
Reaktionen: Mcr-King
DarkerThanBlack schrieb:
Es gibt keine K.I. die alles regelt. Das sind nur alles Algorithmen,
Ja was schreib ich mir denn hier die ganze Zeit die Finger wund!
Ja!!- Die regelt nicht alles. Aber sie ist ein Teil des Ganzen.

die individuell angepasst werden müssen.
Nicht mehr! Du kannst es JETZT sofort ausprobieren. Die UE4 gibts umsonst!

Das NVIDIA dazu 1,5 Jahre benötigt um bei ein paar Spielen ein einigermaßen brauchbar Ergebnis hervorbringen zu können oder auch nicht, zeigt doch schon den immensen Aufwand der betrieben werden muss und eben NICHT einfach so auf alle Spiel übertragbar ist!
Siehe Kommentar von Taxxor

Du kannst ruhig weiter die Augen dazu verschließen und so tun als ob DLSS der Heilige Gral wäre. Aber es gibt auch Leute, die das ganze sehr kritisch sehen und sich eben nicht blind darauf stürzen.
Am Ende ist es wie jedes Feature. Nur ein Feature...
Ich seh doch, was sich auf meinem Bildschirm abspielt. Ich seh auch die Bildqualität und wenn einer in diesem Forum ungefähr 1000 Bilder an DLSS Vergleichsbildern inzwischen gesammelt hat, dann bin ich das...

Und AA ist ein Kantenglättungsfilter, egal wie du es erklären möchtest...
Genau das habe ich auch so erklärt.

Ich brauche es nicht.
Dann nutz es nicht und verschenke in Zukunft Leistung und Bildqualität zugleich.
Ist ja in Ordnung, wenn Du auf schlechtere Performance und weniger detaillierte Grafik stehst.

Danke an Igor für die Beispiele:

Schau Dir das an @DarkerThanBlack und nenne mir den Nachteil:
https://www.igorslab.de/wp-content/uploads/2020/03/05-Mechwarrior-5.jpg
https://www.igorslab.de/wp-content/uploads/2020/03/06-Control.jpg

http://game2gether.de/wp-content/up...he-moon-nvidia-dlss-2-0-performance-boost.png

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99, captain kirk, adAstra und 3 andere
DarkerThanBlack schrieb:
Du kannst ruhig weiter die Augen dazu verschließen und so tun als ob DLSS der Heilige Gral wäre. Aber es gibt auch Leute, die das ganze sehr kritisch sehen und sich eben nicht blind darauf stürzen.

Ja wirklich, immer schön kritisch bleiben! Man muss auch mal die negativen Seiten für den Anwender sehen, wenn dieses Feature jetzt in immer mehr Games kommt. Welche waren das noch mal? Brauchst nicht antworten.
 
  • Gefällt mir
Reaktionen: milliardo, captain kirk, Mcr-King und eine weitere Person
DarkerThanBlack schrieb:
Es gibt keine K.I. die alles regelt. Das sind nur alles Algorithmen, die individuell angepasst werden müssen
Hm das klingt als hättest du das AI Konzept nicht verstanden.
Man passt hier kein Algorithmus an sondern allen falls das KI Modell.

Es gibt sicher klassische Logik außen herum klar aber das Modell selbst prägt sich selbst anhand von Training aus.

Da gibt's super interessante Videos dazu. Ich such dir Mal eins raus :)

 
  • Gefällt mir
Reaktionen: Strubbel99, captain kirk, adAstra und 3 andere
Das überfordert wohl den Herren.
 
  • Gefällt mir
Reaktionen: icetom und Mcr-King

Ist etwas komplexer aber eigentlich ist die Sache dahinter mega trivial und genial.
Als Programmierer fallen mir da schon zig Anwendungsbeispiele ein, gerade für Probleme die man so einfach garnicht erfassen kann, ist DL ideal.

Sehr easy ja das, guter Einstieg

Edit: es gibt sicher noch etwas bessere Videos, das Prinzip dahinter ja immer dasselbe. Man füttert das Logik freie KI Modell mit Daten und das gewichtet die Knoten des neuronale Netzwerks so dass der Fehler möglichst klein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Penicillin
Zurück
Oben