News 3DMark: DLSS-Feature-Test für den Grafikbenchmark

@grossernagus
Es funktioniert auch ohne feste Kameraeinstellung. Somit liegst Du falsch...
Du hast wohl auch das DL in DLSS nicht verstanden.

Zudem konterkarriert das Rendern eines Videos den Zweck einer Demo, die beweisen soll, dass das alles in Echtzeit berechnet werden kann.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Lübke82 und domian
grossernagus schrieb:
Haha, was eine Kunst in einem Benchmark, der immer die gleiche Kameraeinstellung hat. Genauso gut könnte man das vorrendern.
wenn es keine Kunst ist hätte die Firma auf deinem Profilbild das ja schon vor 10 jahren bringen können^^

sorry manchmal kann ich mir das ja nicht verkneifen :D
 
  • Gefällt mir
Reaktionen: Lübke82
@ZeroZerp Auch wenn ich dir hier und an anderer Stelle bezüglich der Vorteile neuer technischer Ansätze zustimme, deine Posts würden sich wesentlich... 'runder' lesen, wenn du berechtigte Kritik und Kritiker nicht immer als technophobe Fortschrittsverweigerer abtun würdest.

Kein Mensch spielt Benchmarks.
Die Implementierung hier ist verschwendete Liebesmüh.
Und natürlich funktioniert DLSS hier gut, man hat schließlich immer die gleiche Szene, da kann man den Algorithmus 'lernen' lassen, bis man (gezielte Übertreibung) quasi ein Video guckt.
 
  • Gefällt mir
Reaktionen: paulemannsen, onkel-foehn, Heschel und 2 andere
duskstalker schrieb:
der moment, wenn 1440p aussieht wie 720p.

Anhang anzeigen 749795

hab selten so ein unscharfes 1440p gesehen. ob da wohl wer beim TAA nachgeholfen hat?
Und mal wieder das vom Final Fantasy DLSS Benchmark bekannte überzeichnen und schlucken von Details, wodurch das Bild deutlich verändert wird....
 
auch im Video zu DLSS in 3DMark sieht man die ein oder andere Schwäche von DLSS, angesichts der insgesamt wie ich finde besseren BQ und zudem besseren Performance aber vielversprechend.
 
  • Gefällt mir
Reaktionen: Lübke82 und .Sentinel.
mkl1 schrieb:
Und bei dir so, kriegst du noch was mit oder gibst du auch was sinnvolles von dir?
Gut, für dich zum Mitschreiben, weil du wohl selbst nicht darauf zu kommen scheinst: AMD kopiert nicht nur, wie von dir behauptet. Sollte jeder wissen daß dem nicht so ist. Belege kannst du dir zuhauf in den unendlichen Weiten des Weltnetzes zusammensuchen.
 
ZeroZerp schrieb:
Mantle hat sich durchgesetzt, bei den Primitive Shadern haben sies erst garnicht versucht und wie oben geschrieben haben sie deren Demonstration von RPM selbst nie veröffentlicht.

Mantle per se hat sich nie durchgesetzt, sondern Vulkan, welcher dann durch die Khronos Group als offener Standard etabliert wurde. Mantle hat nur die Grundlage für die Khronos Group geschaffen um daraus den Vulkan Standard zu basteln.
Genauso wie Nvidia bei Adaptive Sync mitgewirkt hat....NICHT. Sie haben sogar die Eier gehabt den offenen Standard in ihren Laptop als ihr exklusives G-Sync zu vermarkten, so dreist muss man erst sein.

BTW:
Der Grund, warum es Mantle überhaupt gibt ist wesentlich trauriger, schließlich kam die API in 2013 und somit zwei Jahre vor DX12 und Vulkan erst drei Jahr nach Mantle. Nach 5 Jahren DX 11 und absolutem Stillstand bei M$ auch absolut nachvollziehbar.

Genau- Und später hat sich dann herausgestellt, dass der DX12 Support deshalb fallengelassen wurde, weil man damals die API nicht berherrscht hat und sämtliche Versuche mit einer deutlich schlechteren Leistung als mit DX11 gescheitert sind......
.....
Genau- Damit hast Du genau erkannt, warum man die ersten DX12 Umsetzungen irgendwann ad Acta gelegt hat. Der Aufwand war erheblich, die Kosten hoch und der Erfolg nicht vorhanden bzw. die Geschwindigkeit entgegen der Erwartungen durchweg schlecht. Wieso Geld verbrennen?

Damals wäre gut, auch wenn AoTS nur ein "Benchmark" ist, war es eines der Beispiele was gut lief, ebenso Sniper Elite. Ein aktuelles Beispiel ist Hitman 2, es hat warum auch immer nur DX11, der Vorgänger hatte beides und Zufälligerweise läuft DX 12 bei Hitman 1 performanter als unter DX11 sowohl beim 1er und 2er.
Das 2er sieht einfach schlechter aus und hat sogar eine schlechtere Performance, egal was die da angestellt haben, dass ist der totale Blödsinn. Die Basis vom ersten Spiel hätte man sicherlich Problemlos weiter benutzen können und eben neue Assets integrieren können, dass wäre absolut im Rahmen des machbaren gewesen und hätte kaum Geld gekostet.
Ein gutes Beispiel ist auch Battlefield 5, bis RTX oder DXR integriert wurden lief die DX 11 Version besser als die DX 12 Version, als ein gewisser Hersteller plötzlich mit RTX glänzen konnte, kam urplötzlich ein Patch für das Spiel der die DX 12 Performance über die der DX 11 API steigen lies...

Dass es performante DX12 Spiele gibt lässt sich jedoch nicht abstreiten, auch dass diese immer weniger werden und von der Oberfläche verschwinden, dass ist einfach eine komplett falsche Richtung in die alles geht.

Bei der eingeschläferten DX 12 zeige ich ganz Bewusst auf die Implementierung bei ARK.
Erst hieß es die API kommt im Oktober 2016, darauf hin folgt die Ankündigung, dass Nvidia mit den Entwicklern kooperiert und voìla hat man nicht mal ein Statement mehr gehört, es wurde einfach komplett totgeschwiegen nicht mal eine Begründung hat man genannt, ich bin mir ziemlich sicher, dass es andere Gründe gab und ich bin ich mir noch viel sicherer dabei, dass es daran liegt, dass Nvidia Karten in einem Spiel was konstant CPU-limitert ist durch den geringeren Overhead in DX11 besser darstehen als in DX12...

Abgesehen davon ist die Konsequent von Fortschritt, dass man altes mal stehen lassen muss und neues entwickeln muss, DX 11 gibt es sage und schreibe schon 10 Jahre, abgesehen davon, dass sich die Entwickler immer mehr auf die API festfahren sehe ich null Fortschritt und in 5 Jahren wird es auch nicht besser aussehen
außer Nvidia hat mal lust mitzumischen.. siehe DXR, jetzt wo man plötzlich DX12 für die eigene Technik braucht, regnet es erstmal ein Battlefield, Metro und Tomb Raider mit DX12....



Der User ist doch derjenige, der auch jetzt noch fordert, dass im Grafiksektor bitte keine Fortschritte gemacht werden sollen. Man will vom alten nur in schneller und höher aufgelöst.
Da ist nunmal dann kein Platz für Innovation. Sieht man ja schon daran, wie einige hier über das RTX Featureset herziehen.
...
Sei doch froh, dass sie was neues bringen. Sonst hätten wir noch 10 Jahre Stillstand.


So Spielereien wie DLSS können die sich getrost in die Haare schmieren, dass sind soweit nur Hardware gebundene Exklusivitäten.
Da bin ich sogar ehrlich und stehe eher auf der Seite von RTX, das bringt einen ähnlichen Fortschritt wie damals die Tesselation mit DX11, nur soll sich Nvidia bloß keinen Scheiß erlauben und wie damals unnütz hohe Tesselations Faktoren verwenden um die Konkurrenz zu manipulieren....
Ich sehe es schon kommen " Neues Batman mit unsichtbaren Rays verlangsamt AMD Karten... :D"


Du könntest nicht weiter daneben liegen....
Du redest von einem Benchmark, welcher absolut nicht repräsentativ für ein richtiges Spiel ist.
Vllt. hat Nvidia für dieses Szenario einen Supercomputer mit genug Leistung organisiert nur um die Szene perfekt zu analysieren und entsprechend den Algorithmus nur für den Benchmark so zu optimieren, dass der Verlust der BQ nicht aufällt.
dh. wiederum, dass jedes Spiel mit derselben Technik ein schlechteres Bild liefern wird..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel und grossernagus
Esenel schrieb:
Hm. Erstmal der Treiber bringt generell bessere Leistung 44.44fps :-D

https://www.3dmark.com/pr/34630

Aber wo aktiviere ich DLSS. Mal weitersuchen.
Der DLSS Benchmark ist eine eigene App. Kommt ganz unten in der Benchmarkliste. Mußt runter scrollen.
1549318185120.png
 
  • Gefällt mir
Reaktionen: Lübke82, .Sentinel. und Esenel
v_ossi schrieb:
@ZeroZerp Auch wenn ich dir hier und an anderer Stelle bezüglich der Vorteile neuer technischer Ansätze zustimme, deine Posts würden sich wesentlich... 'runder' lesen, wenn du berechtigte Kritik und Kritiker nicht immer als technophobe Fortschrittsverweigerer abtun würdest.

Der Fortschritt ist von allen gewollt, jedoch will hier keiner den Weg dahin gehen.
Keiner will Geld dafür zahlen, keiner will den Entwicklungsweg einer Technologie mitgehen, sondern eine Karte, die von heute auf morgen Raytracing in 4K berherrscht für 250€ und mit 200 verfügbaren AAA Titeln.

Das ist die absurde Situation in der wir uns befinden. Eine so geartete Einführung gab es noch nie im Techniksektor und wird es auch nie geben. Und da frag ich mich schon, wie weit manche Konsumenten inzwischen von der Realität einer technischen Entwicklung weg sind.

Das trainieren des neuronalen Netzes für DLSS kostet Zeit- Je länger das Ding trainiert wird umso besser werden die Ergebnisse. Auch hier stehen wir am Anfang und man glaubt, dass das jetzt schon alles perfekt sein muss.

Und dafür, dass wir diebezüglich komplett am Anfang stehen funktioniert es bereits jetzt sehr, sehr gut.

Ich betone zudem immer wieder, dass es besser für denjenigen ist, der nichts mit der neuen Technik anfangen kann, sich keine dieser RTX Karten zu kaufen.
Kein Mensch braucht diese Karten (wenn er jetzt nicht gerade auf die Leistung einer 2080TI angewiesen ist) und sich für die neuen Techniken interessiert.

Hier bezeugen dann einige ihr Desinteresse, garnieren es aber dann auch noch mit technischen Falschaussagen, um die Technik zu diffamieren.

Kein Mensch spielt Benchmarks.
Die Demo- Scene und Benchmarkszene waren wie die Formel 1 schon immer Trieb- und Innovationskraft auf dem Computersektor. Man zeigt was möglich ist und was wir die nächsten Jahre dann in Spiele-/Anwendungsform gepresst erwarten können.

Die Implementierung hier ist verschwendete Liebesmüh.
Mich hat es durchaus interessiert, was DLSS für einen Impact hat und wie es sich in Aktion zeigt.

Wenn Du Dir nämlich auf einem 62" 4K Bildschirm das ganze in Aktion ansiehst, dann fällt Dir erstmal auf, dass beim Wechsel auf DLSS die allgemeine Bildqualität im Vergleich zu TAA erhöht wird.

Und in Bewegtszenen wird Dir bis auf eine Verbesserung, mangels Vergeichsmöglichkeiten ein Detailunterschied an einer Stelle, die vielleicht noch nicht mal voll im Mittenfokus steht und vereinzelt schlechter aussieht, nichts Negatives auffallen.

Es zählt immer das, was hinten rauskommt. Und das ist ein geglättetes, schärferes Bild einhergehend mit einem beträchtlichen Performanceschub, wo man um den zu erreichen bei anderen Titeln massiv an allen Stellschrauben drehen müsste, so dass das Endergebnis mit dem ursprünglichen Bild kaum mehr was gemein hat.

Und natürlich funktioniert DLSS hier gut, man hat schließlich immer die gleiche Szene, da kann man den Algorithmus 'lernen' lassen, bis man (gezielte Übertreibung) quasi ein Video guckt.
Genau das kannst Du aber mit jedem erhältlichen Computerspiel auch in dieser Qualität durchführen.
Du kannst für jedes Setting (Außenwelt, Indoor, Gebirge etc.) Trainings durchführen und dann für jedes einzelne Szenario ein optimales DLSS gewährleisten.
Das Training dauert einfach länger.

DLSS kannst Du so weit treiben, dass Du das neuronale Netz drauf trainierst in der Mustererkennung z.B. Berge und deren Details/Struktur zu analysieren.

Erkennt nun die Mustererkennung im Spiel eine verwaschen aufgelöste Gebirgskette, kann das so weit gehen, dass diese aus dem, was sie über Berge gelernt hat, diesen dann mit einer passenden Tapete belegt.
Mit diesen neuen Möglichkeiten lässt sich auch allerlei Schindluder treiben :) :

Die AI erkennt oben die Struktur "Mensch" mit seinen Bewegungsvektoren und überträgt die Information auf wiederum durch ein gelerntes Basisset und AI generierten Menschen bzw. das Zielobjekt.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, domian und noxon
Danke @pietcux .
So nun.

Es sieht mit DLSS schärfer aus.
Aber gut, TAA nutzt man ja eigentlich eh nicht. Außer man ist dazu gezwungen wie in BF V :-D

PortRoyal_Feature_Test.png
 
grossernagus schrieb:
Haha, was eine Kunst in einem Benchmark, der immer die gleiche Kameraeinstellung hat. Genauso gut könnte man das vorrendern.
Haha. Von nix ne Ahnung, aber dummes Zeug schreiben.
 
  • Gefällt mir
Reaktionen: Lübke82 und domian
aivazi schrieb:
Vllt. hat Nvidia für dieses Szenario einen Supercomputer mit genug Leistung organisiert nur um die Szene perfekt zu analysieren und entsprechend den Algorithmus nur für den Benchmark so zu optimieren, dass der Verlust der BQ nicht aufällt.
dh. wiederum, dass jedes Spiel mit derselben Technik ein schlechteres Bild liefern wird..
Du weisst wirklich nicht, was DLSS macht...

Aber bittesehr:
Bei DLSS handelt es sich um einen KI-Algorithmus, der auf einem Supercomputer antrainiert wird, 64 AA-Samples auf ein Bild anzuwenden. Auf dem heimischen Rechner wird dann mit Hilfe der Tensor-Kerne auf der GeForce RTX 2070, GeForce RTX 2080 oder der GeForce RTX 2080 Ti der erlernte Algorithmus angewendet.

NVIDIA nutzt die eigene Cloud-Hardware in Form des SATURN-V-Supercomputers, um auf mehreren hundert oder gar tausenden Tesla V100 das Training der Deep-Learning-Netzwerke vorzunehmen. Ein sogenannter Temporal Stable Convolutional Autoencoder berechnet dazu 500 Milliarden FP16-Operationen pro Sekunde und erstellt 64 Samples, die als Basis einer idealen Darstellung herangezogen werden können. Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden.

Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß.

Die nehmen ein Spiel, und füttern die Supercomputer mit Szenen daraus, die mit 64 Fachen Supersampling als "Zielqualität" angegeben werden.

Im Anschluss werden durch die daraus erhaltenen Verhaltensdaten von den Tensor- Cores Algorithmen auf das entsprechende Bild angewandt und diese versuchen die Szene durch die gelernten Eigenschaften auf diesen Stand hochzurechnen, ohne 64 Fach Supersampeln zu müssen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und Esenel
@ZeroZerp Vlt. missfällt 'uns' nur der Weg, den Nvidia 'uns' aufzwingen will.
Vlt. denken 'wir', dass es bessere und kundenfreundlicher Weg geben könnte um RT, DLSS oder gleichwertige Alternativen an den Markt zu bringen.

Genau diese unkritische Art stört mich bei deinen Posts immer.
Als ob Nvidia, Intel oder AMD immer im Interesse der Kunden handeln würden...

Und das Formel 1 Beispiel ist eher kontraproduktiv, immerhin kauft Niemand der seinen Abakus noch bis 4 schieben kann, sein Auto nach dem Ergebnissen des letzten Grand Prix.
Benchmark und Formel 1, beides ist von einem technischen Standpunkt aus interessant, aber nur bedingt relevant in der echten Welt. Ist ja nicht so, dass es nicht schon genügend gute und bisweilen revolutionäre Ideen in der F1 gab, die es nie in die Serie geschafft haben.

Und der DLSS Algorithmus wird bei dem Benchmark immer besser funktionieren, als in Spielen. Das folgt doch schon der inneren Logik deiner eigenen Ausführungen und Erklärungen.

@noxon Gutes Argument. :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkel-foehn und grossernagus
v_ossi schrieb:
@ZeroZerp Vlt. missfällt 'uns' nur der Weg, den Nvidia 'uns' aufzwingen will.
Vlt. denken 'wir', dass es bessere und kundenfreundlicher Weg geben könnte um RT, DLSS oder gleichwertige Alternativen an den Markt zu bringen.

Was ist denn gegen die Möglichkeit, die NVIDIA uns bietet, Technik erleben zu dürfen, über die man vor nicht allzu langer Zeit als "frühestens 10-20 Jahren" einsetzbar gesprochen hat,
einzuwenden?

Wo soll denn da ein Zwang herkommen? Es ist ein Angebot. Mehr nicht.

Und was bezeichnest Du als "kundenfreundlich"?
Warum sollte es kundenunfreundlich sein etwas Neues anzubieten?

Zudem ist RT doch offen? Untersützt von DX12 und Vulkan.

Wie soll NVIDIA etwas zur Verfügung stellen oder offene Standards erstellen, wenn keine Fremdhardware gebaut wird, für die entsprechende Entwicklung dann überhaupt etwas nutzen könnte? Jede Neuentwicklung ist doch erstmal "proprietär", wenn sie nur einer in Hardware gegossen hat. Liegt in der Natur der Sache.

NVIDIA muss zudem Geld verdienen und Rücklagen bilden. Und die RTX ist allein wenn man die Hardware betrachtet und die Entwicklungszeit sicher ein extrem teurer "Ausflug" gewesen.

Genau diese unkritische Art stört mich bei deinen Posts immer.
Als ob Nvidia, Intel oder AMD immer im Interesse der Kunden handeln würden...
Nein tun sie selbstverständlich nicht! Dürfen sie auch nicht, weil sie in kürzester Zeit pleite wären, wenn sie so "kundenfreundlich" wären, wie es sich hier einige wünschen.

Und das Formel 1 Beispiel ist eher kontraproduktiv, immerhin kauft Niemand der seinen Abakus noch bis 4 schieben kann, sein Auto nach dem Ergebnissen des letzten Grand Prix.
Benchmark und Formel 1, beides ist von einem technischen Standpunkt aus interessant, aber nur bedingt relevant in der echten Welt. Ist ja nicht so, dass es nicht schon genügend gute und bisweilen revolutionäre Ideen in der F1 gab, die es nie in die Serie geschafft haben.
Lies Dir den Absatz nochmal genau durch. Der enthält so viel Analogie zu den Dingen, die ich geschrieben habe, dass ich bis auf den ersten Halbsatz alles unterschreibe.

Und der DLSS Algorithmus wird bei dem Benchmark immer besser funktionieren, als in Spielen. Das folgt doch schon der inneren Logik deiner eigenen Ausführungen und Erklärungen.

Dann für Dich nochmal, weil Du anscheinend meinen obigen Beitrag nicht durchgelesen hast:
Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden.
Es ist Deep- Learning!! Das funktioniert auch Szenenunabhängig, solange das neuronale Netz lang genug trainiert wurde.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und Moriendor
Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden.

Da fehlt mir dann nur noch der Schalter im Treiber, der DLSS in ungepatchten Spielen erzwingen kann.
 
  • Gefällt mir
Reaktionen: v_ossi
JMP $FCE2 schrieb:
Da fehlt mir dann nur noch der Schalter im Treiber, der DLSS in ungepatchten Spielen erzwingen kann.
Einige Spiele...
Was haben wir? Final Fantasy 15 und jetzt der Benchmark.
Das wird sicher noch dauern. Vielleicht wirds zum Jahresende was, wenn der Supercomputer mal mit so 10-20 Spielen gefüttert ist was mit einem "Master- Profil".

So etwas wirds aber mit an Sicherheit grenzender Wahrscheinlichkeit mal zukünftig geben.

Grüße
Zero
 
ZeroZerp schrieb:
Es ist Deep- Learning!! Das funktioniert auch Szenenunabhängig, solange das neuronale Netz lang genug trainiert wurde.

Und wie viele Szenen hat ein Benchmark und wie viele ein Spiel ?

Du vergleichst allen Ernstes einen Benchmark der keine 3 Minuten dauert und eine tatsächlich überschaubare Anzahl von Assets hat, dagegen mit einem Spiel mit ~30 Stunden Laufzeit und eine unvergleichbare Menge an Szenarien welche die KI nicht so Simpel vergleichen kann.

Abgesehen davon bin ich von dem Video überrascht, was muss man wohl veranstalten, dass selbst 1440p mit TAA so schlecht aussieht ? Das ist so weich gezeichnet und es fehlen so unglaublich viele Details als wäre die Renderskalierung 10% niedriger als bei dem Bild mit DLSS.... selbst TAA kann dass Bild nicht so weich zeichnen, da wurde definitiv das Video nachbearbeitet oder anderweitig getrickst, so schlecht sieht einfach kein 1440p Bild aus.
So sieht vllt. ARK aus, wenn ich von Full HD auf WQHD hochskaliere xD
 
  • Gefällt mir
Reaktionen: grossernagus und duskstalker
@ZeroZerp
Und wie immer versüßt du uns den Abend mit allerhand abenteuerlichen Geschichten für das Popkorn Kino.

Was DLSS ist?
Ein bestenfalls mittelprächtiger, starrer Upscaler der das Bild teils erheblich verfälscht aber mit variablen Algorithmus.

Zum Thema Raytracing, das gibt es seit Jahrzehnten und die super lite Version die aktuell für RTX verwendet wird, nur auf eine eher schlechte Performance kommt und dabei so unvollständig ist das es als ganzes wieder unrealistisch wirkt bestätigt eher dass die Zeit dafür noch nicht reif ist.
 
  • Gefällt mir
Reaktionen: onkel-foehn und grossernagus
Wie gesagt: mich interessiert sowieso nur DLSS2x, der Upscaler macht bei meinem FHD-Monitor keinen Sinn.

Und ich will doch hoffen, dass das qualitativ an DSR oder Render Scale 141% in Overwatch herankommt, ohne so viel Leistung zu fressen.
 
Zurück
Oben