Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News3DMark: DLSS-Feature-Test für den Grafikbenchmark
Wenn AMD und NVIDIA nicht immer diese Vorstöße mit eigenen Techniken vorantreiben würden, dann gäbe es schlichtweg keine Chance, dass irgendwas ein allgemeiner Standard würde.
Das stimmt so nicht ganz, sowohl DLSSA als auch RTX basieren streng genommen auf DirectX-Standards.
Da ist nVidia einfach mal vorgeprescht um ihre eigene proprietäre Technik an den Markt zu bringen.
Nicht anders haben sie es mit Physx als auch G-Sync gemacht.
Sie haben mit etwas finanziellem einschleimen bei einigen Developern dafür gesorgt dass die Liste der unterstützen Titel nicht allzu kurz ausfüllt (zumindest mit dem "coming soon" vermerk) um ihre "neuen" Karten (die ganzen Sonderrecheneinheiten gab es doch im Profi-Bereich schon) für einen horrenden Preis zu verkaufen.
Sie arbeiten aktiv dagegen dass etwas ein allgemeiner Standard wird.
Du vergleichst allen Ernstes einen Benchmark der keine 3 Minuten dauert und eine tatsächlich überschaubare Anzahl von Assets hat, dagegen mit einem Spiel mit ~30 Stunden Laufzeit und eine unvergleichbare Menge an Szenarien welche die KI nicht so Simpel vergleichen kann.
Nein- Wo mach ich denn das? Ich sage jetzt schon zum 100sten Mal, dass man das neuronale Netz deutlich länger trainieren muss. Lest doch bitte mal einfach meine Posts durch...
Abgesehen davon bin ich von dem Video überrascht, was muss man wohl veranstalten, dass selbst 1440p mit TAA so schlecht aussieht ? Das ist so weich gezeichnet und es fehlen so unglaublich viele Details als wäre die Renderskalierung 10% niedriger als bei dem Bild mit DLSS.... selbst TAA kann dass Bild nicht so weich zeichnen, da wurde definitiv das Video nachbearbeitet oder anderweitig getrickst, so schlecht sieht einfach kein 1440p Bild aus.
So sieht vllt. ARK aus, wenn ich von Full HD auf WQHD hochskaliere xD
OK- Dann scheint Dir DLSS und dessen Vorzüge nicht zuzusagen. Dann würde ich an Deiner Stelle aber tunlichst die Finger davon lassen.
Und ja- Ich kann mit diesen super Unschärfeeffekten, Bloom und schlechtem HDR wie man es in dieser Demo sehen kann, auch überhaupt nichts anfangen. Ich hasse diesen Shader overkill.
TAA war zudem schon immer die Option, die am meisten Details schluckt. Dafür ist es schnell und glättet sauber.
Einen Tod stirbt man immer. Und nur um das klarzustellen. Sämtliche Methoden von AA die nicht auf irrsinnigen Supersampling- Raten basieren kosten IMMER Details.
Ich gehe also nicht hin und behaupte, dass DLSS die Qualität über alle Maßen steigern würde oder mehr Details hätte, als die native Berechnung.
Ich sage nur, dass DLSS eine Option ist, die einen Erheblichen Geschwindigkeitsschub einhergehend mit starker Kantenglättung mit einem verhältnismäßig zu vernachlässigendem Qualitätsverlust des Bildes ist.
Ich versteh einfach Folgendes nicht:
Wenn man die Grafikqualität durch z.B. Raytracing steigert (z.B. Battlefield 5) wird immer argumentiert, dass man im verlauf des Spiels sowieso davon nichts mitbekommt, man auf andere Dinge achtet und und und...
Bei DLSS werden aber plötzlich 4K Standbilder für den Vergleich zu Rate gezogen, mit der Lupe gezoomt bis zum Abwinken um dann plötzlich mit treffsicherem Adlerauge dann die riesen Qualitätsunterschiede entdeckt, die so stark sind, dass es einem den Spielspaß raubt.
Wie gesagt- Die Qualitätsunterschiede müssen vorhanden sein. Nur würde keinem einzigen, wenn ich ihm, ohne mitzuteilen worum es geht, die Demo in 4K DLSS in Life auf einem 62" Bildschirm (mit geringem Abstand) vorführen würde auffallen, dass das nicht nativ berechnet wird.
Und nochmal an alle, die den Kompromiss in der Bildqualität zu hoch im Vergleich zur Kantenglättung und dem Geschwindigkeitsschub ist - Bitte kein DLSS aktivieren. Bitte keine RTX Karte kaufen.
Das bringt Euch nichts.
Grüße
Zero
Ergänzung ()
Wadenbeisser schrieb:
@ZeroZerp
Und wie immer versüßt du uns den Abend mit allerhand abenteuerlichen Geschichten für das Popkorn Kino.
Nachdem ich mehrere Beispiele und auch die Funktionsweise schon angeführt habe, ist es schon eine Leistung, das Prinzip falsch wiederzugeben.
Zum Thema Raytracing, das gibt es seit Jahrzehnten und die super lite Version die aktuell für RTX verwendet wird, nur auf eine eher schlechte Performance kommt und dabei so unvollständig ist das es als ganzes wieder unrealistisch wirkt bestätigt eher dass die Zeit dafür noch nicht reif ist.
Dann kannst Du Dir ja auf die Schulter klopfen, dass für Dich das Ende der Fahnenstange in Sachen grafischer Qualität erreicht ist. Wird Dir jetzt einige Zeit gut Geld sparen, bis Du dann irgendwann doch so inkonsequent bist und auf die ehemals schlechte und nicht ausgereifte Technologie umsteigen wirst, der Du keine Gelegenheit/Zeit zugestehst, sich Entwickeln zu können.
Ich hab inzwischen schon verstanden, dass RTX "für Euch" mies ist, Abzocke, schlechte Technik, schlechte Leistung, unbrauchbare Features.
Deswegen rate ich ja immer dazu, das Thema, das man schlecht findet und welches einen nicht interessiert schnellstmöglich zu vergessen und sich nicht mehr damit zu beschäftigen, damit man sich selbst nicht mehr damit belasten muss und man nicht dazu gezwungen werden kann, durch die Marketing- Gehirnwäsche dann doch irgendwann Geld dafür ausgeben zu müssen.
Sooo... mit dem "alten" 417.71 Treiber und einer RTX 2080 kommt da bei mir in 1440p ein FPS-Wert von 28.12 mit DLSS off und 40.95 mit DLSS on raus (G-Sync war währenddessen an, weil ich zu faul war das auszustellen , aber bei den niedrigen fps sollte das ja eigentlich eh wenig ausmachen).
Was mich jetzt leicht wundert: Muss man für DLSS nicht per GFE mit dem nVidia DL Backbone verbunden sein? Oder ersetzt 3D Mark hier diese Funktion und hat die Samples quasi schon an Bord, damit der Feature-Test auch offline funktioniert? GFE nutze ich nämlich nicht.
@pmkrefeld
Was an DLSS und RTX basiert auf dem DirectX Standard der nicht erst nachträglich eingebaut und primär von nvidia entwickelt wurde? Warum die Konkurrenz nicht gleich mit entsprechenden produkten antreten kann? Weil die Entwicklung offenbar ein Ding zwischen diesen beiden Firmen war und sich nvidia damit zwangsläufig einen Zeitvorteil erkauft.
PhysX wurde nicht durch nvidia entwickelt sondern nur aufgekauft und die beschleunigte Variante künstlich auf ihre Karten beschränkt, G-Sync basiert wiederum auf eine Funktion die bereits Teil des Vesa Standards war und lediglich umgedeutet und erneut künstlich per eigenen Chip auf die eigenen Produkte beschränkt wurde. Die von der Einschränkung bereinigte Form nennt sich Adaptive-Sync dessen Produktname von AMD FreeSync ist.
Was mich jetzt leicht wundert: Muss man für DLSS nicht per GFE mit dem nVidia DL Backbone verbunden sein? Oder ersetzt 3D Mark hier diese Funktion und hat die Samples quasi schon an Bord, damit der Feature-Test auch offline funktioniert? GFE nutze ich nämlich nicht.
@pmkrefeld
Was an DLSS und RTX basiert auf dem DirectX Standard der nicht erst nachträglich eingebaut und primär von nvidia entwickelt wurde? Warum die Konkurrenz nicht gleich mit entsprechenden produkten antreten kann? Weil die Entwicklung offenbar ein Ding zwischen diesen beiden Firmen war und sich nvidia damit zwangsläufig einen Zeitvorteil erkauft.
.
Was an DLSS und RTX basiert auf dem DirectX Standard der nicht erst nachträglich eingebaut und primär von nvidia entwickelt wurde? Warum die Konkurrenz nicht gleich mit entsprechenden produkten antreten kann?
DirectX DXR ist vor RTX erschienen, wie lange die beiden Technologien in "Entwicklung" waren lässt sich nur schwer sagen ("Entwicklung" da Raytracing uralt ist, lt. Wikipedia 1963). Abgesehen davon funktioniert DXR auf allen Grafikkarten, auch wenn nicht gerade schnell.
Die zusätzlichen RTX-Einheiten bringen dabei einen Leistungsvorteil etwa um Faktor 7, Das reicht wie wir heute wissen nicht um in High-End Szenarien (1440p High-Refresh-Rate oder 4K 60Hz) genug Leistung zu liefern, man bedenke auch dass z.B. in BFV nur Teile der Szene Raytracing verwenden. Einen echten Nutzen hat es also kaum.
Zumindest was die Consumer-Seite angeht, denn nVIDIA hat es ein neues Namensschema gebracht und deutlich höhere Preise gerechtfertigt.
Wieso da die Konkurrenz nicht nachkommt? Welche Konkurrenz? nVIDIA hat zurzeit ein Monopol auf High-End GPUs, es gibt sonst einfach niemandem. Wenn wir wirklich viel Glück haben wird AMD Navi als High-End Chip mit HW-Raytracing Support ohne auf spezialisierte Recheneinheiten zurückgreifen zu müssen. Und selbst wenn sie zeitgleich eine gleichwertige Lösung zu RTX geliefert hätten, stand heute ist RTX nicht zu gebrauchen.
Nachdem ich mehrere Beispiele und auch die Funktionsweise schon angeführt habe, ist es schon eine Leistung, das Prinzip falsch wiederzugeben.
Dann kannst Du Dir ja auf die Schulter klopfen, dass für Dich das Ende der Fahnenstange in Sachen grafischer Qualität erreicht ist. Wird Dir jetzt einige Zeit gut Geld sparen, bis Du dann irgendwann doch so inkonsequent bist und auf die ehemals schlechte und nicht ausgereifte Technologie umsteigen wirst, der Du keine Gelegenheit/Zeit zugestehst, sich Entwickeln zu können.
Ich hab inzwischen schon verstanden, dass RTX "für Euch" mies ist, Abzocke, schlechte Technik, schlechte Leistung, unbrauchbare Features.
Deswegen rate ich ja immer dazu, das Thema, das man schlecht findet und welches einen nicht interessiert schnellstmöglich zu vergessen und sich nicht mehr damit zu beschäftigen, damit man sich selbst nicht mehr damit belasten muss und man nicht dazu gezwungen werden kann, durch die Marketing- Gehirnwäsche dann doch irgendwann Geld dafür ausgeben zu müssen.
Was soll an meiner Interpretation von DLSS falsch sein?
Es bläst eine kleinere Auflösung in eine größere Ausgabeauflösung auf, holt da auch seinen Leistungsvorteil raus, kommt dabei aber nicht wirklich mit unterschiedlichen Auflösungen klar, überzeichnet kontrastreiche Bildelemente und schluckt andere fast völlig.
Zudem betreibt es auf der Karte kein Supersampling (intern in einer großen Auflösung rechen und in eine kleinere Ausgabeauflösung runter rechnen) sondern es wird damit lediglich extern ein Algorithmus errechnet der lediglich für eine starre Kombination aus Ein- und Ausgabeauflösung geeignet ist.
Damit ist es in meinen Augen eher ein Etikettenschwindel da das Bild weder mit der Augabeauflösung berechnet wurde, noch Supersampling betrieben wird und würde vermutlich auch als solches mit Shitstorms zugepflastert worden wenn es von AMD und nicht von nvidia gekommen wäre denn am Ende kommt es nichtmal ansatzweise an die Bildqualität mit der nativen Bildausgabe ran....ok, es sei denn man verunstaltet das Vergleichsbild so das man es sich den Vergleich entsprchend zurechtbiegt.
Es wird das Bild lediglich hoch skaliert und der dafür zuständige Algorithmus so angepasst das wirklich problematische Bildbereiche unter gehen und das Ausgabebild entsprechend stark verändert. Wie tierisch das in die Hose gehen kann sah man z.B. bei der Vegetation in der Final Fantasy Tech Demo.
Und nein, für mich ist Raytracing an sich eben nicht schlecht sondern lediglich die massiv beschnittene Form die hier zum Einsatz kommt. Siehe das schön geredete Bild von der Raumausleuchtung bei dem wegen mangelhafter Verfolgung der Reflektionen der Strahlen die Raumausleuchtung an sich komplett absäuft. Warum werden sie so beschnitten? Weil es sonst erheblich auf die Performance geht und warum ist das so? Weil die Hardware dafür eben doch noch nicht reif ist und die Rechenleistung lediglich für einzelne Bildelemente reichen würde.
Was nvidia aber von einer sinnvollen Begrenzung des Einsatzes hält sah man ja bei der Tesselation.
@ Wadenbeisser
schade das du auf meine frage nicht geantwortet hasst von wegen microsoft und nvidia arbeiten zusammen damit nvidia ein vorteil auf amd hat
klar nachdem ms nvidia dabei geholfen hat haben die vermutlich gemerkt, oh mist warte mal in unser xbox steckt doch amd hardware fuck wir haben der falschen firma geholfen ^^
@pmkrefeld
Die Entwicklung der dafür nötigen Chip Architektur dauert Jahre, Zeit die sich nvidia damit erkauft hat weil es eben nicht wie sonst üblich Microsoft gewesen sein dürfte die die Specs weitestgehend vorgegeben und mit den Chip Herstellern zur Produktreife gebracht hat und damit für die gleiche Ausgangssituation für alle Kunden gesorgt hätte. Hier wurde nvidia ganz einfach übervorteilt.
Wie lange diese Erweiterung der API in der Entwicklung war können wohl nur Microsoft und nvidia sagen aber angesichts der Systemvoraussetzungen (Windows 10 1809 Update) dürfte sich die Entwicklungszeit für Microsoft in Grenzen gehalten haben und da nvidia mit der aktuellen Turing Generation den einzigen Chip mit Hardware Beschleunigung hat unterstelle ich jetzt einfach mal dass der Großteil der Entwicklungsarbeit direkt von nvidia kam, auf ihre Hardware optimiert wurde und Microsoft vor allem deren API entsprechend anpasste.
Ergänzung ()
@Jens1882
Nichts für ungut aber angesichts der Hardware Anforderungen kannst du noch lange warten bis das in der Konsole landet und bis dahin dürfte auch AMD entsprechende Chips entwickelt haben. Bevor das nicht in der preisgünstigen Mittelklasse sinnvoll nutzbar ist kannst du das bei den Konsolen getrost knicken und in 1-2 Konsolen generationen nochmal darüber nachdenken. Aktuell gehen die Konsolen ja ohnehin eher Richtung UHD und HDR. In dem Umfeld reicht selbst eine 2080Ti nichtmal ansatzweise für anständige Frameraten.
Wieviel willst du dann für entsprechende Konsolen bezahlen? 4-5 Tausend € für Geräte mit 1KW Stromverbrauch?
genau das, was da steht. schau dir den screen mal im vollbild an. TAA geht hier so aggressiv ran, dass hier nix mehr von 1440p übrig bleibt - der informationsgehalt durch den weichzeichner ist so drastisch reduziert, dass man hier genau so gut ein oder zwei auflösungsstufen runter könnte.
meine kritik ist, dass 1440p mit TAA in diesem benchmark extrem beschissen aussieht. dann lieber 1440p ohne AA als vergleich. hier wird nur künstlich ein äußerst überzeugendes argument für nvidia fabriziert, dass da lautet: dlss mit 1080p (?) upscaling schärfer als natives 1440p - auchnoch mit mehr fps. und wer sich das mal durch den kopf gehen lässt, wird feststellen, dass da irgendwas nicht stimmen kann.
hilft dlss auch bei akne und impotenz? haste das direkt aus einem nvidia paper kopiert?
ist ja echt nett die werbeveranstaltung hier - aber man darf hier ruhig auch mal bei den fakten bleiben. dlss ist "deep learning super sampling" - das zaubert die leistung nicht irgendwoher, sondern es wird auf einer niedrigeren auflösung gerendert und dann hochskaliert.
dlss erreicht nie den detailgrad von nativen auflösungen - ist aber sehr nah dran. dlss gibt immer nur so viel leistung dazu, wie die ausgangsauflösung im verhältnis zur zielauflösung reduziert wird, was logischerweise auch das resultat verschlechtert, da die AI mit weniger samples mehr löcher stopfen muss.
so weit, so gut. so bekommt man die sonst teilweise sinnlosen tensor cores beschäftigt und kann mit schwächeren gpus "höhere" auflösungen ausgeben. da gibts ja erstmal nix dran auszusetzen. was ich fast sinnvoller fände, wäre die möglichkeit eines richtigen "super sampling" ohne leistungseinbußen. auf der anderen seite braucht man dafür flächenmäßig eine riesige gpu und die AI muss erstmal von nvidia gefüttert werden. gemessen am aufwand für bissl besseres upscaling ist das für mich eher ne spielerei. ich find dlss an sich aber nicht kacke.
was mir aber auf die eier geht ist dieses dlss-gehype wo so getan wird, als gäbe es hier auf magische weise auf einmal 50-100% mehr leistung aus dem nichts + bessere bildqualität. und das ist einfach nicht richtig.
der 3dmark vergleich vs dieses 1440p+taa hier passt ganz zufällig vorzüglichst in diese narration. nachdem andernorts aber festgestellt wurde, dass 1800p + taa optisch sowie leistungstechnisch mit 4k dlss upscaling vergleichbar ist - und 1440p + taa optisch vergleichbar mit 1080p dlss upscaling auf 1440p ist:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
darf hier durchaus mal angezweifelt werden, dass dlss 1080p auf 1440p so viel besser als natives 1440p mit taa aussieht.
deshalb muss es erlaubt sein, hier die 1440p + taa von port royal als valide referenz anzufechten. oder andersrum: man lässt durch übertriebenes taa in diesem benchmark die native auflösung möglichst schlecht aussehen, um dlss als wundermittel, das es nicht ist, darzustellen - ganz so, wie es sich nvidia wünscht. dieser wunsch ist auf den präsentationen immer wieder klar geworden.
Danke, ich dachte schon es gibt nur noch Nvidia bezahlte Trolle....
Die Bilder sind offensichtlich stark übertrieben, TAA sieht nirgends auch nur annähernd so schlecht aus. Ich nutz es ja überall, wo es geht.
Gleichzeitig bietet DLSS effektiv nichts neues, es entspricht immer etwa 70% Res hochskaliert, Leistung und Optik.
Back on Topic: Raytracing ist keine Hexerei, in der Implementierung auch sehr viel einfacher und besser als die ganzen Hacks die heutzutage für die Beleuchtung verwendet werden, dafür benötigt es aber Unmengen an Rechenleistung ansonsten hätten wir Raytracing von Anfang an gehabt. NVidia hat da kaum was Entwickelt, die RT-Cores haben soweit das bekannt ist eine einzelne-Berechnung drauf die sie Beschleunigen, mehr nicht.
Auch auf der Microsoft-Seite dürfte nicht viel entwickelt worden sein, sie geben bloß Zugriff auf Komponenten frei damit die Raytracing-Berechnung überhaupt erst möglich werden. Das Problem ist nach wie vor die enorme Leistung die benötigt wird und die auch die neuen Turing-Karten nicht bringen können.
@pmkrefeld
Ähm nein, die Turing Generation sind die einzigen Chips mit Hardware Beschleunigung, der Rest läuft lediglich als "Emulation" über die normalen Shader.
Das ist vielleicht am besten mit dem beschleunigten PhysX vergleichbar. Klar, man kann es auch über die CPU anstatt mit einer Beschleunigerkarte/nvidia GPU berechnen lassen allerdings mit einer lausigen Performance.
Und zum Thema DLSS, da habe ich schon bessere Ergebnisse bei UHD TVs mit einem vernünftigen Upscaler gesehen.
Ähm nein, die Turing Generation sind die einzigen Chips mit Hardware Beschleunigung, der Rest läuft lediglich als "Emulation" über die normalen Shader.
@Schranz0815
Da verwechselst Du leider Ursache und Wirkung.
Wenn AMD und NVIDIA nicht immer diese Vorstöße mit eigenen Techniken vorantreiben würden, dann gäbe es schlichtweg keine Chance, dass irgendwas ein allgemeiner Standard würde.
Hallo, ich brauche doch aber die wohlgenährte Ignoranz, um bei jedem GPU und Grafik Thema nvidia bashen zu können, das Computerbaseforum muss doch sein Anti green&blue Niveau halten, und DU kommst hier rational. Tssssss ;-)
Nvidia hat wenigstens kreative Ansätze und bringt neue Sachen. Eins vergisst du nämlich dabei, ohne Nvidia würde es das nie geben oder erst sehr viel später. AMD ist nämlich nur am Kopieren und nachmachen, sei es von DSR oder GSYNC usw. Erst daraufhin fühlt sich AMD unter Druck gesetzt und reagiert. Ein Hersteller muss erstmal die Features bringen, erst dann gibt es die Chance auf eine Adaption.