Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

eRacoon schrieb:
Tippfehler und du meintest 2160p + Sharpening vs. 1440p + DLSS vermutlich?
Und da sieht DLSS wirklich besser aus? Puh das muss ich mir echt mal selbst anschauen, wobei es bei Control eh keine andere Option gäbe, nativ in 2160p sieht man auch mit einer 2080Ti kein Land. :freaky:

Nein.
1440p nativ + 100% Image Sharpening.
Und dann 1440p ausgewählt + DLSS 2.0 - Qualität = 960p?

Die DLSS 2.0 Variante ist schärfer.
 
  • Gefällt mir
Reaktionen: eRacoon
Wolfgang schrieb:
Und falls DLSS wirklich nur eine Checkbox ist, die man anschalten muss und das dann einmal kompilieren, dann stimme ich mit die überein.

"Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen. "

In der Theorie ist diese Technologie etwas, was man an und abschalten kann und die Tensor Kerne sind ja nicht für umsonst gebaut worden.

Praktisch war es natürlich nicht so leicht, wie gedacht und nach dem 3.5GB + 0.5GB Fiasko, konnte man sich nicht schon wieder beim cheaten erwischen lassen. Also verkauft man es als Feature.

Früher hat man sich über Sichtbarkeit von Farben gestritten, dann über Paletten, Kantenglättung, Schärfe, heute halt über Auflösung.

Das Ergebnis muss gut genug sein und wenn eine fake 4k Auflösung gut ist, warum nicht.

mfg
 
ZeroZerp schrieb:
Na daran solls ja nicht scheitern- Wurde bereits in UE 4 eingearbeitet und stünde damit ab jetzt jedem UE 4 Titel zur Verfügung:
https://forums.unrealengine.com/development-discussion/rendering/1742771-nvidia-dlss-2-0-ue4-branch

LG
Zero
Die It just works Aussagen sind kaum ernst zunehmen. Ich erwarte Taten, dann bekommt Team Grün auch wieder Geld von mir.

@Execut3r: Genau und AMD bekam wegen den Radeon Treiber oder dem dilettantischen 5600XT Launch auch gar kein Fett weg. Deine Grüne Brille ist kein Hauch besser. Grüße ein glücklicher 1080TI User....
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Acedia23 und Baal Netbeck
Die Kritik geht wohl eher um die Umsetzung statt um die Technologie an sich.

Gegen technischen Fortschritt hat wohl keiner was.

Da sind OpenSource-Umsetzungen wohl gefragter als ClosedSource-AI-Buzzword-Technologien.

Und DSLL ist schon top. Aber es hapert an Spielen die es unterstützen sowie, wie auch hier zu lesen, an der technischen Umsetzung.

Ist halt das selbe wie mit dem Features die z.B. Vega bringen sollte. Wann hats Rapid Packet Math mal in ein Spiel geschafft, wann Primitive Shaders (meines Wissens gar nicht).

Und Kritik übt sich ja sowieso leichter als ein Lob auszusprechen ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Acedia23, Revan1710 und 2 andere
Immortal Ghost schrieb:
Hier kann man gut an den Schläuchen starke Unschärfe bei aktiven DLSS erkennen

Verstehe nicht wie man da von einem Schärferen Bild mit DLSS als Nativ sprechen kann...
Was die Schläche und auch die Symbole angeht: DLSS geht doch nur mit aktiviertem Raytracing, die nativen waren doch ohne. Bist Du Dir sicher, dass man diese Details in Wirklichkeit so sehen würde? Oder macht DLSS nicht eine realistischere Grafik daraus, sprich: Man würde weder die Symbole sehen, noch die "scharfen" Schlauchdetails.
 
Wolfgang schrieb:
tl;dr: Mit DLSS konnte Nvidia das große Versprechen lange nicht einlösen. Zwar liefen die ersten Spiele dank reduzierter Rendering-Auflösung schneller, die Qualität nicht abfallen zu lassen gelang aber nicht. Mit DLSS 2.0 macht das KI-Upsampling jetzt einen entscheidenden Schritt. Am Ziel ist die Technik aber noch nicht.

Zum Test: Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist
" DLSS soll es ermöglichen ein Spiel in einer niedrigeren Auflösung zu rendern, ohne dass Bildqualität verloren geht. "

Ich dachte beim Supersamling wird in der höheren Auflösung gerendert und es dann auf Monitor Auflösung runtergesampled?!?!?
Und spare mir aber damit auch, vorrausgestez es läuft korrekt damit auch das Anti-Aliasing? Was ja auch der sinn von SS sein sollte.

Verdamt ich muss mir wohl oder übel nochml den Artikel über DLSS raussuchen...
 
  • Gefällt mir
Reaktionen: Mcr-King
Dass AMD-Fans häufig ziemlich tollwütig auftreten ist nicht neu. Zwar trifft ihr Zorn ein Unternehmen, welches tatsächlich nicht immer kundenfreundlich agiert hat, aber leider ist der Zorn nicht selektiv. Gemecker gibt's dann auch wenn "die Bösen" mal das bessere bzw. kundenfreundlichere Angebot haben oder tatsächlich technisch innovativ sind.

So ist das halt leider bei Diagnose" fortgeschrittene Markentreue."
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Onkel Föhn und Che-Tah
Shoryuken94 schrieb:
Auf CB dreht sich nur noch alles um Preis / Leistung. Innovationen werden als Spielerei abgetan, auch wenn es ein Weg für eine zukünftige Technik sein kann, die alles verändert. Überall nur Gemecker. Und oh Wunder, eine Technik ist zum Anfang nicht perfekt. Das das eine Plattform ist, auf die man aufbaut ist dann auch egal.
Das sehe ich auch so- Es ist zu einem technikfeindlichen Forum mutiert. Allerdings sehe ich das weniger im Zusammenhang eines Markenkrieges, der hier ja auch sehr gerne ausgetragen wird.

Viele Leute sind investitionsmüde und unrealistisch anspruchsvoll geworden. Alles was auf den Markt kommt, was die eigene Investition bzw. den eigenen Hardwarebestand "bedroht", wird verteufelt.
Müsste man sich ja dann, um wieder mitspielen zu können, was neues kaufen.

So war z.B. das Gemecker einer Gruppe sehr groß, dass einhergehend der alten Konsolengeneration keine Hardwarefordernden Spiele mehr auf den Markt kommen. Kommt dann mal eins, was ein wenig anspruchsvoller ist, geht aber gleich das Geheule los, dass es nicht in 4K und 120FPS spielbar ist.

Einerseits wird sich beschwert, dass man grafisch kaum noch Fortschritte macht, andererseits will man den Preis für einen Technologiewechsel (Raytracing) nicht mitgehen.

Eine ganz große Masse an Leuten ist außerdem dazugekommen, die den technologischen Status einfach als ausreichend erachten. Die brauchen keine bessere Grafik, keine steigende Interaktion, Physiksimulation und co.

Somit bezweifle ich, dass es jemals wieder zu einer Aufbrauchsstimmung kommen wird, wie sie zum Beginn der Vektorgrafik und geshadeter Polygone und den ersten Texturen stattgefunden hat.

Es wird also dabei bleiben, dass es sich eher langsam aber stetig weiterentwickelt. Die Mehrheit will es so, da es einfach den Geldbeutel schont und viele einfach "sattgefressen" bezüglich neuer Technik sind.

Just my 2 cents...
Zero
 
  • Gefällt mir
Reaktionen: Onkel Föhn, WeltalsWille, Coeckchen und 13 andere
DarkSoul schrieb:
Was die Schläche und auch die Symbole angeht: DLSS geht doch nur mit aktiviertem Raytracing, die nativen waren doch ohne. Bist Du Dir sicher, dass man diese Details in Wirklichkeit so sehen würde? Oder macht DLSS nicht eine realistischere Grafik daraus, sprich: Man würde weder die Symbole sehen, noch die "scharfen" Schlauchdetails.

DLSS geht auch ohne Raytracing und getested wurde hier immer mit Raytracing, bei nativ und bei DLSS. Steht alles im Artikel.
 
"It just works"
"Tensor-Kerne werden erst jetzt genutzt"
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Geil. Mit dem DLSS2.0 wird jetzt wirklich eine Skalierung von 960x540 auf 1920x1080 brauchbar. Das habe ich mir schon länger gewünscht, nur hat es immer zu stark verpixelten, blockigen Bildern geführt. Jetzt sieht man aber kaum einen Unterschied zu nativem 1920x1080, und kriegt dafür noch einen massiven Performancegewinn. Da lässt sich dann die Grafik noch locker an anderen Stellen hochdrehen (auch Raytracing).
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: dampflokfreund
Verstehe ich das richtig, wenn ich ein WQHD Monitor habe, das die Auflösung mit DLSS 2.0 runtergeschraubt wird? dann hat man ja mehr pixelbrei. Nein danke
 
thommy86 schrieb:
Verstehe ich das richtig, wenn ich ein WQHD Monitor habe, das die Auflösung mit DLSS 2.0 runtergeschraubt wird? dann hat man ja mehr pixelbrei. Nein danke

Setzen 6.
Du hast es nicht verstanden.
Aber meckern...
 
  • Gefällt mir
Reaktionen: Onkel Föhn, icetom, Strubbel99 und 12 andere
hurga_gonzales schrieb:
Sorry, aber, wenn das die tollen Unterschiede, respektive Verbesserungen sein sollen, weshalb ich mir künftig für 1500 EUR eine Grafikkarte mit NVidia-Chip kaufen soll, dann.....NEIN DANKE!
Tja....immerhin hat man ein geiles, wenn gut implementiertes, Gamechanger Feature.

Und wenn die Konkurrenz wie immer schnarchnasig hinterher hinkt, lässt man sich das gut bezahlen.
Beschwer dich lieber bei AMD.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und lynx007
Esenel schrieb:
Setzen 6.
Du hast es nicht verstanden.
Aber meckern...
Aber es steht doch da, also verstehe ich das. Auflösung WQHD 2560x1440 und bei Quality 1706x960
 
Die GeForce RTX 2060 Super profitiert dagegen deutlich mehr, was allerdings primär daran liegt, dass der 8 GB große Speicher der Grafikkarte in den höheren Auflösungen bei aktiviertem Raytracing zu klein ist.

Das fiel mir natuerlich gleich ins Auge und ja, genau deswegen ist idealerweise warten auf Ampere angesagt, denn im (noch) bezahlbaren GPU-Bereich ist eine RTX 2060 auch in der Refresh/"Super" Ausfuehrung fuer RT-Raytracing oberhalb von Full HD eben speichertechnisch nicht ausreichend bestueckt.

Es wird aber gerne so getan als ob 8 GB Speicher fuer alles reichen wuerde jetzt und bis in die ferne Zukunft, was mit Blick auf RT-Raytracing klar nicht der Fall ist und es wird interessant sein, was sowohl nVidia mit Ampere ab einer RTX 3070 und AMD/RTG mit den RDNA2 Big Navi GPUs speichertechnisch bieten werden.

Schoen, dass das hier im DLSS2.0 Testartikel so herausgestellt wurde :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Find ich schon sehr cool. Zumal es zeigt, wohin die Reise noch in Zukunft gehen wird. Auch DLSS 2.0 ist noch der Anfang.
 
CrustiCroc schrieb:
Tja....immerhin hat man ein geiles, wenn gut implementiertes, Gamechanger Feature.

Und wenn die Konkurrenz wie immer schnarchnasig hinterher hinkt, lässt man sich das gut bezahlen.
Beschwer dich lieber bei AMD.
Vulcan, Freesync.... ;)
Ist ja nicht zum glück nicht so das AMD nicht auch mal etwas eigenes und brauchbares raus bringt. Und sei es nur darum das ein Feature das nur für nVida geben soll und darüber hinaus extra kostet, bei AMD plötzlich kostenlos zur verfügung ist :D

Etwas mehr ernst zu nehmende Performance würde auch ich mir von AMD wünschen, keine Frage. Aber vielleicht kommt ja mit Intel wieder etwas frischer Wind in den GPU Markt. Ich hätte auch ncihts dagen einzuwenden etwas mehr Leistung für weniger Geld zu bekommen. Anderseitz würde RTX und DLSS vermutlich ohne so eine schwächelnden Konkurenten nur schwerlich Platz auf dem Silizium finden. Ich finde es Mutig und auch Toll das nVida diesen Schritt gegangen ist und muss wohl deshalb bei Ampere wohl auch den kleinen nVidia-Aufpreis bezahlen. Hoffetnlich ist dann RTX günstiger und DLSS nicht mehr so verbugt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Solang DLSS ne niesche bleibt (hab seit ca. nem jahr ne 2080ti, DLSS nie benutzt zwecks Mangel an Support in nicht Tripple A titeln. Die Technik mag toll sein, das war Mantle(Wer erinnert sich :D?) auch, aber es bringt halt nix wenn es kaum eingesetzt wird.
 
  • Gefällt mir
Reaktionen: Floppes
Hat AMD etwas vergleichbares oder ein anderes „Killer Feature“ in den Startlöchern?
Wenn DLSS mal wirklich funktioniert dann kauft keiner mehr AMD-Karten..
 
Zurück
Oben