Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

ppkrok schrieb:
ich seh da jetzt keinen unterschied, muss man an den zäum zoomen?

Digga wenn man erstmal zoomen und suchen muss, das braucht ein normaler Gamer nicht.


Ich bin echt fasziniert, wie viele das Prinzip gar nicht erst verstehen :D
 
  • Gefällt mir
Reaktionen: pietcux, Strubbel99, Holindarn und 7 andere
ZeroZerp schrieb:
Das ist doch der Witz- Wenn Du keine Unterschiede siehst, hat DLSS seinen Job voll und ganz erledigt.

Wenn Du die Option eingeschaltet hast, kriegst Du das doppelte an FPS, ohne dass sich das Bild spürbar verändert.

LG
Zero

dann ist ja gut aber es soll schon eingestellt dann sein
Ergänzung ()

tidus1979 schrieb:
Ich bin echt fasziniert, wie viele das Prinzip gar nicht erst verstehen :D
ich will nicht verstehen, ich schalte ein und es soll laufen. für einstellungen Optimierungen etc sind die freaks da die sollen sich durch einstellungen kopf machen wie ich am besten geniesse
 
ppkrok schrieb:
ich will nicht verstehen
Was machst du dann unter einem Technikartikel? Außer Technikinteressierte als Freaks zu bezeichnen, natürlich.
 
  • Gefällt mir
Reaktionen: pietcux, Strubbel99, Acedia23 und 8 andere
Taxxor schrieb:
Was machst du dann unter einem Technikartikel? Außer Technikinteressierte als Freaks zu bezeichnen, natürlich.

Weil ich wissen möchte ob ich Vorteile davon habe wenn freaks für mich entsprechend arbeiten, das bedeutet sie stellen ein und optimieren erfinden neue Wege so das ich am besten geniesse.

ganz einfach
 
Ich muss schon sagen, die Leistungsgewinne in Relation zu den Qualitätseinbußen sind beeindruckend - zumindest ich mit meinen schlechten Augen muss da wirklich auf die Suche gehen und finde DLSS Quality teilweise auch besser als nativ.

Shoryuken94 schrieb:
Es ist Schade, dass sich CB so entwickelt. Frühe sind in solchen Foren mal Enthusiasten zusammengekommen, heute dreht sich nur noch alles um Preis / Leistung, echte Neuerungen werden abgetan und als Sinnlos hingestellt und absolute High End Hardware ist ja eh doof
Sorry, aber für mich ist das ein ziemlicher Tellerrand-Kommentar. Enthusiasten und Budget-Käufer sind wohl selten einer Meinung. Das traurige ist aber nicht, dass beide Seiten hier im Forum vertreten sind, sondern dass das gegenseitige Verständnis fehlt.

Ich finde auch, dass in diesem Artikel sogar sehr wenig kritisiert/gemeckert wird, die Reaktionen sind doch überwiegend positiv oder interessiert und in einem Technik-Artikel wie diesem ist P/L ja überhaupt kein Thema.
Obwohl DLSS ja gerade für preisbewusste Käufer ein ausschlaggebenden Kriterium werden könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
DLSS 2.0 ist fürs Gamen auf 4K TVs GOLD wert!
FullHD Nativauflösung können die TVs im niederlatenten Game-Mode nur sehr schlecht hochskalieren. Und für native 4K sind die Grafikkarten oft immer noch zu schwach. Selbst die allmächtige 2080Ti.

Der DLSS passt wie Faust aufs Auge und löst beide Probleme gleichzeitig: upscaling und performance.

Jetzt fehlt nur noch eine GeForce mit HDMI 2.1, 4K@120Hz und VRR. Dann geht die Post ab :volllol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99
Was hier wieder kritisiert wird, es ist das Feature für die Zukunft. Es ist noch nicht perfekt aber es wird.
 
Ich sehe schon den Marketingslogan von AMD.
"Wenn wir von 4K reden, dann meinen wir auch 4K!"

Aber das ist eine andere Geschichte. :D

DLSS ist für mich nur ein Kompromiss und muss immer auf die jeweilige Situation und Implementierung abgewogen werden.
Es ist auf keinen Fall ein Feature, welches man einfach so an und abstellen kann. Dazu ist der Aufwand viel zu groß und NVIDIA muss immer den Treiber darauf abstimmen und die Tensors mit der richtigen vorgefertigten Matrix füttern.

Ich frage mich nur, warum eigentlich? Die nächste Generation kann 4K nativ auflösen und mehr ist auch nicht mehr nötig. Ich schalte bei 4K sogar das AA ab, da man es schlicht nicht mehr benötigt.
DLSS würde ich daher nie verwenden.
 
ppkrok schrieb:
Digga wenn man erstmal zoomen und suchen muss, das braucht ein normaler Gamer nicht.
Deswegen sind Bewegtbilder wichtiger als Screenshots.

Wobei ich sagen muss dass die Sache teils wirklich beeindruckend ist.

Sieht hier oft wesentlich besser aus, liefert das ruhigere Bild und läuft auch noch viel schneller. Was will man mehr...

Edit. Es is Wie bei AA auch, wobei das immer Leistung kostet und zumeist das Bild unscharf macht. Auch DLSS hat seine Vor und Nachteile. Das ist denke ich selbstredend. Wer erwartet mehr Bildruhe, schärfere und bessere Darstellung in jeder Szenen und auch noch Mehrleistung einer GPU Generation zugleich...?! Es ist jetzt schon nahe an Zauberei.
Schön ist wenn man die Wahl hat :) für meinen 4k Monitor wäre DLSS genau das richtige.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., KlaraElfer und Esenel
@Krautmaster
Es gab zwei Level/Stellen in Control Mit heftigem Bildrauschen.
Aber das ist überschaubar.

Wenn man mit der Seilbahn zu Athis Hütte fährt da flimmert die Stange der Seilkabine sehr stark.
 
  • Gefällt mir
Reaktionen: Krautmaster und .Sentinel.
selbst wenn die Qualität merkbar schlechter wäre, selbst dann kann man in manchen Situationen in der Zukunft noch ein bisschen mit dem Kauf einer neuen Grafikkarte warten, wenn zukünftige Spiele (ohne DLSS) nicht mehr so rund laufen. Zukünftiges Spiel läuft nicht rund genug->DLSS aktivieren->Geld sparen. Sehe das mindestens genauso wichtig in die Zukunft mit den momentanen Karten und neuen Spielen zu blicken als die Spiele zu testen die es jetzt gibt.

Klar die ganzen Pixel-Peeper und Meckerer hier werden ja nicht gezwungen das zu nutzen.
 
  • Gefällt mir
Reaktionen: Mcr-King und xexex
NikoNet schrieb:
Wenn die Tensor Cores jetzt so "richtig" gebraucht werden, gibt es da schon eine Messung der Leistungsaufnahme als Vergleich mit und ohne DLSS2?

DLSS ist vor allem im GPU-Limit sinnvoll und wurde hier auch so getestet, ohne GPU-Limit würdest du ja gar nichts von einem Leistungsschub bemerken.

Im GPU-Limit rennst du jedoch in aller Regel ins Power Limit der GPU -> DLSS an/aus verbraucht exakt das selbe.

Wenn man FPS pro Watt betrachtet, ist DLSS natürlich effizienter als die native höhere Auflösung.
 
  • Gefällt mir
Reaktionen: Mcr-King und Shoryuken94
DarkerThanBlack schrieb:
Ich frage mich nur, warum eigentlich? Die nächste Generation kann 4K nativ auflösen und mehr ist auch nicht mehr nötig. Ich schalte bei 4K sogar das AA ab, da man es schlicht nicht mehr benötigt.
DLSS würde ich daher nie verwenden.

Ob Grafikkarten von Morgen die Games von Übermorgen in 4K nativ auflösen werden können ist nicht in Stein gemeisselt...
Und dann kommen noch die 8K TVs...

Du musst DLSS nicht nutzen. Wenn du es aber mal brauchst wirst du froh sein, dass es die Option gibt. Und es ist ein geschenkter Gaul. Ist doch schön, dass Nvidia nicht stillsteht sondern fortschrittliche und sehr vielversprechende Technologie konsequent weiterentwickelt. Und wer weiss, vielleicht wird du eines Tages DLSS 3.0 nicht mehr von native 4K unterscheiden können.
 
  • Gefällt mir
Reaktionen: Schattenspender, adAstra und .Sentinel.
DarkerThanBlack schrieb:
DLSS ist für mich nur ein Kompromiss und muss immer auf die jeweilige Situation und Implementierung abgewogen werden.

Aktuell ja, sollte DLSS irgendwann mal so wie angedacht funktionieren, braucht es theoretisch keine Abschaltoption mehr ^^ Sicher wird das noch etwas dauern, wie am Anfang jeder Technik.

Ansonsten sind alle Techniken zur Leistungssteigerung nur ein Kompromiss, aus Leistung und möglichst wenig Optikverlust. Die komplette rasterization ist ja schon nur ein Kompromiss, variable rate shading ist ein Kompromiss etc. Aber nur so findet man die Balance zwischen Optik und Leistung. Auf der anderen Seite wird das freigewordene Leistungsbudget ja wieder in Techniken gesteckt, die das Bild verbessern sollen. Wobei DLSS in einer optimalen Welt ja sowohl die Leistung steigern kann als auch die Optik verbessern kann. Wie gesagt, bis dahin ist es noch ein langer Weg.

DarkerThanBlack schrieb:
Dazu ist der Aufwand viel zu groß und NVIDIA muss immer den Treiber darauf abstimmen und die Tensors mit der richtigen vorgefertigten Matrix füttern.

Ist ja heute kaum anders, in den Treiber fließt auch so viel Optimierung für die Spiele.

DarkerThanBlack schrieb:
Ich frage mich nur, warum eigentlich? Die nächste Generation kann 4K nativ auflösen und mehr ist auch nicht mehr nötig. Ich schalte bei 4K sogar das AA ab, da man es schlicht nicht mehr benötigt.

Die Top Tier karten für einen hohen dreistelligen bis niedrigen vierstelligen Betrag ja, zumindest für einige zeit. Die als 4K 60FPS vermarktete 1080Ti hat da aktuell auch schon so ihre liebe Not. Selbst die 2080Ti kann nicht uneingeschränkt 4K und hohe Framerate. Besonders nicht wenn man noch Raytracing einrechnet!

DarkerThanBlack schrieb:
DLSS würde ich daher nie verwenden.

Brauchst du auch nicht, ich würde es durchaus nutzen, wenn gut umgesetzt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
DarkerThanBlack schrieb:
Ich frage mich nur, warum eigentlich? Die nächste Generation kann 4K nativ auflösen und mehr ist auch nicht mehr nötig.
Das wäre unter der Vorraussetzung, dass sich an der Optik der Spiele im Vergleich zu heute nichts mehr ändert.

Versuch mal mit einer Karte, die 2010 als 1080p Karte vermarktet wurde, weil sie in damals aktuellen Spielen 60fps in 1080p schaffte, z.B. ein RDR2 in 1080p mit 60fps in entsprechender Optik zu spielen.
Genau so wird es dir in ein paar Jahren mit einer 3080ti in 4K gehen.
Und dann hast du auch noch Leute, denen 60fps nicht reichen, die 120 oder mehr wollen und dabei nicht auf Optik verzichten möchten.
 
  • Gefällt mir
Reaktionen: Strubbel99, adAstra und .Sentinel.
DarkerThanBlack schrieb:
DLSS ist für mich nur ein Kompromiss und muss immer auf die jeweilige Situation und Implementierung abgewogen werden.
Ein Kompromiss wozu? Wenn sie noch ein bißchen dran schrauben kriegst Du mit 1/2 des Rechenaufwandes ein Bild was 1/3 über der Auflösungsqualität des nativen Bildes liegt (funktioniert Szenenabhängig bereits jetzt).

Es ist auf keinen Fall ein Feature, welches man einfach so an und abstellen kann. Dazu ist der Aufwand viel zu groß
Es wird anstatt TAA implementiert / das kannst Du 1:1 statt des TAA Aufrufes einfügen. Also kein Mehraufwand, weil die deutlich überwiegende Zahl an Titeln inzwischen temporales antialias benutzen.

und NVIDIA muss immer den Treiber darauf abstimmen
Woher nimmst Du das? Und wieso behauptest Du das immer, dass da was abzustimmen wäre?
Einer der Hauptfortschritte von DLSS2.0 ist doch gerade, dass ein allgemeingültiger inferencing Datensatz benutzt wird und die API dazu unabhängig der Anwendung aufgerufen werden kann.

und die Tensors mit der richtigen vorgefertigten Matrix füttern.
Das ist auch eine Fehlinformation- Es muss nicht mehr gefüttert werden. Der Basisdatensatz ist inzwischen ausreichend, um universell auf alle Spiele angewendet werden zu können.

Es muss nicht mehr gezielt trainiert werden, wobei der Inferencing- Datensatz natürlich trotzdem laufend erweitert wird.

Zudem ist nvidia mit dem System zu 100% flexibel. Jede Verbesserung/Optimierung von DLSS muss nicht mehr ins Spiel eingepflegt werden, sondern steht mit Auslieferung eines entsprechenden Treibers automatisch allen Titeln, die DLSS integriert haben zur Verfügung.

Es kann also ab jetzt für alle Titel nur noch besser werden.

Ich frage mich nur, warum eigentlich?
Die Frage stellst Du jetzt nicht wirklich, oder?

Warum ein Verfahren, welches einfach mal so zwischen 60% und 300% so gut wie Kostenlose Leistung bringt?


Die nächste Generation kann 4K nativ auflösen und mehr ist auch nicht mehr nötig.
Achso und die Spiele bleiben natürlich auf dem Anspruch des jetzigen Standes?
Keine Weiterentwicklung mehr, keine bessere Grafik, keine lebendigere, detailiertere Welt?

Ich schalte bei 4K sogar das AA ab, da man es schlicht nicht mehr benötigt.
DLSS würde ich daher nie verwenden.
Bei 4K das AA abschalten, aber DLSS 2.0 als "Kompromiss" sehen?
Da hast Du aber eine außergewöhnlich selektive Wahrnehmung.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Taxxor, tidus1979 und eine weitere Person
So überzeugend finde ich DLSS 2.0 aber nicht. Gerade in UHD sieht man das DLSS 2.0 viel unschärfer ist, vor allem bei den Texturen.
 
Im Test fehlt übrigens Minecraft RTX, das besitzt auch bereits DLSS 2.0.
 
Ich kann echt nur hoffen, dass AMD ein vergleichbares Feature in naher Zukunft zu bieten hat, ansonsten wird man bald tatsächlich mit Nvidia Karten überall DLSS 3.0 , 4.0 ect. aktivieren können und bei gleicher Optik einfach mal 100% vor der AMD Konkurrenz liegen können.
Und das wäre bei Nvidias Preispolitik auch für Nvidia Käufer wirklich nicht gut^^


Passend übrigens, dass der letzte Retro Artikel sich mit den Unterschieden bei der Optik von AF bei älteren ATI und Nvidia Karten beschäftigt hat, ich vermute, wir werden in 2-3 Jahren das gleiche Spiel mit DLSS und dem (hoffentlich verfügbaren) AMD Gegenpart sehen.
 
  • Gefällt mir
Reaktionen: NikoNet, iqhigherthanshi, Esenel und eine weitere Person
Zurück
Oben