Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

captain kirk schrieb:
die rote Community baut sich schon wieder Sombreros aus Alufolie weil Nvidia im Header steht...
Anhang anzeigen 914490
kann ja nicht angehen das Tester sowas wie Raytracing oder DLSS auch noch loben:heuldoch:
Meinst Du nicht, dass Du da von Deinem eigenen Hutbestand möglicherweise vorschnell auf andere geschlossen hast?

Ich weiß jedenfalls nicht, wie willkommen ich in einer "roten Community" wäre, sollte es publik werden, dass ich sowohl in meinem regulären PC als auch in meinem HTPC jeweils eine RTX-Karte habe, dazu mehrere GTX-Karten im Regal, und seitdem ich meine 5700 vor ein paar Wochen abgegeben habe gar keine Radeon mehr mit weniger als 10 Jahren auf dem Buckel besitze. awkward
 
Eusterw schrieb:
Da DLSS 2.0 die Bildqualität verbessert und gleichzeitig die FPS steigert, empfinde ich es als fair, das Feature zukünftig bei allen Grafikkarten Tests zu aktivieren.

Denn wenn ich z.B. von einer GTX1080 auf eine GRX2080 upgrade, will ich ja nicht wissen, wieviele FPS ich bei „technisch gleicher“ Berechnung bekomme, sondern ich möchte wissen, wie viele FPS ich bei „optisch gleicher“ Grafik bekomme.

Meine Bitte also: Wenn DLSS 2.0 Quality verfügbar ist, immer damit benchmarken.
So a Quark.
Da geht doch die ganze Vergleichbarkeit den Bach runter.
Und man sieht ja offensichtlich das die Bildqualität noch Mängel aufweist.
 
  • Gefällt mir
Reaktionen: Iapetus und fullnewb
DarkerThanBlack schrieb:
Aber ab 4K ist so eine Kantenglättung einfach nicht mehr nötig, da die Pixel so klein geworden sind, dass man sie nur schwer erkennen kann.
Ergo: Ab 4K ist AA als Kantenglättung nicht mehr nötig und die Texturen werden 1:1 angezeigt und wirken nicht verwaschen und trotzdem glatt und rund sowie knackig scharf

Vielleicht solltest du deine Wahrnehmung etwas korrigieren...

Oha, Gefährliche Pauschalaussage. Kommt auch sehr stark auf das Spiel/die Engine an. In GTA5 zum Beispiel brauchst du selbst in 4K noch Kantenglättung, soviele Treppchen hast du da..
 
  • Gefällt mir
Reaktionen: miagi, iqhigherthanshi und Wintermute
Hmm, also ehrlich gesagt kann ich das Fazit bei "Deliver us the moon" schon nicht nachvollziehen:
Ich sehe die Texturen-Unterschiede zwischen Ultra HD nativ und Ultra HD mit DLSS "quality" schon ziemlich deutlich, beispielsweise an dem weißen Schlauch oben oder den blauen Polstern: Nativ ist ganz klar schärfer und detaillierter.
Daß die Technik im Hinblick auf Cloud-Computing und -Gaming interessant ist, um Spielgrafiken mehr und mehr zentral rechnen zu lassen und auch auf Endgeräten mit schlechterer Auflösung dann zu streamen oder so, oder auch für andere Techniken, kann ich mir vorstellen.
Aber für mich als detailverliebten Gamer, der noch dazu auch gern VR spielt und da auch noch so einiges Auflösungsverbesserungen gegenüber dem Monitor/TV vermißt, wird DLSS lange Zeit uninteressant sein/bleiben.

Denke, am Ende wird das immer ne individuelle Entscheidung sein, ob man Qualität oder FPS vorzieht.
 
Apocalypse schrieb:
Könnte man vermuten, man sollte diese Vermutung dann halt verfolgen und sich die Sache im Detail anschauen und dann feststellen das es bei weitem nicht nur das ist.

Du hast jetzt nicht ehrlich ein DF-Video verlinkt, dass der Nvidia-Konvention folgend DLSS ausschließlich mit "native + TAA" (+welche anderen Matschfilter da ab Werk sonst noch drin stecken mögen) vergleicht und damit zur Klärung besagter Vermutung genau gar nicht beitragen kann?

Wer von uns beiden hat da bitte das Video nicht gesehen oder nicht verstanden?
 
  • Gefällt mir
Reaktionen: Iapetus
branhalor schrieb:
Aber für mich als detailverliebten Gamer, der noch dazu auch gern VR spielt und da auch noch so einiges Auflösungsverbesserungen gegenüber dem Monitor/TV vermißt, wird DLSS lange Zeit uninteressant sein/bleiben.

Du solltest dir die ausführlichen Erklärungen auf den letzten 5-6 Seiten durchlesen. Gerade für VR ist DLSS sehr wahrscheinlich ein großer Sprung, da es die Ansprüche an die Hardware reduziert und höhere Frameraten ermöglicht, ohne die Qualität (merkbar) zu reduzieren (bei sauberer Implementierung). Das mit den Texturen wurde auch erklärt. Schau es dir durch - lohnt sich.

Pisaro schrieb:
Oha, Gefährliche Pauschalaussage. Kommt auch sehr stark auf das Spiel/die Engine an. In GTA5 zum Beispiel brauchst du selbst in 4K noch Kantenglättung, soviele Treppchen hast du da..

Ja. Ich hab hier 4K auf 40" vor mir. Wenn ich bei War Thunder kein TAA zuschalte, flackern feine Kanten nach wie vor.

Um das nachzuvollziehen muss man sich aber aneignen, wie ein Renderer funktioniert - und dass die reine Pixeldichte des Ausgabemediums nur ein Faktor in der Gesamtrechnung ist und nur bedingt etwas mit möglichem Aliasing zu tun hat. Würde alles gar nicht so schwierig sein, wenn man aufmerksam hier mitgelesen hätte ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
branhalor schrieb:
Hmm, also ehrlich gesagt kann ich das Fazit bei "Deliver us the moon" schon nicht nachvollziehen:

Ich sehe die Texturen-Unterschiede zwischen Ultra HD nativ und Ultra HD mit DLSS "quality" schon ziemlich deutlich, beispielsweise an dem weißen Schlauch oben oder den blauen Polstern:

Klar! Wenn du dir "Screenshots" im Ruhe und 1zu1 anschaust. Und jetzt erkläre uns mal wie relevant das ist wenn man das Spiel auch spielt, vor allem weil man erst im Spiel einen großen Vorteil von DLSS erkennt, die Bildruhe.

Ich weiß nicht wie du deine Spiele spielst, aber ich schaue mir nicht irgendwelche Schläuche in vollen Zoom minutenlang an.
 
  • Gefällt mir
Reaktionen: pietcux, .Sentinel. und Esenel
Mich beschleicht die Befürchtung, dass wir zukünftig zwar mit einer 3060 auch in 1440p/4k schöne Bilder und gute FPS Dank DSSL genießen dürfen, aber dafür eben auch den Preis einer nativen 2k/4k karte bezahlen dürfen. :freak:

So wie einige fordern, dass so getestet und verglichen wird, so wird sich Nvidia nicht zweimal bitten lassen um für höhere FPS auch höhere Preise zu verlangen.
 
Zwar schön und gut, aber mal sehen wie das in zukünftigen Generationen gepflegt wird. Kaufentscheidend ist DLSS für mich weiterhin nicht. Ich brauch aber auch nicht überall 100 fps. Für die die immer viele fps brauchen ists natürlich ne feine Sache. Ich könnt aber drauf verzichten.
 
Andre Prime schrieb:
So wie einige fordern, dass so getestet und verglichen wird, so wird sich Nvidia nicht zweimal bitten lassen um für höhere FPS auch höhere Preise zu verlangen.
Sehe ich nicht so- Zumal nvidia ja augenscheinlich genau aus diesem Grund Schwierigkeiten hatte, bei der 20xx Generation einen passenden Preis zu finden.

Stellt sich nämlich raus, dass durch die am Anfang ungenutzten Features die Karten bei Nutzung dann statt 30% nun 130% un mehr leisten, so wendet sich das Blatt, was die Preissteigerung und das Preis-/Leistungsverhältnis anbelangt auf dramatische Weise.

Das will/wollten nur viele zu Anfang nicht begreifen. Und noch hat man das ganze Pulver bzw. Beschleunigungspotenzial der Turing- Reihe noch garnicht ausgeschöpft. Auch nicht mit DLSS2.0.

Das sollte mal hier eingen, die nur wild geschimpft haben, vergegenwärtigen in welcher Zwickmühle nvidia bei der Preisfindung saß.

LG
Zero
 
  • Gefällt mir
Reaktionen: adAstra, dampflokfreund und Wintermute
DLSS schafft auch Raum für weitere optische Verbesserungen. Es rein auf "mehr fps" zu reduzieren kommt auch nicht hin.
 
  • Gefällt mir
Reaktionen: .Sentinel.
DarkerThanBlack schrieb:
Ich verstehe das Feature sehr gut. Es ist reines Marketing, worauf man viel Manpower auf ein paar ausgewählte Produkte gelegt hat. Das Ergebnis muss noch recht schön geredet werden...

Braucht kein Mensch...
Wow einfach nur wow, also habe ich mir die FPS zuwächse in Control nur eingebildet? Du bist Lächerlich.

Brauche ich nicht = Braucht kein Mensch.

Sowas erwarte ich von einem Pubertierenden.
 
  • Gefällt mir
Reaktionen: LordExtreme, Apocalypse, Hardware_Hoshi und 2 andere
ZeroZerp schrieb:
Sehe ich nicht so- Zumal nvidia ja augenscheinlich genau aus diesem Grund Schwierigkeiten hatte, bei der 20xx Generation einen passenden Preis zu finden.

Stellt sich nämlich raus, dass durch die am Anfang ungenutzten Features die Karten bei Nutzung dann statt 30% nun 130% un mehr leisten, so wendet sich das Blatt, was die Preissteigerung und das Preis-/Leistungsverhältnis anbelangt auf dramatische Weise.

Das will/wollten nur viele zu Anfang nicht begreifen. Und noch hat man das ganze Pulver bzw. Beschleunigungspotenzial der Turing- Reihe noch garnicht ausgeschöpft. Auch nicht mit DLSS2.0.

Das sollte mal hier eingen, die nur wild geschimpft haben, vergegenwärtigen in welcher Zwickmühle nvidia bei der Preisfindung saß.

LG
Zero
So ist es. Noch dazu hat man mit Turing vollen Support für all die DX12 Ultimate features, die DXR Beschleunigung und natürlich gehörig AI Power dank den Tensor Kernen. Ich gehe davon aus, dass Turing in der kommenden Generation sehr gut altern wird. Der höhere Preis wird sich also erst später bemerkbar machen!

Mit Ampere wird der Preis jedoch wieder sinken meiner Ansicht nach, denn Turing sollte bestimmt die ganzen R&D Kosten wieder reinholen.
 
DarkerThanBlack schrieb:
Ob es besser aussieht ist nur deine Wahrnehmung. Ich sehe nur schlechter, da eben nicht nativ.
Vorallem weil man bei den Videos oft den Umstand vergisst, wie sie zustanden kamen.
Bei FullHD wird gerne AA dazu geschaltet um die Treppenbildung zu verhindern. Das verschlechterst den Vergleich. Ab 4k braucht man kein AA mehr.
Und schon hat man ein besseres Ergebnis als DLSS2.0!
In UHD nicht 4k.

Pauschale Aussage auch noch? Es gibt Spiele da braucht man es mehr mal weniger liegt auch an der verwendeten Engine und Artstyle des jeweiligen Games. Ab 16k würde ich sagen braucht man kein AA mehr. Je Komplexer ein Spiel ist in der Detaildarstellung desto mehr AA brauchst du. Warum hat wohl RDR2(Hochkomplex) TAA spendiert bekommen weil jedes andere AA versagen würde.

Assassins Creed Odyssey dasselbe flimmert unerträglich in UHD ohe AA.
 
Haldi schrieb:
Was ich gerne noch gesehen hätte wäre ein Vergleich der FPS auf Nativ reduzierter Auflösung im Vergleich zu der dann DLSS upscaled Auflösung.
Also wie viele FPS drauf gehen das ganze wieder auf die 4k Auflösung hoch zu skalieren via Tensor Cores.
Kostet etwa 7-12% Framerate, je nach Grafikkarte.
 
  • Gefällt mir
Reaktionen: Colindo
ZeroZerp schrieb:
Das sollte mal hier eingen, die nur wild geschimpft haben, vergegenwärtigen in welcher Zwickmühle nvidia bei der Preisfindung saß.
Findest du? Die wussten ja das ihre 1.0 Version nicht funktioniert. Ist das dann wirklich eine Zwickmühle? Was kommt als nächstes, AMD verkauft ihre Karten anhand der Compute Leistung, so wie in Zeiten des Mining Booms, weil es könnte ja ein Spieleentwickler das mal für ein paar tolle Funktionen nutzen?

Eine Zwickmühle sieht da imho echt anders aus. Nvidia hat einfach das für diese Karten verlangt was der Markt hergibt, weil die Leute entweder erst gar nicht auf dem Performance level eine AMD Alternative haben oder Markendummies sind.
DLSS und Raytracing? Das wird wohl erst bei der nächsten Generation wirklich relevant und dann vielleicht mal wirklich eine Zwickmühle. Es gibt noch einfach nur eine Handvoll Titel wo RT Cores auch gut genutzt werden.


Aber trotzdem toll, es ist halt nur das man kaum was von diesen tollen Features hat. Aber immerhin, endlich gibt es ein paar Titel. Jetzt wo es die nächste Generation bald gibt. Das sitzt dann Nvidia vielleicht wirklich in einer Zwickmühle, je nachdem was AMD so als Gegenstücke liefert.
 
Sly123 schrieb:
So a Quark.
Da geht doch die ganze Vergleichbarkeit den Bach runter.
Und man sieht ja offensichtlich das die Bildqualität noch Mängel aufweist.
Es gibt offenbar mehr Stellen an denen die originale Bildqualität Mängel aufweist (weil DLSS besser ist).

Wenn DLSS am Ende in 10% der Fälle schlechter ist in 50% gleich und in 40% besser ist, dann sollte man sich nicht auf die 10% konzentrieren, sondern das insgesamt bessere Bild mitnehmen.

Und wenn Mann eine GTX1080 mit einer RTX2080 vergleicht (welche meistens mit DLSS das BESSERE Bild hat), dann sollte man die RTX mit DLSS benchmarken.

Schließlich ist DAS Ergebnis WESENTLICH praxisrelevanter...
 
Eusterw schrieb:
Und wenn Mann eine GTX1080 mit einer RTX2080 vergleicht (welche meistens mit DLSS das BESSERE Bild hat), dann sollte man die RTX mit DLSS benchmarken.

Schließlich ist DAS Ergebnis WESENTLICH praxisrelevanter...
Ujj Grafikkarten-Vergleiche bzw. -Tests werden in Zukunft noch mehr Arbeit, noch komplizierter und die Ergebnisse noch weniger aussagekräftig 🙈
 
  • Gefällt mir
Reaktionen: Wintermute
Ist dann auch mal dlss in 2560x1440 @ 144hz möglich? Fühle mich leicht verarscht von NV das meine 2080ti das nicht beherrscht.
 
Zurück
Oben