News 3DMark: DLSS-Feature-Test für den Grafikbenchmark

Wadenbeisser schrieb:
Wer erinnert sich noch an den Shitstorm zur Unterfilterung bei der HD5000 Serie, wodurch das Bild etwas mehr zum flimmern neigte? Jetzt wird bei der schlechteren Bildqualität gejubelt weil dadurch mehr FPS übrig bleiben.

Noch als zusatz Info:
Offenbar ist auch dieser Test nicht Teil einer bestehenden Advanced Edition.
Ich erinnere mich an den Shitstorms und viele andere Shitstorms in dieser Richtung.

Hier liegt jedoch der Fall insofern anders, als dass man unter geringen Einbußen der Qualität z.B. in 4 K über 90% Leistungssteigerung erfährt, bei in Aktion so gut wie keinen sichtbaren Einschränkungen.

Die Dimension ist eine komplett andere.
Wenn man nämlich im Bereich der Rasterisierung versuchen würde, solche Geschwindigkeitssteigerungen über Detailregler herbeiführen zu wollen, dann ist der Bildunterschied so schwerwiegend (fehlende Schatten, Matschtexturen, rudimentäre Beleuchtung mit weniger Lichtquellen, minimale/keine Vegetation, keine Weitsicht), dass das Ergebnis in Bewegung wenig mit dem Ursprungsbild auf hohen Einstellungen zu tun hat

Man hat also nicht nur eine schlechtere Bildqualität, sondern auch tatsächlich veränderte Assets. Gras, LOD Popping und und und...

Schaut Euch mal die Marktszene des Benchmarks in Shadow of the Tomb Raider mit hohen Settings und mit Low an- Die Szene sieht dann bei Zweiterem aus, als wenn man ein Spiel aus 2006 spielt (Tomb Raider 7).
Man tauscht also oft erheblich mehr gegen einen Geschwindigkeitsschub ein, als die leichten Abstriche, die man in Standbildern mit der Lupe im DLSS Vergleichstest sucht.

Und das ist eben schon ein Unterschied.

Für denjenigen, für den es das nicht ist (den es also nicht stört, dass Gebäude wegen aggressivem LOD plötzlich noch in nicht allzu ferner Sichtweite verschwinden und das Low- Poly- Gras vor den eigenen Füßen bei Bewegung zu wachsen beginnt), für diesen kommt dann diese Art der Geschwindigkeitssteigerung vielleicht nicht in Frage und für den ist DLSS somit uninteressant.

Somit braucht dieser dann wiederum keine RTX Karte und kann sich Geld sparen.
Für viele andere ist es aber eine neue Option mit minimaleinbußen alle Regler oben halten zu können und deutlich an FPS zu gewinnen.

Grüße
Zero
 
Esenel schrieb:
Die günstigste 2080Ti für 1080€ anstatt UVP 1250€.
https://geizhals.de/palit-geforce-r...t020lc-150a-a1909911.html?hloc=at&hloc=de&v=e


Und die günstigste 2080 für 649€ statt 800€ UVP.
https://geizhals.de/kfa-geforce-rtx...8nsl6ucu9ek-a1919149.html?hloc=at&hloc=de&v=e

Finde die 2080 sehr Preiswert.

So wie ich das verstanden habe darf RT/DLSS nichts kosten, weil man es in so gut wie keinem Spiel nutzen kann. Egal ob dafür zusätzliche Hardware verbaut wurde oder nicht, egal ob die Chip größer wird oder nicht.

Würde im Umkehrschluss bedeuten, dass erst die Software da sein muß, damit man Hardware verkaufen kann.
Dies hält manche User natürlich nicht davon ab bei anderen Karten "zukunftssicher" einzukaufen. Besser haben als nicht, auch wenns mehr kostet. :rolleyes:

Revan1710 schrieb:
Mit wenig verbreitet ging es mir aber auch nicht um den Marktanteil von RTX-Karten, sondern um die Features.

Die Features werden sich auch nicht verbreiten wenn es keine akzeptable Hardwarebasis im Markt gibt die sie nutzen kann. Darum habe ich ja auf Steam verwiesen. Die Hardwarebasis etabliert sich gerade recht ordentlich. Somit besteht begründete Hoffnung, dass mehr Spiele dies unterstützen werden.

Revan1710 schrieb:
Da bin ich ganz anderer Meinung. Jemandem, der sich wenig für die Technik interessiert geht es doch ausschließlich um das Maximum an Leistung für sein Geld und dieser wäre mit einer gleichschnellen Karte ohne den RT/DLSS Aufpreis doch besser bedient.

Wäre das so? Ich würde sagen, dass wenn Leute auf Grafik stehen und eine teure Karte für 4-5 Jahre kaufen, sie sich besser 2 oder 3 mal überlegen sollten ob sie jetzt nicht doch eine RTX nehmen sollten, auch wenn es im Moment nur 2-3 Spiele gibt mit denen man dies nutzen kann. Das vermeintliche Schnäppchen könnte sich in nicht allzu ferner Zukunft sonst als Eigentor erweisen. Und immerhin sind die 20X0 Karten jeweils genauso schnell wie die klassischen Karten, nur namentlich eine Zahl niedriger einsortiert.

Das mit der alten Pascal-Serie hat sich diesbezüglich aber eh schon erledigt. Den Gegenspieler der 2080 (1080Ti) gibts nicht mehr und wenn doch zu horrenden Preisen. Der Gegenspieler zur 2070 (1080) gibts fürs gleiche Geld. Gleiches bei 1070(ti) vs. 2060), wobei man da noch einen RAM-Unterschied von 2GB beachten könnte wenn man wollte.
Nun muß sich zeigen was 1160, 1170 und 1180 werden und was sie kosten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
grossernagus schrieb:
Es ist einfach nicht wahr, daß in der Vergangenheit neue Grafikkarten mit derartigen Preisaufschlägen auf den Markt gebracht wurden. Wenn man sich mal die Zeit der Einführung von Dx10 und Dx11, PhysX und Tesselation usw. ansieht, war das sogar eine goldene Zeit, in der Hardware so günstig war, wie noch nie zuvor.

Da trügt Dich die Erinnerung. Ich zitiere mich mal selbst:

Ich persönlich sehe da deswegen auch nicht so schwarz und kann auch keine groß neuartige Tendenz erkennen.
Es gab immer schon mal zwischendurch Karten, die teuer waren, weil sie maximal geleistet haben (z.B. 4850X2 - 600$ UVP zzgl. Steuer, GTX 295 - 500$ UVP zzgl. Steuer, die GTX 880Ultra 830$ UVP zzgl. Steuer, Geforce 2 Ultra 1400DM inkl. Steuer in Deutschland, Arez Strix Vega 64 830$ UVP zzgl. Steuer).

Zudem- Auch wenn der eine oder andere die Augen davor verschliesst.
Wir werden in absehbarer Zeit keine großen Leistungssteigerungen für keinen Aufschlag mehr sehen.
Wir bewegen uns langsam aufs Ende der Fahnenstange mit den ursprünglichen Fertigungsmethoden und Shrinks zu.

Außerdem- Die Tendenz zeigt klar nach unten. Die 2080TI OC von Palit gabs im Mindstar schon für 950,-€.
Die 2080 für 620,-€ die 2070 für 450,-€ und die 2060 für 330,-€.

Man muss halt auch ein wenig schauen. Und unverschämt ist das alles nicht mehr, wenn man sieht, wie bereitwillig die Leute leistungsklassengleich höhere Preise für die Pascals bezahlt haben.

LG
Zero
 
@ZeroZerp
Lass mal die 8800Ultra aus der Rechnung raus, die war tatsächlich sehr teuer. Alleine, wenn man sich die Dual GPU Karten ansieht, sieht man daß ich Recht habe. Man bekam damals die absolute Speerspitze für lächerlich kleines Geld, verglichen mit heute. Man stelle sich eine hypothetische RTX 2080 X2 für 600€ vor. Da würden alle wie bekloppt kaufen. Weil es uns heute sehr günstig vorkommt. Diese Karten hatten damals aber die wenigsten Leute.
 
@ZeroZerp
Das Thema hatten wir bereits bei dem Final Fantasy Vergleichsvideo und die Auswirkungen waren alles andere als gering. Das fing bei verschluckten Details an, ging weiter zu überzeichneten Details ging sogar bis hin zu massiven Fehldarstellungen bei Bodentexturen und vor allem der Vegetation. Dazu hatte ich auch entsprechende Beispielbilder gebracht.
Doch anstatt das zu akzeptieren wird dann immer wieder mit der Lupe nach Beispielen gesucht wo mal was besser aussieht und auf den nächsten Wundertreiber verwiesen mit dem auch ganz bestimmt alle Probleme gelöst werden und wie das bei Wundertreibern nunmal so ist kann niemand sagen wann er kommen würde.

Für diejenigen sie sogar am LOD rumspielen um mehr FPS raus zu bekommen ist das Feature vollkommen irrelevant.
Angesichts des erbrachten würde ich 1000x lieber gleich auf eine geringere Auflösung setzen und mir die ganzen Bildfehler ersparen denn die Warscheinlichkeit ist verdammt hoch das man zum spielen keinen UHD Bildschirm hat wenn man keine passende Grafikkarte dafür besitzt.
 
die Preisdiskussion entbehrt aber jeder Technikdiskussion. Das sind 2 Paar Schuhe.

Dass sich Nvidias Preise mit zunehmend schwacher Konkurrenz der letzten Jahre deutlich erhöht haben ist außer Frage. Das dürfte auch keinem schmecken, auch den 2080 TI Käufern nicht.

Keiner ist gezwungen sich ne schnelle GPU um 1000€ und mehr zu kaufen, genau wie keiner ein iPhone um 1000€ holen muss. Man hat lediglich die Option sofern es einem das Wert ist, und das bleibt jedem seine eigene Entscheidung. Es gibt 65" Fernseher um 500€, mein Oled kostet >2000€.
Mich regen aber zb die GEZ Gebühren oder eine deutlich gestiegene Miete deutlich mehr auf als der Umstand dass ich 2000€ fürn TV oder 1500€ für ne GPU ausgeben müsste. Weil ich da eben keine Wahl habe.
Ergänzung ()

Wadenbeisser schrieb:
Das Thema hatten wir bereits bei dem Final Fantasy Vergleichsvideo und die Auswirkungen waren alles andere als gering. Das fing bei verschluckten Details an, ging weiter zu überzeichneten Details ging sogar bis hin zu massiven Fehldarstellungen bei Bodentexturen und vor allem der Vegetation. Dazu hatte ich auch entsprechende Beispielbilder gebracht.

auch da war es ein für und wider, und die Leistungssteigerung auch überschaubar. Die Frage ist welche Erwartungshaltung man bei der ersten Iteration hat. Die Sache hier is brand neu. Je näher Nvidia an ursprüngliche 1440P (bzw DLSS Renderauflösung) Performance kommt, umso besser.

Mir fehlt nach wie vor die Untersuchung ob zb bei höheren FPS die KI/ Tensor Sache limitiert. Vielleicht skaliert um 30FPS die DLSS Sache noch um 50% Mehrleistung, während es bei 60FPS nur noch 20% sind?

Edit. Ich finde hier versteift man sich oft zu sehr auf die BQ. Wenn die nicht "haargenau" aussieht wie in der nativ gerechneten Auflösung ist es "schlecht", lässt aber mal eben die FPS außen vor. Dem ist nur nicht so. Es bleibt abzuwiegen ob die veränderte BQ (das wird sie meistens sein, mal besser mal schlechter als nativ gerechnet) sich in Relation zum Performance Uplift lohnt. Das bleibt eine Einzelentscheidung je nach Game und Setup.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi, Revan1710 und .Sentinel.
@Krautmaster
Ich kann die entsprechenden Bilder gern nochmal reinstellen und die Bereiche bei Bedarf auch nochmal extra hervor heben.
Unschärfen bis zum Verlaufen ganzer Strukturen oder das Überzeichnen heller Konturen bei harten Kontrasten sind schlicht indiskutabel. Wer sowas nicht sieht will es nicht sehen oder benötigt ohnehin keine höhere Auflösung mehr.
 
xdave78 schrieb:
Eh...wir reden nicht über die Infrastruktur sondern immernoch über die "Hardware". In dem Fall ist die Straße wohl eher das unpassende Beispiel. Anders gesagt - Du kannst ja grundsätzlich mit jedem PC raytracen.

Es ging mir ja darum, dass bei deinem Automatik-Beispiel die Nutzbarkeit von Tag 1 an 100 % gegeben ist, was bei RT/DLSS nicht der Fall ist. Daher das fiktive Beispiel mit der Straße.
Und dein abschließender Satz zum Hobbywechsel kam etwas anmaßend rüber, aber das hast du ja richtig gestellt.

DocWindows schrieb:
Die Features werden sich auch nicht verbreiten wenn es keine akzeptable Hardwarebasis im Markt gibt die sie nutzen kann.

Das stimmt. Aber der Weg, um eine Technologie zu etablieren geht in meinen Augen nicht über einen deutlichen Preisanstieg. Also entweder breite Masse mit RT/DLSS tauglicher und preiswerter Hardware versorgen und es zu einem Standard machen oder als Exklusivfeature für Enthusiasten und später für die breite Masse, wenn es etabliert ist.
Ein Budget-Gamer stellt sich ja zurecht die Frage, wieso er nun ~100$ mehr bezahlen soll für etwas das er evtl. garnicht nutzt (kostet bei einer Budget-Karte u.U. zu viel Leistung) / nutzen kann (wird nicht unterstützt von den gespielten Spielen).

Ich würde sagen, dass wenn Leute auf Grafik stehen und eine teure Karte für 4-5 Jahre kaufen, sie sich besser 2 oder 3 mal überlegen sollten ob sie jetzt nicht doch eine RTX nehmen sollten, auch wenn es im Moment nur 2-3 Spiele gibt mit denen man dies nutzen kann. Das vermeintliche Schnäppchen könnte sich in nicht allzu ferner Zukunft sonst als Eigentor erweisen
Mir geht ja wie gesagt in erster Linie um die Zielgruppe einer 2060 und nicht einer 2080 / 2080 Ti. Diese hat ja nicht den Anspruch max. Grafikpracht, sondern ist gewohnt, für ein flüssiges Spielerlebnis Abstriche in Kauf zu nehmen. Einer solchen Zielgruppe kannst du RT nicht wirklich gut verkaufen, das ist doch Anlaufstelle Nummer 1, um für mehr Leistung zu deaktivieren.
DLSS ist da schon interessanter, bleibt aber spekulativ. Natürlich kann es sein, dass du Dank DLSS genug Leistung in deinen Spielen hast, wo du ohne vlt. schon wieder aufrüsten müsstest. Genauso kann es aber sein, dass du den Aufpreis aber umsonst in Kauf nimmst, weil du genauso früh aufrüsten musst.

Nun muß sich zeigen was 1160, 1170 und 1180 werden und was sie kosten
Eine 1160, die nicht zu viel Leistung gegenüber einer 2060 einbüßt und preislich attraktiv ist, wäre eine ziemliche Cash-Cow, müssen wir aber abwarten. Aber eine GTX-Karte, die leistungstechnisch über einer 2060 liegt (1170, 1180) halte ich für absolut unwahrscheinlich. Das wäre der Tod für die Verbreitung der neuen Features.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
Wadenbeisser schrieb:
Für diejenigen sie sogar am LOD rumspielen um mehr FPS raus zu bekommen ist das Feature vollkommen irrelevant.
Angesichts des erbrachten würde ich 1000x lieber gleich auf eine geringere Auflösung setzen und mir die ganzen Bildfehler ersparen denn die Warscheinlichkeit ist verdammt hoch das man zum spielen keinen UHD Bildschirm hat wenn man keine passende Grafikkarte dafür besitzt.
Dann spiel mal in den hypothehtischen 1440x810 in denen DLSS auf der 1080P Stufe Rechnet und leg AA drüber.

Zumindest bei mir hört dann da langsam der Spaß in Sachen Grobkörnigkeit auf- Und man sollte inzwischen wirklich wissen, dass ich sehr hartgesotten bin, was eine niedrige technische Bildqualität/Low FPS usw. anbelangt.

Aber ich betone hier zum wiederholten Male- Wenn für jemanden schwerer wiegt, dass er leichte Einbußen in der Bildqualität hat und es ihm dann den Gewschwindigkeitsboost eben nicht wert ist, dann ist dieses Feature einfach nichts für ihn.

Niemand muss DLSS gut finden, jeder kann sich seine Qualitätseinstellungen so hinbasteln, wie er performancetechnisch zufrieden damit ist.

Für Dich, Wadenbeisser ist DLSS keine Option. Somit lebst Du entweder ohne den Geschwindigkeitsschub oder stellst andere Regler runter, die wieder andere (und das ist der Punkt - oft härtere) Kompromisse in der Bildqualität erfordern.

Es ist grundsätzlich zu Begrüßen, dass man durch DLSS eine entsprechend zusätzliche Wahl hat.

Wir stehen hier aber unbestreitbar am Anfang einer neuen Technik, die funktioniert (ESRGAN). Den Beweis dafür habe ich in meinem Vergleich des einfach per Gimp bikubisch auf 1080p hochskalierten Originalbild zum DLSS Bild ein par Posts vorher erbracht.

Kann sich jeder anschauen. Kann jeder davon halten, was er will.

Ich kann die entsprechenden Bilder gern nochmal reinstellen und die Bereiche bei Bedarf auch nochmal extra hervor heben.
Unschärfen bis zum Verlaufen ganzer Strukturen oder das Überzeichnen heller Konturen bei harten Kontrasten sind schlicht indiskutabel. Wer sowas nicht sieht will es nicht sehen oder benötigt ohnehin keine höhere Auflösung mehr.

Genau deshalb fällt für Dich diese Option aus, da das optische Ergebnis Deinen Spielspaß zu zerstören scheint.

Im Internet gibt es aber zig Stimmen, die begeistert sind vom niedrigen Tradeoff aus Bildqualität und Geschwindigkeit. Somit kann jeder wählen, was ihm am besten in den Kram passt.


Alles in Butter...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Revan1710 und v_ossi
Wadenbeisser schrieb:
@Krautmaster
Ich kann die entsprechenden Bilder gern nochmal reinstellen und die Bereiche bei Bedarf auch nochmal extra hervor heben.[...]

Wobei man sich schon fragen muss, wie gravierend die Nachteile wirklich sind, wenn man sie im Standbild mit der Lupe suchen und dann auch nur im direkten Vergleich mit der nativen Auflösung sieht. Dafür gibt es im Gegenzug auch min. 20% mehr fps.

Irgendwo hat halt jedes Feature Vor und Nachteile und es liegt am Kunden, ob er die eingehen will, oder nicht.

@domian Ganz einfach, sehen ist mehr, als "nur" das maximale Auflösungsvermögen des Auges. Da spielen so viele Faktoren mit hinein, dass es zu simpel ist zu sagen, 'das löst das Auge eh nicht mehr auf'.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Da es offensichtlich doch noch Bedarf nach den Beispielbildern gibt....

Sorry aber wer für Fehler wie das Überzeichnen der Kanten oder das vermatschen der Konturen bei der Vegetation eine Lupe benötigt brauch nichtmal ansatzweise über eine hohe Auflösung durch DLSS nachdenken sondern eher einen Termin beim Optiker machen. Sachen wie der unscharfe Hintergrund werden vermutlich eher mit Tiefenschärfe verwechselt. Die durchlaufenden Kanten an der Sonnenblende der Karre fielen im bewegten Bild erst recht auf.
Fern - Kopie.JPGKanten - Kopie.JPG
Vegetation - Kopie.JPG
Berge - Kopie.JPG

Bei Bedarf habe ich auch noch die Bilder von den verschluckten Zaunstreben an der Straße, Stichwort verschluckte Strukturen.
 
Wadenbeisser schrieb:
@Krautmaster
Ich kann die entsprechenden Bilder gern nochmal reinstellen und die Bereiche bei Bedarf auch nochmal extra hervor heben.
Unschärfen bis zum Verlaufen ganzer Strukturen oder das Überzeichnen heller Konturen bei harten Kontrasten sind schlicht indiskutabel. Wer sowas nicht sieht will es nicht sehen oder benötigt ohnehin keine höhere Auflösung mehr.

wer sagt den was von nicht sehen will? Ich sage doch es bleibt je nach Titel ne Einzelentscheidung und das es mal Stellen gibt wo die Grafik besser, mal schlechter ist. Wenn ich mit meinem 4K Monitor dann ggf je nach Titel 50% Performance Uplift bekomme kann ich mit einzelnen Mankos wie Überzeichnungen absolut leben (die bei 4 K ggf nicht mal wirklich auffallen). Besser als wenn ich für 4 K generell ein deutlich niedrigeres Preset ansetzen müsste.

Kaum jemand wird das DLSS in der jetzigen Form aktivieren wenn er eh 4k 60p im höchsten Preset schafft. Wenn aber statt 25p dann 40p rumkommen und die BQ deutlich über dem kleineren nötigen Preset liegen sollte, dann aktiviert man es.

Edit: Mich stört an der Sache eher der Umstand dass man bisher keinen wirklich brauchbaren Titel testen kann. Anno könnte ich mir schön vorstellen mit DLSS in 4K. Denke das braucht etwas Zeit, gerade auch weil das System ja lernen will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und v_ossi
@Wadenbeisser Und jetzt? Das zeigt doch nur, was @ZeroZerp , @Krautmaster und all die anderen User auch schon geschrieben haben.

Es ist eine zusätzliche Option. Wie gut oder schlecht DLSS funktioniert ist von Fall zu Fall unterschiedlich. Es steht dir frei es zu nutzen. Oder eben nicht.

Ich bin beileibe kein Fan der Turing Generation, aber das liegt sicher nicht an neuen, optionalen Features, sondern deren stümperhafter zweifelhafter Einführung. Aber das wurde inzwischen wohl zur Genüge diskutiert.
 
  • Gefällt mir
Reaktionen: Revan1710 und .Sentinel.
Krautmaster schrieb:
Edit. Ich finde hier versteift man sich oft zu sehr auf die BQ. Wenn die nicht "haargenau" aussieht wie in der nativ gerechneten Auflösung ist es "schlecht", lässt aber mal eben die FPS außen vor. Dem ist nur nicht so. Es bleibt abzuwiegen ob die veränderte BQ (das wird sie meistens sein, mal besser mal schlechter als nativ gerechnet) sich in Relation zum Performance Uplift lohnt. Das bleibt eine Einzelentscheidung je nach Game und Setup.
Damit hast du dem Feature verbal jegliche Relevanz entzogen...
Wenn die Bildqualität nicht an das native Bild ran kommt, warum wird dann der Performancegewinn damit vergleichen?
Wenn die Bildqualität nicht so wichtig ist, warum sollte man dann die Ausgabeauflösung hoch schrauben anstatt gleich mit der kleineren Auflösung zu spielen (ein Punkt der bei der Diskussion gern ignoriert wird..), bei welcher dann auch die zusätzlichen Bildfehler entfallen?
Wenn es nur um FPS und nicht um die Bildqualität geht, wozu soll das Feature dann noch gut sein?
 
  • Gefällt mir
Reaktionen: paulemannsen
Wadenbeisser schrieb:
......
Bei Bedarf habe ich auch noch die Bilder von den verschluckten Zaunstreben an der Straße, Stichwort verschluckte Strukturen.

Eine Anmerkung zu den Zaunstreben- Die sind schon da. Sieht man nur im Bewegtbild besser.
Zudem ist das Alias bei Einfahren des Fahrzeugs bei der von Dir genannten Stelle unter TAA so übel, dass z.B. mir das abgedämpfte Bild der Streben von DLSS besser gefällt. Ich betone- nur mir. Vielleicht sehen es 99% anders.

Wadenbeisser- Ich weiss genau was Du meinst. Ist auch alles legitim.

Nur sollte man bei aller Kritik an der Technik eins nicht vergessen und zwar, dass sie prinzipbedingt nur Potenzial nach oben hat. Das heisst, dass Du in Final Fantasy 15 quasi das schlechtest mögliche Ergebnis erhalten hast.
Das neuronale Netz trainiert weiter. Mit jedem Titel mit dem es gefüttert wird verbesserte es sein Ergebnis.

Derzeit wird plan und Szenenunabhängig ein errechnetes Profil über alle Szenen gestülpt.
DLSS kann aber auch Szenenabhängig integriert werden. Eine Einstellung für Innen, eine Einstellung für Außen, für Zäune für Gebirge und und und.

So wird man dem Optimalergebnis immer näher kommen.
Die von Dir aufgezeigten Unzulänglichkeiten könnten mit einer neuen Iteration bzw. Treiberupdate der Vergangenheit angehören bzw. immer weiter abgeschwächt in Erscheinung treten.

Grüße
Zero
 
@v_ossi
Dann fasse ich mal zusammen
Bildqualität zum nativen Bild in der Auflösung nicht vergleichbar -> irrelevant
zusätzliche Unschärfen -> irrelevant
zusätzliche Darstellungsfehler -> irrelevant

Einziger relevanter Punkt sind offensichtlich die zusätzlichen FPS bei der Ausgabeauflösung.

Alles klar!
 
  • Gefällt mir
Reaktionen: paulemannsen
@Wadenbeisser

dein letzter Post ist leider so verkorkst dass ich nicht mal wüsste wie man sinnvoll auf diesen eingehen soll. Er wirkt auf mich etwas "in die Ecke getrieben" und wenn du ehrlich bist, kannst du sämtliche, vermutlich teils rhetorische Fragen darin, selbst beantworten.

Falls nicht solltest du dir überlegen weshalb es überhaupt verschiedene Presets und Auflösungen in Games gibt.
 
Wadenbeisser schrieb:
Wenn die Bildqualität nicht so wichtig ist, warum sollte man dann die Ausgabeauflösung hoch schrauben anstatt gleich mit der kleineren Auflösung zu spielen (ein Punkt der bei der Diskussion gern ignoriert wird..), bei welcher dann auch die zusätzlichen Bildfehler entfallen?
Wenn es nur um FPS und nicht um die Bildqualität geht, wozu soll das Feature dann noch gut sein?
Damit hast Du genau den wichtigen Punkt angesprochen.

Das Bild mitt DLSS sieht deutlich besser aus, als das nativ berechnete Bild niedrigerer Auflösung (welches dann zusätzlich auch wiederum an die native Monitorauflösung skaliert werden muss, wenn es kein Vielfaches der Grundauflösung ist). Denn dann wird das Bild wirklich unscharf...

Der Beweis ist mein Vergleichsbild.

Ich habe die native Auflösung genommen, mit der DLSS rechnet. Bei 1080P sind das 1440x810.
Anschliessend habe ich dieses Bild auf 1080P mit Gimp bikubisch hochskaliert.
Dagegen habe ich das von DLSS produzierte Bild gestellt.

https://www.computerbase.de/forum/t...uer-den-grafikbenchmark.1853469/post-22265151

Du hast nativ eben schon eine deutlich schlechtere Bildqualität, wenn Du die Berechnungsgrundlage von DLSS als Basis nimmst.

Der Vorwurf war ja, dass DLSS ein 08/15 Scaling betreiben würde- Das Ergebnis, wenn man 08/15 Scaling betreiben würde, sieht aber deutlich anders aus.

DLSS bildet also eine qualitative Zwischenstufe der zwei Auflösungen in welchen sich DLSS abspielt (Basisauflösung/Zielauflösung), jedoch mit der höheren Geschwindigkeit, die es zum Berechnen der Basisauflösung braucht.

Grüße
Zero
 
Zuletzt bearbeitet:
Revan1710 schrieb:
Das stimmt. Aber der Weg, um eine Technologie zu etablieren geht in meinen Augen nicht über einen deutlichen Preisanstieg. Also entweder breite Masse mit RT/DLSS tauglicher und preiswerter Hardware versorgen und es zu einem Standard machen oder als Exklusivfeature für Enthusiasten und später für die breite Masse, wenn es etabliert ist.

Ich würde sagen dass nVidia versucht eine Mischung aus beidem hinzukriegen. Der deutliche Preisanstieg zu Anfang (der aber jetzt schon sinkt) ist angesichts der verbauten Technik bei 2080Ti, 2080, 2070 und des Alleinstellungsmerkmals wohl unvermeidlich. Also Enthusiastenniveau. Andererseits bietet man aber mit der 2060 auch dem klassischen Mid-Range Gamer eine Option in die neue Technik einzusteigen.
Hätte man die 2060 nicht gebracht, würde ich auch von einer klaren Enthusiastenserie an Hardware sprechen.

Revan1710 schrieb:
Eine 1160, die nicht zu viel Leistung gegenüber einer 2060 einbüßt und preislich attraktiv ist, wäre eine ziemliche Cash-Cow, müssen wir aber abwarten. Aber eine GTX-Karte, die leistungstechnisch über einer 2060 liegt (1170, 1180) halte ich für absolut unwahrscheinlich. Das wäre der Tod für die Verbreitung der neuen Features.

Würde ich auch so sehen. Ich denke eine 1160 wird auf halbem Wege zwischen 1060 und 1070 liegen, vielleicht auch auf 3/4 des Weges. Preislich durchaus attraktiv, aber halt mit weniger Leistung. Eine Cash-Cow könnte so eine Karte trotzdem werden, denn die 1060 ist, wieder aufgrund der Steam Hardwarestatistik, ebenfalls eine. Sie ist mit weitem, WEITEM Abstand die meistgenutzte Karte dort.
 
Wadenbeisser schrieb:
@v_ossi
Dann fasse ich mal zusammen
[...]
irrelevant
[...]

Hm, ich kann mich nicht erinnern, dass so formuliert zu haben...

Du verlierst -je nach Spiel- mal mehr, mal weniger* Bildqualität und gewinnst dafür fps.

Nennt sich Trad-off.

Ist mit jedem Regler im Grafikmenü so.
Ich weiß nicht, warum dich das so aufregt. Bei Nichtgefallen einfach nicht nutzen.

Ein mMn viel treffenderer Kritikpunkt wäre, dass DLSS nur in zu wenigen ausgewählten Spielen zur Verfügung steht, aber jeder Käufer die zusätzliche Siliziumfläche bezahlen muss.

*dafür eben das Extrembeispiel, dass man die Unterschiede gegebenenfalls mit der Lupe suchen muss.

PS.: @DocWindows Ob eine Karte, die bei ~350€ anfängt noch Mid-Range ist, darf durchaus diskutiert werden. Dafür gibt es schon mehr oder minder eine PS4 Pro. Mid-Range war bisher immer bei ~250€.
 
Zurück
Oben