News Kritik an DLSS: Nvidia verspricht schärfere Bilder und Updates für Spiele

Klar ist 2x MSAA ggf auch okay oder bei TAA die Sache ähnlich unscharf wie mit DLSS. Weder beim einen noch das anderen fällt aber die Performance höher aus.

Egal was man macht, nach Möglichkeit wählt man die native Auflösung des Monitors.


Klar sieht man hier zb in der Entfernung die Unschärfe, aber richtig beurteilen kann man es doch erst wenn man es wirklich am Schirm sieht. Klar sieht hier native besser aus, aber man kann ja auch schlecht den Performance Gain ignorieren. Sieht 1440p/1600p upscale gleich gut aus? Gerade auch bewegt.
 
whiskascat schrieb:
Man sieht kaum einen Unterschied.

Nvidia verlangsamt mit den neuen Treiber die Performance ältere Grafikkarten, damit alle RTX kaufen.

Das war schon immer so, ist mir aber bei GTX 1080ti aufgefallen, welche nicht so alt ist,
ich müsste wieder ältere Treiber installieren und auf alle Updates verzichten.

Ach komm, setz dir einen Aluhut auf.
Wenn Nvidia aktuelle Karten optimiert kann es schon mal vorkommen dass die ältere Gen darunter leidet. Da jetzt Absicht zu unterstellen ist schon sehr gewagt. Und Unterschiede sieht man am besten bei bewegten Bildern, statische Bilder sind da nicht das wahre.
 
  • Gefällt mir
Reaktionen: schwenn
rico007 schrieb:
Wenn Nvidia aktuelle Karten optimiert kann es schon mal vorkommen dass die ältere Gen darunter leidet
Als entwickler (u.A. auch Treiber) kann ich dir bewusst sagen dass das ziemlicher unsinn ist. Wenn man eine neue Generation raus bringt, und die aeltere ploetzlich langsamer wird, dann hat jemand im Treiber rumgefpuscht und das aus absicht so gemacht.
 
  • Gefällt mir
Reaktionen: grossernagus und CMDCake
Krautmaster schrieb:
Etwas Unschärfe im Hintergrung
Wie kommst Du darauf, dass "DLSS" nur "etwas Unschärfe im Hintergrund" verursacht? Die niedrige Auflösung und der Matschfilter beeinträchtigen das ganze Bild, wie man in den Bildern dazu auch gut sehen kann.
 
Mag sein, so wie TAA auch. Was würdest also du stand jetzt setzten wenn du die Wahl hast wenn du auf die DLSS Performance kommen willst? Heißt du hast zB nen 4K Monitor.

Mach konkrete Beispiele, am besten mit nem Vergleich wie dieses Beispiel qualitativ gegen DLSS steht (am besten Video da Standbilder wie gesagt nur wenig Aussagen)
 
rico007 schrieb:
Ach komm, setz dir einen Aluhut auf.
Wenn Nvidia aktuelle Karten optimiert kann es schon mal vorkommen dass die ältere Gen darunter leidet. Da jetzt Absicht zu unterstellen ist schon sehr gewagt. Und Unterschiede sieht man am besten bei bewegten Bildern, statische Bilder sind da nicht das wahre.


 
  • Gefällt mir
Reaktionen: onkel-foehn
Krautmaster schrieb:
Mag sein, so wie TAA auch. Was würdest also du stand jetzt setzten wenn du die Wahl hast wenn du auf die DLSS Performance kommen willst? Heißt du hast zB nen 4K Monitor.
Ich halte weder von temporalen noch auflösungsbasierten Matschfiltern etwas, daher bleibt, wenn die Bildrate nicht ausreicht, nur die Wahl zwischen Details oder Auflösung reduzieren einerseits und Aufrüsten andererseits.
 
whiskascat schrieb:


Nein:
https://forums.guru3d.com/threads/nvidia-slows-down-performance.423434/



 
Zuletzt bearbeitet:
@incurable

Also würdest du zB eher auf 1600p ohne AA statt 2160p mit DLSS setzen wenn du die Wahl hast und die FPS ähnlich wären. Müsste man jetzt konkret wissen wie beide Varianten im direkten Bewegtbild Vergleich aussehen.

Dafur müsste es ja konkrete Vergleiche geben, sonst wäre das Gehate hier ja vollkommen unbegründet. Hast du da zufällig nen Video für?

Mit welcher nativen Auflösung bekomme ich in BF V etwa die DLSS 4k FPS?

Edit : bei reddit sind es wohl etwa 80% scale die Frameraten auf etwa wie DLSS Niveau bringen. Jetzt wären noch Videos interessant. In der Frostbite kann man die interne Render Auflösung ja schön skalieren, das ist bei anderen Titeln meist nicht der Fall.
 
Zuletzt bearbeitet:
Alles schön und gut, aber kommen wir mal zu den wichtigen Themen.

Wie kann ich denn die KI so kompromitieren, dass sie mir im Multiplayer gegner mit der Kantenglättung highlighted?
Driver driven cheating kann ein Game garnet entdecken. :daumen:
 
Krautmaster schrieb:
@incurableAlso würdest du zB eher auf 1600p ohne AA statt 2160p mit DLSS setzen wenn du die Wahl hast und die FPS ähnlich wären. Müsste man jetzt konkret wissen wie beide Varianten im direkten Bewegtbild Vergleich aussehen.
Wenn man die selbe Bildrate wie "DLSS" erreichen will, landet man mit identischen Details automatisch bei der selben (internen) Auflösung.

Ausgehend davon unterscheidet sich die Bildqualität nur durch den von Nvidia optimierten Matschfilter bei "DLSS" einerseits oder die Skalierung durch die GPU oder den Bildschirm / TV andererseits.

Mir persönlich sagen die bekannten Matschfilter nicht zu, daher würde ich Bildschirm- und interne GPU-Skalierung gegeneinander ausprobieren und die klarere verwenden.
 
NVidias Anti Aliasing Methoden abseits von MSAA und SSAA waren doch immer schon recht Unscharf, von daher nicht wirklich Überraschend das es bei DLSS auch der Fall ist.
 
  • Gefällt mir
Reaktionen: teufelernie, Recharging und Smartcom5
Realsmasher schrieb:
Da sagt doch nur etwas über die Welt aus und nicht unsere Wahrnehmung.

Dein Gehirn zeigt dir nur deswegen etwas scharf an, weil du es oft gesehen hast und gelernt wie es aussieht.

Die Schnittstelle zum Hirn liefert dir vielleicht 150x150 Pixel in Farbe mit 60 Hz.
Wenn du nicht Mustererkennung im Hirn abspulen würdest, dann könntest du gar nicht über DLSS diskutieren :)
Seitwann arbeiten Gehirn und Augen mit Aufloesungen und Pixeln/Bildpunkte? Man arbeitet bei kuenstlicher Darstellung nur deswegen damit, um Farben (Halbtoene) kuenstlich ueber Rasterisierung darzustellen und allgemein Bilder zu simulieren. Das bedeutet immer Informationsverlust.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5 und Obvision
DarkerThanBlack schrieb:
Kurz gesagt, ein Feature welches ständigen Support benötigt. Das kann auf Dauer nicht gut funktionieren.
Kann schon. Fragt sich eher, ob es sich rechnet. Denn dieses ganze Training will ja auch bezahlt werden. Pro Spiel. Wenn sich die RTXen nicht so blendend verkaufen wie erhofft / erwartet, dann kann das sehr schnell in ein Geldverbrennen ausarten.
Ergänzung ()

Rock Lee schrieb:
Wie lange sollen die Spieler noch warten, bis das Feature einen Sinn ergibt?
Ich tippe auf 1-2 Generationen.
Ergänzung ()

kisser schrieb:
Weshalb man ja vermehrt auf KI setzt. ;)
Ah ja, und da ja nach wie vor das I fehlt im K, ist’s jetzt vor allem im A!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
DLSS ist doch nichts weiter als die Renderskalierung auf 20% zu stellen jedoch mit zusätzlichen .jpg-Artefakten.
 
incurable schrieb:
Wenn man die selbe Bildrate wie "DLSS" erreichen will, landet man mit identischen Details automatisch bei der selben (internen) Auflösung.

Ausgehend davon unterscheidet sich die Bildqualität nur durch den von Nvidia optimierten Matschfilter bei "DLSS" einerseits oder die Skalierung durch die GPU oder den Bildschirm / TV andererseits.

Mir persönlich sagen die bekannten Matschfilter nicht zu, daher würde ich Bildschirm- und interne GPU-Skalierung gegeneinander ausprobieren und die klarere verwenden.

Nein, es ist sogar schlimmer - DLSS ist ein Postprocessing-Verfahren und dies kostet zusätzliche Zeit. D. h. wenn man es bei identischen Details und derselben internen Auflösung vergleicht, ist bei DLSS die Framerate niedriger.
 
Senephar schrieb:
NVidias Anti Aliasing Methoden abseits von MSAA und SSAA waren doch immer schon recht Unscharf, von daher nicht wirklich Überraschend das es bei DLSS auch der Fall ist.
MFAA, bei dem man quasi eine Stufe MSAA einsparen konnte, wurde ja auch still und heimlich beerdigt. Das kann/konnte man noch im Treiber selbst einstellen, verursachte etwa aber bei Ghost Recon Wildlands gemeinsam mit Ansel dann einen RAM Overflow.

Seitdem nicht mehr getestet, nachdem MSAA ja selbst in den Spielen so gut wie nicht mehr zur Verfügung steht (leider).
 
BTW
Wer zum Geier braucht eigentlich bei 4K noch Kantenglättung? Also wenn man in einem Sinnvollen Abstand vor dem Monitor sitzt, sind bei 4K ja eigentlich keine "Kanten" mehr zu sehen. (Außer man macht nen Screenshot und sucht mit zu wenig Abstand dannach).
Nur mal so am Rande ein Gedankengang.
Ich hab nen 32" wqhd und selbst da muss man wirklich genau hinschauen um "Treppchen" zu erkennen.

MfG zimmbo
 
Also ich hab mit meinen 40" 4k am PC schon gern Glättung.
Andersrum könnte man auch fragen wem beim 4K Monitor etwas Unschärfe auffallen soll ^^

Die posts die man hier so liest könnte man ernsthaft meinen dass viele wohl ihren 4K Monitor mit 1440p ansteuern würden und das Bild sähe besser aus als mit DLSS in 4k. Das bezweifle ich dann doch stark. Wenn ich was anderes als 4k auf meinen Monitor spiele sieht es immer scheiße aus.

1800p auf 4k skaliert sieht ggf mit DLSS vergleichbar aus, im Standbild vermutlich je nach Textur auch gern mal schärfer. Wenns darum geht muss man wohl grundsätzlich ohne AA spielen, hat man eben wieder Geflimmer.

Helfen würde für nen Test wohl nur sowas in der Art wie nen Mean Option Score und Blind Test bei dem die Tester subjektiv die Sache beurteilen. So im Forum kommt auch viel Quark und haltlose Behauptungen ums Eck.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben