News Kritik an DLSS: Nvidia verspricht schärfere Bilder und Updates für Spiele

Also RT in Metro ist der Hammer, ohne RT GI geht viel Atmo verloren, ich gehe sogar so weit und sage ohne RT GI will ich es gar nicht mehr spielen, läuft zufriedenstellend @ 3440x1440 mit Ultra und RT @ High auf einer RTX 2080 @ 2000/7700mhz, so zwischen 40-60 FPS. Geht imo für ein SP Game, aber ihr könnt natürlich weiter von RTX Fail sprechen, juckt mich nicht.

Krautmaster schrieb:
Also ich hab mit meinen 40" 4k am PC schon gern Glättung.

Was ja auch irgendwo logisch ist, 4K @ 40" entspricht genau der PPi von 1440p @ 27.
Bei so einer größe geht die Detailheit/Schärfe von 4K flöten. Andererseits sehe 1440p @ 40" einfach nur erbärmlich aus. Natürlich alles @ 100% Sehkraft. Wenn man älter wird, kann es eigentlich einen Wumpe sein, da man eh nicht mehr gut/normal sieht, allerdings möchte ich mit 60+ nicht mehr ein aktiver Zocker sein. Habe noch 31 Jahre.
 
Zuletzt bearbeitet:
Okay bei 40" meinetwegen. Sind ja im Prinzip vier Fullhd 20"er.
Wobei das ja wohl eher die Ausnahme ist. Der Ottonormal hat ja eher 24" bis 32". Ich wette ingame fällt das den wenigsten auf ob da Kantenglättung aktiv ist oder nicht.
 
anexX schrieb:
Von Unschärfe bekommt man vor allen Dingen eines: Kopfschmerzen.

Ganz ehrlich, ich wünsche Nvidia das sie zumindest das in den Griff kriegen und das ohne Hohn und Spott weil wenn sie mit DLSS ebenso stranden wie mit den restlichen RTX Features dann gute Nacht. ^^
Ich sehe das nicht so drastisch. Sie haben immernoch die besten Grafikkarten auf dem Markt, auch ohne die Features DLSS und RTX. AMD hat ja jüngst wieder bewiesen, dass sie 2 Jahre in der Entwicklung hinter NV sind.
 
Zimmbo schrieb:
BTW
Wer zum Geier braucht eigentlich bei 4K noch Kantenglättung? Also wenn man in einem Sinnvollen Abstand vor dem Monitor sitzt, sind bei 4K ja eigentlich keine "Kanten" mehr zu sehen. (Außer man macht nen Screenshot und sucht mit zu wenig Abstand dannach).
Nur mal so am Rande ein Gedankengang.
Ich hab nen 32" wqhd und selbst da muss man wirklich genau hinschauen um "Treppchen" zu erkennen.

MfG zimmbo

Also ichse mit Sehhilfe hab den 31,5“ wqhd Monitor an der Wand und der Tisch (90tief) steht etwa mit 8cm Abstand vor der Wand.
Dennoch nehme ich teilweise Pixelpampe wahr. Vermutlich ist das aber kein Resolution, sondern ein Dpi Problem...
Ergänzung ()

Zimmbo schrieb:
Okay bei 40" meinetwegen. Sind ja im Prinzip vier Fullhd 20"er.
Wobei das ja wohl eher die Ausnahme ist. Der Ottonormal hat ja eher 24" bis 32". Ich wette ingame fällt das den wenigsten auf ob da Kantenglättung aktiv ist oder nicht.


Yo signed, bis auf die Fraktion, die im Multiplayer verliert, weil die Graka situationsbedingt überfordert war...

Da ist ja eher Auflösung/Details runter angesagt.
Falls (!) DLSS hier wirklich hilft ist es gut, falls nicht war es eine Marketingimplosion. Aber mal überlegt: Warum sollte NV Interesse daran haben, dass die kleinen Karten optisch eine dickere Auflösung imitieren kann?
Das Interesse liegt eher im VK der dickeren Karten und in Midrange haben die keinen Grund sich von Mitbewerbern absetzen zu müssen... die Produktpalette ist halbwegs aufgestellt und ganz oben eher ungeschlagen.
 
Zuletzt bearbeitet:
Ewoodster schrieb:
Ich sehe das nicht so drastisch. Sie haben immernoch die besten Grafikkarten auf dem Markt, auch ohne die Features DLSS und RTX. AMD hat ja jüngst wieder bewiesen, dass sie 2 Jahre in der Entwicklung hinter NV sind.
Warum geht es eigentlich den Leuten nicht in den Kopf das die Radon VII eigentlich nur ein shrink auf 7 nm ist ?
und das die 2080 TI ( 18,6 Mrd ) mehr als 50 % mehr Transistoren hat als die 1080 TI ( 12 Mrd ) , aber keine 50 % Mehrleistung zur 1080 TI rausholt ? Einen shrink hatte NV da auch ( 16nm auf 12 nm ) , wobei NV nur die geringere Leistungsaufnahme aus dem 12 nm mitgenommen hat , während NV auf die höhere Dichte verzichtet hat , deswegen der >700 mm2 Die . Sollte das NV bei 7nm genauso halten wollen , lohnt es sich für NV kaum auf 7 nm zu wechseln ...
Aber ja , wer bereit ist mehr als 1000 Euro für ne GraKa hinzulegen , der verdient es halt nicht besser .... :D
 
nargorn schrieb:
Deep Learning Super Sampling basiert darauf, dass ein Supercomputer ein Spiel in einer absurd hohen Auflösung durchrechnet und einen Algorithmus erstellt, der es schaffen soll eine Art Upscaling mit Hilfe der Tensor-Cores auf der GPU zu erreichen, welches der echten Auflösung näher kommt, die aber deutlich mehr Performance bräuchte.

Die GPU berechnet z.B. nur Full-HD, dann nehmen die Tensor Kerne das Bild und rechnen mit Hilfe des im Supercomputer ermittelten Algorithmus ein WQHD oder 4K Bild.

Das nutzt man um ein WQHD (korrigiert) Raytracing Bild auf 4K hochzurechnen und spart ca 40-50% Performance.

Andernfalls wäre Raytracing oft nur mit ca 30 fps möglich. Heutzutage ein no-go zumindest auf dem PC.
Laut ihnen rechnen sie nicht in Full HD sondern rendern auf 3-5 M pixel also ca. 40-50% der Pixel statt 25% (1080p/2160p)

Im wesentlichen verfolgen sie das selbe Prinzip wei soetwas hier
https://github.com/alexjc/neural-enhance
Hier wird nur auf Bild hin trainiert und dann wird es eben enhanced.
Man kann sich das so vorstellen, dass wenn der Algorithmus im Bild etwas findet das wie ein verschwommenes Auge aussieht dann zeichnet er ein Auge hin das so aussieht wie Augen mit wimpern und allem.
Das funktioniert ganz gut. Im Grund kann man sich vorstellen ein Maler sitzt davor der gut Bäume zeichnen kann und dann sieht er einen verschwommen Baum und zeichnet das Bild neu aber einen scharfen detailierten Baum.
Wie Bäume aussieht lernt der Maler von dem Spiel selbst und zeichnet die daher meist so wie sie sonst im Spiel so aussehen. Der reproduziert aber nie das Original sondern reinterpretiert quasi das verschwommene.

Wieviele Inputs sie dem ganzen geben verraten sie aber nicht (bloß das es mehr als FullHD ist, 3-5M). Da sie mitten in der GPU sitzen kann es sein, dass als input nicht nur ein gerendertes Bild sondern auch andere Elemente von früher in der Pipeline einflusshaben. (Ich bezweifle aber dass das der Fall ist) Theoretisch wärs aber möglich.

Theoretisch könnte man soetwas auch direkt in den Bildschirm integrieren, wie es Fernseherhersteller ja machen. Nur funktioniert es dann nicht so gut, weil eben ein Baum in unterschiedlichen Spielen anders aussieht. Bzw. woher weiß der Bildschirm wie der Baum in FarCry vs Battlefield aussieht.
Witzig wäre ja wenn sie das weiter treiben und z.B. ein ähnliches aber weniger hübsches Spiel von einem auf BF1 trainierten Model reinterpretieren lassen. Dann siehst du die Texturen/Bäume/Gesichter wie bei Battlefield obwohl es im FarCry ganz anders aussieht.
Dazu braucht man aber schon sehr hohe Auflösungen als Quelle damit es funktioniert. Wie er sagt Full HD wäre da zu wenig. Sonst kommt ein LSD Trip raus.
 
Mal eine Szene, wo man ganz klar die Vorteile von RT aber auch die Nachteile von DLSS in Metro sehen kann:

RT On, DLSS Off, Ultra Settings, HairdWorks und PhysX On:

MetroExodus_2019_02_18_10_04_47_706.png


Das Ganze mit DLSS (ist wirklich zu unscharf, der KI-Algorithmus muss hier definitiv noch mehr angelernt werden; 22% mehr Performance gleichen hier nicht die Nachteile aus):

MetroExodus_2019_02_18_10_05_12_690.png


Und jetzt RT Off und DLSS Off (hier sieht man das gängige Bild in Spielen, die Szenen werden einfach völlig überbelichtet; Wirkt einfach so als wäre der Gamma-Wert einfach hochgesetzt worden):

MetroExodus_2019_02_18_10_05_30_546.png


Viele sehen keinen Unterschied, weil sie sich an die falsche Darstellung gewöhnt haben. Erst, wenn man selbst das Ganze live sieht und erlebt, empfindet man die physikalisch korrekte Darstellung als angenehmer. Nur noch DLSS muss bessere Bildqualität liefern, dann ist Raytracing samt DLSS definitiv ein weiterer Schritt zur Verbesserung der Bildqualität.

MetroExodus_2019_02_18_10_04_47_707.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumusud, Kryss und incurable
Botcruscher schrieb:
Bei UHD ist Kantenflimmern ohne AA wunderbar auffällig. Bei seinem low ppi Panel erst recht.
Wie gesagt Standbild auf nem 4k 32" sieht man's wenn man genau hinschaut. Aber bei nem 27"er ingame glaube ich nicht das das auffällt. Kann aber nur Vermutungen äußern, aber bei nem Kumpel war das definitiv so, das man den Unterschied zwischen kein AA und AA bei tauglichem Abstand schlicht nicht mehr gesehen hat. Selbst WQHD war noch extrem scharf auf dem 27"er. Wenn man hin und hergeschalten hat, hat man's gemerkt, aber ingame ist das nicht mehr aufgefallen.
 
Die Ausrede mit den niedrigen FPS klingt stark nach, hm, Ausrede. Dass die Tensorcores für jeden Frame gleich lange brauchen, egal bei welcher Quell- und Zielauflösung, wäre Voraussetzung dafür und das erscheint mir doch arg unwahrscheinlich.

Nvidia hatte genügend Zeit und somit auch genügend Rechenzeit um zumindest ein Vorzeigeprojekt auf die Beine stellen zu können. So wie man sie kennt, werden sie auch eine ganze Menge an Ressourcen dort reingebuttert haben. Trotzdem ist das Ergebnis scheisse.

Fazit: Die Algorithmen sind nicht schlau genug oder die Rechnerkraft reicht noch nicht aus oder beides. Momentan ist DLSS ein Rohrkrepierer.
 
Nutze DLSS auf nem 4K Beamer und kann Metro Exodus mit Raytracing spielen. Wer hier von Matsch redet, hat das schlicht nicht erlebt...Mit einer der besten Gaming Erfahrungen ever🤘
 
  • Gefällt mir
Reaktionen: Kryss
paulemannsen schrieb:
Dass die Tensorcores für jeden Frame gleich lange brauchen, egal bei welcher Quell- und Zielauflösung, wäre Voraussetzung dafür und das erscheint mir doch arg unwahrscheinlich.
Ich denke eher dass innerhalb einer Auflösung die Sache immer vergleichbar lange dauert. In 1080p mag der Durchsatz höher sein da das Netzwerk ggf schlanker ist, aber möglich dass es pro Auflösung eine recht statisches FPS Limit gibt dir die Tensor Sache verarbeiten kann. Deswegen dürfte der Gain bei wenig FPS weit höher sein als bei hohen FPS Raten, da limitiert es uU sogar.
 
@SKu
Ich bin der Meinung und sehr sicher das auch RTX ON nicht realistisch ist und ja RTX OFF ist überbelichtet, aber gefällt mir deutlich besser.
 
slogen schrieb:
@SKu
Ich bin der Meinung und sehr sicher das auch RTX ON nicht realistisch ist und ja RTX OFF ist überbelichtet, aber gefällt mir deutlich besser.

Es ist definitiv realistischer als ohne Raytracing und wenn dir die Szene ohne RT besser gefällt, dann nur, weil du dich daran gewöhnt hast. Würdest du nur noch Spiele mit RT spielen, würdest du danach höchstwahrscheinlich nicht mehr ohne spielen wollen, weil du dich an die neue Darstellung gewöhnt hast.

Bei Metro gibt es so viele Szenen wo RT zusätzlich die Atmosphäre verstärkt und das Ganze authentischer wirken lässt, so dass die Immersion weiter verstärkt wird. Extrem empfand ich hier z.B. das Setting in der kaspischen Wüste im Bunker mit den Spinnen. Die einzige Leuchtquelle, die man dort hatte war die/das Taschenlampe/Feuerzeug und sonst nur Finsternis. Ohne RT ist das nur eine völlig überbelichtete Szene, die nicht mal einschüchternd wirkt.
 
nargorn schrieb:
Nutze DLSS auf nem 4K Beamer und kann Metro Exodus mit Raytracing spielen. Wer hier von Matsch redet, hat das schlicht nicht erlebt...Mit einer der besten Gaming Erfahrungen ever🤘
Kann Dein "4K" Beamer denn tatsächlich 4K, oder ist das so ein FullHD-Pixelschubser?
 
MK one schrieb:
Warum geht es eigentlich den Leuten nicht in den Kopf das die Radon VII eigentlich nur ein shrink auf 7 nm ist ?
und das die 2080 TI ( 18,6 Mrd ) mehr als 50 % mehr Transistoren hat als die 1080 TI ( 12 Mrd ) , aber keine 50 % Mehrleistung zur 1080 TI rausholt ? Einen shrink hatte NV da auch ( 16nm auf 12 nm ) , wobei NV nur die geringere Leistungsaufnahme aus dem 12 nm mitgenommen hat , während NV auf die höhere Dichte verzichtet hat , deswegen der >700 mm2 Die . Sollte das NV bei 7nm genauso halten wollen , lohnt es sich für NV kaum auf 7 nm zu wechseln ...
Aber ja , wer bereit ist mehr als 1000 Euro für ne GraKa hinzulegen , der verdient es halt nicht besser .... :D
Was ändert das mit dem Shrink an meiner Aussage? Dass die Radeon VII selbst hinter der etwa gleichteuren 2080 hinterherhinkt, es bei Nvidia gegen 60 % mehr Geld nochmal 30 % mehr Leistung gibt sind einfach Fakten.

Die Anzahl der Transistoren ist mir egal, es zählt nur das, was am Ende rauskommt. Ob es einhundert oder einhundertmilliarden Transistoren sind.

Finde ich das gut? Mitnnichten! Mir ist der Hersteller meiner Grafikkarte vollkommen egal. Aber Nvidia ist AMD nunmal gut 2 Jahre voraus und die Situation lassen sie sich entlohnen. Muss jeder für sich selbst entscheiden, ob er das viele Geld bezahlt oder nicht.
 
SKu schrieb:
RT On, DLSS Off, Ultra Settings, HairdWorks und PhysX On:

Du hast ein schlechtes RT Bild gezeigt. Bin jahrelang Zug gefahren und so sieht es am heller lichten Tag im Abteil nicht aus. Dann noch rechts mit der großen Tür und vielen Fenstern.
Die Szene ist zu dunkel. ich kann nur vermuten das RT hier nicht richtig läuft (Fehler vom Entwickler, was auch immer).
Ich sehe das RT mir auf Streams an. Zu RT in dem Spiel kann ich sagen, das es schon gute Ergebnisse bei einigen Szenen (Gebieten) zeigt.
Aber leider nicht immer. Insbesondere auch in Räumen, wo man denkt die sehen noch genau so aus in der non RT Version.
Aber egal, wie ich schon gesagt habe, neue Technik und die Entwickler müssen lernen damit umzugehen + einen guten Mittelwege zu finden.


Kryss schrieb:
Aber reshades funzen nur mit dx 10 oder? Dann muss man auf RT verzichten, richtig?

11 (hat er angegeben)...10 ist schon lange tot.
 
Zurück
Oben