News Kritik an DLSS: Nvidia verspricht schärfere Bilder und Updates für Spiele

Dai6oro schrieb:
"Zu Battlefield 5 haben Electronic Arts und Dice in einem Interview ein paar neue technische Details zur PC-Version veröffentlicht. So wird die Release-Version deutlich weniger Raytracing-Effekte vorweisen, also noch bei Nvidias Geforce RTX Launch-Event-Demo. "
Gähn...
https://www.computerbase.de/forum/t...auf-geforce-rtx.1821903/page-12#post-21682029
https://www.computerbase.de/forum/t...nd-viel-zukunft.1824511/page-44#post-21733264
https://www.computerbase.de/forum/t...mark-aufgetaucht.1821251/page-4#post-21696045

BTW: Ist RT eigentlich für Tomb Raider schon veröffentlicht oder hat man das auch nur für Werbezwecke gebraucht. Ich kann mir vorstellen dass die meisten das Game schon längst durch haben.. Naja ich bin raus. Mit Trump würde ich auch nicht diskutieren. Kann sich ja jeder selbst ein Bild machen.
Danke- mit Deiner unverschämten letzten Anmerkung wird Dich hier in der Diskussion auch niemand vermissen.
Der Tomb Raider Patch wird wohl bis spätestens mitte März online sein.
http://www.pcgameshardware.de/Shadow-of-the-Tomb-Raider-Spiel-61096/News/Das-grosse-Warten-1275485/

Grüße
Zero
 
ZeroZerp schrieb:
Naja. Man kann natürlich auch überhaupt keine Arbeit in die normale Beleuchtung stecken und alles in die "gesponsorte" von Nvidia, damit sich sehr deutliche Unterschiede aufzeigen lassen.
Ich habe schon einige Spiele gespielt, dessen normale Beleuchtung sah mindestens genauso gut aus wie deine Screenshots mit RTX on. War halt nur vermutlich mehr Arbeit in der Entwicklung als mit Raytracing.
Womit ich nicht sagen will, dass die RTX on Bilder nicht eindeutig besser aussehen, aber man muss auch ein bisschen das drumherum bewerten.
Traurig, wie leicht sich manche Leute (von einem Nvidia Vorzeigeprojekt) blenden lassen.
Natürlich hat Nvidia ein Interesse daran, dass die normale Beleuchtung möglichst Schrott aussieht und die RTX on möglichst gut.
 
  • Gefällt mir
Reaktionen: Kobura, Baal Netbeck und Balikon
Crazy_Bon schrieb:
Vielleicht denken welche die Technik wäre sowas wie Supersampling, aber das ist leider weit verfehlt.
Da wäre es vielleicht angebracht, wenn die Technik nicht DLSS sondern DLUS genannt werden würde - US für upsampling. Stattdessen hat nVidias Marketing einen Begriff gewählt, mit welchem der Anwender getäuscht wird.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
ZeroZerp schrieb:

Du sagst es, gähn.
Ein halbes Jahr nach Release wird es nachgereicht, wenn sowas die Norm wird das es immer erst sonstwann kommt dann gute Nacht.
Alles durchgespielt und irgendwann kommt der Patch der die Features nachreicht wenn das Spiel schon wieder uninteressant ist.
Vorallem wenn man Spiele hat deren Wiederspielwert gering ist dann wird das richtig geil warten zu können.
 
  • Gefällt mir
Reaktionen: cookie_dent
greeny112 schrieb:
Naja. Man kann natürlich auch überhaupt keine Arbeit in die normale Beleuchtung stecken und alles in die "gesponsorte" von Nvidia, damit sich sehr deutliche Unterschiede aufzeigen lassen.
.....
Traurig, wie leicht sich manche Leute (von einem Nvidia Vorzeigeprojekt) blenden lassen.
Natürlich hat Nvidia ein Interesse daran, dass die normale Beleuchtung möglichst Schrott aussieht und die RTX on möglichst gut.
Und da haben wir wieder den Ruf nach der negativen Feststellungsklage.
Ist auch jedesmal das Gleiche- Wird ein anfnags "teuerer" Effekt integriert heisst es immer reflexartig, dass der "alte" dann absichtlich schlechter gemacht wurde.
SSAO/HBOA/VXAO sage ich da nur. Oder Hairworks/TressFX oder oder oder

Also ich habe bis jetzt KEIN Einziges Spiel gesehen, dass Szenenweise eben nicht genau die gleiche platte beleuchtungsweise vorweist, außer Kingdom Come, welches mit SVOGI aber ja quasi fast schon wieder Raytracing (nur auf Voxelbasis) durchführt.

Das hat mit blenden nichts zu tun. Metro Exodus ist nebst Battlefield 5 einfach die neue Referenz in Sachen Grafik.

Grüße
Zero
Ergänzung ()

Jethro schrieb:
Du sagst es, gähn.
Ein halbes Jahr nach Release wird es nachgereicht, wenn sowas die Norm wird das es immer erst sonstwann kommt dann gute Nacht.
Alles durchgespielt und irgendwann kommt der Patch der die Features nachreicht wenn das Spiel schon wieder uninteressant ist.
Vorallem wenn man Spiele hat deren Wiederspielwert gering ist dann wird das richtig geil warten zu können.
Genau- Es gibt ja durchaus eine Liste an Spielen, die dieses Jahr noch mit RTX Unterstützung starten.
Metro ist übrigens mit RTX unterstützung ohne "Nachreichen" gestartet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
Vitche schrieb:
Wenn ich ehrlich bin, will ich keine "schaerferen" Bilder.

Ich will natuerlichere Bilder - aeunlich dem Unterschied einer DSLR-Kamera und einer Knipse, die grundsaetzlich alles gleich (ueber)scharf stellt.
"Analoger" Look wird auch gern genommen, z.B. kein Kantenrauschen...
 
Gibt es eigentlich Vergleichsbilder zwischen "DLSS" und "Auflösungsskalierung so justiert, bis dieselben FPS wie mit DLSS erreicht werden"?

Was ich bis jetzt mitbekommen haben, soll einfache Auflösungsskalierung bessere Bildqualität bei gleichen FPS, bzw. mehr FPS bei gleicher Qualität liefern.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Also ich habe einmal die Screenshot vom Metro Exodus Review runter geladen: https://www.computerbase.de/2019-02/metro-exodus-test-benchmarks/4/

Wichtig: Wenn man das Ergebnis vergleichen will so muss man diese mit Paint öffnen, da die meisten anderen Programme beim reinzoomen selbst die Kanten glätten. Paint macht es genauso wie der typische Monitor/Fernseher.

Leider gibt es keinen Vergleich mit nativem Full HD aber ich kann nur sagen, dass natives WQHD nicht einmal den Ansatz einer Chance hat gegen 4K DLSS. Vergleicht man hingegegen natives 4K mit DLSS sieht man zwar etwas Schärfeverlust aber mal ehrlich: Wen interessiert das noch auf 4K? Wichtig ist, dass die Kanten weg sind und das sieht mit DLSS fast besser aus als nativ.

Dass Full HD mit DLSS Mist ist sollte klar sein aber welche aktuelle Grafikkarte schafft kein Full HD?
 
  • Gefällt mir
Reaktionen: kisser
andr_gin schrieb:
Leider gibt es keinen Vergleich mit nativem Full HD aber ich kann nur sagen, dass natives WQHD nicht einmal den Ansatz einer Chance hat gegen 4K DLSS. Vergleicht man hingegegen natives 4K mit DLSS sieht man zwar etwas Schärfeverlust aber mal ehrlich: Wen interessiert das noch auf 4K? Wichtig ist, dass die Kanten weg sind und das sieht mit DLSS fast besser aus als nativ.
Wenn Dir die Unschärfe auf den "DLSS"-Beispielbildern nicht negativ auffällt, würde ich persönlich einen Besuch beim Augenarzt (oder zumindest beim Optiker) empfehlen.
 
  • Gefällt mir
Reaktionen: Smartcom5
Ich habe hier einen Vergleich zwischen DLSS und 80% Auflösungsskalierung gefunden.
Zu beachten ist dass 80% Skalierung schärfer ist und sogar mehr FPS liefert.
Wenn das der Wahrheit entspricht, wirkt DLSS ziemlich nutzlos.
 
  • Gefällt mir
Reaktionen: onkel-foehn und Baal Netbeck
RAZORLIGHT schrieb:
Aha und Menschen können nicht mit der Zeit lernen und optimieren?
Von wegen Äpfel und Birnen.

Der Lernprozess eines Computers (einer Maschine) und der eines Menschen sind in diesem Kontext also kein Äpfel mit Birnen Vergleich?

Ich habe keine Ahnung, wie man überhaupt auf die Idee kommt, dass man etwas wie Deep Learning mit sowas voodoo-mäßigem wie "Fine Wine" vergleichen kann.
Die AMD Karten altern doch nur (manchmal) besser, weil sie normalerweise mehr VRAM haben und zudem meistens mehr Rohleistung. Und da das Treiber-Team kleiner als bei Nvidia ist, kann man hier meistens auch noch was rausholen. Thats it. Mehr steckt nicht dahinter.

Währenddessen setzt man bei DLSS eben auf die Lernfähigkeit bzw. Inferenzieren des Computers. Je länger man das macht, desto besser wird das Ergebnis.

Beides ist also eher ein Verschieben in die Zukunft, nur kann dir bei Fine Wine keiner garantieren, dass auch wirklich mehr Leistung rauskommt, während man bei DLSS mit Sicherheit sagen kann, dass die Bildqualität mit der Zeit besser wird (sofern man weiterhin trainiert). Das liegt einfach in der Natur der Sache.

Das soll jetzt keine Abwertung gegen AMD sein, nur vergleichen kann man diese zwei Sachen nicht. (Zusätzlich geht es bei dem einen um Leistung, beim anderen um Bildqualität)

Wie gesagt, für mich ist DLSS in der Form jetzt eh uninteressant, spannender finde ich die x2 Version. Dennoch verteufel ich kein unfertiges Feature, das kann ich immer noch tun, wenn wirklich nichts dabei rumkommt.
 
  • Gefällt mir
Reaktionen: .Sentinel. und kisser
Fraggball schrieb:
Vielleicht sollte man mal abwarten ob sie das nicht noch hinbekommen, ist immer doof wenn es in 4 Wochen doch gut läuft.
Chillt doch einfach mal!... Wenn es in 6 Wochen immer noch mies ist liegt was im argen.

Leider viel zu spät, denn die Geduld hält sich bei vielen eben in Grenzen, insbesondere, wenn man wie nVidia dreist zum Marktstart die Hand aufhält und Mondpreise verlangt und dann über Monate nicht technisch liefern kann.

Vielleicht verdienen viele Ihr Geld zu schwer und haben in (RTX) Preisregionen oder bzgl. nVidia auch eine gewisse Erwartungshaltung und sind gewöhnt zum Marktstart für die hohen Preise direkt auch ein ausgereiftes Produkt zu bekommen.

Turing RTX Karten von nVidia sind aber alles andere als ausgereift und weit unter den Ansprüchen vieler (nVidia) Kunden angesiedelt.

Wird man DLSS noch leicht verbessern können und wird es dann wieder medial gehyped und gefeiert werden (?) ... ja, gut möglich, aber für viele ist der Turing RTX Zug (auch wegen des ungewohnt dürftigen und offensichtlich unaufrichtigen nVidia Marketings) schon längst abgefahren und das zu Recht.

Wer großspurige Versprechungen in "Lederjacken"-Manier macht und dann dabei eher nur lauwarme Luft produziert, muss sich die Kritik eben gefallen lassen.

Chillen könnte man, wenn es nicht (begründet durch RTX Features) massive Aufpreise von Pascal zu Turing Karten in vielen Klassen gegeben hätte, die im Prinzip bisher in mehr (DLSS) oder weniger (RT-Raytracing) grossem Ausmaß eine Mogelpackung darstellen, sondern die ach so revolutionären RTX Features für lau bei den Turing RTX GPUs bekommen hätte ;).
 
  • Gefällt mir
Reaktionen: grossernagus, onkel-foehn, aldaric und eine weitere Person
Auch bei 1440p ist es bei Metro ganz verschwommen.
Raytracing ist bei Metro wirklich gelungen aber DLSS kann man aktuell in die Tonne treten.
 
iNFECTED_pHILZ schrieb:
Die exakten bilddaten ja eben nicht. Hier hat ein Cluster halt was vorgerechnet und sagt über einen Algorithmus der gpu eben wie die das mit ihren Tensorkernen zuverwursten hat.
Das grenzt halt schon ein bisschen an die CSI - Zauberei ausm Fernsehen, bei der grob pixlige Überwachungsaufnhamen beim ranzoomen in deren Zentrale ein gestochen scharfes Bild erzeugen können. Genau das ist doch der Trick bei dlss, Bilddaten da zu erstellen wo keine gerendert wurden auf Basis von ähnlichen Bildern intelligent "verwurstet"

Also es gibt ja schon KI-Hochskalierung, ein Programm davon hab ich gerade als Testversion. Das Ergebnis davon ist schon teilweise recht gut, teilweise verbesserungsbedürftig. Also wenn es richtig umgesetzt wird, kann es funktionieren. So ähnlich kann unser Gehirn sich ja auch Informationen dazu denken, die nicht da sind, weil es eben weiß, wie ein Schuh oder ein Tisch aussieht. Sowas kann man sicherlich auch irgendwie einer KI antrainieren.

ABER: Auf meiner Vega 64 ohne Tensor Cores braucht das Programm schon 1-2 Sekunden bei kleinen Bildern, deutlich mehr wenn es in Richtung 4K geht. Selbst mit Tensor Cores wird eine wirklich gute KI so etwas wohl kaum in den benötigten Millisekunden schaffen. Vielleicht irgendwann mal, wenn die GPUs dann 4096 Hochleistungs-Tensor-Cores haben oder sowas...

Ich vermute das ist so ähnlich wie das Rauschen beim RT, die Leistung reicht möglicherweise einfach noch nicht, um es viel besser zu machen. Ein klein wenig Bananenprodukt halt, wie das bei Early-Adopter oft so ist. Nur dass man hier für wirklich große Verbesserungen wahrscheinlich eine neue Banane für 1500€ kaufen muss. :D
 
  • Gefällt mir
Reaktionen: s0UL1 und Baal Netbeck
KarlKarolinger schrieb:
Also es gibt ja schon KI-Hochskalierung, ein Programm davon hab ich gerade als Testversion. Das Ergebnis davon ist schon teilweise recht gut, teilweise verbesserungsbedürftig. Also wenn es richtig umgesetzt wird, kann es funktionieren. So ähnlich kann unser Gehirn sich ja auch Informationen dazu denken, die nicht da sind, weil es eben weiß, wie ein Schuh oder ein Tisch aussieht. Sowas kann man sicherlich auch irgendwie einer KI antrainieren.

ABER: Auf meiner Vega 64 ohne Tensor Cores braucht das Programm schon 1-2 Sekunden bei kleinen Bildern, deutlich mehr wenn es in Richtung 4K geht. Selbst mit Tensor Cores wird eine wirklich gute KI so etwas wohl kaum in den benötigten Millisekunden schaffen. Vielleicht irgendwann mal, wenn die GPUs dann 4096 Hochleistungs-Tensor-Cores haben oder sowas...

Ich vermute das ist so ähnlich wie das Rauschen beim RT, die Leistung reicht möglicherweise einfach noch nicht, um es viel besser zu machen. Ein klein wenig Bananenprodukt halt, wie das bei Early-Adopter oft so ist. Nur dass man hier für wirklich große Verbesserungen wahrscheinlich eine neue Banane für 1500€ kaufen muss. :D
Da bringst du es ziemlich auf den Punkt mit.
Eben weil es schon durchaus brauchbare Ergebnisse woanders gibt, kann man sich ja vorstellen wohin die Reise mit DLSS gehen soll.
Das die Rechenleistung für 60fps nicht reicht ist aber auch so kommuniziert worden seitens Nvidia. Das macht ja ein Rechencluster im Vorfeld um das Ergebnis als Algorithmus der Karte zu geben, welches dann mit den Tensorcores interpretiert wird. Theoretisch funktionieren kann das halt so auch jetzt schon. Ob bzw wie viel dahinter steckt weiß momentan nur Nvidia. Da die aber ganz gerne mal die Wahrheit biegen, kann ich mir auch gut vorstellen, dass hinter dem ganzen mehr Vaporware als wirkliche Zukunft steckt.
 
borizb schrieb:
Bei keinem der releasten Spiele waren die
RTX Features von Anfang Bestandteil der Entwicklung, also können Sie natürlich auch
noch nicht perfekt funktionieren. Habt ihr großen Zeitdruck oder was ist das Problem?

Wieso eigentlich nicht und wieso ist das entschuldbar?

Hatte CEO Huang ein halbes Jahr vor Marktstart einen feuchten Last-Minute Traum und RTX musste dann noch für Turing angesetzt/implementiert werden?

Nein, ich glaube nicht (da die Chips i.a. 3-5 Jahre in der Entwicklung brauchen), das hat ganz klar nVidia organisatorisch total verbockt, vielleicht bewusst, um Leaks zu RTX im Ansatz zu verhindern, wer weiss (?) und gleichzeitig damit eine beispielslos unausgegorene, in dieser Form unnötige nVidia GPU-Generation auf die Beine zu stellen.

Hat man sich davor jemals etwas vergleichbar durchgehend Verhunstes - beim GTX 970 Speicherbetrug war es ja nur eine Kartenklasse - zum Marktstart bewusst dort geleistet, ich denke nicht?

Natürlich kann man RTX an die Entwickler - ähnlich wie beim Start neuer Konsolen - Jahre im Voraus durchsickern lassen, um nicht Monate bis Wochen vor dem Marktstart unter Hochdruck Entwicklern das aufzudrücken.

Da muss man für die Spielentwickler natürlich auch einmal (wenn auch selten) eine Lanze brechen können, wenn der GPU-Entwickler - in dem Fall offensichtlich nVidia - für den Misstand vordergründig verantwortlich ist.

Wo AMD/RTG für HBM(1) dauernd bzgl. mieser Planung und Implementierung über Jahre hier und auf anderen Seiten/in anderen Foren angeprangert wurde, muss das doch bzgl. der bisherigen RTX-Verfehlungen bei nVidia auch möglich sein.

Wer grossspurig ankündigt und dann nicht liefern kann/will nach einer angemessenen Karenzzeit, der muss eben auch mit der Kritik und mauem Absatz leben können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: grossernagus, Obvision und McTheRipper
eax1990 schrieb:
Ich verstehe das Prinzip nicht so ganz, es soll doch ein Anti Aliasing sein oder nicht? Inwiefern ist das denn bei 4K überhaupt von Relevanz?

Bei 1080p und WQHD kann ich mir das sehr gut vorstellen, aber wenn das nicht mal der vorrangige Einsatzbereich ist, dann verstehe ich generell den gesamten Nutzen von DLSS nicht, wenn das Ergebnis nahezu genauso schäbig ausschaut wie jedes andere temporäre Anti Aliasing.

Bin ja generell absolut kein Fan von Anti Aliasing, es war schon immer einhergehend mit grotten schlechter Bildqualität oder extremen Leistungseinbußen, aber wo passt da jetzt DLSS rein - von dem was ich bislang sehe/lese/höre gehört das in die HDR Schublade als sinnlose Spielerei.

Du liegst ein wenig falsch. Nvidia nutzt DLSS derzeit zur Leistungssteigerung unter RTX. Geringere Auflösung berechnen und trotzdem eine ähnliche Bildschärfe erziehlen mit gegläteten Kanten. Wenn es richtig funktioniert, ist es auch eine geniale Sache.
 
Lübke82 schrieb:
Wenn es richtig funktioniert, ist es auch eine geniale Sache.

Zweifelsfrei, wenn es denn mal funktioniert.
Ist halt noch alles im Beta Stadium.
RT ist Beta, DLSS ist Beta, Die Karten sind Beta und die Käufer sind folglich die Beta Tester.
Blöd ist, dass man für diese Beta test´s nur wenige Spiele zur Verfügung hat und überdies viel Geld in die Hand nehmen muss.
 
  • Gefällt mir
Reaktionen: onkel-foehn und Recharging
Zurück
Oben