News Kritik an DLSS: Nvidia verspricht schärfere Bilder und Updates für Spiele

Man sieht kaum einen Unterschied.

Nvidia verlangsamt mit den neuen Treiber die Performance ältere Grafikkarten, damit alle RTX kaufen.

Das war schon immer so, ist mir aber bei GTX 1080ti aufgefallen, welche nicht so alt ist,
ich müsste wieder ältere Treiber installieren und auf alle Updates verzichten.
 
whiskascat schrieb:
Man sieht kaum einen Unterschied.

Nvidia verlangsamt mit den neuen Treiber die Performance ältere Grafikkarten, damit alle RTX kaufen.

Das war schon immer so, ist mir aber bei GTX 1080ti aufgefallen, welche nicht so alt ist.

Muss man ja nicht aktivieren das beta zeugs funzt ja eh noch nicht richtig dann merkst du auch nichts.
Die dummen sind die die ne menge geld für noch müll features hingelgt haben um für NV die beta tester zu spielen.
 
Ist das nicht per se so, dass Post Processing Kantenglättung das Bild unscharf macht?
Nur die Kantenglättung die brachial Leistung kosten und nicht als Filter nach dem Bild Rendering draufgelegt werden machen ein gutes Bild?

Das was ich mal getestet habe führt eigentlich dazu, dass ich praktisch immer Kantenglättung ausstelle.
 
cookie_dent schrieb:
Zweifelsfrei, wenn es denn mal funktioniert.
Ist halt noch alles im Beta Stadium.
RT ist Beta, DLSS ist Beta, Die Karten sind Beta und die Käufer sind folglich die Beta Tester.
Blöd ist, dass man für diese Beta test´s nur wenige Spiele zur Verfügung hat und überdies viel Geld in die Hand nehmen muss.

Muss ja niemand machen. Wird keiner dazu gezwungen sich das zu kaufen oder zu nutzen. Sicher ist das ganze irgendwo Beta, immerhin steckt ja auch eine komplett neue Technik dahinter. Sowas braucht Zeit und Geduld. Ist ja nun nichts Neues.
 
  • Gefällt mir
Reaktionen: cookie_dent
Chismon schrieb:
Chillen könnte man, wenn es nicht (begründet durch RTX Features) massive Aufpreise von Pascal zu Turing Karten in vielen Klassen gegeben hätte, die im Prinzip bisher in mehr (DLSS) oder weniger (RT-Raytracing) grossem Ausmaß eine Mogelpackung darstellen, sondern die ach so revolutionären RTX Features für lau bei den Turing RTX GPUs bekommen hätte ;).

Wir werden sehen, ob die "massiven Aufpreise" nicht doch auch anderen Faktoren geschuldet sind. AMDs Sprache spricht eher für andere Ursachen, vor welchen hier jeder noch wie das Kaninchen vor der Schlange die Augen verschliesst.

Grüße
Zero
Ergänzung ()

KarlKarolinger schrieb:
ABER: Auf meiner Vega 64 ohne Tensor Cores braucht das Programm schon 1-2 Sekunden bei kleinen Bildern, deutlich mehr wenn es in Richtung 4K geht. Selbst mit Tensor Cores wird eine wirklich gute KI so etwas wohl kaum in den benötigten Millisekunden schaffen. Vielleicht irgendwann mal, wenn die GPUs dann 4096 Hochleistungs-Tensor-Cores haben oder sowas...

Hier mal, was die Tensor Cores an irrwitziger Berechnungsleistung diesbezüglich liefern (die Vega 64 leistet FP16 theoretisch 25,32 TFlops, INT8 und INT4 wird nicht unterstützt).
Das sind Faktoren, um die das jeweils aufgestockt wurde...
Int4 fürs Inferencing (DLSS) macht 455TOPS.

The GeForce RTX 2080 and 2080 Ti are the first consumer graphics cards to include tensor cores, which originally appeared in Nvidia’s pricey Volta data center GPUs. Unlike Volta tensor cores, however, Turing’s include “new INT8 and INT4 precision modes for inferencing workloads that can tolerate quantization and don’t require FP16 precision.” FP16 is crucial for gaming uses, though, and Turing supports it to the tune of 114 teraflops.

1550420391091.png


Quelle:https://www.pcworld.com/article/330...ia-turing-gpu-geforce-rtx-2080-ti.html?page=2

Nur dass man hier für wirklich große Verbesserungen wahrscheinlich eine neue Banane für 1500€ kaufen muss. :D
Oder man kauft die günstigeren Bananen, die inzwischen immer wieder unter 1000€ angeboten werden ;)

Grüße
Zero
Ergänzung ()

cookie_dent schrieb:
RT ist Beta, DLSS ist Beta, Die Karten sind Beta und die Käufer sind folglich die Beta Tester.
RT ist in der Frühphase und der Entwicklung. Funktioniert aber in den eingesetzte Spielen fehlerfrei ->Keine Beta
- Eher Version V1.0
Die Grafikkarten sind ausgereift und in all ihren beworbenen Eigenschaften funktionsfähig->Auch keine Beta
DLSS -> Eindeutig Beta
Ergänzung ()

whiskascat schrieb:
Nvidia verlangsamt mit den neuen Treiber die Performance ältere Grafikkarten, damit alle RTX kaufen
Echt? Das ist ja skandalös! Die würde ich ja dann wegen Betrugs anzeigen (so wies mit Apple gemacht wurde)!
Hast Du da einen Link/eine Quelle?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
ZeroZerp schrieb:
RS6's "Temporal Filtering" könnte man als Vorläufer von "DLSS" bezeichnen, denn es wurde die Bildrate erhöht, indem die Auflösung auf 1/4 (!) reduziert wurde, und die Geometriekanten danach mit 2x MSAA beschönigt wurden.

Mit anderen Worten: Der lange Balken in Deinem Bild ist tatsächlich 960x540 + 2x MSAA, hat sich hier aber erfolgreich in einen Vergleich mit 1920x1080er Auflösung geschummelt. Ganz wie "DLSS" es heute macht.
 
  • Gefällt mir
Reaktionen: Recharging
eax1990 schrieb:
Ich verstehe das Prinzip nicht so ganz, es soll doch ein Anti Aliasing sein oder nicht? Inwiefern ist das denn bei 4K überhaupt von Relevanz?

Bei 1080p und WQHD kann ich mir das sehr gut vorstellen, aber wenn das nicht mal der vorrangige Einsatzbereich ist, dann verstehe ich generell den gesamten Nutzen von DLSS nicht, wenn das Ergebnis nahezu genauso schäbig ausschaut wie jedes andere temporäre Anti Aliasing.

Bin ja generell absolut kein Fan von Anti Aliasing, es war schon immer einhergehend mit grotten schlechter Bildqualität oder extremen Leistungseinbußen, aber wo passt da jetzt DLSS rein - von dem was ich bislang sehe/lese/höre gehört das in die HDR Schublade als sinnlose Spielerei.

Naja ich finde dlss in 4k macht dann Sinn, wenn man natives AA im Spiel nicht deaktivieren kann und die Performance nicht für 60fps reicht. Siehe 2080. Und nicht jeder sitzt 30 cm weg. Auf meinem 4k TV in 3 Meter Abstand sorgt dlss für die 60 fps und man sieht die Unschärfe kaum. Finde das Feature richtig gut.

Genauso HDR. Game Changer imo z.b. Uncharted auf PS4, Welten zur normalen Darstellung. Und das raytracing erst, sieht bei exodus in innen Leveln einfach nur atemberaubend aus.
 
incurable schrieb:
RS6's "Temporal Filtering" könnte man als Vorläufer von "DLSS" bezeichnen, denn es wurde die Bildrate erhöht, indem die Auflösung auf 1/4 (!) reduziert wurde, und die Geometriekanten danach mit 2x MSAA beschönigt wurden.
Das ist mir reingerutscht-Hatte gedacht, dass ich den Absatz noch rausgenommen hätte. Ist ja klar, da TAA nicht schneller als Off sein kann. Danke für den Hinweis. Wird editiert.
Habe das Beispiel dennoch genommen, weil es sehr schön zeigt, dass AA im Allgemeinen nicht kostenlos daherkommt.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: incurable
Kryss schrieb:
Naja ich finde dlss in 4k macht dann Sinn, wenn man natives AA im Spiel nicht deaktivieren kann und die Performance nicht für 60fps reicht. Siehe 2080. Und nicht jeder sitzt 30 cm weg. Auf meinem 4k TV in 3 Meter Abstand sorgt dlss für die 60 fps und man sieht die Unschärfe kaum. Finde das Feature richtig gut.
Wenn man die Details sowieso nicht sehen kann, ist es auch kein Problem, die Auflösung im Spiel herunterzudrehen, bis man die gewünschte Leistung erreicht hat.

Und die einzige Form von "Deep Learning", die dabei zur Anwendung kommt, ist der Blick in die Optionen des Spiels. :freak:
 
ZeroZerp schrieb:
Oder man kauft die günstigeren Bananen, die inzwischen immer wieder unter 1000€ angeboten werden ;)

Klar, unter 1000€ sind wirklich günstig. :freak:

ZeroZerp schrieb:
RT ist in der Frühphase und der Entwicklung. Funktioniert aber in den eingesetzte Spielen fehlerfrei ->Keine Beta
- Eher Version V1.0
Die Grafikkarten sind ausgereift und in all ihren beworbenen Eigenschaften funktionsfähig->Auch keine Beta
DLSS -> Eindeutig Beta

Meine Meinung hierzu:
Es funktioniert, sieht aber (für mich) oftmals falsch aus.
RT sieht in BF5 stellenweise übertrieben aus, manche Oberfächen wirken "speckig" oder klatschnass.
Bei Metro saufen viele Schatten total ab.
-> Beta (seitens der Spielentwickler)

Manche FE´s sind den Hitzetod gestorben, mutmaßlich wegen schlechtem Platinenlayout
-> Beta

Wie gesagt, ist meine Meinung, wem die Spiele so gefallen soll sie so spielen.
 
  • Gefällt mir
Reaktionen: Recharging
incurable schrieb:
Wenn man die Details sowieso nicht sehen kann, ist es auch kein Problem, die Auflösung im Spiel herunterzudrehen, bis man die gewünschte Leistung erreicht hat.

Und die einzige Form von "Deep Learning", die dabei zur Anwendung kommt, ist der Blick in die Optionen des Spiels. :freak:

Hast du das denn schon selbst gespielt / gesehen?
Hab eher den Eindruck, dass wieder viele sabbeln was sie irgendwo lesen... Das muss nicht auf dich zutreffen.
 
cookie_dent schrieb:
Klar, unter 1000€ sind wirklich günstig. :freak:

Wie sich die Zeiten ändern, damals als die erste Titan raus kam war ein Zitat aus dem ComputerBase-Test,
https://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/22/#abschnitt_fazit schrieb:
Ein wirkliches Fazit über die GeForce GTX Titan zu ziehen fällt dennoch schwer und ist vielleicht sogar unmöglich. Denn der Preis ist mit 950 Euro unglaublich hoch, sodass kaum jemand den Kauf in Betracht ziehen wird.
Heute ist das "günstig"
 
  • Gefällt mir
Reaktionen: CMDCake, iNFECTED_pHILZ, onkel-foehn und 2 andere
Kryss schrieb:
Hast du das denn schon selbst gespielt / gesehen?
Ich weiß nicht, worauf Du hinaus willst.

"DLSS" erlaubt es Dir, im Spielemenü weiter "4K" als Auflösung zu sehen, obwohl intern mit z.B. 2560x1440 gerendert wird, um mit der gleichen Rohleistung mehr Bilder pro Sekunde zu produzieren.

Für dieses Feature muss Du dann halt in Kauf nehmen, dass "DLSS" gleich noch einen Matschfilter übers Bild legt, was dazu führen kann, dass das Endresultat verschwommener aussieht als ein nativ mit gleicher Auflösung gerendertes Output, dass durch die GPU oder den Skalierer des Fernsehers auf "4K" hochgerechnet wurde.
Ergänzung ()

Schrank schrieb:
Wie sich die Zeiten ändern, damals als die erste Titan raus kam war ein Zitat aus dem ComputerBase-Test,

Heute ist das "günstig"
Freu Dich doch, dass man heute fürs gleiche Geld die 3,5-4fache Leistung bekommt. :daumen:
 
DLSS ist bis jetzt nicht der Bringer. Da beist die Maus einfach keinen Faden ab.
Somit stehts technologisch derzeit 1:2 gegen Nvidia. RT als Killerfeature funktioniert.
Dagegen steht:Denoising via Tensor- Cores (mit das beworbene Hauptfeature schlechthin um RT mit niedriger Sample Zahl echtzeitfähig zu machen) und DLSS.

Mal sehen wie sich das Ganze weiterentwickelt.

@Aldaric87 und all die Anderen, die sich immernoch selbst einreden wollen (nur um nicht eingestehen zu müssen, dass die RTX eine Sache doch deutlich besser macht), dass die Beleuchtung in Metro oder mit Raytraced GI keinen Deut besser sei:

Ab 12:25

Grüße
Zero
 
incurable schrieb:
Ich weiß nicht, worauf Du hinaus willst.

"DLSS" erlaubt es Dir, im Spielemenü weiter "4K" als Auflösung zu sehen, obwohl intern mit z.B. 2560x1440 gerendert wird, um mit der gleichen Rohleistung mehr Bilder pro Sekunde zu produzieren.

Für dieses Feature muss Du dann halt in Kauf nehmen, dass "DLSS" gleich noch einen Matschfilter übers Bild legt, was dazu führen kann, dass das Endresultat verschwommener aussieht als ein nativ mit gleicher Auflösung gerendertes Output, dass durch die GPU oder den Skalierer des Fernsehers auf "4K" hochgerechnet wurde.
Ergänzung ()

Freu Dich doch, dass man heute fürs gleiche Geld die 3,5-4fache Leistung bekommt. :daumen:

Wenn ich z.B. in nativem 4k ohne DLSS durchgängige 40FPS habe 100% der Zeit und mit DLSS 4k mit 60FPS zu ~100% der Zeit mit Drops in fordernden Szenen auf 2k Niveau, warum sollte ich dann zu 100% auf 2k Auflösung zurückgehen? Klingt sowas logisch für dich? Aus 3 Metern sehe ich persönlich kaum Unterschiede. Aber die FPS passen.
Ich finde das sehr sinnvoll, ähnlich der Zylinderabschaltung in Motoren, nur das umgekehrte Prinzip.
 
Oneplusfan schrieb:
Der Lernprozess eines Computers (einer Maschine) und der eines Menschen sind in diesem Kontext also kein Äpfel mit Birnen Vergleich?

Ich habe keine Ahnung, wie man überhaupt auf die Idee kommt, dass man etwas wie Deep Learning mit sowas voodoo-mäßigem wie "Fine Wine" vergleichen kann.
Die AMD Karten altern doch nur (manchmal) besser, weil sie normalerweise mehr VRAM haben und zudem meistens mehr Rohleistung. Und da das Treiber-Team kleiner als bei Nvidia ist, kann man hier meistens auch noch was rausholen. Thats it. Mehr steckt nicht dahinter.

Währenddessen setzt man bei DLSS eben auf die Lernfähigkeit bzw. Inferenzieren des Computers. Je länger man das macht, desto besser wird das Ergebnis.

Beides ist also eher ein Verschieben in die Zukunft, nur kann dir bei Fine Wine keiner garantieren, dass auch wirklich mehr Leistung rauskommt, während man bei DLSS mit Sicherheit sagen kann, dass die Bildqualität mit der Zeit besser wird (sofern man weiterhin trainiert). Das liegt einfach in der Natur der Sache.

Das soll jetzt keine Abwertung gegen AMD sein, nur vergleichen kann man diese zwei Sachen nicht. (Zusätzlich geht es bei dem einen um Leistung, beim anderen um Bildqualität)

Wie gesagt, für mich ist DLSS in der Form jetzt eh uninteressant, spannender finde ich die x2 Version. Dennoch verteufel ich kein unfertiges Feature, das kann ich immer noch tun, wenn wirklich nichts dabei rumkommt.
Und du weißt auch wobei es mir in meinem ursprünglichen Post ging?
Scheint nicht so zu sein.
Die ganzen Nvidia Fanboys verteufeln doch schon seit jeher Fine Wine und Features die leider nie genutzt werden/wurden.
Und jetzt wenn Nvidia was ähnliches macht ist es geil und wird verteidigt?
DARUM gehts mir... mMn. und auch die Verkaufszahlen belegen, dass die RTX Serie ein Reinfall ist.
Raytracing ist ne tolle Sache, aber Nvidia hat es zu früh gebracht und die Kunden dürfen das nun büßen und dürfen überteuerte Hardware mit halbfertigen Features kaufen.

Das könnte man jetzt noch weiter ausführen aber irgendwie glaube ich, dass das sowieso nicht ankommen wird (nicht auf dich bezogen).

Und ob jetzt eine Maschine etwas "lernt" und optimiert oder ein Mensch... für mich ist sowas vergleichbar (nicht zu verwechseln mit gleich sein!)
 
Zuletzt bearbeitet:
RAZORLIGHT schrieb:
Die ganzen Nvidia Fanboys verteufeln doch schon seit jeher Fine Wine und Features die leider nie genutzt sind.
Da hast Du recht- leider ist das so, wobei AMD da leider auch immer wieder selbst den Bock schiesst und RPM oder Primitive shader selbst aussterben hat lassen, bevor es los ging.

Bei Mantle haben sie durchgezogen und dem Vorstoß haben wir Vulkan zu verdanken. AMD kann das also schon, wenn sie "dabei" bleiben.

Zudem halte ich es auch für unbestritten, dass AMD Grafikkarten über die Dauer prozentual immer ein bißchen weniger abbauen als die NVIDIA Pendants. Sind zwar trotzdem im Schnitt immer nur ein par Prozent, die die Karten weniger verlieren, aber trotzdem kommt ihnen die meist höhere Rechenleistung und der größere Speicher irgendwann später zu Gute.
Schade dass NVIDIA das abgeschafft hat. Früher konnte man auch bei einigen GTX Varianten, gegen relativ geringen Aufpreis eine hohere Speicherausbaustufe kaufen (was ich immer gemacht habe).

Historisch gesehen, hat sich NVIDIA aber damit bei der Userbase keinen Gefallen getan, weil diese Karten immer als Geldschneiderkarten, Kundenverarsche etc. abgetan wurde, weil ja die "Rohleistung" für den großen Speicher sowieso fehle würde. Die haben da teils richtig ihr Fett wegbekommen.

Vornehmlich damals und das muss man einfach auch so sagen, waren das AMD Anhänger (die jetzt von großem Speicher plötzlich garnicht genug haben können ;) )

Da merkt man mal wieder wie bescheuert dieses Fanboytum und dieses substanzlose Shitstorming ist....
Ich bin nicht umsonst immer so unangenehm zu den Leuten, wenn man merkt, dass mit Stammtischparolen und einer "allgemeinen Stimmung" auf den Tisch gehauen wird.

Das macht bei beide Lagern viel Schaden und bringt uns Usern letztenendes nur Nachteile, wenn solche Stimmungen "viral" gehen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ, Hurricane271, nargorn und eine weitere Person
Kryss schrieb:
Wenn ich z.B. in nativem 4k ohne DLSS durchgängige 40FPS habe 100% der Zeit und mit DLSS 4k mit 60FPS zu ~100% der Zeit mit Drops in fordernden Szenen auf 2k Niveau, warum sollte ich dann zu 100% auf 2k Auflösung zurückgehen? Klingt sowas logisch für dich?
Zumindest für den Moment reduziert "DLSS" soweit ich es weiß (und ich schaue mir gern Belege für das Gegenteil an) dauerhaft die interne Auflösung.

Nix Zylinderabschaltung also, sondern eher 4-Zylinder mit "S500"-Aufkleber an der Kofferraumklappe. ;-)
 
incurable schrieb:
Das ist ein fundamentales Missverständnis. Die Welt ist scharf, weil sie überall dort, wohin man das Auge fokussieren kann, mehr Informationsdichte bereithält, als besagtes Auge auflösen kann.

Da sagt doch nur etwas über die Welt aus und nicht unsere Wahrnehmung.

Dein Gehirn zeigt dir nur deswegen etwas scharf an, weil du es oft gesehen hast und gelernt wie es aussieht.

Die Schnittstelle zum Hirn liefert dir vielleicht 150x150 Pixel in Farbe mit 60 Hz.
Wenn du nicht Mustererkennung im Hirn abspulen würdest, dann könntest du gar nicht über DLSS diskutieren :)
 
Mich würden unkomprimierte Video Vergleiche zu DLSS interessieren, zb in 4K native, DLSS und 1600p interessieren sofern bei letztem die FPS etwa gleich sind.
Standbilder vermitteln das glaub immer schwer, gerade wenn zb Kanten flimmern. Etwas Unschärfe im Hintergrund nervt da sicher weit weniger als fortlaufend Treppen und Flimmern aufm Schirm zu haben.

Bisher hab ich von keinem der es einsetzt hier gehört dass sie zb lieber die kleinere Auflösung manuell fahren. Teils funktioniert es also durchaus. Es ist zumindest eine Option, bedeutet ja nicht dass sie in jedem Game das Mittel der Wahl sein muss.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben