Notiz Nvidia DLSS 2.0: Vier zusätzliche Spiele unterstützen KI-Upsampling

So eine News am heutigen Tage. Bestimmt Zufall. ;)

Ich bin wirklich gespannt, was wir heute für Zahlen bekommen. Endlich hat das Warten ein Ende. Dann mal sehen ob AMD auch beim Feature-Set liefern kann, und ich im Q2 dann eine bezahlbare 6800 NonXT bekomme. Heute braucht man sich für eine Karte wohl nicht anzustellen...

@Topic DLSS 2.0. Toll!

:cheerlead:
 
  • Gefällt mir
Reaktionen: Pulsar77
Chillaholic schrieb:
Oftmals ist es kaum wahrnehmbar und einfach ein schlechter Kompromiss.
Bei dlss2.0 quality habe ich noch kein Spiel gesehen, das bei 4K Ausgabeauflösung schlechte Ergebnisse produziert. Ich bin da ziemlich zuversichtlich.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, Celinna, Esenel und 6 andere
Lübke82 schrieb:

Das sollte nicht lustig sein.

Lübke82 schrieb:
BF V ist zo ziemlich das einzige Game, wo man DLSS ausgeschaltet lassen sollte. War ja auch eines der ersten Games damit.

In COD war es auch ziemlich... naja unnötig und kaum spürbar in den meisten Szenen.
CB kam zu dem gleichen Fazit.

Qarrr³ schrieb:
Bei dlss2.0 quality habe ich noch kein Spiel gesehen, das bei 4K Ausgabeauflösung schlechte Ergebnisse produziert.

Mir ging es da eher um das von dir genannte Ray-Tracing.
Dass DLSS sinnvoll sein kann ist mir bewusst.
 
Die Technik ist quasi ein blick in die Zukunft, weil genau das wird an allen anderen Stellen in anderer Form auch getrieben. Wäre nur schön wenn das nicht wie schon SLI immer separat im Treiber implementiert werden müsse, sondern einfach im Chip fest drin ist. Weil so ist es kein "KI" upsampling, sondern schlicht Dummenfang.

Harsiesis schrieb:
Unglaublich - NICHT.

Meine Nackenhaare sträuben sich jedes mal wenn ich so einen Un-Stil sehe..
 
AMD scheint die Schotten sehr dicht zu halten, keine leaks von tatsächlichen Spiele-Benchmarks zu finden.
Stand jetzt weiß man immer noch nicht, ob die 6800 XT Gewinner oder Verlierer gegen die 3080 wird,
das wird spannend um 15 Uhr.
 
Qarrr³ schrieb:
Bei dlss2.0 quality habe ich noch kein Spiel gesehen, das bei 4K Ausgabeauflösung schlechte Ergebnisse produziert. Ich bin da ziemlich zuversichtlich.


Hmm - deswegen benchmarked nVidia ja auch im Performance-Mode um die Gute Qualität die man erzielen kann in den Vordergrund zu kehren.
 
  • Gefällt mir
Reaktionen: Otsy
Ich hab mich damals auch mit DLSS beschäftigt und bin relativ schnell zum Urteil: Overrated gekommen. Der beste Upscaler den es gibt, aber wenn er aufwendig an jedes Spiel angepasst werden muss ist er in der Praxis nichts worauf man sich verlassen kann. Dafür Aufpreis zu bezahlen ist nicht drin, aber bei einem Patt ein entscheidendes Feature.
 
DLSS ist wirklich super, ganz im Gegensatz zu RTX. In Ghostrunner hat RTX die Performance gedrittelt (-66%). DLSS hat rund 30% Performance rausgeholt, gereicht hat das nicht.

Am Ende habe ich es dann ohne DLSS+RTX gespielt, weil ich in WQHD Max stabile 120+ FPS hatte und mehr Leistung einfach nicht nötig ist bei einem 140FPS Limiter. Aber wenn Leistung fehlt ist DLSS absolut klasse, rießige Performancegewinne bei geringen optischen Einbußen. Ruhig mehr davon
 
  • Gefällt mir
Reaktionen: cruse
Harsiesis schrieb:
DLSS mag ein Gimmick sein, aber sicher kein Grund sich eine nVidia 3080 zu kaufen.

Ein Gimmick? Digga, aufwachen! Das Feature gibt dir je nach Einstellung die DOPPELTEN FPS für eine nahezu identische Grafik. Früher hat man für diese Mehrleistung teuer Kohle auf den Tisch geklatscht, jetzt kriegst Du diese Leistung für Lau dazu und maulst trotzdem rum, nur weil DU die Spiele nicht zockst, die es unterstützen... muss man das verstehen?

Mal ab davon übt es auch Druck auf AMD aus. Am Ende profitiert der Kunde in jedem Fall.
 
  • Gefällt mir
Reaktionen: noxon
Heutzutage sind Spiele eh meist mit Posteffects unscharf wie Hölle. DLSS macht es für mich noch Mal unschärfer. Der FPS-Gewinn ist natürlich super, aber mit der Qualität...
Hab es aber ehrlich gesagt auch nur in BF V und WD Legion getestet. Ist es in anderen Spielen brauchbar?
 
autopilot schrieb:
DLSS macht es für mich noch Mal unschärfer. Der FPS-Gewinn ist natürlich super, aber mit der Qualität...

Ich empfinde es eher als schärfer zumindest bei DLSS 2.0.
 
  • Gefällt mir
Reaktionen: Celinna
BTICronox schrieb:
Ein Gimmick? Digga, aufwachen! Das Feature gibt dir je nach Einstellung die DOPPELTEN FPS für eine nahezu identische Grafik. Früher hat man für diese Mehrleistung teuer Kohle auf den Tisch geklatscht, jetzt kriegst Du diese Leistung für Lau dazu und maulst trotzdem rum, nur weil DU die Spiele nicht zockst, die es unterstützen... muss man das verstehen?

Mal ab davon übt es auch Druck auf AMD aus. Am Ende profitiert der Kunde in jedem Fall.

Weißt du auch warum du die "DOPPELTEN FPS" bekommst? Richtig, weil ein anderer Rechner für dich gerechnet hat. Wenn du mal kein Treiberupdate machen willst, weil irgendetwas mit der neuen Version nicht funktioniert in deinem Lieblingsspiel, ist das Feature auch für zukünftige Spiele tot.

Abgesehen von dem dass die Bildqualität nicht gerade berauschend ist, würde ich eher sagen ziemlich mau das Feature.
 
  • Gefällt mir
Reaktionen: Shy Bell und Harsiesis
Hmm da frage ich mich ob es wirklich besser ist seine eigene proprietäre Suppe zu kochen und umständlich nutzbare Features in Graka-chips zu bauen oder ob es nicht einfacher wäre sich an offene Standards zu halten und dafür nur die "normale Rasterizing" Leistung pro teurer Chipfläche zu erhöhen.

Aber mit irgendwas muss ja in 2-3 Jahren wieder die "next-Gen" gehyped werden, damit die Early-Adopter wieder einen Grund haben die teure Graka-Neuanschaffung (nat. am besten von Nvidia) rechtfertigen zu können.
(natürlich ist der mickrige Vram der aktuellen Karten auch ein Grund in 2 Jahren wieder was neues zu kaufen als 1337-imba-Gam0r)...
 
Auf allen Diagrammen, die von nVidia erstellt wurden liegt die 2080ti vor der 3070.
Was ist denn da los?
Wer hat das so freigegeben?
 
Schalk666 schrieb:
ob es nicht einfacher wäre sich an offene Standards zu halten und dafür nur die "normale Rasterizing" Leistung pro teurer Chipfläche zu erhöhen.

Ganz sicher nicht. Das haben Google und Nvidia (und auch z.B. Tesla) erkannt und entsprechende TPUs oder Tensor Cores verbaut. Zwangsläufig wird auch AMD darauf setzen müssen, weil das klassische Zeug viel zu langsam ist. Das Problem mit DLSS ist nicht die Hardware, sondern der Softwarelock auf Nvidia. Da muss noch was passieren.
Dass AMDs Lösung so performant wie DLSS läuft (bzw. gleich gut aussieht) bezweifle ich wegen der fehlenden Hardware. Und das ist neben dem Softwarelock auch ein Problem.

Eine Lösung wäre natürlich DLSS 3.0, was dann aber wieder nur auf Nvidia Karten läuft. Oder man findet einen gemeinsamen Standard.
 
  • Gefällt mir
Reaktionen: EL-SANTO
Wie schon geschrieben wurde.
Bis zu Doppelte Leistung ist schon ne Hausnummer. Selbst wenn das einen Qualitätsverlust bedeutet sind das enorme Gewinne, die man mit Detailreduktion oder leicht verringerter Auflösung nicht in der Form erkaufen kann obwohl man da deutlich mehr qualitätseinbußen machen würde.

Für doppelte Leistung muss man im GPU Markt aktuell VIER Jahre warten! Also wenn das mal nichts ist?!
Viele hier geben schon für 20% mehr Leistung Unsummen aus.

Im Endeffekt kann man die Karte wohl doppelt so lange behalten wie sonst, wenn man möchte.

Zumal man doch die Qualität eh anpassen kann. Wenn Quality zu wenig Leistung bringt und Balanced zu schlecht aussieht, kann man doch die ingame Auflösungsskalierung etwas hoch schrauben. Schon hat man quasi nen Mittelweg. Das sollte doch funktionieren oder nicht?
 
  • Gefällt mir
Reaktionen: legenddiaz
Hmm auf DLSS, wo ich eine Karte, einen Treiber und ein passendes Spiel benötige um das ganze nutzen zu können lasse ich mich nicht ein.

Entweder es wird ein Standard, der in jeder Anwendung ohne jegliche "Optimierung" selbst in der Zukunft mit komplett anderer Hardware noch funktioniert oder es wird sich imho langfristig nicht durchsetzen.

Jetzt wo Sony und MS auf RDNA2 Hardware setzen wird wohl in den nächsten Jahren Nvidia mit ihren Insellösungen der Aussenseiter sein, der einige Games evtl. mit "sponsoring" bzw. technischer Unterstützung etwas optimieren kann, aber ob sich Nv-RT und DLSS behaupten kann bezweifele ich mal.
 
  • Gefällt mir
Reaktionen: Shy Bell
Oneplusfan schrieb:
Zwangsläufig wird auch AMD darauf setzen müssen, weil das klassische Zeug viel zu langsam ist.

So sehe ich das auch. Am Ende ist es mir egal wer das macht aber der Weg ist definitiv der Richtige. Es ist einfach ein spannender Ansatz nicht nur über die reine Hardware zu gehen und immer fettere Auflösungen 8K etc... "nativ" mit hohen FPS zu versorgen. Da sind solche KI basierten Lösungen doch ein wirklich SEHR guter Weg. Und ob das erstmal wer alleine macht und den Anderen antreibt ist mir dabei egal. Sachen wie KI Upscaling finde ich z.B. "auch" bei meiner Shield sehr nice. Einfach inteligente Softwarelösungen um Hardware zu "schonen" oder dafür spezifisch ausgerichtete Hardware. KI Beschleuniger-Karte. ;)

Schalk666 schrieb:
Jetzt wo Sony und MS auf RDNA2 Hardware setzen wird wohl in den nächsten Jahren Nvidia mit ihren Insellösungen der Aussenseiter sein, der einige Games evtl. mit "sponsoring" bzw. technischer Unterstützung etwas optimieren kann, aber ob sich Nv-RT und DLSS behaupten kann bezweifele ich mal.

Man kann ja von Nvidia halten was man will aber irgendjemand muss nun mal voran gehen. Ob es AMD bei Smart Access Memory oder Nvidia bei G-Sync oder Nv-RT, DLSS etc... ist. Sich deswegen vor technisch interessanten und sinnvollen Dingen direkt zu verschließen halte ich für wenig hilfreich. Würden das alle machen, gäbe es keinen Fortschritt in diesem Bereich. Also freu dich doch über die Innovationskraft egal von wem. Wenn man lange genug wartet und das Feature gut ist / Sinn macht wird das schon Nacharmer finden und allen zugänglich gemacht.
 
Zuletzt bearbeitet:
Zurück
Oben