• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach

Was für ein geiles Feature, das Spiel läuft jetzt noch smoother. Ich sehe keine Artefakte und empfinde auch keine zusätzliche Latenz. Hoffentlich bekommen durch FSR3 alle GPU Besitzer noch eine Frame Generation und wenn es NVidia dazu zwingt, dass abwärtskompatibel zu implementieren
 
  • Gefällt mir
Reaktionen: Zer0Strat, Windell und Taxxor
Die gut betuchten Geeks freuen sich, und was sagt der Pöbel?
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Onkel Föhn
Kuestennebel79 schrieb:
Hoffentlich bekommen durch FSR3 alle GPU Besitzer noch eine Frame Generation und wenn es NVidia dazu zwingt, dass abwärtskompatibel zu implementieren
Naja das hat man bei DLSS2.x auch gehofft, als FSR raus kam, aber letztendlich, warum sollte Nvidia sich die Mühe machen, wenn die anderen ja einfach FSR nutzen können?
Zumal, wenn FSR3 entweder qualitativ oder Latenztechnisch nicht an DLSS3 ran kommt, hat Nvidia nur noch ein weiteres Argument um es exklusiv auf den neuen GPUs zu halten.
 
Alter Schwede, läuft das Mega Maxed Out und DLSS Qualität mit FG... So Smooth wie fast kein anderes Game.. Die Zeit machts wohl. Jetzt kann ichs mal Durchzocken.

4090 RTX
 
  • Gefällt mir
Reaktionen: wtfNow und Neubauten
Grovy schrieb:
wie könnt ihr mit diesen gigantischen tollen effizienten 4090/4080er zocken??
und dann mit diesem ekelhaften kreischenden, rasselnden spulenfiepen.
Da würde ich empfehlen mal UV auszuprobieren. Meine FE hat auch Spulenfiepen, wenngleich nicht super laut, ist es deutlich vernehmbar. Mit UV ist das Rasseln allerdings Geschichte.

Zusätzlich gibt es ja doch Unterschiede von Hersteller zu Hersteller bzw. Modell. Hat ja schon jemand gepostet. Aber z.B. die Karten mit Referenzplatine haben quasi kein Spulenfiepen, weil sie die standard gehäusten Spulen verwenden. Gibt also immer einen Weg :)
 
  • Gefällt mir
Reaktionen: Grovy
Do Berek schrieb:
Die gut betuchten Geeks freuen sich, und was sagt der Pöbel?
Der geht mit seinem Holzspielzeug spielen ... :lol:
 
Kann das sein das CB 2077 nicht die neuste DLSS version trotz dem neuen Patch benutzt ? Ich habe die Version DLSS DLL 2.5.1 eingefügt und ca 20 FPS mehr bekommen ! Vielleicht weiß ja einer mehr ?
 

Anhänge

  • DLSS3.png
    DLSS3.png
    3,3 MB · Aufrufe: 182
  • 2023-01-31_1902_1.png
    2023-01-31_1902_1.png
    3,3 MB · Aufrufe: 178
Taxxor schrieb:
Naja das hat man bei DLSS2.x auch gehofft, als FSR raus kam, aber letztendlich, warum sollte Nvidia sich die Mühe machen, wenn die anderen ja einfach FSR nutzen können?
DLSS 2 erfordert TensorCores, weil KI basiert. Läuft auf 2000 und 3000 RTX. Ein Implementierung für GTX wäre zum damaligen Zeitpunkt wirklich eine komplette Neuentwicklung gewesen.
DLSS 3 ist das anders. Laut NVIdia braucht es die neuen 4000er Chips, weil die KI ansonsten nicht schnell genug die Bilder ausliefert, aber generell haben die RTX 3000er auch sehr schnelle Tensor Cores. Glaubwürdig ist das allerdings nicht, vor allem wenn AMD ein ähnliches Feature auf Basis von KI Kernen 1 Gen. rausbringt (Die nur KI Operationen unterstützen nicht ausführen).
Aber ich vermute mal, dass AMD das auch locken wird auf die neuen GPU und Hardware Lock als Grund angibt.
Ergänzung ()

Do Berek schrieb:
Die gut betuchten Geeks freuen sich, und was sagt der Pöbel?
Frag doch mal den Herrn mit der Lederjacke. Ein Frame Generation für RTX 2000 und 3000er Karten wäre mehr als fair.
 
  • Gefällt mir
Reaktionen: Mcr-King
Kuestennebel79 schrieb:
DLSS 2 erfordert TensorCores, weil KI basiert. Läuft auf 2000 und 3000 RTX. Ein Implementierung für GTX wäre zum damaligen Zeitpunkt wirklich eine komplette Neuentwicklung gewesen.
DLSS2 erfordert nicht zwingend Tensor Cores, es ist auch nur ein fester Algorithmus, der aber aufwändiger als der von FSR2 ist und einfach nur schneller mit den Tensor Cores läuft.
Er wäre auch auf GTX Karten ausführbar, aber ihn auf den Shadern laufen zu lassen, hätte dazu geführt, dass man deutlich weniger Performance damit gewonnen hätte und ab einer gewissen Grund-Framerate sogar einen negativen Effekt gesehen hätte, weil die Zeit zur Berechnung irgendwann länger als die eigentliche Frametime ist.

Kuestennebel79 schrieb:
DLSS 3 ist das anders. Laut NVIdia braucht es die neuen 4000er Chips, weil die KI ansonsten nicht schnell genug die Bilder ausliefert, aber generell haben die RTX 3000er auch sehr schnelle Tensor Cores.
FG benötigt die neuen Optical Flow Accellerators, das hat nichts mit den Tensor Cores zu tun.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
FG benötigt die neuen Optical Flow Accellerators, das hat nichts mit den Tensor Cores zu tun.
"Powered by new fourth-generation Tensor Cores and a new Optical Flow Accelerator on GeForce RTX 40 Series GPUs, DLSS 3 is the latest iteration of the company’s critically acclaimed Deep Learning Super Sampling technology and introduces a new capability called Optical Multi Frame Generation."

https://nvidianews.nvidia.com/news/...red-frame-generation-for-up-to-4x-performance
 
@Kuestennebel79 Ich ging davon aus, dass du speziell von Frame Generation sprachst, denn DLSS3 im Allgemeinen enthält ja nicht nur FG sondern auch das normale Super Sampling von DLSS2, wofür die Tensor Cores genutzt werden.
 
Taxxor schrieb:
DLSS2 erfordert nicht zwingend Tensor Cores, es ist auch nur ein fester Algorithmus
DLSS2 nutzt neurolas Netz um das Upsampling effizient umzusetzen. Das ist ein anderes Konzept als FSR2, wo keine Matrizenmultiplikationen vorkommen.
 
Kuestennebel79 schrieb:
DLSS2 nutzt neurolas Netz um das Upsampling effizient umzusetzen.
KI wird genutzt um den Algorithmus zu erstellen, das läuft nicht auf der GPU.
 
Taxxor schrieb:
@Kuestennebel79 Ich ging davon aus, dass du speziell von Frame Generation sprachst, denn DLSS3 im Allgemeinen enthält ja auch das normale Super Sampling von DLSS2, wofür die Tensor Cores genutzt werden.
Ich habe verstanden es kommt beides zum Einsatz und diesen Flow Accelerator gibt es in allen RTX Karten, nur langsamer
 
Naja, ein paar Updates, die die immer noch vorhandenen Unmengen an Bugs beheben wären mir deutlich lieber.
5 Mal neu angefangen und jedes Mal hat es den Spielstand durch Bugs zerschossen.
Keine Mods oder sonstiges gefrickel, einfach showstoper Bugs.

DAS zu ändern wäre Mal deutlich wichtiger...
 
Kuestennebel79 schrieb:
Aber ich vermute mal, dass AMD das auch locken wird auf die neuen GPU und Hardware Lock als Grund angibt.
Das wurde bereits schon teilweise von AMD widerlegt.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Scheinbar bin ich blind. Ich kann 0 Unterschied erkennen. Meine RG-Blindheit sollte hier hoffentlich keine Rolle spielen. Kann mir wer den Unterschied im Video erklären?
 
Taxxor schrieb:
KI wird genutzt um den Algorithmus zu erstellen, das läuft nicht auf der GPU.
??

https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Ergänzung ()

Sowei ich weiß wird das Model ausgeliefert, klar das ist Teil der DLSS2 DLL. Aber die Grafik darauf anzuwenden macht die GPU. Dafür brauchst Du die Tensor Cores, weil diese die Matrizenmultiplikationen gegen das neuronale Netz beschleunigen, dachte ich zumindestens.,
 
Kuestennebel79 schrieb:
Da steht es doch auch.
Unser neuronales Grafik-Framework, NGX, trainiert ein Deep Neural Network gegen Zehntausende hochauflösende, schöne Bilder, die offline in einem Supercomputer mit sehr niedrigen Frameraten und 64 Samples pro Pixel gerendert werden. Basierend auf dem Wissen aus unzähligen Trainingsstunden kann das Netzwerk dann Bilder mit niedrigerer Auflösung als Eingabe aufnehmen und hochauflösende, schöne Bilder erstellen.
Damit wird der Algorithmus erstellt und verbessert, der danach als dll Datei auf deinen Rechner kommt und den die GPU ausführt.
 
Zurück
Oben