• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach

Ja, so war es auch.

Nun lĂ€uft es wie es sollte, butterweich und mit tollem Effizienzgewinn 👍

Die Spielbarkeit ist auch problemlos gegeben. Tolles Feature 😀
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Laphonso, MrHeisenberg, Zer0Strat und eine weitere Person
eRacoon schrieb:
Grad mal 15 min angeworfen das Game.
Sieht auf den ersten Blick erstmal gut aus und bringt gegenĂŒber den DLSS2 Stufen einen doch deutlichen Boost. Wobei Frame Generation nicht so flĂŒssig wie nativ 120FPS wirkt.

Trotzdem ist es mit 100-120FPS mit DLSS3 deutlich flĂŒssiger als mit den 70-80FPS auf DLSS2 zu spielen.
Immer noch nicht perfekt, aber so langsam wird Cyberpunk auch in 4K (3840x1800) Ultra mit immer weniger Abstrichen spielbar. :D

Leistungsaufnahme der 4090 unter Vollgaß DLSS + RT immer wieder beindruckend, die zieht "nur" 250-280W im UV und knallt dafĂŒr eine absurde Performance raus.
Auf was fĂŒr ein UV lĂ€uft deine Karte?! WĂŒrde mich brennend interessieren. Meine MSI 4090Trio X lĂ€uft auf 2580mhz und @875mv.

Gruß Blechi
 
Zer0Strat schrieb:
Wie merkst du denn die Latenz? Ich merke nicht mal die 80ms mit der Arc Karte.
Subjekte Wahrnehmung. Reaktion der eingabe und dem bild. Ist ganz komisch, bild ust butterweich, aber schnelle richtingsĂ€nderungen etc fĂŒhlen sich minimal lagig an. Bin wie gesagt da sehr empfindlich. WĂŒrde auch nicht behaupten das es schwammig ist, nur eben nicht so reaktionsschnell wie ein natives 120fps game.
 
.Sentinel. schrieb:
Das Inferencing ist die Auflösung bzw. die Verschaltung hinter der Pixelgewichtung und funktioniert auf Tensorcores extrem schnell. Es ist eine gute Wiedergabepipeline um die antrainierte "Erfahrung" umzusetzen.
Das DL "also Deep Learning" von "DL"SS kommt aber ĂŒber das Rechenzentrum.

Dass DL bei DLSS nicht auf der GPU lĂ€uft, weiß ich, aber die Definition von AI ist meiner Auffassung nach deutlich breiter (und auch schwammiger) gehalten.
 
Bei mir lĂ€uft es nun anstatt mit 103fps mit 170fps (je WQHD). Bildtechnisch kann ich bisher keine Fehler erkennen. FĂŒr mich top, da ich so mein CPU Bottleneck umgehen kann :-)
 
Zer0Strat schrieb:
Ich habe mir heute nochmal das Video von HardwareUnboxed ĂŒber DLSS 3 und insbesondere den Abschnitt ĂŒber die Latenz angeschaut. Was fĂŒr ein grober Unfug, ist wirklich nur schwer zu ertragen und die Leute beziehen sich auch noch darauf als fachliche Quelle.

Alleine die Aussage, dass man man FG nur dann aktivieren soll, wenn man ĂŒber bei 120FPS liegt als Basisperformance... gute Nacht. Oder dass es generell ein Problem sei, dass die Latenz steigt ausgehend von Nativ + Reflex, dabei liegt jede AMD Karte schon teils ĂŒber Nativ ohne Reflex und das bei weniger FPS.

Da fragt man sich echt, wie die an fast 1 Mio Subscriber gekommen sind.
Erleuchte uns doch mit Deinem Fachwissen und Messungen bezĂŒglich Latenzen bei eingeschalteter Frame Generation, bin gespannt. Vielleicht wird der ein oder andere die messbare Latenz nicht vernehmen, aber Latenz ist nunmal Latenz. Da gibt es nichts zu diskutieren.
 
Zer0Strat schrieb:
Ich habe mir heute nochmal das Video von HardwareUnboxed ĂŒber DLSS 3 und insbesondere den Abschnitt ĂŒber die Latenz angeschaut. Was fĂŒr ein grober Unfug, ist wirklich nur schwer zu ertragen und die Leute beziehen sich auch noch darauf als fachliche Quelle.

Alleine die Aussage, dass man man FG nur dann aktivieren soll, wenn man ĂŒber bei 120FPS liegt als Basisperformance... gute Nacht. Oder dass es generell ein Problem sei, dass die Latenz steigt ausgehend von Nativ + Reflex, dabei liegt jede AMD Karte schon teils ĂŒber Nativ ohne Reflex und das bei weniger FPS.

Da fragt man sich echt, wie die an fast 1 Mio Subscriber gekommen sind.


So sieht es aus.
Ingame Framelimitter ist immer noch die beste Option um Lag zu reduzieren. Das geht mit allen Karten
und BTW
wenn du weniger Frames hast hast du automatisch schlechtere Latenz, das liegt in der Natur der Sache.
Setze eine langsame Nvidia gegen eine schnelle AMD und du musst deine Argumentation umkehren
 
Zuletzt bearbeitet:
BlechBuechse_DE schrieb:
Auf was fĂŒr ein UV lĂ€uft deine Karte?! WĂŒrde mich brennend interessieren. Meine MSI 4090Trio X lĂ€uft auf 2580mhz und @875mv.

2745Mhz @ 0,925V
3840x1800 + DLSS3 Quality + Alles An und auf Ultra inkl. RT
100-120FPS bei besagten 250-280W im Schnitt, Karte recht kalt durch WakĂŒ, das macht auch einige Watt aus.
Mit Gsync echt gut spielbar mit den Settings, bei DLSS2 musste man schon deutlich niedriger gehen in den Settings oder mit ~80FPS leben.

DLSS3 liefert hier echt ab, mal eben 20-30FPS mehr ohne irgendwelche Einbußen, da kann man nicht meckern.
Bei A Plague Tale Requiem halte ich Frame Generation wiederum fĂŒr unspielbar weil es bei mir extreme Fragmente und Schlieren erzeugt, dagegen ist CP echt ein Segen.
 

AnhÀnge

  • 2023-01-31 21_35_54-Cyberpunk 2077 (C) 2020 by CD Projekt RED.png
    2023-01-31 21_35_54-Cyberpunk 2077 (C) 2020 by CD Projekt RED.png
    1,3 MB · Aufrufe: 161
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: BlechBuechse_DE
.Sentinel. schrieb:
Das Inferencing ist die Auflösung bzw. die Verschaltung hinter der Pixelgewichtung und funktioniert auf Tensorcores extrem schnell. Es ist eine gute Wiedergabepipeline um die antrainierte "Erfahrung" umzusetzen.
Das DL "also Deep Learning" von "DL"SS kommt aber ĂŒber das Rechenzentrum.

Der Prozess ist mit dem hier zu vergleichen:

Die Logik der Spieler wird am Besipiel oben extern trainiert und das aufwÀndige Trainingsmodell dann vom PC "wiedergegeben".

Ohne dir zu wiedersprechen. So wie ich es als Laie verstanden habe, wird im Rechenzentrum per Deep Learning bzw. Machine learning (zwei Begriffe, die wohl exakt das selbe beschreiben) anhand eines großen Datensatzes ein neuronales Netzwerk auf eine bestimmte Funktion hin trainiert.

Um dieses trainierte Neuronale Netz oder auch "AI Model" (enthalten in der .dll Datei) auf einem Client auszufĂŒhren , wird spezielle Hardware benötigt, die besonders schnell Matrix Multiplikationen durchfĂŒhren kann. (weil sonst viel zu langsam)

Ist das so korrekt?

Also einerseits ist schon klar, dass der Lernprozess im Rechenzentrum stattfinden muss. Aber andererseits muss das Model ja am Client ausgefĂŒhrt werden und dann basierend auf dem Input trotzdem in echtzeit "besonders intelligente" Entscheidungen treffen, die nur mit einem solchen AI Model möglich sind. Und genau das ist doch (abgesehen vom Lernprozess im rechenzentrum) nochmal der entscheidende Part.

Wenn man im Rechenzentrum einfach nur nen genialen Algorithmus findet, brĂ€uchte man am Client ja auch keine "spezielle" Hardware, um diesen auszufĂŒhren. Man hĂ€tte ja praktisch FSR2 dann auch per Deep learning erstellen können.
Der entscheidende Punkt ist aber wie gesagt nach meinem VerstĂ€ndnis, dass am Rechner nicht einfach nur ein klassischer Algorithmus ausgefĂŒhrt wird, sondern eben ein fertig trainiertes AI Model bzw. Neural Network.


NatĂŒrlich könnte man das AI Model nĂŒchtern betrachtet als beliebigen "algorithmus" sehen, der stark auf Matrix Multiplikationen setzt. Aber im Kern ist ja genau das die Besonderheit, die neuronale Netzte nutzbar macht.


Na ja, ich hab ehrlich gesagt keine tiefergehende Ahnung davon, kann auch völliger Unsinn sein, was ich schreibe. Ich versuchs mir auch nur herzuleiten, dennoch kanns ja nicht so schwer sein, zumindest mal die Makro Ebene davon zu verstehen. Du scheinst etwas Ahnung davon zu haben, vielleicht haste ja noch ein, zwei Links Parat :p
 
W0dan schrieb:
....

Ist das so korrekt?
Ich denke ja

W0dan schrieb:
Wenn man im Rechenzentrum einfach nur nen genialen Algorithmus findet, brĂ€uchte man am Client ja auch keine "spezielle" Hardware, um diesen auszufĂŒhren. Man hĂ€tte ja praktisch FSR2 dann auch per Deep learning erstellen können.
Der entscheidende Punkt ist aber wie gesagt nach meinem VerstĂ€ndnis, dass am Rechner nicht einfach nur ein klassischer Algorithmus ausgefĂŒhrt wird, sondern eben ein fertig trainiertes AI Model bzw. Neural Network.


NatĂŒrlich könnte man das AI Model nĂŒchtern betrachtet als beliebigen "algorithmus" sehen, der stark auf Matrix Multiplikationen setzt. Aber im Kern ist ja genau das die Besonderheit, die neuronale Netzte nutzbar macht.
Ich verstehe das auch genauso.
AMD kann fĂŒr FSR2 sicher bei der Entwicklung auch AI nutzen, aber es ist nicht das gleiche wie ein neuronales Netz, welches bei DLSS zum Einsatz kommt. Wie relevant das ist im Vergleich zur FSR2, fĂŒr bessere Ergebnisse, kann ich nicht sagen. Fakt ist, DLSS liefert leicht bessere Ergebnisse, bis jetzt.
 
Do Berek schrieb:
Die gut betuchten Geeks freuen sich, und was sagt der Pöbel?
DLSS Frame Generation funzt auch gut mit "Geforce Now Ultimate" fĂŒr 20 €, wenn man auf einem "RTX 4080"-Rig landet. Portal with RTX und The Witcher 3 mit Raytracing machen so schon richtig Spaß, und nun werde ich auch endlich mal mit Cyberpunk 2077 anfangen.
 
Jup, geht auch fĂŒr mich nicht mit DLSS3, der Input Lag ist geradezu ekelig/widerlich. Kann ich so nicht mit Genuss zocken

 
eRacoon schrieb:
Bei A Plague Tale Requiem halte ich Frame Generation wiederum fĂŒr unspielbar weil es bei mir extreme Fragmente und Schlieren erzeugt
Hm je mehr Grund fps desto weniger können Fehler entstehen, aber ich hab es von Anfang bis Ende mit FG und 80FPS gespielt und keinen einzigen Bildfehler wahrnehmen können
 
  • GefĂ€llt mir
Reaktionen: Shinigami1
Dancefly schrieb:
Mit dlss 2 lÀuft es doch auch gut.
Das war nie die Frage, natĂŒrlich.
Aber:
Mal im eigenen Antest. Mir ist vor Staunen fast das Blech runter gefallen.
Normalerweise zock ichs in 4K mit 80 FPS ca. mit Quality DLSS (2) - bei einem max. GPU Load und 430W.

Nun sind wir bei:
-> 114 FPS capped (da OLED 120Hz) und DLSS 3 FG mit nur noch 290W und einem max. GPU Load von ca. 75-85%.

WTF! Muss sagen, einfach geil^^ :D
 
  • GefĂ€llt mir
Reaktionen: MrHeisenberg
Unti schrieb:
WTF! Muss sagen, einfach geil^^ :D
Wenn halt nur nicht der miserable Input Lag wÀre der wieder alles gute quasi zunichte macht
 leider.
 
Wo ist der denn miserabel? Dann zock halt nativ und hab einen noch mieseren Inputlag.
 
  • GefĂ€llt mir
Reaktionen: Shinigami1 und .Sentinel.
ZurĂŒck
Oben