-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
News Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach
- Ersteller SVÎN
- Erstellt am
- Zur News: Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach
BlechBuechse_DE
Cadet 3rd Year Pro
- Registriert
- Nov. 2022
- BeitrÀge
- 45
Auf was fĂŒr ein UV lĂ€uft deine Karte?! WĂŒrde mich brennend interessieren. Meine MSI 4090Trio X lĂ€uft auf 2580mhz und @875mv.eRacoon schrieb:Grad mal 15 min angeworfen das Game.
Sieht auf den ersten Blick erstmal gut aus und bringt gegenĂŒber den DLSS2 Stufen einen doch deutlichen Boost. Wobei Frame Generation nicht so flĂŒssig wie nativ 120FPS wirkt.
Trotzdem ist es mit 100-120FPS mit DLSS3 deutlich flĂŒssiger als mit den 70-80FPS auf DLSS2 zu spielen.
Immer noch nicht perfekt, aber so langsam wird Cyberpunk auch in 4K (3840x1800) Ultra mit immer weniger Abstrichen spielbar.
Leistungsaufnahme der 4090 unter VollgaĂ DLSS + RT immer wieder beindruckend, die zieht "nur" 250-280W im UV und knallt dafĂŒr eine absurde Performance raus.
GruĂ Blechi
Gehirnzelle
Cadet 3rd Year
- Registriert
- Juni 2016
- BeitrÀge
- 61
Subjekte Wahrnehmung. Reaktion der eingabe und dem bild. Ist ganz komisch, bild ust butterweich, aber schnelle richtingsĂ€nderungen etc fĂŒhlen sich minimal lagig an. Bin wie gesagt da sehr empfindlich. WĂŒrde auch nicht behaupten das es schwammig ist, nur eben nicht so reaktionsschnell wie ein natives 120fps game.Zer0Strat schrieb:Wie merkst du denn die Latenz? Ich merke nicht mal die 80ms mit der Arc Karte.
.Sentinel. schrieb:Das Inferencing ist die Auflösung bzw. die Verschaltung hinter der Pixelgewichtung und funktioniert auf Tensorcores extrem schnell. Es ist eine gute Wiedergabepipeline um die antrainierte "Erfahrung" umzusetzen.
Das DL "also Deep Learning" von "DL"SS kommt aber ĂŒber das Rechenzentrum.
Dass DL bei DLSS nicht auf der GPU lÀuft, weià ich, aber die Definition von AI ist meiner Auffassung nach deutlich breiter (und auch schwammiger) gehalten.
Erleuchte uns doch mit Deinem Fachwissen und Messungen bezĂŒglich Latenzen bei eingeschalteter Frame Generation, bin gespannt. Vielleicht wird der ein oder andere die messbare Latenz nicht vernehmen, aber Latenz ist nunmal Latenz. Da gibt es nichts zu diskutieren.Zer0Strat schrieb:Ich habe mir heute nochmal das Video von HardwareUnboxed ĂŒber DLSS 3 und insbesondere den Abschnitt ĂŒber die Latenz angeschaut. Was fĂŒr ein grober Unfug, ist wirklich nur schwer zu ertragen und die Leute beziehen sich auch noch darauf als fachliche Quelle.
Alleine die Aussage, dass man man FG nur dann aktivieren soll, wenn man ĂŒber bei 120FPS liegt als Basisperformance... gute Nacht. Oder dass es generell ein Problem sei, dass die Latenz steigt ausgehend von Nativ + Reflex, dabei liegt jede AMD Karte schon teils ĂŒber Nativ ohne Reflex und das bei weniger FPS.
Da fragt man sich echt, wie die an fast 1 Mio Subscriber gekommen sind.
Zer0Strat schrieb:Ich habe mir heute nochmal das Video von HardwareUnboxed ĂŒber DLSS 3 und insbesondere den Abschnitt ĂŒber die Latenz angeschaut. Was fĂŒr ein grober Unfug, ist wirklich nur schwer zu ertragen und die Leute beziehen sich auch noch darauf als fachliche Quelle.
Alleine die Aussage, dass man man FG nur dann aktivieren soll, wenn man ĂŒber bei 120FPS liegt als Basisperformance... gute Nacht. Oder dass es generell ein Problem sei, dass die Latenz steigt ausgehend von Nativ + Reflex, dabei liegt jede AMD Karte schon teils ĂŒber Nativ ohne Reflex und das bei weniger FPS.
Da fragt man sich echt, wie die an fast 1 Mio Subscriber gekommen sind.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergÀnzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube ĂŒbermittelt werden. Mehr dazu in der DatenschutzerklĂ€rung.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergÀnzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube ĂŒbermittelt werden. Mehr dazu in der DatenschutzerklĂ€rung.
So sieht es aus.
Ingame Framelimitter ist immer noch die beste Option um Lag zu reduzieren. Das geht mit allen Karten
und BTW
wenn du weniger Frames hast hast du automatisch schlechtere Latenz, das liegt in der Natur der Sache.
Setze eine langsame Nvidia gegen eine schnelle AMD und du musst deine Argumentation umkehren
Zuletzt bearbeitet:
eRacoon
Rear Admiral
- Registriert
- Aug. 2007
- BeitrÀge
- 5.415
BlechBuechse_DE schrieb:Auf was fĂŒr ein UV lĂ€uft deine Karte?! WĂŒrde mich brennend interessieren. Meine MSI 4090Trio X lĂ€uft auf 2580mhz und @875mv.
2745Mhz @ 0,925V
3840x1800 + DLSS3 Quality + Alles An und auf Ultra inkl. RT
100-120FPS bei besagten 250-280W im Schnitt, Karte recht kalt durch WakĂŒ, das macht auch einige Watt aus.
Mit Gsync echt gut spielbar mit den Settings, bei DLSS2 musste man schon deutlich niedriger gehen in den Settings oder mit ~80FPS leben.
DLSS3 liefert hier echt ab, mal eben 20-30FPS mehr ohne irgendwelche EinbuĂen, da kann man nicht meckern.
Bei A Plague Tale Requiem halte ich Frame Generation wiederum fĂŒr unspielbar weil es bei mir extreme Fragmente und Schlieren erzeugt, dagegen ist CP echt ein Segen.
AnhÀnge
Zuletzt bearbeitet:
.Sentinel. schrieb:Das Inferencing ist die Auflösung bzw. die Verschaltung hinter der Pixelgewichtung und funktioniert auf Tensorcores extrem schnell. Es ist eine gute Wiedergabepipeline um die antrainierte "Erfahrung" umzusetzen.
Das DL "also Deep Learning" von "DL"SS kommt aber ĂŒber das Rechenzentrum.
Der Prozess ist mit dem hier zu vergleichen:
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergÀnzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube ĂŒbermittelt werden. Mehr dazu in der DatenschutzerklĂ€rung.
Die Logik der Spieler wird am Besipiel oben extern trainiert und das aufwÀndige Trainingsmodell dann vom PC "wiedergegeben".
Ohne dir zu wiedersprechen. So wie ich es als Laie verstanden habe, wird im Rechenzentrum per Deep Learning bzw. Machine learning (zwei Begriffe, die wohl exakt das selbe beschreiben) anhand eines groĂen Datensatzes ein neuronales Netzwerk auf eine bestimmte Funktion hin trainiert.
Um dieses trainierte Neuronale Netz oder auch "AI Model" (enthalten in der .dll Datei) auf einem Client auszufĂŒhren , wird spezielle Hardware benötigt, die besonders schnell Matrix Multiplikationen durchfĂŒhren kann. (weil sonst viel zu langsam)
Ist das so korrekt?
Also einerseits ist schon klar, dass der Lernprozess im Rechenzentrum stattfinden muss. Aber andererseits muss das Model ja am Client ausgefĂŒhrt werden und dann basierend auf dem Input trotzdem in echtzeit "besonders intelligente" Entscheidungen treffen, die nur mit einem solchen AI Model möglich sind. Und genau das ist doch (abgesehen vom Lernprozess im rechenzentrum) nochmal der entscheidende Part.
Wenn man im Rechenzentrum einfach nur nen genialen Algorithmus findet, brĂ€uchte man am Client ja auch keine "spezielle" Hardware, um diesen auszufĂŒhren. Man hĂ€tte ja praktisch FSR2 dann auch per Deep learning erstellen können.
Der entscheidende Punkt ist aber wie gesagt nach meinem VerstĂ€ndnis, dass am Rechner nicht einfach nur ein klassischer Algorithmus ausgefĂŒhrt wird, sondern eben ein fertig trainiertes AI Model bzw. Neural Network.
NatĂŒrlich könnte man das AI Model nĂŒchtern betrachtet als beliebigen "algorithmus" sehen, der stark auf Matrix Multiplikationen setzt. Aber im Kern ist ja genau das die Besonderheit, die neuronale Netzte nutzbar macht.
Na ja, ich hab ehrlich gesagt keine tiefergehende Ahnung davon, kann auch völliger Unsinn sein, was ich schreibe. Ich versuchs mir auch nur herzuleiten, dennoch kanns ja nicht so schwer sein, zumindest mal die Makro Ebene davon zu verstehen. Du scheinst etwas Ahnung davon zu haben, vielleicht haste ja noch ein, zwei Links Parat
Kuestennebel79
Lt. Commander
- Registriert
- Okt. 2019
- BeitrÀge
- 1.179
Ich denke jaW0dan schrieb:....
Ist das so korrekt?
Ich verstehe das auch genauso.W0dan schrieb:Wenn man im Rechenzentrum einfach nur nen genialen Algorithmus findet, brĂ€uchte man am Client ja auch keine "spezielle" Hardware, um diesen auszufĂŒhren. Man hĂ€tte ja praktisch FSR2 dann auch per Deep learning erstellen können.
Der entscheidende Punkt ist aber wie gesagt nach meinem VerstĂ€ndnis, dass am Rechner nicht einfach nur ein klassischer Algorithmus ausgefĂŒhrt wird, sondern eben ein fertig trainiertes AI Model bzw. Neural Network.
NatĂŒrlich könnte man das AI Model nĂŒchtern betrachtet als beliebigen "algorithmus" sehen, der stark auf Matrix Multiplikationen setzt. Aber im Kern ist ja genau das die Besonderheit, die neuronale Netzte nutzbar macht.
AMD kann fĂŒr FSR2 sicher bei der Entwicklung auch AI nutzen, aber es ist nicht das gleiche wie ein neuronales Netz, welches bei DLSS zum Einsatz kommt. Wie relevant das ist im Vergleich zur FSR2, fĂŒr bessere Ergebnisse, kann ich nicht sagen. Fakt ist, DLSS liefert leicht bessere Ergebnisse, bis jetzt.
Cohen
Commodore
- Registriert
- Aug. 2010
- BeitrÀge
- 4.578
DLSS Frame Generation funzt auch gut mit "Geforce Now Ultimate" fĂŒr 20 âŹ, wenn man auf einem "RTX 4080"-Rig landet. Portal with RTX und The Witcher 3 mit Raytracing machen so schon richtig SpaĂ, und nun werde ich auch endlich mal mit Cyberpunk 2077 anfangen.Do Berek schrieb:Die gut betuchten Geeks freuen sich, und was sagt der Pöbel?
anappleaday
Banned
- Registriert
- Okt. 2020
- BeitrÀge
- 2.206
Jup, geht auch fĂŒr mich nicht mit DLSS3, der Input Lag ist geradezu ekelig/widerlich. Kann ich so nicht mit Genuss zockenâŠ
- Registriert
- Mai 2011
- BeitrÀge
- 21.050
Hm je mehr Grund fps desto weniger können Fehler entstehen, aber ich hab es von Anfang bis Ende mit FG und 80FPS gespielt und keinen einzigen Bildfehler wahrnehmen könneneRacoon schrieb:Bei A Plague Tale Requiem halte ich Frame Generation wiederum fĂŒr unspielbar weil es bei mir extreme Fragmente und Schlieren erzeugt
Ich hatte einige Bildfehler/Artefakte, insbesondere an horizontalen Kanten, aber es trat selten auf.Taxxor schrieb:aber ich hab es von Anfang bis Ende mit FG und 80FPS gespielt und keinen einzigen Bildfehler wahrnehmen können
Das war nie die Frage, natĂŒrlich.Dancefly schrieb:Mit dlss 2 lĂ€uft es doch auch gut.
Aber:
Mal im eigenen Antest. Mir ist vor Staunen fast das Blech runter gefallen.
Normalerweise zock ichs in 4K mit 80 FPS ca. mit Quality DLSS (2) - bei einem max. GPU Load und 430W.
Nun sind wir bei:
-> 114 FPS capped (da OLED 120Hz) und DLSS 3 FG mit nur noch 290W und einem max. GPU Load von ca. 75-85%.
WTF! Muss sagen, einfach geil^^
anappleaday
Banned
- Registriert
- Okt. 2020
- BeitrÀge
- 2.206
Wenn halt nur nicht der miserable Input Lag wÀre der wieder alles gute quasi zunichte macht⊠leider.Unti schrieb:WTF! Muss sagen, einfach geil^^
MrHeisenberg
Lt. Commander
- Registriert
- Okt. 2022
- BeitrÀge
- 1.713
Wo ist der denn miserabel? Dann zock halt nativ und hab einen noch mieseren Inputlag.
Ăhnliche Themen
- Antworten
- 88
- Aufrufe
- 8.657
- Antworten
- 237
- Aufrufe
- 23.906
- Antworten
- 266
- Aufrufe
- 33.098
- Antworten
- 158
- Aufrufe
- 23.630