• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach

Taurus104 schrieb:
Wie ich sagte In Singleplayer Titeln, ok.
Ob Singleplayer oder Multiplayer spielt keine Rolle. Wir haben alle jahrelang "nativ" gezockt, mit der höheren Latenz gelebt und niemanden hat es gestört.
Jetzt kommt Nvidia mit DLSS3 FG + Reflex um die Ecke, was deine FPS massiv anhebt und die latenz minimal verbessert und es passt dir nicht. Das ergibt vorne und hinten keinen Sinn.

Wenn CS:GO DLSS3 + FG unterstützen würde und dadurch die Latenz um 2 ms sinkt und die FPS sich verdoppeln, wieso sollte ich das nicht nutzen?
 
  • Gefällt mir
Reaktionen: Klever, $$coffee, Taxxor und eine weitere Person
Schon witzig.

Spiel hat kein DLSS3 und kein Reflex.
Leute sagen: Ich spiele nativ und mit optimaler latenz!

Spiel bekommt DLSS 3 mit Reflex und hat damit unterm Strich die gleiche latenz wie vorher.
Leute sagen: DLSS3 + Reflex ist müll, das ist nicht spielbar, weil Nativ + Reflex viel bessere Latenzen hat!!!


Kannst dir nicht ausdenken… :lol:
 
  • Gefällt mir
Reaktionen: Klever, $$coffee, NicoGamerman und 6 andere
FrAGgi schrieb:
Ich verstehe schon was du sagen möchtest. Aber klar ist doch, dass man sich natürlich an neuere und bessere Technik oder Standards gewöhnt.
Ja, wir waren jahrelang Input-Lag gewöhnt und die meisten Spieler sind immer noch an der Konsole vertreten. Dort haben wir 30 FPS, hohen Input-Lag und dann noch einmal Lag vom TV-Gerät. Und trotzdem spielen die meisten Spieler dort. Auch am PC sind 240 Hz weit entfernt vom "aktuellen Standard" - siehe Steam Hardware Surveys.

Das ist eine Diskussion und auch ein "Feature" was erst seit wenigen Jahren überhaupt in den Fokus geraten ist. Da kann man sich noch gar nicht so schnell dran gewöhnt haben.
 
Falc410 schrieb:
Ja, wir waren jahrelang Input-Lag gewöhnt und die meisten Spieler sind immer noch an der Konsole vertreten. Dort haben wir 30 FPS, hohen Input-Lag und dann noch einmal Lag vom TV-Gerät.
Das macht für mich einige Spiele auf meiner Series X auch unspielbar und ich schwenke dann nach Möglichkeit auf den PC rüber.
Falc410 schrieb:
Das ist eine Diskussion und auch ein "Feature" was erst seit wenigen Jahren überhaupt in den Fokus geraten ist. Da kann man sich noch gar nicht so schnell dran gewöhnt haben.
Man gewöhnt sich an sowas aber ziemlich schnell. Ich hatte in meinem Beitrag dann ja die Hz vom Monitor als Beispiel genommen, nicht unbedingt explizit die 240 fps die vorher genannt waren.
Ich hab mich innerhalb weniger Wochen so dran gewöhnt, dass ich Monitore mit weniger Hz direkt schon bei der ersten Mausbewegung erkannt habe und es hat mich einfach massiv gestört.
Jetzt habe ich zusätzlich einen 260 Hz Monitor. Hier merke ich den Unterschied zwischen 144 Hz und 260 Hz aber nicht.

Was ich einfach nur sagen wollte ist, dass dieses "aber früher!" so unsinnig ist.
 
FrAGgi schrieb:
Das macht für mich einige Spiele auf meiner Series X auch unspielbar und ich schwenke dann nach Möglichkeit auf den PC rüber.
Eben- Sie sind nicht unspielbar. Nur nach Deinen Standards eben nicht.
FrAGgi schrieb:
Man gewöhnt sich an sowas aber ziemlich schnell. Ich hatte in meinem Beitrag dann ja die Hz vom Monitor als Beispiel genommen, nicht unbedingt explizit die 240 fps die vorher genannt waren.
Man gewöhnt sich aber genauso schnell wieder an das andere.
FrAGgi schrieb:
Was ich einfach nur sagen wollte ist, dass dieses "aber früher!" so unsinnig ist.
Ein valider Punkt. Es ist schon gut so, dass weiter geforscht und verbessert wird. Und auch gut so, dass man sich eben nicht zufrieden gibt.
Jetzt hat man mit FG eben mal nicht FPS erhöht und Latenz gesenkt, sondern hat sich einfach mal um die Bildwiederholraten gekümmert. Das sollte grundsätzlich ja nicht verkehrt sein, da es einhergeht mit einer Entlastung der CPU- Es wurde also dafür noch etwas anderes optimiert.
Dennoch wird gemeckert...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FrAGgi
.Sentinel. schrieb:
Eben- Sie sind nicht unspielbar. Nur nach Deinen Standards eben nicht.
Klar, das ist subjektiv. Aber es wird ja nur besser mit mehr fps, mehr hz und weniger Latenz, nicht schlechter. Das Spielvergnügen steigt je nach Titel erheblich.
.Sentinel. schrieb:
Man gewöhnt sich aber genauso schnell wieder an das andere.
Will man sich aber an etwas gewöhnen was offensichtlich schlechter ist? Wenn ja, warum?
.Sentinel. schrieb:
Und auch gut so, dass man sich eben nicht zufrieden gibt.
Mir geht es primär darum, dass ich bei zwei verfügbaren Optionen natürlich die bessere nehme und nicht erzähle, dass vor 20 Jahren auch die schlechtere Option nutzbar war.
 
  • Gefällt mir
Reaktionen: .Sentinel.
FrAGgi schrieb:
Will man sich aber an etwas gewöhnen was offensichtlich schlechter ist? Wenn ja, warum?
Vielleicht, weil die Rechenkraft von Grafikkarten lange nicht ausreicht, um die gewünschte Vision der Entwickler auch optisch perfekt in Szene zu setzen.

Deshalb arbeitet man gerade durchweg mit Kompromissen. In Sachen FG tauscht man ein wenig Latenz gegen erheblich mehr FPS und gesenkte CPU- Last ein. Meines Erachtens ein guter Kompromiss.
Entwickelt man ein Spiel grundauf für DLSS3 könnte man die Engine- Pipeline so gestalten, dass überhaupt keine Latenznachteile inkludiert DLSS2 und Reflex entstehen.

Aber das muss sich halt entwickeln....
 
MrHeisenberg schrieb:
Ob Singleplayer oder Multiplayer spielt keine Rolle. Wir haben alle jahrelang "nativ" gezockt, mit der höheren Latenz gelebt und niemanden hat es gestört.
Jetzt kommt Nvidia mit DLSS3 FG + Reflex um die Ecke, was deine FPS massiv anhebt und die latenz minimal verbessert und es passt dir nicht. Das ergibt vorne und hinten keinen Sinn.

Wenn CS:GO DLSS3 + FG unterstützen würde und dadurch die Latenz um 2 ms sinkt und die FPS sich verdoppeln, wieso sollte ich das nicht nutzen?
Die Latenz ist bei hohen FPS nicht immer Niedriger/Gleich als Nativ. Es gibt mehr als nur Cyberpunk. Erstmal richtige Onlinetitel abwarten und dann sehen was die Technik dann leistet in verschiedenen Games. Und es spielt sehr wohl eine Rolle ob Multiplayer oder nicht! Wir leben 2023 und nicht damals als es keine validen Upscaling Verfahren gab.

Es ergibt für dich persönlich eventuell keinen Sinn oder spielt keine Rolle, man sollte nur nicht ausschließlich von sich auf Andere schließen, es kann deine persönliche subjektive Meinung sein, wie bei mir auch. Denn wie gesagt, um deine Aussage zu belegen muss man erstmal Multiplayer Spiele mit dem Feature haben um es zu testen.

Das die Latenz nun mal in vielen Szenarien steigt bei FG und das Reflex es nicht immer vollständig kompensieren kann (wie hoch der Wert ist erstmal zweitrangig), hat man bereits gesehen.

CS:GO ist ein sehr schlechtes Beispiel, zudem wird dir jeder professionelle Spieler sagen das FPS UND Latenz stimmen müssen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taurus104 schrieb:
Das die Latenz nun mal in vielen Szenarien steigt bei FG und das Reflex es nicht immer vollständig kompensieren kann (wie hoch der Wert ist erstmal zweitrangig), hat man bereits gesehen.
Grundsätzlich stimmt das. Wo wir wieder beim Thema Grenzertrag wären, der z.B. wenn man FG auf älteren Karten als der 4xer Serie zulassen würde sich ins Negative entwickeln kann. Wobei auch ich der Meinung bin, dass man es wohl auf einer 3090/3080 mal testweise freischalten könnte.

Problematik ist dann wiederum, dass sie einen Shitstorm ernten werden, wenn das dann nicht unter allen Umständen sauber funktioniert.
Dann gibts wieder die Hasstiraden mit "absichtlich schlecht gemacht", "wollen nur zum Verkauf der neuen Generation drängen" usw. usf.

Deswegen empfiehlt nvidia bei DLSS3 grundsätzlich das volle Feature- Set inkl. adaptivem DLSS, welches eben genau dafür sorgt, dass die Latenzen immer im niedrigen Bereich liegen.
Das wird aus gutem Grund in Cyberpunk auch grundsätzlich so aktiviert.

So hast Du dann eben, wenn Du tatsächlich den besten Kompromiss aus allem schließen willst auch immer ein optimales Spielerlebnis. Der Algorithmus sorgt im Hintergrund dafür.
 
Zuletzt bearbeitet:
DLSS Kacke,DLSS2 Kacke,DLSS3 Kacke,FG Kacke,Stromanschluss Kacke,Spulenfiepen Kacke,Latenz Kacke unsw. und so fort, mehr als Schmunzeln darüber erübrigt sich. Jeder ist seines Glückes Schmied :D Weder muss ich für Etwas Werbung machen noch braucht mir wer auf die Schultern zu klopfen. Wer aufgrund o.g. Gründen mit schlechteren FPS und Latenzen zocken will oder erst gar nicht zocken kann soll Das gerne von mir aus machen :daumen:
 
Nicht schlecht. 115 FPS in WQHD und Ultra Einstellungen und RT Psycho mit DLSS2 Quality und DLSS3 auf einer 4070 TI. die FPS werden verdoppelt.Leider gefällt mir das Bild garnicht. Es flimmert immer mal wieder weil man kein Vsync einstellen kann. Die Haare in der benchmark Szene sind auch alle am flimmern. Als ob ich in 720p spielen würde.
cyb.png
 
  • Gefällt mir
Reaktionen: Experte18
Taurus104 schrieb:
Wobei 40 FPS selbst in Singleplayer Titeln schon praxisfern sind als Messpunkt vorallem mit FG bei 40 FPS.
Mit 40FPS + FG = 80 FPS habe ich bisher alle DLSS FG Titel gespielt, die ich besitze.
Von Spiderman über Plague Tale zu Witcher 3 und nun eben Cyberpunk und ich hatte in keinem der 4 Spiele das Gefühl, eine höhere Latenz ggü den nativen 60FPS zu haben, die ich normalerweise nutze.
 
Experte18 schrieb:
Nicht schlecht. 115 FPS in WQHD und Ultra Einstellungen und RT Psycho mit DLSS2 Quality und DLSS3 auf einer 4070 TI. die FPS werden verdoppelt.Leider gefällt mir das Bild garnicht. Es flimmert immer mal wieder weil man kein Vsync einstellen kann. Die Haare in der benchmark Szene sind auch alle am flimmern. Als ob ich in 720p spielen würde.

Wenn du FG aktivierst, aktiviert sich das DLSS Auto Setting, was bei WQHD DLSS Balanced ist. Man muss wohl aufpassen was beim übernehmen der Settings eingestellt ist und doppelt prüfen.

Ansonsten kannst du doch auch einfach das DLSS Upscaling abschalten, wenns dir nicht gefällt. FG läuft unabhängig davon.

Nur hat das normale TAA in dem Spiel auch mehr als genug Probleme mit flimmern, musst du entscheiden, was dir besser gefällt. Vom FG kommt das Flimmern höchstwahrscheinlich nicht.

Wegen Tearing einfach Vsync im Nvidia Control Panel aktivieren und im Spiel aus.
Wenn du die FPS limitoeren willst, dann im Control panel einfach einstellen was du willst. Das ist dann die maximale Framerate mit FG.
 
  • Gefällt mir
Reaktionen: Experte18 und Tornavida
.Sentinel. schrieb:
Hier noch ein Beispiel:
Anhang anzeigen 1319227

Auch hier- Niedrigere Latenz mit DLSS3 Quality+FG als nativ.
Wobei da natürlich die niedrigere Latenz daher kommt, dass man durch DLSS Quality schon allgemein höhere FPS hat, die auch die Latenz senken, bevor FG zum Tragen kommt.

Der fairere Vergleich wäre entweder DLSS Q vs DLSS Q+FG (der ist in der Tabelle drin) oder Nativ vs Nativ + FG, das wäre dann irgendwo zwischen den 63.5 von "Native" und den 101.5 von "Native (Reflex Off)".

Wobei ich es auch lustig finde, dass Reflex Off hier eine extra Erwähnung bekommt und nicht umgekehrt, wie du sagtest es scheint, dass die Nutzung von Reflex plötzlich zum Standard erklärt wurde, auch die DLSS Werte ohne FG sind immer mit Reflex zusammen, ohne extra Erwähnung.

Dabei würde ich persönlich Reflex nicht ohne FG nutzen, da es zumindest bei Witcher 3 meinen GPU Verbrauch deutlich erhöht hat. Zusammen mit FG war er dann aber insgesamt niedriger als vorher.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Unti
FrAGgi schrieb:
Jahrelang war ich vor meinem 60 Hz Monitor glücklich. Seit ich vor 5 Jahren meinen 144 Hz Monitor gekauft habe, kann ich keine 10 Minuten mehr vor einer 60 Hz Kiste sitzen ohne Hass zu empfinden.
Nur weil man früher™ mit weniger zufrieden war und es irgendwie ging, muss man es sich heute ja nicht noch immer antun.

Früher hats auch ein Pferd und eine Kutsche getan, heute kann wohl keiner mehr ohne 180 Pferdestärken von Berlin nach München reisen - unmöglich.
Ich hoffe das ist alles Ironie/Sarkasmus.
Kommt auf den Paneltyp drauf an, auf nem VA/IPS Panel hätt ich mir 60 FPS nicht gegeben, auf nem OLED kein Thema. 60 gehen schon, ab 120 ists wuppe, da sieht man bei SP Games idR keinen Unterschied mehr.
Aber jeder wie er will, du gehörst, wenn du das wirklich ernst meinst wohl auch zu den pingeligen Dudes hier aus dem High End Bereich.
Und bevor mir unterstellt wird, dass ich schlechte Augen hätte.... nein, perfekte Sehstärke und ich seh den Unterschied der versch. Hz auch Instant....
Aber dann würd ich an deiner Stelle direkt aufhören mit dem Gaming, weil jeder Titel Stuttering aufgrund Shaderrecompile oder anderen Beeinflussungen durch Software hat..... zumindest jeder 2te oder 3te....

Dass man sich an gewisse Annehmlichkeiten gewöhnt steht aber außer Frage, da geb ich dir recht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Lieber 60 FPS lim GPU Limit als 144 im CPU Limit.

Das ist halt auch schon wieder so ein Thema. Da ist man so pingelig wegen hoher FPS, aber die Realität ist nunmal, dass man bei vielen Spielen schon bei 120 FPS im CPU limit hängt, mit Raytracing oft auch schon weiter unter 100 FPS, bei Witcher 3 sogar unter 60 FPS.

Dazu kommen Shader Ruckler, Streaming Ruckler und Kamera Ruckler. Alles Themen die praktisch nie erwähnt werden.

Jeder der mehr als 10 halbwegs aktuelle Singleplayer Triple A Spiele auf seinem PC hat, sollte wissen, dass 120+ FPS ohne Ruckler in allen/den meisten Spielen völlig utopisch sind.

Mit FG kommen wir dem ganzen erstmals näher, weil damit das CPU Limit umgangen werden kann.
 
  • Gefällt mir
Reaktionen: NicoGamerman
Taurus104 schrieb:
Und es spielt sehr wohl eine Rolle ob Multiplayer oder nicht! Wir leben 2023 und nicht damals als es keine validen Upscaling Verfahren gab.
Nein, spielt es nicht, wenn die Latenz gleich bleibt oder um 1-2 ms sinkt, während sich die FPS verdoppeln. Das dann zu nutzen ist ein No-Brainer.

Taurus104 schrieb:
Es ergibt für dich persönlich eventuell keinen Sinn oder spielt keine Rolle, man sollte nur nicht ausschließlich von sich auf Andere schließen, es kann deine persönliche subjektive Meinung sein, wie bei mir auch. Denn wie gesagt, um deine Aussage zu belegen muss man erstmal Multiplayer Spiele mit dem Feature haben um es zu testen.
Erkläre mir bitte logisch bei diesem theoretischen Beispiel, wieso 200 FPS mit 16 ms Latenz (nativ) besser sind als 400 FPS und 15 ms Latenz (DLSS 3).
Ob Multiplayer oder Singleplayer spielt hierbei keine Rolle.

Taurus104 schrieb:
Das die Latenz nun mal in vielen Szenarien steigt bei FG und das Reflex es nicht immer vollständig kompensieren kann (wie hoch der Wert ist erstmal zweitrangig), hat man bereits gesehen.
Kannst du diese "vielen Szenarien" auch irgendwo belegen?
Bislang ist mir nur ein Spiel bekannt, bei dem sich die Latenz verschlechtert und das ist der MSFS.
Zu der Zeit war die Implementation von DLSS aber auch noch suboptimal und es ist auch nicht die aktuellste Version.

Taurus104 schrieb:
CS:GO ist ein sehr schlechtes Beispiel, zudem wird dir jeder professionelle Spieler sagen das FPS UND Latenz stimmen müssen.
Wenn die Latenz sinkt und die FPS steigen, nimmt das jeder sofort mit. Es gibt auch nichts, was dagegen spricht.
 
Zurück
Oben