• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Update reicht DLSS 3 und Nvidia Reflex auf dem PC nach

.Sentinel. schrieb:
(...)



Genau genommen kann FG komplett unabhängig von DLSS 2 funktionieren.
Denn das einzige was diese beiden Techniken teilen sind letztendlich Tiefeninformationen bzw. Motion- Vectors, wie sie auch von DLSS- unabhängigen Techniken genutzt werden.
Ja, theoretisch. So wie ein Diesel mit wenigen Handgriffen auch Rapsöl säuft :).
Die praktische Umsetzung sieht meines Wissens nach laut Hersteller aber so aus, dass FG DLSS2 voraussetzt.
 
kann das jemand bestätigen sobald ich Frame Generation hinzuschalte funktioniert die dlss schärfe einstellung im spiel nichtmehr...
hab aus, 5%,95% probiert sieht immer gleich aus.
 
Shinigami1 schrieb:
Da bist du falsch informiert denn Frame Generation funktioniert sehr wohl unabhängig von DLSS 2. Da ist nichts ausgegraut. Man kann DLSS 2 an und ausschalten währen FG immer an ist und man hat auch eine entsprechend andere GPU Auslastung je nachdem ob man DLSS 2 nutzt oder nicht. Zudem kann man visuell definitiv erkennen das DLSS 2 aus ist. War in Plague Tale und Spiderman genauso.

Das kann dir auch jeder Nutzer einer 4000er Karte so bestätigen.

Hab noch einen Screenshot angehangen wo auch du dann siehst das es sogar extra zwei Optionen dafür gibt. DLSS 2 ist in dem Fall aus, und FG an.
Ich weiss das es die 2 Optionen gibt. Meines Wissens nach bleibt es aber dabei.

Daten sind aber ein gutes Argument. Ich werde nochmal die Artikel durchsehen, ob ich was verpasst habe.
Falls CB sich in der Lage sieht das kurz aufzuklären, würde ich mich auch freuen :).
 
Proxylein schrieb:
30 FPS mehrgewinn? Also Nvidia hat mir mehr versprochen, kein Wunder das dieser Patch ewig verschoben wurde.
Bei den "Versprechungen" ( Laut Herstellerbenchmarks sollen damit mehr als viermal mehr FPS erreicht werden)
handelt es sich auch um Vergleiche á la INTEL (im Vergleich zu Ampere) !
Weshalb nicht Ada mit DLSS 3.0 On / Off verglichen wird weiß wohl nur NV ... :freak:

p.s. deshalb schreiben sie auch bei Portal RT 500 % + (25 FPS vs. 5 FPS sich nicht so dolle liest).

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Unti
Onkel Föhn schrieb:
Bei den "Versprechungen" ( Laut Herstellerbenchmarks sollen damit mehr als viermal mehr FPS erreicht werden)
handelt es sich auch um Vergleiche á la INTEL (im Vergleich zu Ampere) !
Weshalb nicht Ada mit DLSS 3.0 On / Off verglichen wird weiß wohl nur NV ... :freak:

MfG Föhn.

Die Versprechungen beziehen sich auf den Raytracing Overdrive Modus.

Je mehr Raytracing genutzt wird, desto größer ist der FPS Gewinn durch DLSS2.

Bei sehr hoher RT Last kann man z.B. schon mit DLSS Quality die FPS verdoppeln, wohingegen das bei Rastergrafik erst im DLSS Performance Modus klappt.

Wenn du jetzt davon ausgehst, dass Nvidia den RT Overdrive Modus mit DLSS Performance + FG getestet hat, dann sind mehr als 4x FPS völlig plausibel.


Portal RTX zeigt ähnliches verhalten.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Lübke82, Laphonso und 3 andere
anappleaday schrieb:
Wenn halt nur nicht der miserable Input Lag wäre der wieder alles gute quasi zunichte macht… leider.
Was ein Bullshit, Reflex ist an, damit merkst du gar nichts.
Ich merk da nichts, wenn du penibel genug bist das zu merken dann tut es mir Leid....

Fühlt sich wie immer an.
Cyberpunk 2077 hat auch im Vergleich zu anderen FPS eine mies leicht verzögerte Eingabe.... mit Controller sogar noch mehr als mit M/T.... kannst du gerne nachlesen...

Wie es dann in anderen Titeln aussieht keine Ahnung, in Witcher 3 liefs auch einwandfrei, das Game haben se aber leider nur mit dem letzten Patch in eine Frametime Stutter Orgie verwandelt, ansonsten gibts nur im neuen Update Probleme mit Controller, M/T direkt wie immer....

Würd mir bei dem Thema eher Gedanken um Probleme mit HUD Elementen usw. machen (Artefakte) aber bisher nichts zu sehen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Lübke82
Unti schrieb:
Was ein Bullshit, Reflex ist an, damit merkst du gar nichts.
Auch Reflex kompensiert die gestiegene Latenz nicht vollständig . Messtechnisch gibt es hier starke unterschiede. In Singleplayertitel fällt das vielleicht nicht ins Gewicht und Multiplayern würde es das schon und genau hier ist auch die Grenze von DLSS 3.0 mit FG derzeit.
 
eRacoon schrieb:
2745Mhz @ 0,925V
3840x1800 + DLSS3 Quality + Alles An und auf Ultra inkl. RT
100-120FPS bei besagten 250-280W im Schnitt, Karte recht kalt durch Wakü, das macht auch einige Watt aus.
Mit Gsync echt gut spielbar mit den Settings, bei DLSS2 musste man schon deutlich niedriger gehen in den Settings oder mit ~80FPS leben.

DLSS3 liefert hier echt ab, mal eben 20-30FPS mehr ohne irgendwelche Einbußen, da kann man nicht meckern.
Bei A Plague Tale Requiem halte ich Frame Generation wiederum für unspielbar weil es bei mir extreme Fragmente und Schlieren erzeugt, dagegen ist CP echt ein Segen.
Krass die Karte schläft ja fast 😅
 
Taurus104 schrieb:
Auch Reflex kompensiert die gestiegene Latenz nicht vollständig
Das hab ich auch gar nicht behaupten wollen.
Ich wollte nur aufzeigen, dass die Latenz messtechnisch zwar noch höher vorhanden ist, aber in keinem Fall so störend, dass das Spielgefühl in diesem Moment in einem eh schon von der Eingabe verzögertem Gameplay wie in einem SP Game wie CP2077 stark beeinträchtigt wird.

Taurus104 schrieb:
und Multiplayern würde es das schon und genau hier ist auch die Grenze von DLSS 3.0 mit FG derzeit
Nenne mir bitte ein MP Game mit DLSS 3.0 FG, wo diese Technik überhaupt zum Einsatz kommt und notwendig wäre....
Die Technik ist mMn für SP Games und den etwas niedrigeren FPS (Basis) Bereich ausgelegt und da tut sie ihren Dienst wunderprächtig.
 
  • Gefällt mir
Reaktionen: Cohen, Lübke82 und Laphonso
Taurus104 schrieb:
Auch Reflex kompensiert die gestiegene Latenz nicht vollständig .
Sieht meine frameview Daten auf Seite 2
40FPS Nativ = 43ms
40FPS + FG = 41ms

Also ja, Reflex hat die Latenz hier mehr reduziert, als FG sie erhöht hat.

Und gegenüber der Latenz von nativen 80 FPS ohne Reflex(33ms) sind es auch nur 8ms mehr, also genug kompensiert, dass es nicht auffällt
 
  • Gefällt mir
Reaktionen: Shinigami1, MrHeisenberg, Zer0Strat und 2 andere
Foxel schrieb:
Welche hast du alle probiert? Es gibt im hwluxx forum community Analysen vlt kannst du da deine 6 Karten mit aufnehmen lassen?

Am besten kauft man keine ASUS
Meine PNY ist so gut wie unhörbar.
Die Liste ist zwar ein Anhaltspunkt, aber ohne relativen Bezug zu verkauften Exemplaren nicht sehr aussagekräftig, weil je mehr verkaufte Exemplare, desto höher die Wahrscheinlichkeit, dass sich darunter ein schlechtes Exemplar befindet. Außerdem lässt es die Beteiligung von Netzteilen als Ursache aus.

Aber immerhin besser als nichts.
 
Laphonso schrieb:
können eben Welten liegen

DLSS3 ist aber mehr als framegeneration.

Bei der 3k Generation bin ich noch guter Hoffnung (wenn auch nicht schwanger), trage mich aber mit dem Glauben rum, dass hier noch ein wenig Leistung für die alten Karten freigeschalten werden könnte, wenn der Verkäufer es denn würde wollen.

Daher fragte ich jemanden, der die Möglichkeit hat, auch unter NDA, die richtigen Fragen an den richtigen Stellen zu stellen um danach mit einem Reden zwischen den Zeilen, den anderen Usern ihren Erkenntnisshorizont zu erweitern.

Nur weil dir der Verkäufer mit guten Worten sein eigenes Produkt verkaufen will, muss ja nicht alles stimmen, was er sagt. Daher fragt man dann Menschen, die mit dem Verkäufer Geschäfte machen und nicht Endkonsumenten sind, was sie denn als Zwischenhändler gehört haben.

CB lebt vom Verkauf von Hardware. Wenn sich niemand für Hardware interessieren würde, wäre auch niemand hier. Daher werden sie mit Informationen gefüttert, die sie weiter geben sollen.

Natürlich gibt es hier auch "investigativen" Journalismus, dieser ist aber eher auf den Bereich des Testens und danach erzählen, was man gesehen hat, als im Bereich des "auf decken" von "Geheimnissen" angesiedelt.

@SVΞN wird verstanden haben, was ich ihn gefragt habe, obwohl die eigentliche Frage nicht wirklich in meinen Worten stand.

Aber schön, dass du dein "Wissen" dazu gegeben hast.

mfg
 
Hat der Patch sonst noch etwas verändert oder nur DLSS 3 eingefügt? Ich dachte es soll Anfang des Jahres noch Content für CP2077 kommen?

Ansonsten finde ich die Diskussion über Input-Lag so witzig. Das müssen alles Gen Z sein. Wir haben früher Quake 1 bis hin zu Quake 3 sehr competitive online gespielt und niemand hat von Input-Lag gesprochen. Auch Counterstrike kam dann irgendwann auf. Wenn man 60 FPS und einen Ping von unter 50ms hatte war man schon mehr als glücklich. Heutzutage kann man aber wohl kein Spiel mehr unter 240 FPS spielen - unmöglich. Und wir reden jetzt hier von einem Singleplayer Spiel mit Fokus auf Storystelling. Da sind keine Reaktionszeiten im ms-Bereich nötig.
 
  • Gefällt mir
Reaktionen: Wan900, guillome, mospider und 4 andere
Falc410 schrieb:
Wenn man 60 FPS und einen Ping von unter 50ms hatte war man schon mehr als glücklich.

Ping unter 50 ging ohne Fastpath gar nicht und war bei der Telekom mit 5 Mark aufpreispflichtig. :evillol:

Daher hatte ich einen SDSL Anschluss von QSC und selbst nach Amerika einen Ping von 60-80. Das war damals so unglaubwürdig, dass selbst manche Amerikaner nicht glauben wollten, dass sie auf einem Server in Dresden das Dessert Combat zocken. (ein Kumpel war da im Mod-Team)

Ping 10 nach FF/M von DD aus, kein Problem für mich schon damals ^^

Solche Dinge kennen viele gar nicht, die von 240hz, 4k und 120fps faseln.

mfg
 
  • Gefällt mir
Reaktionen: guillome, rosenholz, Mao :E und 2 andere
Taxxor schrieb:
Also ja, Reflex hat die Latenz hier mehr reduziert, als FG sie erhöht hat.
Man versucht sich das ganze schlecht zu rechnen, indem nun die vorher verhassten "Tricks" und "Fakes" wie DLSS und Reflex dann plötzlich zum Standard bzw. zur Messbasis erhoben werden.

Diejenigen, die auf die Latenz schimpfen, sind meist auch die, die ohne "natives" Bild nicht leben wollen.

Dass sich die beiden Argumentationsbasen diametral widersprechen ist so lange egal, solange es ins eigene Narrativ passt.

Wie Du bereits sagst checken es die Leute nicht, dass wenn sie von der "spürbar" erhöhten Input- Latenz reden, diese wenn sie nativ spielen, statt wie es von nvidia gedacht ist mit dem vollen DLSS Featureset (DLSS Stufe+FG (welches Reflex voraussetzt)), oftmals mit einer schlechteren Latenz zufrieden zu sein scheinen.
Und das bei deutlich weniger FPS und schlechterem Antialias.

Die können die Tick- bzw. Pollrate eines Spiels nicht von den FPS auf dem Bildschirm abstrahieren.
Was wiederum bedeutet, dass diese einfach nicht wissen, wie Gameengines und deren Steuerung/Inputs funktionieren.

Zudem sind das oft die, die nvidia unterstellen die Kundschaft über den Tisch zu ziehen, indem man FG nicht auf älteren Generationen bringt.
Schon wieder ein Widerspruch in sich, bedenkt man, dass nach deren Argumentation die sowieso die von ihnen schlechtgeredete Latenz bei den Vorgängergenerationen der Grafikkarten noch weiter erhöht würde.

So oder so- Gut dass die Grafikkartenhersteller diese Entwicklung in Richtung Effizienz konsequent verfolgen und diese spezielle Klientel einfach zu Recht übergangen wird. Fully path- traced Titel bei 4K und vor kurzer Zeit undenkbaren 100FPS sprechen eine deutliche Sprache.

Früher oder später werden sie es ja dann doch nutzen und dann wird es auf einmal toll und geil sein, da ausgereift. So etwas abstruses wie als dass eine neue Technik Entwicklungszeit braucht, so dass diese reifen kann, ist der nachrückenden Userschaft offenbar völlig fremd.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs, Laphonso, Taxxor und 2 andere
Mayima schrieb:
Hmm...für Cyberpunk muss ich mich dann wohl mal mit den korrekten Settings für FG beschäftigen.

Bislang habe ich mit der 4090 mit maximalen Details inkl. RT Psycho gezockt und die FPS bei 100 gecappt. Das war quasi 99,9% der Spielzeit eine gerade Linie, selten lief ein Spiel besser bei mir als CP2077.

Zumindest der erste Test mit FG war jetzt nicht so doll. Ein deutlicher Inputlag (wäre so für mich nicht spielbar) und ständige Frametimespikes 🤔

Naja, sicherlich Einstellungssache, bei W3 lief es eigentlich ziemlich gut.
Wenn ich die nativen, so nenne sich sie jetzt mal, FPS unter 60 forciere, dann merke ich da auch eine Verzögerung. Ab 60 FPS nicht mehr.
 
Taxxor schrieb:
Sieht meine frameview Daten auf Seite 2
40FPS Nativ = 43ms
40FPS + FG = 41ms

Also ja, Reflex hat die Latenz hier mehr reduziert, als FG sie erhöht hat.

Und gegenüber der Latenz von nativen 80 FPS ohne Reflex(33ms) sind es auch nur 8ms mehr, also genug kompensiert, dass es nicht auffällt
Wie ich sagte In Singleplayer Titeln, ok. Wobei 40 FPS selbst in Singleplayer Titeln schon praxisfern sind als Messpunkt vorallem mit FG bei 40 FPS. Mich würden tatsächlich auch andere Titel interessieren ob das dort genauso ausfällt. Müsste man man mal eine Vergleichsserie machen. Danke aber für die Werte aufjedenfall.
 
Taurus104 schrieb:
Mich würden tatsächlich auch andere Titel interessieren ob das dort genauso ausfällt. Müsste man man mal eine Vergleichsserie machen. Danke aber für die Werte aufjedenfall.
Hier noch ein Beispiel:
1675240570076.png


Auch hier- Niedrigere Latenz mit DLSS3 Quality+FG als nativ.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, $$coffee, Kuestennebel79 und eine weitere Person
Falc410 schrieb:
Heutzutage kann man aber wohl kein Spiel mehr unter 240 FPS spielen - unmöglich.
Ich verstehe schon was du sagen möchtest. Aber klar ist doch, dass man sich natürlich an neuere und bessere Technik oder Standards gewöhnt.
Jahrelang war ich vor meinem 60 Hz Monitor glücklich. Seit ich vor 5 Jahren meinen 144 Hz Monitor gekauft habe, kann ich keine 10 Minuten mehr vor einer 60 Hz Kiste sitzen ohne Hass zu empfinden.
Nur weil man früher™ mit weniger zufrieden war und es irgendwie ging, muss man es sich heute ja nicht noch immer antun.

Früher hats auch ein Pferd und eine Kutsche getan, heute kann wohl keiner mehr ohne 180 Pferdestärken von Berlin nach München reisen - unmöglich.
 
  • Gefällt mir
Reaktionen: Mao :E
Zurück
Oben