Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtNvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions
Ich habs probiert, fühle aber durch BFI dem Inputlag. Kenne aber Leute die damit klar kommen. Diese spielen aber auch auf sehr schlechter Eingabeempfindlichkeit. Glaube, Spieler die sehr oft sowas wie CoD, CS, Doom usw. auf hoher Empfindlichkeit spielen, die kommen damit nicht klar
Wer den geringst möglichen Inputlag vorzieht, verzichtet wohl auf bfi, allerdings ist die Latenz eigtl. sehr gering mit 1 Frame.
Mich persönlich stört das 60hz Geflimmer und der Helligkeitseinbruch (tagsüber) deutlich mehr.
Früher hab ich ja bei jeder neuen Grafikkartengeneration alle verfügbaren Infos aufgesogen...Mit meiner Vega64 wird es Zeit für eine neue Grafikkarte, aber bei den Preisen hab ich nicht mal Interesse zu lesen, was die Karten zu bieten haben...vielleicht liegts auch am Alter :-)
Ich warte auf den 3. November...@AMD ... das ist nun Eure Chance den Marktanteil deutlich zu steigern.
Da man bei DLSS2 auf 4K skaliert und auch nicht auf das neuste Renderbild(DLSS3) warten muss, ist der Inputlag wohl minimal(liegt in der Natur eines TAAs^^). Zumal man hier eine höhere Auflösung für wenig Kompromiss+mehr Frames(da 4K nativ weniger Frames abgeben würde--> also besserer Inputlag als nativ 4K)
Würde nicht zwingend davon ausgehen, dass die geringeren Frametimes zu nennenswert geringerem Inputlag führen, auch weil dlss 2.x bzw. das supersampling wiederum eine kleine Latenz mit sich bringen kann.
Wenn dlss (2.x) von z.B. 40 auf 60 fps erhöht und damit (angenommen) den Inputlag um 8.5 ms senken würde, aber 2ms Lag selbst durch die Berechnung einführt, wären es vllt. insgst. 6.5ms weniger Lag.
Entscheidender ist da für die meisten das insgst. flüssigere Spielgefühl durch die höhere Framerate.
syfsyn schrieb:
Der nutzen den nvidia hier suggeriert das man mit 30fps dann 90fps hat und dann die gleiche inputlatenz täuscht.
Das wird sich steuern wie mit 30fps weil alles verzögert dargestellt wird.
Es wird ja auch nicht von 30 fps auf 90 mittels Zwischenbildern hochgerechnet, eher z.B. von 30 mit dlss 2.x/ supersampling auf 45 und dann mit Fakeframes auf 90 verdoppelt.
Nvidia Reflex soll den Inputlag dann möglichst gering halten, allerdings wird damit vorrangig das gpu-Limit vermieden, wer also schon vorher mit fps Limitern darauf geachtet hat, erfährt auch kaum einen Gewinn durch nvidia reflex.
Leute, die also ihre Einstellungen auf den geringstmöglichen Inputlag hin optimiert hatten, werden mit dlss 3 /Frame Generation def. einen höheren Inputlag erhalten.
Ergänzung ()
leonM schrieb:
Bei den 30fps zu 60fps DLSS3 Umwandlung müssen die Tests es zeigen, wie der Inputlag bzw. das Spielgefühl sich im Vergleich zu (DLSS2 +Reflex) vs. (DLSS3 +Reflex) anfühlt.
Meinst du die reine Frame generation mit dlss 3, also ohne vorangehendes dlss 2.x/ supersampling?
Ich denke nicht, dass es sonderlich empfehlenswert ist mit real 30fps zu spielen und diese (mit zusätzlichem Inputlag ) auf 60 Fakeframes zu boosten, sofern einem die Latenz wie z.B. bei Shootern wichtig sein sollte.
Nvidia Reflex minimiert wie gesagt auch primär nur dort, wo die gpu zuvor ins Limit lief, daher ist nvidias Werbung für reflex i.S.v. = geringerer Lag auch differenziert zu betrachten.
Wer zuvor schon mit frame limitern gearbeitet hat und die gpu Last so unter ca. 97% gehalten hat, dem nützt Reflex auch nix.
Würde nicht zwingend davon ausgehen, dass die geringeren Frametimes zu nennenswert geringerem Inputlag führen, auch weil dlss 2.x bzw. das supersampling wiederum eine kleine Latenz mit sich bringen kann.
Wenn dlss (2.x) von z.B. 40 auf 60 fps erhöht und damit (angenommen) den Inputlag um 8.5 ms senken würde, aber 2ms Lag selbst durch die Berechnung einführt, wären es vllt. insgst. 6.5ms weniger Lag.
Entscheidender ist da für die meisten das insgst. flüssigere Spielgefühl durch die höhere Framerate.
So funktioniert die Rechnung nicht. DLSS2 hat eine gewisse Berechnungszeit, das ist richtig. Diese fließt aber 1:1 wie jeder andere Grafikeffekt in die Berechnungszeit eines Frames mit ein, bevor er ausgegeben wird wodurch wiederum direkt die FPS bestimmt werden. Du kannst nicht einfach sagen 60 FPS hat eine Latenz X, aber 60 FPS mit DLSS hätten eine schlechtere Latenz y. Das ist falsch.
60 FPS mit DLSS 2 haben im gleichen Spiel exakt die gleiche Latenz wie 60 FPS ohne DLSS (z.B. mit einer stärkeren GPU berechnet). Das macht überhaupt keinen Unterschied.
Ja, DLSS2 braucht ein paar ms bis es berechnet wurde, so ca. 2-3 ms. Aber die fließen in die Berechnungsdauer des Frames wie gesagt bereits mit ein.
Das was du vielleicht meinst bzw. betrachten solltest ist die Auflösung.
Heißt, wenn ein Spiel für die Ausgabe eines 1080p Frames 16,6 ms braucht (60 FPS), dann braucht es mit DLSS (upscale auf 4K, intern 1080p) ca 18ms. So wird ein Schuh draus!
Dadurch steigt natürlich die Latenz, weil es mit DLSS aufwändiger zu berechnen ist und die FPS automatisch auf 55 runter gehen (18 ms).
Aber wie gesagt, das was nach DLSS2 an FPS raus kommt ist exakt das, was du auch mit einer stärkeren GPU bei gleicher Framerate an Latenz hättest. Nur bei gleicher interner Auflösung ist DLSS langsamer, weil eben 2-3ms Renderzeit für DLSS dazu kommen. Diese längere Berechnugsdauer siehst du aber direkt an der entsprechend geringeren Framerate. Es gibt hier schlichtweg keinen "versteckten" lag oder eine nachträgliche Verzögerung, wie es mit DLSS3 sein wird.
So funktioniert die Rechnung nicht. DLSS2 hat eine gewisse Berechnungszeit, das ist richtig. Diese fließt aber 1:1 wie jeder andere Grafikeffekt in die Berechnungszeit eines Frames mit ein, bevor er ausgegeben wird wodurch wiederum direkt die FPS bestimmt werden. Du kannst nicht einfach sagen 60 FPS hat eine Latenz X, aber 60 FPS mit DLSS hätten eine schlechtere Latenz y. Das ist falsch.
60 FPS mit DLSS 2 haben im gleichen Spiel exakt die gleiche Latenz wie 60 FPS ohne DLSS (z.B. mit einer stärkeren GPU berechnet). Das macht überhaupt keinen Unterschied.
Verstehe,
Aber dennoch würde es voraussetzen, dass man mit DLSS garantiert nicht ins gpu Limit gerät, ansonsten kann der Inputlag von 60fps schon unterschiedlich ausfallen.
Es können ja sogar 60fps höheren Inputlag als 40 fps bedeuten,
Wenn DLSS 2.x das gpu Limit automatisch berücksichtigt, wäre nvidia reflex darin bereits integriert, ist das so?
@Suspektan
wodan konnte das im letzten Post besser erklären, was ich gemeint habe. Hoffe das ist jetzt soweit geklärt^^. Zu BFI, ich glaube es gibt verschiedene Gruppen von Menschen und die einen sind mehr die anderen weniger auf Input Lag empfindlich. Ich reagiere deswegen so, weil ich leider zu denen gehöre, die es fühlen. Z.B sowas wie RDR2 ist für mich ne Qual und nur weil die Steuerung so verdammt träge ist, du merkst, auch bei z.B >60fps kann die Steuerung vom Endwickler verhunzt werden. Wie auch immer, ich verstehe dich in der Beziehung.
Und zu DLSS2. .. GPU-Limit, ich glaube, dass Reflex separat von Entwickler in seine Engine implementiert werden muss und dieses aktuell nicht in DLSS2... als Gesamtpaket integriert ist.
Dann ist die Frage wie dlss 2.x garantiert, dass die gpu nicht ins Limit läuft.
Das Hardware unboxed Video legt zmdst. nahe, dass es hier zu kaum Problemen kommt, wobei da auch oft niedrigere Settings und reflex aktiv waren.
Ich glaube schon, dass es Reflex tut, es arbeitet glaube ich bei GPU-Limit wie ein Framerate-Limiter und macht somit die GPU-Warteschlange kleiner. Ich glaub nicht, dass DLSS2 das macht bzw. dachte es wäre nur ein TAAU und nicht mehr.
Eben, aber in dem hardware unboxed Testvideo hat sich der inputlag auch OHNE reflex mit dlss verringert, kann natürlich auch der Titelauswahl und den Einstellungen geschuldet sein.
Ich denke halt ganz naiv, wenn die cpu nicht limitiert, tut es die gpu, ob nun durch die hohen Grafikeinstellungen oder durch die hohen fps bei niedrigeren Settings, sie wird nach Möglichkeit ausgelastet.
Vielleicht ist aber dlss da gesondert zu betrachten, warum auch immer.
Du darfst eine Sache nicht vergessen, nativ 1080p != 1080p DLSS2. Das heißt, wenn z.B nativ 1080p 100fps, so sind es bei 1080p@DLSS2 z.B 150fps, somit besserer Input Lag, da mehr Frames, sprich geringere ms-Zeit pro Renderbild. Sollte jetzt nur als Beispiel dienen.
Du darfst eine Sache nicht vergessen, nativ 1080p != 1080p DLSS2. Das heißt, wenn z.B nativ 1080p 100fps, so sind es bei 1080p@DLSS2 z.B 150fps, somit besserer Input Lag, da mehr Frames, sprich geringere ms-Zeit pro Renderbild. Sollte jetzt nur als Beispiel dienen.
Ich hab das schon berücksichtigt, nur wenn mit den 1080p@dlss 150fps man ins gpu Limit rennt, kann der inputlag auch steigen ggü. 1080p 100fps ohne dlss.
So oder so will man in beiden Fällen den Inputlag natürlich gering halten, in dem Testvideo war der ohnehin unproblematisch, warum auch immer.
CB hatte auch mal vor zwei Jahren nen Test veröffentlicht, da war das gpu Limit auch unbedenklich zu ihrer Überraschung, man vermutete, dass verbesserte Treiber und/ oder gsync der Grund waren.
DLSS 3 Increases Latency | How fast is RTX 4000 without fake frames?
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Den entsprechenden Adapter hat der Hersteller auf der eigenen Webseite bereits gelistet und ab Ende des Monats soll er erhältlich sein. Der Adapter ist dabei mit allen Type-4-Netzteilen kompatibel, was abermals in einer Liste überprüft werden kann. Um jedoch die vollen 600 Watt über den neuen 12VHPWR senden zu können, setzt Corsair jedoch ein Netzteil mit 1.200 Watt oder mehr voraus. Modelle mit 1.000 Watt dürfen 450 Watt liefern und für 300 Watt über den neuen Anschluss ist ein Modell mit mindestens 750 Watt nötig.
Ich würde bei meinem Focus GX-850 (SeaSonic) ATX 2.3 Netzteil aber auch bleiben, wenn ich eine High End nVidia Karte kaufen würde (wobei das spätestens ab einer RTX 4080Ti auch undervoltet knapp werden würde) und ich denke/hoffe bei RDNA3 wird der 12-Pin Stecker und die Adapterfummelei aufgrund des geringeren Verbrauchs sowieso nicht nötig sein.