Ah, ich glaube ich kann es mir selbst beantworten. Hatte wohl ein Denkfehler und hab es als Framebuffer betrachtet, der automatisch die Löcher stopft, was bei DLSS3 nicht der Fall ist. Sprich, VRR interessiert es nicht, da automatisch nach dem letzen gerenderten Frame ein Fakeframe/Futureframe eingebaut wird unabhängig von der Renderzeit des nächsten Bildes.leonM schrieb:Was ich mich frage, wie funktioniert DLSS3 mit VRR? Da der Bildschirm synchron mit den Renderbildern läuft ab z.B einer Range 40.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions
Humbertus
Lieutenant
- Registriert
- Okt. 2011
- Beiträge
- 584
Deshalb habe ich auch geschrieben "Das ganze steht und fällt dann natürlich mit der Qualität von DLSS 3 und der Anzahl an Spielen die es unterstützen."whyme schrieb:Natürlich, aber wenn dir egal ist, woher die FPS kommen und wie die Qualität ist, dann ist das nur einen Schritt weiter gedacht. Und damit werden die Balken eben auch länger.
Ja bei der interpolation passiert mehr als nur doppelt frames ausgeben, aber die Qualität wird darunter zwangweise leiden. Also bleibt auch eine Frage, wieviel diese Frames dann wert sind, oder ob sie nur dazu da sind um die Balknen zu verdoppeln um sich von der alten Generation abzuheben.
Aber genau solche Technologien sind notwendig damit RT auch massentauglich wird. Und da könnte DLSS 3 ein großer Schritt werden um ein gutes Spielgefühl mit hohen RT Einstellungen zu ermöglichen.
Aber den Mainstream kann Nvidia erst erreichen wenn DLSS 3 fähige Karten ab 300-400€ erhältlich sind. Vielleicht wenn RTX 5000 kommt und die 4000er in den abverkauf gehen.
Aufjedenfall auch spannend was AMD abliefern wird.
R
RogueSix
Gast
Capthowdy schrieb:Mein Netzteil hat mehrere 12-Pin Ausgänge an die Adapterkabel mit je 2x8-Pin PCIe angeschlossen werden. Wieso soll ich da nicht zwei 2x8 Pin-Adapterkabel gegen eines tauschen können, das aus 2x12-Pin Netzteil 1x16-Pin PCIe macht?
Das musst Du dann mal beQuiet fragen, warum die nicht zaubern können . Ich bin ja jetzt auch kein Netzteil-Ingenieur, aber nach meinem Verständnis braucht es auf Netzteilseite (intern) die native PCIe 5.0 Unterstützung für den 12VHPWR Anschluss.
Nur weil etwas eventuell pin-kompatibel ist, bedeutet das gar nix. Es gibt zahlreiche Leute, die sich schon ihre Netzteile gebraten haben, weil sie vom Vorgänger-Netzteil einfach irgendwelche vollmodularen Kabel in das neue Netzteil eingesteckt haben nach dem Motto "ist doch derselbe Anschluss"... nur dass hinter dem pin-kompatiblen Anschluss eben Netzteil-intern dann ganz andere Verdrahtungen und/oder Pin-Belegungen steckten.
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.706
Das ist der wichtigste Satz im ganzen Artikel und erklärt die ganzen Leistungszuwächse und Verbräuche.dass sich beim generellen Aufbau gegenüber Ampere nicht viel geändert hat, primär gibt es einfach deutlich mehr Einheiten
ragnarok666
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 379
Was bringen dir 30fps im Frameounter, wenn deine Eingaben nur mit 15Hz verarbeitet werden? Ich erwarte dass sich das nach wie vor so Anfühlt, was währen es nur 15 fps.Daddi89 schrieb:Ich glaube nicht, dass es für solche Anwendungsfälle geeignet ist. Aber Strategiespiele und andere Spiele bei denen es nicht auf schnelle Reaktionszeiten ankommt, könnten damit auf 4k/8k in den höchsten Einstellungen noch immer mit akzeptabler oder gar guter Bildwiederholrate glänzen.
Bevor es Tests gibt, welche betrachten, ob sich bei DLSS3 das Spielgefühl (Latenz, Responsivness) erwartungsgemäß mit den höheren fps verbessert, besteht der Verdacht, dass DLSS3 ein in der Praxis nutzloses Marketingfeature ist, welches für längere Balken sorgen soll.
Zuletzt bearbeitet:
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.041
Sicher, es ist nice to have, aber kein unbedingter Kaufgrund.Daddi89 schrieb:DLSS 3 wird einem ja nicht aufgezwungen.
Illithide
Ensign
- Registriert
- Juli 2017
- Beiträge
- 173
…wenn die Latenz überhaupt gleich bleibt. Scheint mir eher schon der Idealfall zu sein. Je nach konkreten FPS bzw. Millisekunden und der Pixelresponsetime bzw. Monitoraktualisierungsrate könnte ich mir gut vorstellen, dass zwischen den echten Frames sogar mehr Zeit vergeht, wenn man da jetzt noch ein Fakeframe dazwischenschiebt.ragnarok666 schrieb:Wenn DLSS3 jetzt die FPS verdoppelt, die Latenz aber in etwa gleichbleibt, heißt das nicht, dass ich zwar einen langen FPS-Balken in Benches bekomme, das Spielgefühl aber nicht besser / flüssiger wird? Wenn die generierten Frames in unregelmäßigen Abstand mit den echten gemischt werden könnte es sogar hakeliger werden. Somit wäre DLSS3 nutzlos?
Mit DLSS2 bekommt man nur „echte“ zusätzliche Frames dazu, welche die Benutzereingaben berücksichtigen.
Wenn man bedenkt, dass man Reflex auch ohne DLSS3 nutzen kann, siehts noch schlimmer aus im Vergleich, mehr FPS, aber schlechteres Spielgefühl.
Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.
Leute, ohne echte Tests kommen wir hier nicht weiter.
Würde ich nicht sagen, eher flüssigeres und klareres BewegtbildCyrionX schrieb:schliesslich war der primäre Zweck hoher FPS bisher die Verringerung der Latenz.
Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar.Suspektan schrieb:Würde ich nicht sagen, eher flüssigeres und klareres Bewegtbild
Genauso wurden die FPS schon auf 100hz CRTs in die 200-300 bewegt (CS 1.6), gerade wegen des Inputs
Unter 100fps stimmt das schon, aber ich sprach in dem Kontext auch explizit von Esports/Shootern
leonM schrieb:Was glaubst du warum die Mehrzahl in hohen Frames spielt?? Genau deswegen, weil man den Inputlag von den anderen Verursachern kompensieren muss!!
Suspektan schrieb:Würde ich nicht sagen, eher flüssigeres und klareres Bewegtbild
Davon ab kann man den inputlag meist nicht ausreichend durch hohe fps bzw. geringe Frametimes kompensieren, von 60 auf 120fps ergeben gerad mal ca. 8ms, den Hauptanteil machen andere Faktoren aus.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.882
ja, und?ComputerJunge schrieb:Wobei hier dann auch die Grenze zwischen reiner Berichterstattung (Test) und Meinungsäußerung (Wertung/Kommentar) schnell verschwimmen kann.
journalisten in der fachpresse ordnen die messwerte auch ein, denn für das reine ablesen der diagramme brauche ich keinen begleittext.
und wenn wir uns darauf besinnen was den allermeisten usern wichtig ist, dann wird es das "bang-for-buck" verhältniss sein sowie der verbrauch samt wärme und geräuschentwicklung...
Zuletzt bearbeitet:
Ich weiß nicht was du mir jetzt verkaufen willst aber wie ich schon schrieb, probiert man mit hohen Frames den Inputlag auszugleichen. Jetzt merken es auf einmal die Konseleros, wie gut auf einmal 60fps sich anfühlen und eins der Spiele die sich durch 60fps beliebt gemacht hat(zwar mit schlechten Frametimes) war Cod auf den Konsolen, weil eben die Reaktionszeit sich besser als im Vergleich zur dieser Zeit bei 30fps-Konkurrenz anfühlte. Das Gleiche auch bei Autorennspielen usw... Ich spiele ungegerne z.B mit Vsync, weil der Inputlag einfach beschissen ist, daher weiß ich, warum die ab 60fps-Grenze so bliebt ist und wie gut diese die anderen Inputlag-Verursacher ausgleichen kann. Auf Konsolen ist erst jetzt der Trend sichtbar, auf dem PC seit es machbar ist.Suspektan schrieb:Davon ab kann man den inputlag meist nicht ausreichend durch hohe fps bzw. geringe Frametimes kompensieren, von 60 auf 120fps ergeben gerad mal ca. 8ms, den Hauptanteil machen andere Faktoren aus.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Anhang anzeigen 1262780
Zuletzt bearbeitet:
Die 120fps müssen aber auch erstmal erreicht werden, mit aktuellen Spielen ist das jetzt nicht unbedingt selbstverständlich und darauf zielt wahrscheinlich dlss 3.0 auch ab und eher weniger auf >144.CyrionX schrieb:Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar
Ich habe dazu gerade geschrieben in welchen (offensichtlichen) Kontext der Satz einzuordnen war.Suspektan schrieb:Die 120fps müssen aber auch erstmal erreicht werden, mit aktuellen Spielen ist das jetzt nicht unbedingt selbstverständlich und darauf zielt wahrscheinlich dlss 3.0 auch ab und eher weniger auf >144.
Kein Esportler wird DLSS 3 mit einer 4080/4090 nutzen um über 100fps zu kommen wenn er einfach die Grafikqualität runterschrauben kann, zudem sind eSports/Shooter auch auf hohe FPS ausgelegt und ich bezweifle, dass diese Spiele mit dieser Hardware unter 120fps laufen. CP 2077 ist im Esport jedenfalls noch nicht angekommen.
Du widerlegst eigentlich nur Behauptungen die ich gar nicht aufgestellt habe. Da du das wiederholt ignorierst habe ich keinen Grund weiter darauf einzugehen.
Ich verkaufe nichtsleonM schrieb:Ich weiß nicht was du mir jetzt verkaufen willst aber wie ich schon schrieb,
du kannst die Werte ablesen und siehst, dass die 8ms Unterschied von 60 zu 120fps eben nicht den Hauptanteil des Inputlag ausmachen und damit will ich sagen, dass höhere Framerates eben nicht vorrangig der Kompensation des Inputlags dienen.
30fps sind nun Mal ruckelig, nicht nur wegen des Inputlags, auch wegen der Darstellung selbst
Und auch 60fps können immer noch hohen Inputlag bedeuten wie man den Werten entnehmen kann
30fps sind immer mit Inputlag-Gefühl behaftet(auch bei der besten Hardware für Inputlag), wenn man Steuerung auf hohe Sensibilität hat. Aktuell sieht es bei den meisten so aus, dass ihre Hardwarekomponenten im Zusammenspiel mit einen Render(bei den jedweiligen Spielegenres) von >60fps als spielbar annehmen. Jetzt soll aufeinmal das nicht mehr von Relevanz sein und das Grundlegende bei hohen Frames nur die Beseitigung von Motion Blure ? Naja, jedenfalls nicht für mich und einer der Hautgründe warum ich nicht auf Konsolen, sondern auf dem PC zockeSuspektan schrieb:Ich verkaufe nichts
du kannst die Werte ablesen und siehst, dass die 8ms Unterschied von 60 zu 120fps eben nicht den Hauptanteil des Inputlag ausmachen und damit will ich sagen, dass höhere Framerates eben nicht vorrangig der Kompensation des Inputlags dienen.
30fps sind nun Mal ruckelig, nicht nur wegen des Inputlags, auch wegen der Darstellung selbst
Und auch 60fps können immer noch hohen Inputlag bedeuten wie man den Werten entnehmen kann
Capthowdy
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.048
Es muss ja nicht Pin-Kompatibel sein, deswegen will ich ja auch ein Adapterkabel vom Hersteller. Es macht aber, aus meiner Sicht, keinen Sinn wenn es direkt nicht ginge, mit zwei Adapterkabeln aber schon, sprichRogueSix schrieb:Nur weil etwas eventuell pin-kompatibel ist, bedeutet das gar nix.
2x12-Pin -> 4x8-Pin -> 1x16-Pin = funktioniert
aber
2x12-Pin -> 1x16-Pin = funktioniert nicht
Das macht imho keinen Sinn, wenn es mit zwei Adaptern geht, dann sollte das auch direkt mit einem Adapter zu lösen sein, aber der muss eben vom jeweiligen NT-Hersteller kommen.
Tja du siehst ja hier wie heiß manche auf das Teil sind. Ohne ganz neue Materialien / extreme shrinks bekommt man eben nicht mehr Performance.AnkH schrieb:sind 600W Grafikkarten noch zeitgemäss"? Oder "aus 7 mach 8, die neue 4080 12GB wäre eigentlich eine 4070".
Muß man es gut finden nein - theoretisch kannst du die Teile auchvauf die Watt Zahl der Vorgänger drosseln. Dann bekommst du etwas mehr Performance / Watt.
4080 10MB ja - keine Ahnung was das soll. Darauf werden vor allem die Fertig PC Käufer herein fallen. Wahrscheinlich hat NV es deshalb gemacht. Sie können dann mit 4080 werben
Ergänzung ()
Laut spec sind 150W pro Anschluß erlaubt. Für 450W sollten es dann 3 Kabel sein.Capthowdy schrieb:Das macht imho keinen Sinn, wenn es mit zwei Adaptern geht, dann sollte das auch direkt mit einem Adapter zu lösen sein, aber der muss eben vom jeweiligen NT-Hersteller kommen.
450W sind 37.5 A das ist zuviel für ein Kabel
TheWrongGuy6
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 680
Mit der 10er Reihe die stärkste Non-Ti Version war sehr Sparsam. Also die 1080 mit um die 200 Watt. Eigentlich wurde es alles immer sparsamer. Mit der 20er Reihe ging es dann schlagartig wieder hoch. Nun sind wir bei bis zu 600 Watt bei der 4090... Ich weiß nicht. Nicht wirklich zeitgemäß.
Ähnliche Themen
- Antworten
- 66
- Aufrufe
- 9.961
- Antworten
- 313
- Aufrufe
- 46.627
- Antworten
- 148
- Aufrufe
- 18.686
- Antworten
- 286
- Aufrufe
- 43.896
- Antworten
- 3.241
- Aufrufe
- 296.766