Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

leonM schrieb:
Was ich mich frage, wie funktioniert DLSS3 mit VRR? Da der Bildschirm synchron mit den Renderbildern läuft ab z.B einer Range 40.
Ah, ich glaube ich kann es mir selbst beantworten. Hatte wohl ein Denkfehler und hab es als Framebuffer betrachtet, der automatisch die Löcher stopft, was bei DLSS3 nicht der Fall ist. Sprich, VRR interessiert es nicht, da automatisch nach dem letzen gerenderten Frame ein Fakeframe/Futureframe eingebaut wird unabhängig von der Renderzeit des nächsten Bildes.
 
whyme schrieb:
Natürlich, aber wenn dir egal ist, woher die FPS kommen und wie die Qualität ist, dann ist das nur einen Schritt weiter gedacht. Und damit werden die Balken eben auch länger.

Ja bei der interpolation passiert mehr als nur doppelt frames ausgeben, aber die Qualität wird darunter zwangweise leiden. Also bleibt auch eine Frage, wieviel diese Frames dann wert sind, oder ob sie nur dazu da sind um die Balknen zu verdoppeln um sich von der alten Generation abzuheben.
Deshalb habe ich auch geschrieben "Das ganze steht und fällt dann natürlich mit der Qualität von DLSS 3 und der Anzahl an Spielen die es unterstützen."

Aber genau solche Technologien sind notwendig damit RT auch massentauglich wird. Und da könnte DLSS 3 ein großer Schritt werden um ein gutes Spielgefühl mit hohen RT Einstellungen zu ermöglichen.
Aber den Mainstream kann Nvidia erst erreichen wenn DLSS 3 fähige Karten ab 300-400€ erhältlich sind. Vielleicht wenn RTX 5000 kommt und die 4000er in den abverkauf gehen.

Aufjedenfall auch spannend was AMD abliefern wird.
 
Capthowdy schrieb:
Mein Netzteil hat mehrere 12-Pin Ausgänge an die Adapterkabel mit je 2x8-Pin PCIe angeschlossen werden. Wieso soll ich da nicht zwei 2x8 Pin-Adapterkabel gegen eines tauschen können, das aus 2x12-Pin Netzteil 1x16-Pin PCIe macht?

Das musst Du dann mal beQuiet fragen, warum die nicht zaubern können :D . Ich bin ja jetzt auch kein Netzteil-Ingenieur, aber nach meinem Verständnis braucht es auf Netzteilseite (intern) die native PCIe 5.0 Unterstützung für den 12VHPWR Anschluss.

Nur weil etwas eventuell pin-kompatibel ist, bedeutet das gar nix. Es gibt zahlreiche Leute, die sich schon ihre Netzteile gebraten haben, weil sie vom Vorgänger-Netzteil einfach irgendwelche vollmodularen Kabel in das neue Netzteil eingesteckt haben nach dem Motto "ist doch derselbe Anschluss"... nur dass hinter dem pin-kompatiblen Anschluss eben Netzteil-intern dann ganz andere Verdrahtungen und/oder Pin-Belegungen steckten.
 
dass sich beim generellen Aufbau gegenüber Ampere nicht viel geändert hat, primär gibt es einfach deutlich mehr Einheiten
Das ist der wichtigste Satz im ganzen Artikel und erklärt die ganzen Leistungszuwächse und Verbräuche.
 
  • Gefällt mir
Reaktionen: konkretor, FeelsGoodManJPG, fullnewb und 2 andere
Daddi89 schrieb:
Ich glaube nicht, dass es für solche Anwendungsfälle geeignet ist. Aber Strategiespiele und andere Spiele bei denen es nicht auf schnelle Reaktionszeiten ankommt, könnten damit auf 4k/8k in den höchsten Einstellungen noch immer mit akzeptabler oder gar guter Bildwiederholrate glänzen.
Was bringen dir 30fps im Frameounter, wenn deine Eingaben nur mit 15Hz verarbeitet werden? Ich erwarte dass sich das nach wie vor so Anfühlt, was währen es nur 15 fps.

Bevor es Tests gibt, welche betrachten, ob sich bei DLSS3 das Spielgefühl (Latenz, Responsivness) erwartungsgemäß mit den höheren fps verbessert, besteht der Verdacht, dass DLSS3 ein in der Praxis nutzloses Marketingfeature ist, welches für längere Balken sorgen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaasKersting, BGnom, AntiPriester und eine weitere Person
ragnarok666 schrieb:
Wenn DLSS3 jetzt die FPS verdoppelt, die Latenz aber in etwa gleichbleibt, heißt das nicht, dass ich zwar einen langen FPS-Balken in Benches bekomme, das Spielgefühl aber nicht besser / flüssiger wird? Wenn die generierten Frames in unregelmäßigen Abstand mit den echten gemischt werden könnte es sogar hakeliger werden. Somit wäre DLSS3 nutzlos?
Mit DLSS2 bekommt man nur „echte“ zusätzliche Frames dazu, welche die Benutzereingaben berücksichtigen.

Wenn man bedenkt, dass man Reflex auch ohne DLSS3 nutzen kann, siehts noch schlimmer aus im Vergleich, mehr FPS, aber schlechteres Spielgefühl.
Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.
…wenn die Latenz überhaupt gleich bleibt. Scheint mir eher schon der Idealfall zu sein. Je nach konkreten FPS bzw. Millisekunden und der Pixelresponsetime bzw. Monitoraktualisierungsrate könnte ich mir gut vorstellen, dass zwischen den echten Frames sogar mehr Zeit vergeht, wenn man da jetzt noch ein Fakeframe dazwischenschiebt.
Leute, ohne echte Tests kommen wir hier nicht weiter.
 
  • Gefällt mir
Reaktionen: AntiPriester, konkretor, Celinna und 2 andere
Suspektan schrieb:
Würde ich nicht sagen, eher flüssigeres und klareres Bewegtbild
Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar.
Genauso wurden die FPS schon auf 100hz CRTs in die 200-300 bewegt (CS 1.6), gerade wegen des Inputs
Unter 100fps stimmt das schon, aber ich sprach in dem Kontext auch explizit von Esports/Shootern
 
leonM schrieb:
Was glaubst du warum die Mehrzahl in hohen Frames spielt?? Genau deswegen, weil man den Inputlag von den anderen Verursachern kompensieren muss!!
Suspektan schrieb:
Würde ich nicht sagen, eher flüssigeres und klareres Bewegtbild

Davon ab kann man den inputlag meist nicht ausreichend durch hohe fps bzw. geringe Frametimes kompensieren, von 60 auf 120fps ergeben gerad mal ca. 8ms, den Hauptanteil machen andere Faktoren aus.

Screenshot_20220922-150651.jpg
 
ComputerJunge schrieb:
Wobei hier dann auch die Grenze zwischen reiner Berichterstattung (Test) und Meinungsäußerung (Wertung/Kommentar) schnell verschwimmen kann.
ja, und?
journalisten in der fachpresse ordnen die messwerte auch ein, denn für das reine ablesen der diagramme brauche ich keinen begleittext.
und wenn wir uns darauf besinnen was den allermeisten usern wichtig ist, dann wird es das "bang-for-buck" verhältniss sein sowie der verbrauch samt wärme und geräuschentwicklung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ericus
Suspektan schrieb:
Davon ab kann man den inputlag meist nicht ausreichend durch hohe fps bzw. geringe Frametimes kompensieren, von 60 auf 120fps ergeben gerad mal ca. 8ms, den Hauptanteil machen andere Faktoren aus.

Anhang anzeigen 1262780
Ich weiß nicht was du mir jetzt verkaufen willst aber wie ich schon schrieb, probiert man mit hohen Frames den Inputlag auszugleichen. Jetzt merken es auf einmal die Konseleros, wie gut auf einmal 60fps sich anfühlen und eins der Spiele die sich durch 60fps beliebt gemacht hat(zwar mit schlechten Frametimes) war Cod auf den Konsolen, weil eben die Reaktionszeit sich besser als im Vergleich zur dieser Zeit bei 30fps-Konkurrenz anfühlte. Das Gleiche auch bei Autorennspielen usw... Ich spiele ungegerne z.B mit Vsync, weil der Inputlag einfach beschissen ist, daher weiß ich, warum die ab 60fps-Grenze so bliebt ist und wie gut diese die anderen Inputlag-Verursacher ausgleichen kann. Auf Konsolen ist erst jetzt der Trend sichtbar, auf dem PC seit es machbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AntiPriester, McTheRipper und CyrionX
CyrionX schrieb:
Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar
Die 120fps müssen aber auch erstmal erreicht werden, mit aktuellen Spielen ist das jetzt nicht unbedingt selbstverständlich und darauf zielt wahrscheinlich dlss 3.0 auch ab und eher weniger auf >144.
 
Suspektan schrieb:
Die 120fps müssen aber auch erstmal erreicht werden, mit aktuellen Spielen ist das jetzt nicht unbedingt selbstverständlich und darauf zielt wahrscheinlich dlss 3.0 auch ab und eher weniger auf >144.
Ich habe dazu gerade geschrieben in welchen (offensichtlichen) Kontext der Satz einzuordnen war.
Kein Esportler wird DLSS 3 mit einer 4080/4090 nutzen um über 100fps zu kommen wenn er einfach die Grafikqualität runterschrauben kann, zudem sind eSports/Shooter auch auf hohe FPS ausgelegt und ich bezweifle, dass diese Spiele mit dieser Hardware unter 120fps laufen. CP 2077 ist im Esport jedenfalls noch nicht angekommen.
Du widerlegst eigentlich nur Behauptungen die ich gar nicht aufgestellt habe. Da du das wiederholt ignorierst habe ich keinen Grund weiter darauf einzugehen.
 
  • Gefällt mir
Reaktionen: AntiPriester und ragnarok666
leonM schrieb:
Ich weiß nicht was du mir jetzt verkaufen willst aber wie ich schon schrieb,
Ich verkaufe nichts
du kannst die Werte ablesen und siehst, dass die 8ms Unterschied von 60 zu 120fps eben nicht den Hauptanteil des Inputlag ausmachen und damit will ich sagen, dass höhere Framerates eben nicht vorrangig der Kompensation des Inputlags dienen.
30fps sind nun Mal ruckelig, nicht nur wegen des Inputlags, auch wegen der Darstellung selbst

Und auch 60fps können immer noch hohen Inputlag bedeuten wie man den Werten entnehmen kann
 
  • Gefällt mir
Reaktionen: Coeckchen
Abschnitt Video Codierung
"soll gar in 25 statt 10 Minuten erledigt sein"

@Wolfgang: ich glaube die zahlen gehören getauscht
 
Suspektan schrieb:
Ich verkaufe nichts
du kannst die Werte ablesen und siehst, dass die 8ms Unterschied von 60 zu 120fps eben nicht den Hauptanteil des Inputlag ausmachen und damit will ich sagen, dass höhere Framerates eben nicht vorrangig der Kompensation des Inputlags dienen.
30fps sind nun Mal ruckelig, nicht nur wegen des Inputlags, auch wegen der Darstellung selbst

Und auch 60fps können immer noch hohen Inputlag bedeuten wie man den Werten entnehmen kann
30fps sind immer mit Inputlag-Gefühl behaftet(auch bei der besten Hardware für Inputlag), wenn man Steuerung auf hohe Sensibilität hat. Aktuell sieht es bei den meisten so aus, dass ihre Hardwarekomponenten im Zusammenspiel mit einen Render(bei den jedweiligen Spielegenres) von >60fps als spielbar annehmen. Jetzt soll aufeinmal das nicht mehr von Relevanz sein und das Grundlegende bei hohen Frames nur die Beseitigung von Motion Blure ? Naja, jedenfalls nicht für mich und einer der Hautgründe warum ich nicht auf Konsolen, sondern auf dem PC zocke
 
  • Gefällt mir
Reaktionen: AntiPriester und CyrionX
RogueSix schrieb:
Nur weil etwas eventuell pin-kompatibel ist, bedeutet das gar nix.
Es muss ja nicht Pin-Kompatibel sein, deswegen will ich ja auch ein Adapterkabel vom Hersteller. Es macht aber, aus meiner Sicht, keinen Sinn wenn es direkt nicht ginge, mit zwei Adapterkabeln aber schon, sprich
2x12-Pin -> 4x8-Pin -> 1x16-Pin = funktioniert
aber
2x12-Pin -> 1x16-Pin = funktioniert nicht

Das macht imho keinen Sinn, wenn es mit zwei Adaptern geht, dann sollte das auch direkt mit einem Adapter zu lösen sein, aber der muss eben vom jeweiligen NT-Hersteller kommen.
 
AnkH schrieb:
sind 600W Grafikkarten noch zeitgemäss"? Oder "aus 7 mach 8, die neue 4080 12GB wäre eigentlich eine 4070".
Tja du siehst ja hier wie heiß manche auf das Teil sind. Ohne ganz neue Materialien / extreme shrinks bekommt man eben nicht mehr Performance.
Muß man es gut finden nein - theoretisch kannst du die Teile auchvauf die Watt Zahl der Vorgänger drosseln. Dann bekommst du etwas mehr Performance / Watt.

4080 10MB ja - keine Ahnung was das soll. Darauf werden vor allem die Fertig PC Käufer herein fallen. Wahrscheinlich hat NV es deshalb gemacht. Sie können dann mit 4080 werben
Ergänzung ()

Capthowdy schrieb:
Das macht imho keinen Sinn, wenn es mit zwei Adaptern geht, dann sollte das auch direkt mit einem Adapter zu lösen sein, aber der muss eben vom jeweiligen NT-Hersteller kommen.
Laut spec sind 150W pro Anschluß erlaubt. Für 450W sollten es dann 3 Kabel sein.
450W sind 37.5 A das ist zuviel für ein Kabel
 
Mit der 10er Reihe die stärkste Non-Ti Version war sehr Sparsam. Also die 1080 mit um die 200 Watt. Eigentlich wurde es alles immer sparsamer. Mit der 20er Reihe ging es dann schlagartig wieder hoch. Nun sind wir bei bis zu 600 Watt bei der 4090... Ich weiß nicht. Nicht wirklich zeitgemäß.
 
Zurück
Oben