Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Vitali.Metzger schrieb:
Falls sich das bewahrheitet, dann mein. Ich erwarte die üblichen 50-60% im Schnitt.

Ich finde die Bezeichnung "Cheat Settings" schon etwas hart. Ich habs schonmal in einem anderem Kommentar geschrieben, aber meine Meinung ist "Wer FPS liefert hat recht". Wie diese dann zustande kommen ist mir egal.

Das ganze steht und fällt dann natürlich mit der Qualität von DLSS 3 und der Anzahl an Spielen die es unterstützen.

Gerade wenn man RT auf Maximalen Settings will kommt man an den "Cheat" Lösungen nicht vorbei, ansonsten haben wir in 10 Jahren noch nicht genug Leistung dafür.
 
HAse_ONE schrieb:
Aber was passiert in einem Multiplayer shooter, wenn ich ganau in dem Frame auf nen Gegner schieß, aber blöderweise auf einen Bildfehler geschossen hab, oder der Gegner eben nicht 100% an der Stelle ist, an dem die KI ihn eigentlich berechnet hat?
Die "kI" berechnet ja nur jeden zweiten (Zwischen)Frame, das Auge nimmt ja nicht nur den einen Frame wahr, sondern mehrere aufeinanderfolgende.
Die Problematik dürfte sich eher in einem unruhigen, vielleicht an manchen Objekten flimmernden Bild äußern, wenn die "KI" zu oft zwischen feinen linien hin - und her schwankt bzw. sich nicht entscheiden kann.
Wird noch interessant
 
  • Gefällt mir
Reaktionen: GERmaximus und rumpeLson
Zur Input-thematik :
Damit wird sich eine Leistungssteigerung durch DLSS 3 auch bei prozentual gleicher Verbesserung jedoch automatisch anders anfühlen als mit DLSS 2 (oder ohne Upsampling).
=> ich prophezeite hier mal das Input - Micro - Stuttering (IMC) das durch "Zombie-Frames " entsteht und trademarke die Begriffe gleich mal :D

Die Logik dahinter ist: die quasi gleiche Latenz in DLSS 3 bekommt Nvidia nur durch den Durchschnitt aus der Verringerung der "realen" Inputlatenz mit der nicht aufnahmefähigen Latenz der künstlichen Zombie-Frames berechnet.

Z. B. 33+66+33+66ms anstatt 50+50+50+50ms, wobei die 66ms hier im Grunde aus eigentlich 2 frames, also 33ms(live) und 33ms(zombie) bestehen.

Anstatt visuell durch ruckeln wird es durch "niederschwellig erkannte oder unerwartet schlechtere Reaktionszeiten" wahrnehmbar werden ("ich hab doch gedrückt!?").
Mit der Frame Generation bekommt die Input Latenz metaphorisch gesprochen nun viele Schlaglöcher auf einer superglatten Straße, in denen die Kontrolle nicht mehr vorhanden ist.

Für den esport oder Shooter vermute ich eine durchgehende Ablehnung darauf zukommen, (sofern durch Ghosting usw. sowieso nicht schon geschehen), schliesslich war der primäre Zweck hoher FPS bisher die Verringerung der Latenz.
Für alle anderen Games wird das durch die Priorisierung auf ein flüssigeres Spielern und den geringen Unterschied des effektiven Inputlags aber sicher nachrangig bis nicht spürbar sein. Alles in allem also sicher eine Verbesserung, speziell für Cloudstreamingdienste.

(Dieser Nebeneffekt würde wohl nur bei sehr hohen FPS bzw niedrigen Latenzen untergehen, wobei die Framegeneration dann weitestgehend obsolet wäre)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AntiPriester, Flenshead, Draco Nobilis und eine weitere Person
DRVNabsolute schrieb:
Ich würde meinen die meisten nehmen lieber die doppelte Frameratr als es wegen so Kleinigkeiten seien zu lassen.
Wenn einem die Bildqualität egal ist, kann man RT ja auch abschalten und sieht kaum Unterschiede. Und wenn das immer noch nicht reicht, dreht man die Regler runter. Wozu braucht man dann DLSS3?
 
  • Gefällt mir
Reaktionen: karl_laschnikow, PulsarS, Langnese und 5 andere
Humbertus schrieb:
Ich finde die Bezeichnung "Cheat Settings" schon etwas hart. Ich habs schonmal in einem anderem Kommentar geschrieben, aber meine Meinung ist "Wer FPS liefert hat recht". Wie diese dann zustande kommen ist mir egal.

Also könnte AMD hingehen und 4x das gleiche Frame ausgeben und behaupten man hätte die vierfache Leistung? Wer die FPS liefert hat ja schließlich recht.
Und bonus gibts noch oben drauf, wenn man 4x das gleiche Frame liefert, leidet auch nicht die Qualität darunter.
 
  • Gefällt mir
Reaktionen: Andre Prime, BGnom, AntiPriester und 8 andere
Taurus104 schrieb:
Viel wichtiger finde ich persönlich ob die Rasterisierungleistung von RTX4000 auch auch ohne den Einsatz von DLSS 3.0 noch 2-4fach höher ist.
Schaunmermal was die Testberichte ergeben, auf der einen Nvidia-Folie sah das nicht nach 2-4mal schneller aus, eher nach max. 65% bei der 4090.
 
  • Gefällt mir
Reaktionen: AntiPriester
Und wann kommt der Artikel: "sind 600W Grafikkarten noch zeitgemäss"? Oder "aus 7 mach 8, die neue 4080 12GB wäre eigentlich eine 4070".

Kommt endlich eurer journalistischen Verantwortung nach, CB und Konsorten. Was kann schon passieren, kriegt ihr keine Vorab-Samples zum Testen mehr? So what...
 
  • Gefällt mir
Reaktionen: Andre Prime, PulsarS, Flenshead und 10 andere
whyme schrieb:
Also könnte AMD hingehen und 4x das gleiche Frame ausgeben und behaupten man hätte die vierfache Leistung?
es ist ja nicht das gleiche Frame sondern ein "vermutetes" neues Frame. Ähnlich zu den upsampling Methoden moderner Fernseher (Supermotion usw)
 
leonM schrieb:
Naja, das Dumme ist halt, wenn man jetzt 30 Frames hat, so sind es dann 60 in DLSS3 mit einem Inputlag von 33,33ms
DLSS3 setzt DLSS 2 als Option voraus, bedeutet jeder Titel mit der Option "Frame Generation" bietet auch dlss2, womit 30fps eher die Ausnahme bleiben.
Erst Recht mit den neuen rtx 4xxx gpus, welche für dlss 3 ja vorausgesetzt werden.
 
Dlss ist nicht schlecht und steuert den schlecht programmierten Performancekrücken wenigstens etwas entgegen. Besonders bei hohen Auflösungen ein Segen für viele gamer. Ich selbst nehm das immer genau und teste | vergkeiche praktisch bei jedem Game selbst die optimalen Settings, auch bei den Adiooptionen, denn wenn schon, dann richtig und bestmöglich.
In meinen eigenen "Tests" auf nem Oled kann ich bisher Dlss nur gutes bescheinigen, auch wenn ich manchmal einen einfachen Schärfefilter vorziehe, was ich gerade bei älteren Games nutze, auch wenn sie 4k unterstützen, denn erfahrungsgemäß ist die native Pixelanzahl nicht immer ein Detail oder Schärfefaktor.

ZB sieht "2"k mit statischem Schärfefilter [optimal justiert] oft besser aus als 4k nativ. Es fehlen keinerlei Details und die Darstellung ist einfach knackiger und durch die bessere Performance einfach runder [und spart dadurch auch Energie und belastet das System weniger], genau das ist auch der Ansatz von DLSS mit dem upscaling und schärfen. Besonders Texturen [Steine, Ziegelwände, Blätter usw] oder Gitter [zB Draht Zäune] wirken mit weniger nativer Auflösung geschärft sogar besser als nativ oder mit upscaling.

Am Ende steht aber, das Schärfefilter [auch schon vor Dlss und Co] und upscaler wie Dlss jetzt oft ein Gamechanger ist, sofern optimal genutzt bzw gut implementiert.
 
  • Gefällt mir
Reaktionen: Czk666
HerrRossi schrieb:
Wenn einem die Bildqualität egal ist, kann man RT ja auch abschalten und sieht kaum Unterschiede. Und wenn das immer noch nicht reicht, dreht man die Regler runter. Wozu braucht man dann DLSS3?

So kann man nicht argumentieren. Wenn ich in einem Spiel tolle Beleuchtung haben will, Reflexionen, scharfe Texturen etc. dann brauch ich dafür auch hohe Settings.

Winzige Bildfehler die dann möglicherweise mal kurz aufflickern stören mich dann weit weniger als falsch berechnete Schatten oder matschige Texturen. Wie jemand schon geschrieben hat: Die Technik wurde gerade erst vorgestellt. Schaut euch an was Oculus beim Sprung von ASW 1.0 zu ASW 2.0 geschafft hat (die Technik ist dieser hier ähnlich).
 
AnkH schrieb:
Kommt endlich eurer journalistischen Verantwortung nach, CB und Konsorten.
Das wird schon angesprochen werden, wohl aber nicht in der Deutlichkeit, die Du erwartest. Wobei hier dann auch die Grenze zwischen reiner Berichterstattung (Test) und Meinungsäußerung (Wertung/Kommentar) schnell verschwimmen kann.

AnkH schrieb:
Was kann schon passieren, kriegt ihr keine Vorab-Samples zum Testen mehr? So what...
Vermutung: Ohne Vorab-Samples (mindestens) eine Woche zu spät online. Da ist das ökonomisch relevante Publikationsfenster dann schon wieder halb geschlossen. Bedauerlich finde ich dieses Dilemma auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FeelsGoodManJPG und AnkH
Suspektan schrieb:
DLSS3 setzt DLSS 2 als Option voraus, bedeutet jeder Titel mit der Option "Frame Generation" bietet auch dlss2, womit 30fps eher die Ausnahme bleiben.
Erst Recht mit den neuen rtx 4xxx gpus, welche für dlss 3 ja vorausgesetzt werden.
Ist das so? In Zeiten von RT und Auflösungen von 4K + bald neuen Nexgen-Spielen zzgl. neuer Engines wie UE5 ? Zudem ging meine Kernaussage nicht den 30fps, sondern war ein Beispiel für den Inputlag. Zumal ich wissen will, wie weit DLSS3 mit VRR funktionieren soll?
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Das kann passieren, daher bin ich gespannt wie das genau bei bsp. Cyberpunk sich dann anfühlt.
Die Latenz wurde ja schon erwähnt. darauf geht vieles wegen dem I/O zurück.
Andererseits, ein OLED bsp. hat 10x schnellere Schaltzeiten als LCD.
Allgemein LCD hat einen großen Einfluss und da wird manch einer eventuell noch eher eine Baustelle haben als bei der Grafikkarte.
Das Potential ist jedenfalls da.
Der Inputlag hängt von vielen Faktoren ab und sollte nicht direkt mit der Frametime gleichgesetzt werden.
Auch ein Spiel mit 60fps hat nicht 16.6ms Inputlag, sondern je nach Engine/ Spiel/ Einstellung/ Bildschirm und Zeitpunkt des Tastendrucks 10, 40/ 80ms oder sonstwelchen inputlag.
Der Bildschirm hat zwar seinen Anteil, aber selbst bei guten tvs im Gamemode sind es bei 120hz nur noch ca. 6ms, bei 60hz dann ca. 12.
 
  • Gefällt mir
Reaktionen: AntiPriester
Suspektan schrieb:
Der Inputlag hängt von vielen Faktoren ab und sollte nicht direkt mit der Frametime gleichgesetzt werden.
Auch ein Spiel mit 60fps hat nicht 16.6ms Inputlag, sondern je nach Engine/ Spiel/ Einstellung/ Bildschirm und Zeitpunkt des Tastendrucks 10, 40/ 80ms oder sonstwelchen inputlag.
Der Bildschirm hat zwar seinen Anteil, aber selbst bei guten tvs im Gamemode sind es bei 120hz nur noch ca. 6ms, bei 60hz dann ca. 12.
Was glaubst du warum die Mehrzahl in hohen Frames spielt?? Genau deswegen, weil man den Inputlag von den anderen Verursachern kompensieren muss!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper
Wie ist das jetzt mit DLSS3 und dem Inputlag nochmal genau? Sind die Zahlen aus CP2077 jetzt DLSS2 mit Reflex gegen DLSS3 mit Reflex oder DLSS2 ohne Reflex gegen DLSS3 mit Reflex. Das kommt irgendwie nicht eindeutig genug raus und ich ahne Schlechtes. Frage für einen Freund...
 
  • Gefällt mir
Reaktionen: BGnom, AntiPriester, II n II d II und 3 andere
Hat man beim Input-Lag mit Fake-Frames jetzt tatsächlich den alten Weg OHNE Reflex mit dem neuen MIT Reflex verglichen?
Warum sollte man ohne DLSS 3 auf Reflex verzichten?

OK @Illithide war wohl schneller...
 
  • Gefällt mir
Reaktionen: BGnom, Domingo2010, FeelsGoodManJPG und 3 andere
Sehr interessante Innovationen, die nVidia sich da ausgedacht hat. Vielen Dank @Wolfgang für die relativ leicht verständlichen Erläuterungen auch für Eumel wie mich, die keinen engineering background haben :D .

Ich bin auf die Praxistests gespannt, denn noch ist das ja alles graue Theorie. Es hört sich aber alles sehr, sehr gut an (bis auf den leidigen Preis, vor allem in der Eurozone ;) ... als Amerikanski würde ich die RTX 4090 für $1599 sofort kaufen).
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben