News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

PS828 schrieb:
Das jetzt aber mit 1:3 fake frames aufzuwiegen was die Latenz nochmal erhöht und sich dann wirklich wie 30 fps anfühlen obwohl 200+ auf dem Monitor stehen ist halt eine wirklich düstere Zukunft.

Das stimmt doch so nicht. Ich hab schon vieles mit FG gespielt. Nicht für jedes Spiel optimal (Shooter), aber Witcher 3 funktioniert z.B. perfekt. Dort ist mir auch die leichte Latenz egal. Fühlt sich an wie V-Sync früher. Dass sich das wie 30fps anfühlt, entspricht schlicht nicht den Tatsachen. Latenz und flüssiges Bild sind zwei verschiedene Paar Schuhe.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Das dauert noch!

2-3 Stunden :D
 
  • Gefällt mir
Reaktionen: Quidproquo77, PrimeskyLP und Holgmann75
DevPandi schrieb:
Nein, mit der Nähe zum Monitor hat das nichts zu tun. Das Problem kommt bei mir eher daher, dass ich bei FG unterbewusst auf gewisse Artefakte reagiere. Ist in dem Fall auf meine Hypersensibilität zurückzuführen.
Und wieso hast du das ohne FG nicht? Artefakte treten auch so auf und ich hab ehrlich gesagt noch nie welche bei FG wahrgenommen.
 
Kraeuterbutter schrieb:
wenn die Meisten (in Zukunft) DLSS nutzen werden, warum soll es dann so wichtig sein für normale User, dass Raw-Leistungen verglichen werden

das spiegelt dann nicht das wieder, was in der Praxis dann erfahren wird, nämlich: sehr viel mehr Fps
Das mag ja richtig sein, aber es ändert nichts an der Tatsache, das für 30% mehr Rohleistung entsprechende Preise aufgerufen werden, die mit den "AI Frames" korrelieren. Viele Tuber nennen die AI schon "Fake-FPS". Ist an sich auch richtig.

Aber heutzutage lassen sich die Menschen halt gerne täuschen, um sich sicherer zu fühlen.

"Viel mehr FPS". Es wird sich zeigen, wie sich die Qualität der "extra fps" niederschlägt. Wo es Vorteile gibt bei Softwarewerkzeugen, gibt es auch Nachteile.

In einem 60fps Spiel sind mir die FPS egal, in einem (schnellen) Shooter stelle ich mir vor, das schnelle Drehungen etc. nicht so dolle vorkalkuliert werden - woher soll die "AI" (die sagt eh nix vorher, die nimmt nur paar letzte Bilder und macht ne Ahnung was danach kommt) wissen, wohin sich der Spieler bewegt und was die nächste Szene zu bieten hat.

Rohleistung, fps per percentil - Rasterizer, etc. - vlt. noch RT ohne DLSS / FSR.
 
FU_long schrieb:
aber Witcher 3 funktioniert z.B. perfekt
Aus dem selben Grund warum all diese hübschen tech Demos und Features immer bei langsamer Bewegung und ruhigen Umgebungen gezeigt werden.

Bewegt man sich wirklich schnell bzw schmeißt die Maus umher geht das geflacker und geglitsche los. Das hat man dann ewig im Augenwinkel und oftmals auch an den Kanten des Charakters. Von der ständigen Unschärfe hab ich da noch garnicht gesprochen. Bildruhe und Klarheit hat die gaming Industrie komplett verlernt weil man sich mit vorgefertigten Schaufensterlösungen wie diesen zufrieden gibt

Deshalb halte ich von dem Zeug so wie es jetzt aktuell ist Nichts.
 
  • Gefällt mir
Reaktionen: Syrato, PrimeskyLP und HerrRossi
Die Multi Frame Generation Technik finde ich total spannend, allein aus technischer Sicht. Nvidia hat das zugrunde liegende neuronale Netzwerk extra dafür ausgetauscht. Bisher war das ein CNN, wie man es klassisch für das Training bei der Bilderkennung nutzt. Jetzt geht es aber darum, Bewegungen weit (im zeitlichen Sinne) vorauszusagen.

Offtopic: Was mir hier in der Diskussion bisher fehlt, sind noch Sprüche wie "bei mir kommen nur echt gerenderte Frames auf den Bildschirm!" :D Frei nach dem Motto mancher Auto-Verfechter "echter Hubraum ist durch nichts zu ersetzen!" ;)
 
  • Gefällt mir
Reaktionen: Quidproquo77, ElectricStream und Kraeuterbutter
PrimeskyLP schrieb:
Ich bin zwar kein Chip designer aber hätte man da nicht einfach mehr RT Kerne und Cuda Kerne reinpacken können für mehr Leistung?
Einfach ist das eben tatsächlich nicht. Denn je mehr Kerne man reinpackt, umso anspruchsvoller wird es, die auch alle auslasten zu können. Man sieht ja schon, dass zwischen den Modellen der Leistungsunterschied nicht so groß ist wie der Unterschied an Cores, was bei noch größeren Anzahlen nur noch schlimmer wird.

Und wenn man in dieses Skalierungsproblem rein läuft, kann man halt besser noch was anderes mit auf den Chip packen, was auf andere Art die Leistung erhöht (eben die ganzen AI-Einheiten, die man dann mit DLSS für Upscaling/Frame Generation nutzen kann).

FU_long schrieb:
Keine Ahnung, warum sich hier soviele auf die 5090 einschießen. Nvidia sollte sie wirklich wieder anders benennen, sodass sofort klar ist, dass diese Karte nicht auf das FullHD/WQHD/60fps Publikum abzielt.
Sowas nenne ich gerne Deppensteuer. Leute, die sie nur kaufen, weils halt die größte Geforce ist und sie die haben müssen (Ja, es gibt auch Leute, die sich ganz bewusst für diese Performance entscheiden - das finde ich völlig ok, mir gehts nur um die, die einfach aus Prinzip kaufen).
 
  • Gefällt mir
Reaktionen: FU_long
ElliotAlderson schrieb:
Wo soll der herkommen?
Zum Beispiel aus Architekturverbesserungen. Die gab es auch, aber halt nur für AI Workflows sodass diese für den Heimnutzer nicht relevant sind und dennoch mit bezahlt werden während die eigentliche Kernanwendung sehr viel geringer profitiert als es suggeriert wird.

Das ist perse nicht schlimm. Dem muss man sich aber bewusst sein
 
PS828 schrieb:
Bewegt man sich wirklich schnell bzw schmeißt die Maus umher geht das geflacker und geglitsche los. Das hat man dann ewig im Augenwinkel und oftmals auch an den Kanten des Charakters. Von der ständigen Unschärfe hab ich da noch garnicht gesprochen. Bildruhe und Klarheit hat die gaming Industrie komplett verlernt weil man sich mit vorgefertigten Schaufensterlösungen wie diesen zufrieden gibt

Da haben wir dann völlig unterschiedliche Erfahrungen gemacht.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und PS828
PrimeskyLP schrieb:
Ich bin zwar kein Chip designer aber hätte man da nicht einfach mehr RT Kerne und Cuda Kerne reinpacken können für mehr Leistung? AI hin oder her ist zwar nice to have bei Consumer karten aber sowas sollte eigendlich eher bei Profesionellen Karten oder eigen TPU Karten zuhause sein.
Man ist den Schritt mit RT/PT gegangen, weil genau das eben nicht funktioniert. Einfach mehr von allem resultiert zwar weiterhin auch in mehr Leistung, aber das mehr schrumpft immer weiter und wir sind an dem Punkt, wo RT/PT sinniger/effizienter als Raster ist.
 
81 Seiten Neid.
Jeder kann mit einer 4060/4070 oder 5060/5070 gut spielen. Genauso wie man mit einem Mittelklassewagen ans Ziel kommt.
Wenn man mehr will, das Beste will, den Luxus liebt, dann kauft man halt eine 4090/5090, so wie man sich einen Porsche oder Mercedes leistet.

4K? Ist halt noch Luxus und kein Standard. Der Großteil der Spieler nutzt immer noch 1080p, nur langsam wird 1440p zum Standard.
 
  • Gefällt mir
Reaktionen: Couch-Potatoe
PS828 schrieb:
Zum Beispiel aus Architekturverbesserungen. Die gab es auch, aber halt nur für AI Workflows sodass diese für den Heimnutzer nicht relevant sind und dennoch mit bezahlt werden während die eigentliche Kernanwendung sehr viel geringer profitiert als es suggeriert wird.

Das ist perse nicht schlimm. Dem muss man sich aber bewusst sein
Man kann Architekturen aber nicht unendlich verbessern. Blackwell ist mittlerweile die x-te Generation von Nvidia. Irgendwann ist da schlichtweg nichts mehr mit verbessern.
 
ElliotAlderson schrieb:
Ohne AA hast du flickern und flackern aus der Hölle. Mit DLSS flickert/flackert da gar nichts.
In Indiana Jones hast du dann wie gespielt? Mit TAA, dass noch schlimmeres Ghosting und Smearing aufweist? Achso.
Habe bei mir das alles aus weil es mich nicht wirklich stört, und wenn es doch etwas Extrem ist je nach Game mache ich MSAA auch der niedrigsten Stufe an.
ElliotAlderson schrieb:
Irgendwie witzig, dass du über ein Spiel urteilst, das noch gar nicht erschienen ist und das dann als Beispiel dafür aufführst, dass Spiele unoptimiert sind.
Das neue Monster Hunter istn Open World Spiel. Diese Art von Spielen hat schon immer extrem Leistung gefressen und sah dabei nicht gut aus. Das war noch nie anders.
WoW hat Comicgrafik und lief in Raids wie ein Sack Schrauben auf Highend PCs, aber Hauptsache der AMD Fanboy hat mal wieder gegen DLSS geschossen mimimi :(
Warum auch nicht, in den ersten Videos die man gesehen hat sieht es hal einfach nur Mau aus und dafür braucht man dann bei 1080p DLSS zwingen für 60 FPS ????? Wie kann es dan sein das RDR2 so unfassbar gut Ausschaut und selbst noch auf meine GTX 1080 in WQHD bei Mittleren und Hohen settings 60 bis 90 FPS bekomme? Das Game ist einfach 0 Optimiert und die geben es sogar selber zu mit den Specs die man braucht.

Das kannst du dir so schön Reden wie du willst, das macht es aber nicht besser.
 
  • Gefällt mir
Reaktionen: PS828
@ElliotAlderson
Und genau da irrst du dich. Wie immer ist es eine Frage des fokusses und da darf nicht überraschen dass geforce aktuell nur eine sehr untergeordnete rolle spielt.

Fällt bei der AI Forschung was ab was auch spielen zugute kommt schön, aber man darf sich nicht Einbilden dass diese Sachen bei Nvidia aktuell mit prio eins verfolgt werden. Es ist ein absoluter Selbstläufer aktuell in der Branche weshalb man sich anderen Schauplätzen zuwendet welche am meisten von den Änderungen profitieren.

Hättest du das auf die Fertigung bezogen hätte ich dir in Ansätzen zustimmen können aber gerade beim chip Design hat man unbegrenzt Möglichkeiten. Und wenn man doch mal für eine Bauweise an ein Limit stößt.. ja dann baut man eben ein neues Design was diese Limits nicht hat.

Hier lehnte man sich zurück und sagt 20-30% in klassischer Leistungsmetrik genügen. Kann man machen. Aber sollte halt auch bewusst werden dass die magischen riesigen AI getriebenen Zuwächse in der Sekunde auf null fallen indem man sie nicht verwenden kann. Und was dann übrig bleibt ist der Zuwachs beim compute selbst.
 
PrimeskyLP schrieb:
Habe bei mir das alles aus weil es mich nicht wirklich stört, und wenn es doch etwas Extrem ist je nach Game mache ich MSAA auch der niedrigsten Stufe an.
Du beschwerst dich also über flimmern/flackern, aber schaltest sämtliche AA Techniken aus, die dafür sorgen, dass genau das nicht passiert? Muss man nicht verstehen :D
MSAA gibt es in den von dir genannten Spielen nicht. Bei Indi bedeutet aus = TAA und TAA schmiert heftiger als DLSS.
Du widersprichst dir also. Wie hast du eigentlich DLSS mit einer AMD Karte genutzt?

PrimeskyLP schrieb:
Warum auch nicht, in den ersten Videos die man gesehen hat sieht es hal einfach nur Mau aus und dafür braucht man dann bei 1080p DLSS zwingen für 60 FPS ????? Wie kann es dan sein das RDR2 so unfassbar gut Ausschaut und selbst noch auf meine GTX 1080 in WQHD bei Mittleren und Hohen settings 60 bis 90 FPS bekomme? Das Game ist einfach 0 Optimiert und die geben es sogar selber zu mit den Specs die man braucht.
Monster Hunter istn MMO, RDR2 nicht und RDR2 ist recht leer und so geil sieht das heute auch nicht mehr aus. Lief auf meiner 2080 TI mit 40 FPS in 1080p. Wo ist das optimiert?

PS828 schrieb:
Hättest du das auf die Fertigung bezogen hätte ich dir in Ansätzen zustimmen können aber gerade beim chip Design hat man unbegrenzt Möglichkeiten. Und wenn man doch mal für eine Bauweise an ein Limit stößt.. ja dann baut man eben ein neues Design was diese Limits nicht hat.
Falsch. Du hast immer ein Limit: die Physik.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Quidproquo77 und Kraeuterbutter
pacifico schrieb:
Hmmm wo siehst du das bei den 5000er Karten?
Wie ich geschrieben habe, im Verhältnis zur 90er karte.
Die 5090 hat viele shader dazu bekommen, der Rest nicht. -> kleinere Ausbaustufe mit größerem Namen teurer verkauft.
Bei der 3000er Serie war die Hälfte der Shader der 3090 noch eine 3070, jetzt ist es eine 5080 usw.
 
Fighter1993 schrieb:
Hast du meinen Post gelesen?
Durch sein Verhalten und das vieler andere ist das alles ausgelöst worden.

Mein Verhalten hat das nicht ausgelöst, sondern das Verhalten der Grafikkartenhersteller!

Mein Verhalten ist nur die Reaktion, auf den Versuch der Hersteller, sich die QS zu sparen und mir den dabei produzierten Elekrtoschrott anzudrehen.

Könnte auch damit zu tun haben, dass Nvidia den Boardpartner die Margen streitig macht, siehe EVGA und diese halt dafür die QS in den Wind geschossen haben.

Kann ich alles nachvollziehen ist mir nur echt egal, siehe fehlende Gewinnbeteiligung und Ausschüttung an mich.

Du hast eine Sache scheinbar nicht begriffen und ganz viele andere wohl auch noch nicht...

Ich bin König (Kunde) und kein Bittsteller!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PegasusHunter
Zurück
Oben