Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPreise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail
Ich gehe davon aus, dass Nvidia nun einfach FP4 werbewirksam als TOPS angibt. Damit verfälscht sich die KI Leistung um den Faktor 2 beim eigentlich hauptsächlich genutzten INT8.
Bei INT8 hätten wir: 1.321 AI TOPS 4090 gegen 494 AI TOPS bei der 5070. Das klingt doch gleich viel passender.
Wer darauf reinfällt, dem ist eh nicht mehr zu helfen...! Als ob eine 5070 mit gerade mal 12 GB (die dafür sau teuer sind), plötzlich magisch Spiele mit Settings handlen kann, die für die Texturen nun mal mehr Speicher benötigen.
Schön zu sehen, dass die Gamergemeinde schon so gut konditioniert wurde, dass wir diese Preis als „fair“ und „günstiger als erwartet“ hinnehmen.
Nvidia macht ein Release und bieter nix unter 600€ an. Vor ein paar Jahren wäre der Aufschrei riesengroß gewesen.
Nun gut, die Leistungssteigerung ist enorm auch wenn ich das mit 5070=4090 nicht glauben kann- glaub da bin ich nicht der einzige.
Aber stellen wir uns mal vor es wäre so, und 4090
-Leistung wäre das neue „Minimum“
dann könnte Nvidia ja die 4080 oder 4070ti für 350-400 anbieten. Glaube dann wäre viele Menschen glücklich. Träumen wird man ja wohlo noch dürfen 😂😂😂
sieht auf den Bildchen so aus, passt aber nicht denn eine 5080 soll selbes bieten.
5090 hat +30% mehr HW Einheiten und dazu noch +30% mehr SI
das hat die 5080 beides nicht kann also von der Rohrleitung garnicht soviel zulegen wie eine 5090.
Denke spätestens am 29.1 werden die real tests online gehen.
Vorsprung 5090 auf 5080 wird wohl auf +60% ansteigen.
da der Preis der anderen gesunken ist denke ich mal das es da weit weniger Vorteil abseits von DLSS4 geben wird SI und Hardware bleibt ja +/- gleich.
wenn Nvidia dann die 5090 als High end oder eben 5070ti die 250$ aufpreis der 5080 sind es nicht wert denn es bleibt eine Oberklasse Karte nur bissle schneller
Die Frage wieso die so "günstig" wird, ist die eigentlich interessante. Es glaubt doch niemand ernsthaft, dass Nvidia die Dinger aus reiner Nächstenliebe günstiger abgibt als unbedingt nötig.
Interessante Preise und auch interessante AI-Entwicklungen. Grundsätzlich bin ich AI-Gestütztem Rendern im Spiel sehr wohl gesonnen. Wenn´s gefühlt Latenzfrei und ohne qualitative Einbußen integriert ist.
Man sieht an der RTX5090 sehr klar wo die Reise hingeht. Die Karte kann bei Bedarf nativ sehr Leistungsfähig sein. In den meisten Anwendungsfällen wird dies aber aufgrund des Feature-Sets nicht nötig sein. Die rund 3.300 AI TOPS vs. 1.300 zur RTX4090 zeigen warum die Karte sich u.a. (neben PCB-Anpassungen) ein schlankeres Kühldesign bei gleichzeitig höherer möglicher TDP erlauben kann.
Mit dem Line-Up Abwährts (RTX5080>5070>usw.) steigt eben der AI-Anteil was die Leistungsfähigkeit insgesamt anbelangt. Eine RTX5070Ti für schlappe 900€ wäre AI-Gestützt in der Theorie womöglich knapp Leistungsfähiger als eine RTX4090. Damit einhergehend wesentlich sparsamer.
Wenn sich das in Tests so oder so ähnlich widerspiegelt wäre das beachtlich. Wie gesagt, es muss ohne Qualitäts- und Latenz-Einbußen laufen aber da bin ich insgesamt guter Dinge.
Einzig an den Bezeichnungen Zweifel ich ein wenig. Ich wusste im Vorfeld schon nicht so 100%ig genau was Nvidia Reflex eigentlich am System tut und jetzt kommt auch noch fancy FPS WARP hinzu. Nur als ein marginales Beispiel.
Am Ende haste dann aber vermutlich in manchen Games extra Menü-Seiten die sich nur um AI-Geraffel drehen werden mit 20 Optionen inkl. wilde Namen die man recherchieren muss
Die Leistungsaufnahmen sind ja wieder jenseits von gut und böse. Gerade jetzt wo AMD ins Straucheln kommt hätte man mal ein Schritt zurück machen können mit TDP's. Man wäre ja trotzdem noch besser gewesen als 40er Serie. Verrückte Entwicklung meiner Meinung nach.
naja, aber auch alle fachmedien haben die narrative mit dem supersampling weitestgehend ohne kritik übernommen; man kauft gefühlt immer mehr eine wundertüte bei der man immer mehr davon abjängig ist dass games auch die eingesetzte technik (sauber) implementieren...
schon die vergleichbarkeit wird immer schwieriger wenn jetzt auch noch (multi) frame generation in irgendwelche benchmarks einfließt und zum "standard" gekürt wird. die leute hinterfragen garnicht mehr was genau da im hintergrund werkelt und welche effekte es hat - hauptsache die fps zahl und der zugehörige balken ist groß...
Nvidia hat einfach auch nochmal Lust nachzutreten....
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Gut, die Skalierung hatte ich außen vorgelassen, aber auch hier: Wenn 15/16 Pixeln AI sind und 3/4 Frames nicht echt und mit Frame Warp dabei auch der Inputlag mit Schätzwerten beseitigt wird, ist das schon viel Schwarzmagie und viele Möglichkeiten, sich zu verschätzen. Ob sich das jetzt richtig anfühlt oder eher wie der betrunkene Nachhauseweg am Wochenende wird sich zeigen.
Irgendwann sind wir dann statt beim programmierten Spiel dann auch beim Input-String.
Die Frage wieso die so "günstig" wird, ist die eigentlich interessante. Es glaubt doch niemand ernsthaft, dass Nvidia die Dinger aus reiner Nächstenliebe günstiger abgibt als unbedingt nötig.
Auch in einem Monopol kannst Preise nicht beliebig festlegen weil es schlicht keine Käufer dann mehr gibt.
Man ist doch selber schuld wenn man den ganzen Clickbait Videos & Foren Preisträumern hier geglaubt hat, zumindest hat das jetzt endlich mal ein Ende, das war am Ende ja nur mehr lachhaft...