Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtNvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions
295 mm², 192 Bit.... vor 10 Jahren gab es bei Nvidia die GTX 660Ti mit ziemlich genau exakt den gleichen Daten Selbst eine GTX550Ti war nur minimal kleiner und hatte auch 192 Bit. Heute ist es eine der teuersten 80er Karten. Schon traurig, was man an Hardware zu dem Preis bekommt.
Und ja schon klar, die Fertigung bei TSMC ist teurer geworden. Aber der Die ist so winzig, dass die Yields sehr hoch sind. Und der Die ist so viel kleiner geworden, dass an selbst bei den gestiegenen Fertigungskosten jetzt um einiges mehr Gewinn pro Wafer machen wird.
Das die kleinste RTX40er Karte 1100€ kostet, könnten viele noch verschmerzen. Aber der Chip ist einfach lächerlich von den Specs. Aber Nvidia möchte wahrscheinlich hauptsächlich 4090er Karten und die ganzen Restbestände von Ampere verkaufen und nicht viele 4080er Karten.
Das kannst du dann hier im Forum 100 mal in jedem Thread behaupten, AMDs Marketing Abteilung wird das zu ihren Gunsten ausschlachten und darum ging es vor allem in meiner ursprünglichen Aussage. Nvidia hat hier der Konkurrenz eine Steilvorlage geliefert nur um ein paar Cent zu sparen?
Ist doch super. Dann können sich ja jetzt die Massen an Gamern, die zwingend DP 2.0 brauchen, eine AMD-Karte kaufen und es tut sich mal etwas bei den Marktanteilsverhältnissen. Finde ich gut und stört mich nicht. Vor allem, wenn dabei als angenehmer Nebeneffekt günstigere nVidia-Preise bei herauskommen, wäre das win-win .
Was mich an der Geschichte am meisten wundert, es gibt scheinbar bei keiner dieser Karten eine Zweitverwertung für teildefekte Chips! Landen die "guten" wieder so wie früher in professionellen Lösungen und ist das bereits die Zweitverwertung? Wird man später "Li" Karten nachschieben? Geht Nvidia von überragenden Yields aus?
Fast könnte man denken, dass hinter AD102-4 der gleiche Chips mit unterschiedlichen Namen steckt, aber auch das wäre mehr als seltsam.
Stand nicht bei der news zur neuen quadro, dass dort der Vollausbau benutzt wird?
Also für eine 320bit 20GB vram 4080Ti wäre auf jeden Fall noch Platz.
Bei den anderen Karten des Lineups kann ich mir später nur eine leichte Takterhöhung und entsprechend eine super Variante vorstellen.
Ich mein, dass die Core-Lücke zwischen RTX 4090 und 4080 extrem riesig ist sieht man ja sofort, da passen im Ampere-Stil noch 4 Karten zwischen, wie wäre es mit: 4080 Super 12GB/16GB und 4080 Ti 16GB/24GB (alle natürlich mit unterschiedlicher Speicheranbindung!)?
Was mich wirklich stört ist gar nicht die riesige Core/Performancelücke, sondern die Tatsache, dass keine Karte ein besseres P/L-Verhältnis bietet als die RTX 4090 und dazu das extrem perfide Marketing um DLSS 3.0 (MIT PERFORMANCE SETTING LOL) und RT (was nach wie vor selten und kaum sinnvoll eingesetzt wird).
100% Leistung für 100% Preis
75% Leistung für 75% Preis
50% Leistung für 50% Preis
ist irgendwie wenig attraktiv, vor allem wenn sich ALLE Preise sowieso weit außerhalb des Mainstreams bewegen, was mich extrem ankotzt - als Schüler/Student waren 8800GT/560Ti und co. schon schwierig zu bezahlen, wie die heutige Jugend min. 1100€ nur für die GPU locker machen soll ist mir ein Rätsel.
Und das sage ich als 4090-Kunde (falls ich eine bekomme) - denn ein schrumpfender PC-Gaming-Markt ist auch für mich schlecht (schlechtere Ports, weniger Ports, höhere Preise - siehe z.B. Forspoken/FFVIIRemake).
Online Gaming mit 30ms Ping fühlt sich ja auch gut an, obwohl 30 ms dazukommen, von 60 FPS auf 30 kommen nur 17ms dazu. Also müsste sich rein vom Inputlag her ein Singleplayer game mit 30 FPS responsiver als ein Multiplayer mit 60 FPS anfühlen, tut es aber nicht
Eigene Maus- und Tastatureingaben gehen bei Onlinespielen direkt zur Grafikengine, den Umweg übers Internet nehmen nur Trefferrückmeldungen, Kollisionen mit anderen Playern, und andere serverseitig berechnete Reaktionen.
Der Lag durch niedrige Frameraten betrifft dagegen auch direkte Reaktionen auf eigene Eingaben.
als Schüler/Student waren 8800GT/560Ti und co. schon schwierig zu bezahlen, wie die heutige Jugend min. 1100€ nur für die GPU locker machen soll ist mir ein Rätsel.
Kids, die mit 1.500 EUR iPhone rumlaufen, D&G Gürtel, Gucci Jacke und Co. können sich auch 2.000 EUR teure Grafikkarten kaufen – auf Pump, Klarna oder Kreditkarte von Mami/Papi.
Mir ist vollkommen schleierhaft weshalb die 4080 16GB und 12GB Variante im Prinzip zwei völlig unterschiedliche Karten sind, was soll das? Ist doch Kunden-Verdummung sowas.
Kann mir jemand mit dem notwendigen technischen Fachwissen erklären, warum der L2-Cache derart angestiegen ist? Scheint mir eine außergewöhnlich hohe Steigerung von einer Generation zur nächsten zu sein.
Kann mir jemand mit dem notwendigen technischen Fachwissen erklären, warum der L2-Cache derart angestiegen ist? Scheint mir eine außergewöhnlich hohe Steigerung von einer Generation zur nächsten zu sein.
Online Gaming mit 30ms Ping fühlt sich ja auch gut an, obwohl 30 ms dazukommen, von 60 FPS auf 30 kommen nur 17ms dazu. Also müsste sich rein vom Inputlag her ein Singleplayer game mit 30 FPS responsiver als ein Multiplayer mit 60 FPS anfühlen, tut es aber nicht, das Gefühl hängt halt irgendwo auch mit der Flüssigkeit zusammen, und Onlinegames berechnen natürlich auch Sachen lokal damit man die 30ms nicht fühlt. Ist also kein guter Vergleich sondern eher als Gedankenexperiment gedacht
Zum onlinegaming selbst kann ich nichts beitragen, aber ich weiß beispielsweise aus Erfahrung, dass 30fps auf einem oled sich extrem verzögert schon eher wie 20fps anfühlen.
technisch kann ich es auch nicht begründen, da oled das Bild ja z.B. sehr zügig aufbaut, nur vollzieht sich der Bildwechsel dank der kurzen Pixelschaltzeiten sehr abrupt ohne jegliches Verschmieren.
Und dazu noch ein kleiner Hinweis:
Samsung Tvs bieten ja eine Zwischenbildberechnung mit möglichst geringem Inputlag im Gamemode, so kann man beispielsweise auch 30fps Spiele auf 60 (fake)frames hochrechnen lassen, was einige als merklich geschmeidiger empfinden.
Die Frame Interpolation addiert aber ja sogar (geringen ) Inputlag hinzu, also sollte es sich eher träger steuern, berichtet wird eher das Gegenteil.
Daher denke ich wie du, dass der Inputlag alleine nicht mal unbedingt über die gefühlte Responsiveness (wie nennt sich das in Deutsch? Reaktionsfreudigkeit?) entscheidet.
Ergänzung ()
LamaMitHut schrieb:
4080 16GB müsste eigentlich schon 4070 genannt werden
4080 12GB eher 4060 TI
Zmdst. hätte man die 4080 12gb 4070ti nennen können, ich verstehe auch nvidia Absicht dahinter nicht, da gerade im angesprochenen Enthusiastenbereich die Informierten Käufer zu erwarten sind.
Es fällt doch unpassend auf, wenn man nun zwei Gpus mit verschiedenen Chips die selbe Klasenbezeichhnung verpasst, wem tut man denn damit einen Gefallen?
Wirkt auf mich jedenfalls recht hingequält
Mir ist vollkommen schleierhaft weshalb die 4080 16GB und 12GB Variante im Prinzip zwei völlig unterschiedliche Karten sind, was soll das? Ist doch Kunden-Verdummung sowas.