Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 4090 & RTX 4080: Details zu GPU und TGP der ersten drei GeForce RTX 4000
Beide GeForce RTX 4080 würden sich allerdings nicht nur beim Speicherausbau, sondern auch bei der GPU unterscheiden.
Die größere GeForce RTX 4080 mit 16 GB Grafikspeicher soll auf dem AD103-300 mit 76 Compute Units basieren und ein 256 Bit breites Speicherinterface nutzen, die kleinere GeForce RTX 4080 mit 12 GB auf den AD104-400 mit 60 Compute Units respektive Streaming-Prozessoren an einem nur 192 Bit breiten Speicherinterface hängen.
Das ist doch nichts neues. In der noch aktuellen Generation gibt es das bei der RTX 3080, davor gab es das bei der RTX 2060 und davor wiederum bei der GTX 1060 und GTX 1050.
Die 4080 Modelle lesen sich extrem meh. Von der 3080 (Ti) / 3090 auf ne 4080 zu wechseln, egal ob 12 oder 16GB wird wenig bis gar keinen Sinn machen.
Das wird die selbe Situation wie damals bei 1080Ti auf 2080 (Ti).
Die 4090 dagegen hört sich nach nem ordentlichen Sprung an, wird preislich aber sicherlich in den 2000er Gefilden rumwabern.
Bleibt zu hoffen das sich das Crypto mining mit GPUs mit der heutigen Ethereum Umstellung größtenteils erledigen wird und Grakas wieder den normalen Preisverlauf nehmen werden, ergo Preise sinken im laufe der Zeit.
Ist das jetzt gut oder schlecht aus RDNA3 Sicht? Wenn sich NV solche Abstufungen erlauben kann ahne ich nix Gutes und für höhere Preise bei 3xxx dürfte es auch sorgen. Gut für User solcher Karten ,schlecht für Neukäufer.
Schon komisch, dass die 4090 nur 450W verbrauch soll, wo sie doch den gleichen Takt wie die 4080 schaffen soll aber mit 68% mehr Shadern. Der Verbrauch ist nur knapp 30% höher. Speicherinterface ist auch 50% breiter.
Edit: Oder man könnte auch sagen: Die 350W der 4080 sind erstaunlich hoch dafür, dass der AD103 so viel schmaler ausfällt als der AD102.
Zwischen 4090 und 4080 besteht ein immenser Hardwareunterschied:
Cuda-Kerne16384 zu 9728.
Ob sich die 4080 damit besonders weit von der 3090 Ti absetzen kann, bleibt abzuwarten.
Da kommt sicherlich später eine 4080 Ti mit AD 102 und abgespeckten CUDA-Kernen.
Ich finde es beachtlich wie groß der Abstand zwischen der 4090 und der 4080 16GB ist. Das dann sogar alleine von den Werten die 4080 12GB doppelt in eine 4090 reinpasst, ist erschreckend. Das dann 4080 12Gb zu nennen obwohl es Galaxien von der Performance zur 4090 sind, ist Kundenverarsche.
Also falls das alles so kommt dann freu ich mich darauf endlich meine 1060 6GB in Rente zu schicken.
ne 4090 wäre overkill und mir wohl auch zu teuer, aber die 4080 mit 16GB VRAM klingt schon sehr verlockend
Früher hat man abgespeckte Variante LE oder GS genannt. Dann könnte Nvidia die eben 4800 LE nennen. Oder 4850 und 4820! Mit dem Labeling und dem Abspecken bei der 30er-Serie versucht Nvidia das Preisniveau zu halten bzw. einen Absturz zu dämpfen. Die haben wohl gigantische Bestände und wollen sich nicht selbst kannibalisieren.
Der Verbrauch ist jenseits von Gut und Böse! Ergo Brechstange. Hier könnte die Stunde von AMD schlagen, wenn die einen Leistungssprung schaffen, effizient bleiben und eine gute Verfügbarkeit gewährleisten können.
Ich finde es beachtlich wie groß der Abstand zwischen der 4090 und der 4080 16GB ist. Das dann sogar alleine von den Werten die 4080 12GB doppelt in eine 4090 reinpasst, ist erschreckend. Das dann 4080 12Gb zu nennen obwohl es Galaxien von der Performance zur 4090 sind, ist Kundenverarsche.
Heißt, es kommt sehr wahrscheinlich noch eine 4080TI, die dann den „sweetspot“ - wenn man davon überhaupt noch sprechen kann - darstellen dürfte. Und die, die es eilig haben melkt man vorher mit der 4090. Also eigentlich alles wie immer.
Und auch an @dermatu falls das wirklich so stimmt. Ich glaube die 4080/12g wird wohl die 4070 sein dann ist da noch genug platz für die 4080ti und 4090.
Eine 4080 Ti wäre damit ja quasi sicher und 2 normale, aber völlig unterschiedliche 4080er ein schlechter Scherz.
Aus der eigentlichen 4060 macht man dann gleich eine 4070, natürlich weiterhin 8 GB und vermarktet das dann so, dass die 4070 ja nicht teurer geworden ist im Vergleich zu ihrem Vorgänger.