News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

Eli0t schrieb:
Eine richtige RT Karte sollte das immer mit mindestens 120fps schaffen. Da dem nicht so ist, sind das alles Krücken.

Wann gab es je Grafikkarten, bei denen man einfach die Details bei zu ihrer Zeit aktuellen AAA-Spielen auf Anschlag drehen konnte, und trotzdem noch 120 fps bekam ?

120+ fps waren immer grafisch genügsamen Multiplayerspielen oder älteren Titeln vorbehalten. Bei Half-Life 2 in 1600x1200 schaffte eine zu der Zeit brandneue 400€-Grafikkarte gerade mal 40 fps.

Nebenbei hat sich das "mindestens" seit Adaptive Sync sowieso erledigt - 110 statt 120 fps auf einem 120 Hz-Monitor sehen nicht mehr nennenswert schlechter aus, womit das mit der Mindestframerate zu einer unnötigen Luxusforderung geworden ist.
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Laphonso und K3ks
wie gut sind die karten direkt von nvidia im vergleich zu customs? kühlung, leistung, lautstärke. wird sehr wahrscheinlich zum start nur bei nvidia verfügbar sein?
 
Eli0t schrieb:
Du wirst mir doch jetzt nicht erklären wollen, daß das bei Gamerkarten nur 20% wären... 26 Milliarden Umsatz bei 14,8 Milliarden Gewinn und TSMC ist soooooo böse.
Doch ist es und öffentlich für jeden einsehbar. Der überwiegende Großteil des Gewinns kommt von Datacenter.
Nur du bist nicht in der Lage Quartalszahlen zu lesen und ziehst dich lieber an Verschwörungstheorien hoch.

https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2025

Umsatz Datacenter: 22,6 milliarden USD.
Umsatz Gaming: 2,6 milliarden USD.

Faktor ~9 Unterschied. Gamerkarten machen also nur 11% des Umsatzes aus und da die Gewinnmarge bei sowas wie der H100 wesentlich größer ist als bei allen RTX Karten, wird der Gewinn bei Datacenter verhältnismäßig noch weitaus größer sein.
 
Zuletzt bearbeitet:
@k0ntr: Was Partnerkarten angeht werden wir wohl die Wochen und Monate erfahren...
JMP $FCE2 schrieb:
Mit SSDs eine der besten Entwicklungen der "letzten" Jahre. :daumen:
Ok, Mehrkerner und schnelles Internet per Kabel und "Funk" waren auch nicht schlecht.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und JMP $FCE2
jotka24 schrieb:
...aber lokal ausgeführte KI-Modelle für KI-Texturengenerierung in Echtzeit oder Sprachmodelle für NPCs in RGPs laufen leider nicht auf 12GB VRAM (oder nur mit KI-Minimalmodellen), während das Spiel im VRAM mitläuft....
Das gibt es schon in Spielen? :cool_alt:
 
Schon 2020 hatte AMD mit der 6800 eine Mittelklasse GPU mit 16GB RAM, Ngreedia im Jahre 2025 enttäuscht erneut mit nur 12GB, was ich persönlich als zu wenig empfinde schon bei 1440p, gerade für die kommenden Jahre. Die Gier kennt keine Grenzen, unfassbar beschnittene Grafikkarten zu wahrscheinlich erneut unerhörten Preisen, aber die Leute kaufen das Zeug doch wieder.
Ne, danke. Ich bleibe noch bei meiner alten AMD Karte und hole mir wahrscheinlich die 8800XT..
 
Simanova schrieb:
Die Speichermengen stören mich gar nicht. Problematisch sind nur die Bezeichnung der Karten.
Würde man RTX 5060 (12GB) und RTX 5070 (16GB) dran schreiben, wäre es besser.

Dann hätte man eine einheitliche Bezeichnung, an der man sich orientieren kann, das wäre in der Tat besser.
 
das ist doch Marketing, damit man gleich zur viel teureren 5080 greift.

Nvidia 🫣
 
  • Gefällt mir
Reaktionen: Moritz Velten
Was halt so wie bei den anderen Gerüchten keinen Sinn ergibt:

AD104 7680 Shader (4070S hat 7168 Aktive)
GB205 6400 Shader

Teils wird die Anzahl der Einheiten im Vollausbau, teils von tatsächlichen möglichen Produkten genannt
 
BmwM3Michi schrieb:
Die Geforce RTX 5090, Geforce RTX 5080 und Geforce RTX 5070 sollen im Januar 2025 zu "Wahnsinnspreisen" an den Start gehen!

1.) 1.999 bis 2.499 US-Dollar für die Geforce RTX 5090 mit 32 GiB
2.) 1.199 bis 1.499 US-Dollar für die Geforce RTX 5080 mit 16 GiB
3.) 599 bis 699 US-Dollar für die Geforce RTX 5070 mit 12 GiB

https://www.pcgameshardware.de/Graf...ws/Geforce-RTX-5090-5080-5070-Preise-1457343/

Ganz ehrlich, auf den Mist, den PCGH so (weiter)postet, brauchst du nicht viel geben. Ja, diese Preisspannen für RTX 5090 und RTX 5080 treffen am Ende vielleicht zu, aber die Spannen sind halt auch relativ groß, die Trefferchance damit auch, zumal man das Pricing der Vorgänger ja auch als Basis hernehmen kann. Dafür braucht es keine Leaker, das kann auch ein Affe richtig prognostizieren.

Die Lücke zwischen 5070 und 5080 wäre ebenfalls logisch, da hätte dann gut noch ein Ti-Modell Platz. Also alles nichts, was nicht jeder Eumel hier hätte zusammentippen können und das schon vor Monaten. Ich kann die Politik der PCGH, jeden Mist wiederzugeben, wirklich gar nicht leiden. Das ist einfach extrem unprofessionell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Corpus Delicti und RogueSix
Schöner Kommentar im guru3d Forum, so sieht min max des Profits aus, der Kunde kriegt jede Generation ein immer schlechteres Produkt im Vergleich.

Only 26% of ALU of 5090. This is 5050 rebagged as 5070.

3070 had 56% of 3090 (55% of latter 3090 Ti)
2070 had 50% of Titan
1070 had 54% of Titan (50% of latter Titan Xp)
970 had 54% of Titan
770 had 57% of Titan
670 had 88% of 680
570 had 94% of 580
470 had 93% of 480

4070 is only 36% of 4090.

950 had 25% of Titan X
650 had 25% of 680

So 70 series migrating to low end, yet the price went up by over 70%.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, Haaase, K3ks und eine weitere Person
k0ntr schrieb:
wie gut sind die karten direkt von nvidia im vergleich zu customs? kühlung, leistung, lautstärke. wird sehr wahrscheinlich zum start nur bei nvidia verfügbar sein?
würde sagen mittlerweile gutes Mittelfeld, je nach Modell.

Nur mal random die 4080 Founders rausgepickt und igor's Test: https://www.igorslab.de/nvidia-gefo...als-gedacht-und-sparsamer-als-befuerchtet/12/
unter Last bleibend ie Lüfter bei 1250-1300 rpm. Während die GPU-Temperatur bei 60°C bleibt.

Die 4080 Super beim CB-Test: https://www.computerbase.de/2024-01...eview-test/4/#abschnitt_lautstaerke__kuehlung
1400 rpm hier, aber dafür überraschend hohe dB als subjektive Lautstärke.
67°C bei der GPU, 74°C als Hot Spot sind aber ziemlich solide werte.

Die Foudners/Stock-Modelle früher waren dagegen schon eher Kernschrott mit teilweise 3000 rpm Lüfterdrehzahl und/oder Drosselung ab Werk (GTX 1080 Founders damals z.B. hatte mit 180w Probleme, ab Werk konnte sie den Takt nicht halten, weil 83°C GPU-Temperatur, und damit Taktdrosselung).
 
kotz :D
 
Jubei-K schrieb:
Schon 2020 hatte AMD mit der 6800 eine Mittelklasse GPU mit 16GB RAM, Ngreedia im Jahre 2025 enttäuscht erneut mit nur 12GB, was ich persönlich als zu wenig empfinde schon bei 1440p, gerade für die kommenden Jahre. Die Gier kennt keine Grenzen, unfassbar beschnittene Grafikkarten zu wahrscheinlich erneut unerhörten Preisen, aber die Leute kaufen das Zeug doch wieder.
Ne, danke. Ich bleibe noch bei meiner alten AMD Karte und hole mir wahrscheinlich die 8800XT..

Dir ist schon klar, dass das mit der Speicherkonfiguration alles Mutmaßungen sind?

Wenn die 5080 auch „nur“ 16GB bekommen sollte, bleibt die 4090 wenigstens auf dem Gebrauchtmarkt interessant 😏
 
dec7 schrieb:
Schöner Kommentar im guru3d Forum, so sieht min max des Profits aus, der Kunde kriegt jede Generation ein immer schlechteres Produkt im Vergleich.
jupp sieht man auch das die 4070 eigentlich nur ne 4060 ist usw. sogar die 70ti nurt ne 60 ti max. aber 900€ :lol:

nvidia verdient dermaßen viel geld pro karte lol
 
gestern hat unser lieber MLID wieder eine raus gelassen
rtx5070 599-699$
rtx5080 1199$-1499$
rtx5090 1999$-2499$

nun auch wenn ich die arch gleich lasse bei mehr Takt 3,1ghz sind theoretisch drin in n4x node ist das sogar eine Preiserhöhung gegenüber ada
50sm 3,1ghz *128/88fp32 *2=39,6/27,3tf am ende +20% für 599$ vs aktuell 489$
Das ist 1-1 im preis ersetzt vs einer rtx4070 super nur + -0 bei 599$ vs 529$

Was ich glaube ist das nvidia ein software feature als Kaufargument bringt dlss4 das auf treiberebene bei allen spielen immer aktiv ist und die perf. Steigerung bringen soll.
Wenn das Zutrifft muss die presse dagegen sturm laufen.
Denkbar wäre das damit min 25% perf gewonnen wird ohne das es ein spiel integriert hat.
Ich denke zwar immer noch das man die Sm Struktur geändert hat und mehr alu fp32 rechnen der Takt aber hinterherhinkt ist leider nicht anders möglich.
Womit dann 50sm bei 2,37ghz 250w tbp grob dieselbe perf hätte wie mit dem ada design und 56sm
zwar ginge mit samsung in die vollen geht bis zu 2,5ghz dann aber wird es unschön stromdurstig. +- 300w für die gleich perf wie mit ad104 60sm

Daher halte ich dieses Gerücht über die preise unrealistisch wenn die 50sm stimmen wenn es aber statt rtx5070 es die rtx5060ti wird dann wird eher ein schuh daraus.
Dennoch ist der samsung sf4 node bei 50sm grob um die 235w bei etwa 2,37ghz
ich gehe aber eher davon aus das man den gb205 der physisch 72sm hat auf 60sm noch gute yields hat und das dann die rtx5070 wird mit dann grob 280w tbp grob die rtx4070ti perf erreicht.
theoretisch sind 64sm drin und wären auch angebracht vs amd rdna4 rx8800xtx 64cu

Ein gb205 mit 42sm (3 gpc a14sm aktiv) wäre als rtx5060 12gb nahezu ideal 200w tbp grob rtx4070 perf für 429€

aber nvidia will einfach nicht chips Abschreiben wie man anhand vom ampere und ada aktuell sieht.
Die preise bleiben viel zu hoch.
Darum gibt es den gb205 mit 36sm 10gb und den vollen gb206 36sm mit nur 12gb beide kommen.
36*2,37*2*104=17,7tf sofern das die samsung node zulässt woran zu zweifeln ist.
Das gute diese sku haben ne maxed tbp von 170w bedingt aber gddr7 24gbit
und wird vor q2 2025 nicht kommen die 12gb sku sogar erst q4 2025
12gb sind schon eng 10gb vram gehen gar nicht

Die Zukunft ist düster für uns Spar Gamer die nicht gewillt sind 330w tbp und über 1000€ fürn dgpu auszugeben den das wird es ab der rtx60 gen so sein.
Daher muss die nächste dgpu bei mir die ps5 pro perf. haben (+-20tf) ideal wäre da nvidia ne sku mit 42sm 160bit und 15gb 180w tbp geben würde.
ich würde auch zur amd rdbna4 mit 48cu greifen grob gleiche perf wie die nvidia mit 42sm
Da aber amd konsequent 56cu und 64cu bringt und darunter den n44 ans maximum oc 3,1ghz mit 32cu hängt man da meilenweit weg davon. Dafür passen die preise.

rx8800xtx 16gb 599€ (rx7900xt lvl) dxr +60% +- rtx4070 super lvl
rx8800xt 16gb 549€ (rx7900gre lvl) +- rtx4070 dxr lvl
rx8700xt 16gb 449€ (rx7700xt lvl) (rtx3060ti dxr lvl)
rx8600xt 12gb 399€ (rx6750xt lvl) (rtx4060 dxr lvl)
 
so macht Lederjacke Kohle. Die 5070 mit 12 die 80 mit 16, extra wenig Speicher und die 90 mit 32, damit jeder gleich zur 90 zu greift.
 
Zurück
Oben