News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

Was ist eigentlich mit den Gerüchten zur 4090 Ti?…brauchen tut sie ja keiner so richtig
 
Ayo34 schrieb:
Du kannst keine Spiele für 32GB entwickeln, wenn 90% der Gamer noch mit 8GB oder weniger rumlaufen. Das ist einfach nicht lukrativ. Alleine deswegen ist man z.B. mit 12-16GB auch noch eine Zeitlang sehr gut bedient.

Das sehe ich anders, denn die RT-RT und RT-PT Entwicklung zeigt klar, dass das geht, auch wenn der Großteil der Spiele und Konsumenten bei der Technik noch nicht angekommen sind (nach Jahren der Einführung im Falle von RT-RT).

Nur muss das natürlich wie in den zuvor genannten Fällen (für RT-PT) bei CDPR (Cyberpunk 2077) und Remedy (Alan Wake 2) geponsort/gegenfinanziert (seitens nVidia) und damit zusammenhängend medial vermarktet werden.

Neue Techstandands werden i.d.R. nach Early Adopter- und Enthusiasten-Käufen langsam für die breite Masse (also die von Dir genannten 90% der Gamer) eine Sache und das muss man wohl fairer Weise anerkennen, auch wenn ich mich mit dieser Elfenbeinturmfraktion im Konsumverhalten und einigen Ansichten (gar) nicht selber identifizieren kann ;).

Es müssen sich zudem genügend Leute finden, die auf das Marketing nVidias anspringen und gewillt sind Luxus-/Flaggschiff-/-Halo-Karten in den ersten Generationen (die das mehr oder weniger gut unterstützen) teuer zu kaufen und das war bei der RTX 2080Ti (für RT-RT) so und wird jetzt bei der RTX (evt. auch PTX) 5090 genauso sein (wobei die RTX 4090 da auch schon ansatzweise mit rein zu rechnen ist als RT-PT Einsteigerkarte).

Natürlich gehöre ich auch nicht zu der Klientel (da ich maximal (i.d.R. untere) Oberklasse kaufe, mir für mehr mein Geld zu schade wäre, zumal es kaum ausgereizt wird) und bin mit 16 GB mehr als zufrieden für die kommenden Jahre (für (U)WQHD und ansatzweise/eingeschränktes 4K/UHD) und springe nicht auf das medial befeuerte Marketing/den Hype an und wähle selber abwägend, was mir wann am sinnvollsten erscheint und auch mit 12 GB dürfte man in Full HD noch Jahre lang gut auskommen (es muss nicht immer 4K/UHD sein, von 5K/UHD oder 8K Gaming "Superlativen" ganz zu schweigen).
 
Zuletzt bearbeitet:
Bevor man wieder auf 512 Bit geht kann man gleich HBM nehmen, die Kosten dürften nicht mehr viel höher sein.
Ergänzung ()

Berlinrider schrieb:
Was ist eigentlich mit den Gerüchten zur 4090 Ti?…brauchen tut sie ja keiner so richtig
Sollte jemals eine 7950XTX oder ähnliches kommen dann könnt sie, aber einfach so glaub ich nicht.
 
  • Gefällt mir
Reaktionen: Ayo34
Berlinrider schrieb:
Frage ist, wo man die positioniert. Die Versuche mit der Titan RTX mit ~600W Budget sind nicht so prall gelaufen :). Da hört man nichts mehr - sieht nach D.O.A. aus.
 
Bügelbernd schrieb:
Das doppelte? Dreifache? Vierfache? Ich glaube nicht.

Ich habe selber eine 4090, MICH stören die Preise nicht. Logischerweise kann ich jeden verstehen der sich daran stört. Ist auch völliger Schwachsinn GPUs immer teurer werden zu lassen, irgendwann kannst du dir dann wirklich ein Einfamilienhaus statt einer GPU kaufen.
Dann kauft man halt seltener neu und dann stimmt das Verhältnis wieder.
 
  • Gefällt mir
Reaktionen: Cempeg
Chismon schrieb:
Das sehe ich anders, denn die RT-RT und RT-PT Entwicklung zeigt klar, dass das geht, auch wenn der Großteil der Spiele und Konsumenten bei der Technik noch nicht angekommen sind (nach Jahren der Einführung im Falle von RT-RT).

Ok, aber das ist dann ein Zusatzfeature, aber auch hier braucht man ja keine 10GB extra. Was kostet Raytracing? 1-2GB mehr VRAM? Mit DLSS verbraucht man wieder etwas weniger RAM. Außerdem ist Raytracing ja uninteressant bei den Einsteiger-Gamingkarten. Da wird weder 4k noch Raytracing bei FullHD verwendet. Wie gesagt, ich kann volle Raytracing Features auf 4k mit 16GB verwenden. Wüsste nicht wie man da auf 32GB kommen sollte.

Für mich ist 32GB und 48GB einzig für AI interessant und dann könnten Spielerhersteller auch theoretisch Features anbieten, die viel RAM benötigen. Ich denke da aber eher an kleine Sprachmodelle, die z.B. 10GB zusätzlich benötigen und wodurch dann Dialoge in Spielen individueller werden könnten.

Dann könnte man mit NPCs über Mic ganz normal reden und man würde eine individuelle und passende Antwort bekommen. Lokal auf dem eigenen PC. Aber hier würde sich wohl auch eher ein Cloud Feature durchsetzen anstelle von 10GB extra VRAM.
 
Das Thema mit den 3GB Chips haben hier wohl viele überlesen. Da kommen echt coole Speichergrößen raus.
 
  • Gefällt mir
Reaktionen: Leereiyuu, konkretor, NerdmitHerz und 5 andere
Vermutlich bleibt die RTX 5000 ganz grundsätzlich für viele erstmal auch nur Fantasie, wenn nvidia sich lieber aufs AI Geschäft konzentriert und Gamingkarten dann nur in homöopathischer Dosis verteilt. Die werden dann wieder bevorzugt von dubiosen Leuten abgegriffen, die die Karten mit saftigem Aufpreis bei ebay verkaufen...
 
floTTes schrieb:
Könnte man denn vielleicht 2GB- und 3GB-Chips mischen? So könnte man aus 4 VRAM-Chips (128Bit/32Bit) nicht nur 8GB sondern auch 10GB oder 12GB machen. Ginge das nicht?
Ginge, aber effektiv ist der zusätzliche Speicher dann nur mit halber Bandbreite angebunden.
Quasi 8 GB voll und die zusätzlichen 2GB nur 64 Bit.
Die Xbox Series X macht das zum Beispiel. Für eine Grafikkarte würde man das nicht machen.

Für 12 GB würde man ja alle Chips mit 3 GB Kapazität wählen.
 
Und mit der RTX5080 Nvidia dann so:
"Best I can do is 16GB für 1600€"
 
  • Gefällt mir
Reaktionen: LadykillerTHG und SweetOhm
Hate01 schrieb:
Bevor man wieder auf 512 Bit geht kann man gleich HBM nehmen, die Kosten dürften nicht mehr viel höher sein.
Es gibt da momentan keine Kapazität. HBM selber und die Packaging Kapazitäten gehen alle für AI drauf. Und die Teile verkaufen sich zu mehr als 10x so hohen Preisen. HBM auf Mainstreamkarten sind momentan nicht möglich.
 
  • Gefällt mir
Reaktionen: konkretor und Ayo34
Ach kommt schon, es richt doch "Turbo Cache" ala GF6200 damals...
 
mae1cum77 schrieb:
Frage ist, wo man die positioniert. Die Versuche mit der Titan RTX mit ~600W Budget sind nicht so prall gelaufen :). Da hört man nichts mehr - sieht nach D.O.A. aus.
Ich denke da wird nichts kommen. Macht einfach für Nvidia wenig Sinn. Rein als Prestigeobjekt braucht man es nicht, da die 4090 eh schon weit vorne liegt. Die Blackwell wird's ja dann eh noch schwerer gut auszusehen. Damit das interessant wird, müsste man also deutlich mehr Geld verlangen. Wird schwierig, da bleiben die Karten vielleicht im Regal liegen oder man handelt man sich sogar noch einen Shitstorm ein. Damit man ordentlich mehr Geld verlangen können kann, müsste das Ding also merklich schneller sein. Also (fast) volle GPU und keinen Kompromisse beim Takt. Dann ist man bei deinen 600 W und hat den nächsten Shitstorm.
Interessant wäre es aber schon. Mit moderatem Takt könnte das Ding recht effizient sein. Voller L2 Cache und mehr Rechenleistung bei niedrigem Takt.
 
  • Gefällt mir
Reaktionen: s1ave77
bensen schrieb:
Mit moderatem Takt könnte das Ding recht effizient sein. Voller L2 Cache und mehr Rechenleistung bei niedrigem Takt.
Wildert dann schon wieder bei den Quadros/Pro-Karten. Daher wohl wirklich unwahrscheinlich - momentan.
 
Es wird nicht mehr RAM geben.
Die Karten wären dann zu interessant für AI Tools und sind dann entweder zu teuer fürs Gaming oder zu günstig um Profi-Lösungen zu rechtfertigen.
 
24 GB sind aktuell noch absolut genug. Mit RTX 6000 wird man dann vielleicht auf 30, 32 oder 36 GB gehen, je nachdem, was zu dem Zeitpunkt sinnvoll sein wird.
  • 10x 2 GB -> 20 GB @ 320 bit
  • 12x 2 GB -> 24 GB @ 384 bit
  • 10x 3 GB -> 30 GB @ 320 bit
  • 16x 2 GB -> 32 GB @ 512 bit
  • 12x 3 GB -> 36 GB @ 384 bit
  • 16x 3 GB -> 48 GB @ 512 bit
  • 12x 4 GB -> 48 GB @ 384 bit

512 bit halte ich tendenziell erstmal noch für unwahrscheinlich, da es relativ viel Platz braucht und aufgrund der Anzahl der Pins recht teurer sein dürfte. 320 bit können durch die höheren Taktraten kompensiert werden, weshalb ein Zwischenschritt zu 30 GB denkbar wäre. Optional könnte es dann ja noch eine Titan mit 36 GB geben. Aber all das sind reine Spekulationen, es kann auch ganz anders kommen.
 
  • Gefällt mir
Reaktionen: Marc53844 und SweetOhm
Die meisten Nutzer bei Steam haben Karten mit 8GB Speicher. Und ja das reicht für die breite Masse eben aus. Ich hab bisher noch kein Spiel gefunden das damit nicht in FullHD läuft. Damit man noch bessere Karten als die 4090 überhaupt benötigt muss man schon 4k Equipment haben. Und das ist definitiv eine kleine Minderheit der Spieler. Dafür explizit zu entwickeln wird nur sehr selten passieren. Man will an der Masse Geld verdienen. Deswegen werde ich Karten wie die 4090 auch nie kaufen. Denn es ist keinesfalls für irgendwas notwendig.
 
Ich will das aber.
 
LikeAnIrish schrieb:
Ich weiß ja nicht was du für Spiele-Entwickler kennst, aber mehr Speicher brauchen eben genau die, die zu faul zum optimieren sind ...
Richtig, den optimieren kostet Zeit und Geld und davon haben Entwickler beides nicht.
 
  • Gefällt mir
Reaktionen: N0Thing und Bügelbernd
Ayo34 schrieb:
Was kostet Raytracing? 1-2GB mehr VRAM? Mit DLSS verbraucht man wieder etwas weniger RAM. Außerdem ist Raytracing ja uninteressant bei den Einsteiger-Gamingkarten. Da wird weder 4k noch Raytracing bei FullHD verwendet. Wie gesagt, ich kann volle Raytracing Features auf 4k mit 16GB verwenden. Wüsste nicht wie man da auf 32GB kommen sollte.

Das ist natürlich spiel-spezifisch und hängt von der Komplexität des implementierten RT-RT ab, aber schon zwischen Full-HD und 4K/UHD hast Du i.d.R. eine ca. 4(+) GB große Kluft bei den angegebenen Systemanforderungen der Entwickler (und dann vermutlich in den meisten Fällen auch im eigentlichen Spiel)
und das dürfte nicht alleine nur auf Texturauflösung entfallen.

Wenn wir das komplexere RT-PT nehmen, ist das schon deutlich mehr (und wir sind bzgl. RT-PT noch lange nicht am Ende der Fahnenstange angelangt bzw. gerade erst bei den Anfängen, auch wenn es zum Teil besser und weniger holprig läuft als damals die ersten "Gehversuche" bei RT-RT (ca. 1/2 Jahr nach RTX Turing GPU-Veröffentlichung in ersten Spielen)).

Ich bin ja auch kein Entwickler, aber wenn die das auf sich und andere in Ihrem Dunstkreis bezogen in Interviews so darstellen (dass es generell bei Spielen schon 32 GB bräuchte beim entwickeln), gibt das leider schon zu denken und A.I. spielte dabei noch keine Rolle (wobei dabei ja evt. auch an speicherentlastende/-optimierende A.I. Features gedacht werden könnte, nur ob das wirklich passiert?).

Nun ja, der Kampf zwischen dGPU vs. NPU für A.I. Anwendungen in Spielen u.a. Bereichen, ist noch nicht ausgefochten, denn klar ist momentan, dass die GPU-Version zwar leistungsfähiger ist, aber auch ein vielfaches von dem einer NPU - die in eine APU oder CPU mit iGPU integiert ist - kosten dürfte und m.M.n. sind Grafikkarten schon voll genug mit Features gepackt und sollten Entwickler (auch hinsichtlich CPU-Mehrkernausnutzung/-optimierung von Engines bspw.) mehr auf die sich eher langweilende CPU auslagern hinsichtlich neuer Features, auch um das Ökosystem insgesamt besser auszubalancieren.

Ich erinnere mich an ein von @Wolfgang gestestetes Spiel mit dem Fazit, dass selbst 16 GB nicht durchgehend flüssiges spielen in höchsten 4K/UHD Settings erlaubt haben und man schon 20 GB dafür brauchte, aber ich weiss nicht mehr, welcher Titel es damals war (evt. fällt auch der hier nicht im Parcours getestete Microsoft Flight Simulator 2020 darunter und der soll ja einen - vermutlich noch leistungshungrigeren - Nachfolger bald/dieses Jahr bekommen).

Auch hinsichtlich des bald nahenden und aktuell schon gehypten Dragon's Dogma 2 bin ich gespannt, welches auf Konsolenhardware gerade einmal so um die 30 fps schaffen soll und wie gut/hardware-fordernd die PC Version werden wird, auch wenn dafür vermutlich mehr als 16 GB auf Grafikkarten nicht einen spürbaren Nutzen bringen dürften.

Ayo34 schrieb:
32GB und 48GB einzig für AI interessant und dann könnten Spielerhersteller auch theoretisch Features anbieten, die viel RAM benötigen. Ich denke da aber eher an kleine Sprachmodelle, die z.B. 10GB zusätzlich benötigen und wodurch dann Dialoge in Spielen individueller werden könnten.

Abwarten, evt. wird das auch ausreichend über NPUs laufen, auch wenn nVidia versucht das aktuell (zusammen mit Ubisoft, wenn ich mich richtig erinnere) in Spielen bzgl. NPCs bei dGPUs zu puschen.

Ich kann mir nicht vorstellen, dass viele Gamer einen massiven Speicheraufpreis (bei nVidia) für solche (anzunehmend proprietäre) Sprachmodellunterstützung (evt. exklusiv nur für Blackwell und nachfolgende nVidia Karten) zahlen werden, zumal da mittlerweile (auch schon bzgl. RT-RT Grafikkartenaufpreis) Grenzen erreicht sind und es viel zu wenig Mehrwert bietet (bei den mittlerweile ausgearteten Grafikkartenpreisen) und RT-PT (evt. schon mit den kommenden Blackwell Karten) noch ein ganzes Stück teurer (wenn dann auch wohl endlich optisch spürbar lohnender/Mehrwert bietender) werden dürfte.

Ich stimme Dir übrigens zu, dass RT-RT schon in Full HD bei Einsteiger- bis Mittelklassekarten kaum etwas bringt (und untergeht wegen zu hoher Leistunganforderungen für die Karten und zu wenig Mehrwert im Spielfluß), aber die RT-RT Fans hier sehen das anders und ein Teil der Medien - die das immer noch hypen oder für unverzichtbar und immer spürbar Mehrwert bietend halten - ebenso (auch wenn die Verkaufszahlen von dGPUs in dem Bereich, der Anteil von RT-RT Spielen - inkl. Spiele des Jahres, die davon bisher eher keinen Gerbrauch gemacht haben - insgesamt, und Rückkehrer, die nach enttäuscher RT-RT Erfahrung Rasterizerleistung immer noch für deutlich relevanter halten da ein anderes Bild zeichnen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: krautla
Zurück
Oben