News GeForce RTX 5090: PCB der FE soll 16 GDDR7-Chips fassen und „dreiteilig“ sein

Vega 64 war aber trotz HBM Speicher ineffizienter als Nvidia mit GDDR zu dieser Zeit.

@Topic:

Technologischer Fortschritt ist immer zu begrüßen, allerdings ahne ich schon, dass der Preis einer kolportierten 32GB Blackwell GPU sich Richtung 3.000 € bewegen könnte. Das wäre mir das PC-Hobby bei aller Liebe mittlerweile nicht mehr wert und ob eine theoretische RTX 5080 viel schneller als eine RTX 4090 sein wird, ist reines Rätselraten. Ich bezweifle aber, dass sich in dem Fall ein Upgrade lohnen wird.
 
  • Gefällt mir
Reaktionen: Romanow363
ThirdLife schrieb:
Vorstellungen herrschen hier... 😂
Was ist denn das für eine Logik? Das eine schließt doch das andere nicht aus :freak:

Noch sinnvoller wäre es wohl, gar nicht erst Grafikkarten für den Enduser zu verkaufen, sondern alle Kapazitäten für AI und Co. zur Verfügung zu stellen :evillol:
 
  • Gefällt mir
Reaktionen: ThirdLife
Also Nvidia würde ich es ja grundsätzlich zutrauen, dass sie 512 Bit machen um das ganze nochmal teurer zu verkaufen.

Aber aus meiner Sicht sprechen drei Dinge dagegen.

1. Braucht Nvidia Kapazitäten für AI
2. 512 Bit wären sehr stromhungrig und ineffizient. Könnte schwer werden, das zu kühlen.
3. Man hat bei AdaLovelace extra die Caches deutlich vergrößert und sogar bei den meisten Karten das Speicherinterface verkleinert. Dass man jetzt den Umgekehrten Weg geht ist wenig plausibel, da das dann auch eine 5080er mit 3xx Bit interface und einige Mittelklasse Karten mit 256 Bit ergeben würde.
Die Mittelklasse würde dann 16 GB bekommen? Bei Nvidia? Das wäre schön, aber da glaub ich nicht dran.
Möglich ist natürlich alles und auch nicht völlig abwegig. Würde dann nur genau dem widersprechen was Nvidia bisher gemacht hat.

Wobei AMD auch wirklich ein Problem hätte, wenn Nvidia beim Speicher gleich ziehen würde. Der Speicher war eines der größeren Argumente für eine AMD Karte. Wenn das wegfallen würde... Puh.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1, Smartbomb, M4deman und 3 andere
@Mimir
Sehe ich ähnlich. Zumal sich der normale Nutzer nicht für die Bitbreite des Speicherinterfaces interessiert, sondern mehr für die Speichermenge. Da es ja mittlerweile 3 GB-Speicherbausteine gibt, hätte ich persönlich 384 bit mit solchen und somit zusammen 36 GB VRAM begrüßt, wobei ich persönlih davon ausgegangen bin, dass man diese Generation noch bei 24 GB bleibt.

Ggf. sind die 512 bit auch für eine "Titan" gedacht. Mit Vollausbau des auf der 5090 zum Einsatz kommenden Chips.
 
ThirdLife schrieb:
Ich halte alles über 24GB und 384 Bit für ein Gerücht. Ohne Not wird hier garnix "verschenkt" seitens nVidia.
Verschenkt wird da gar nichts, natürlich wird die Karte entsprechend kosten. Ich halte 32GB und 512 für sehr wahrscheinlich, nachdem es da nun länger nichts Größeres gab.
 
Mimir schrieb:
2. 512 Bit wären sehr stromhungrig und ineffizient. Könnte schwer werden, das zu kühlen.
Sehe ich nicht so. Da 384 sehr einfach zu kühlen sind offenbar und jede Menge Reserve in der Kühlung der 4090 steckte, wird das eher kein Problem. So viel mehr Abwärme erzeugen 512 nicht im Gegensatz zu 384.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
SaschaHa schrieb:
512 bit? Wäre es in dieser Preisklasse nicht langsam mal Zeit für HBM3?
Jaein, das Problem ist, das HBM3 und später HBM4 ihren primären Vorteil nicht mehr so ganz haben. Sie sind nicht mehr unbedingt effizienter oder platzsparender anzubinden, weil sie einfacher eController haben.
JoeDoe2018 schrieb:
AMD hatte jat mal vor 3 Generationen HBM Speicher drauf und hatten dies auch eine Weile durchgehalten. Aber die Karten wurden einfach zu wenig gekauft und der HBM Speicher ist durch die AI auch sehr stark nach oben gegangen.
Nein, das hat in dem Fall wenig mit "zu wenig gekauft", sondern dass HBM 3 einfach nicht mehr die massiven Vorteile gegenüber GDDR6 hatte und Energieeffizienz sowie Controllerplatz eben nicht mehr viel besser waren.

Dazu kommt eben der Kostennachteil.
 
  • Gefällt mir
Reaktionen: Quidproquo77, NerdmitHerz, SaschaHa und eine weitere Person
@Chilisidian

Gut das ist jetzt Ansichtssache. Ich finde die Kühler der 4080er und 90er gerade so passend, damit man sie auch leise betreiben kann. Ja, die sind viel leistungsfähiger als bei älteren Generationen, aber ich finde das Niveau jetzt gerade passend.
Bei mehr Abwärme würde ich persönlich deutlich größere Kühler haben wollen. Zumindest wenn es sich dann "premium" produkt schimpfen lässt.

1000-1200 rpm bei 400+W ist halt schwierig. Ich habs da lieber leise.
 
  • Gefällt mir
Reaktionen: Tornavida
Cabranium schrieb:
Ob sie wirklich 32 GB Ram machen? Einfach weil sie es können… nicht weil es gebraucht wird.
Eher "Weil es Leute kaufen"

Ich seh ja bei meiner 4090 wie oft sie die 24GB braucht. Da hätten auch 16 gereicht. Aber gleich kommen wieder zig Leute mit 500 Mods in irgendwelchen Spielen, oder diesem einen Titel, oder irgend nem Rendering etc. Wofür es halt eigentlich Profikarten geben müsste und z.T. auch gibt. Aber hey ..... Wer sind wir die das beurteilen :D
 
  • Gefällt mir
Reaktionen: bullit1, Sansio, guillome und 5 andere
SaschaHa schrieb:
Noch sinnvoller wäre es wohl, gar nicht erst Grafikkarten für den Enduser zu verkaufen, sondern alle Kapazitäten für AI und Co. zur Verfügung zu stellen :evillol:
Monetär gesehen ? Ja. Ich denke auch nicht dass es eigentlich ein Upgrade bräuchte, AMD hat sich ja erstmal vom Highend verabschiedet, AMD wird nix größeres liefern, da könnte man weiterhin Ada verchecken und wäre immer noch absolut konkurrenzfähig und je nachdem sogar besser.

Äusserst schade aber solange AMD hier nicht den Finger ausm Arsch zieht wird sich an der Situation nix ändern.

Chilisidian schrieb:
Verschenkt wird da gar nichts, natürlich wird die Karte entsprechend kosten. Ich halte 32GB und 512 für sehr wahrscheinlich, nachdem es da nun länger nichts Größeres gab.
Ne. Bleibt wie es ist - gibt ja auch keine neuen Konsolen. Keine neuen Konsolen ? Kein Speicherupgrade. Blackwell wird noch wie bisher kommen behaupte ich, erst mit neuen Konsolen wird sich das ändern.

Ohne echte Not macht hier niemand was. Das ist kein Spec-Race wie bei Smartphones früher wo man nix von hatte sondern hier wird mit schmaler Lippe kalkuliert was das Minimum is das man dir an Chipfläche verkaufen kann um noch gut dazustehen.
 
  • Gefällt mir
Reaktionen: SaschaHa
Von 24 auf 16 GB. Hoffe das ist ein Gerücht und die 5090 bekommt mindestens 24 GB.
 
SaschaHa schrieb:
Was ist denn das für eine Logik? Das eine schließt doch das andere nicht aus :freak:
Doch tut es, da die Packaging Kapazitäten für Cowos nicht ausreichen. Die könnten mehr verkaufen, wenn TSMC mehr liefern könnte. Warum sollte man dann zusätzlich Kapazitäten mit dem GeForce klauen?

SaschaHa schrieb:
Noch sinnvoller wäre es wohl, gar nicht erst Grafikkarten für den Enduser zu verkaufen, sondern alle Kapazitäten für AI und Co. zur Verfügung zu stellen :evillol:
Wenn man nicht auf HBM setzt, klaut man auch keine Kapazität. Also kann man das durchaus parallel bringen. Dein Post ist frei von Logik.
 
  • Gefällt mir
Reaktionen: bullit1, stevefrogs und ThirdLife
Blackvoodoo schrieb:
Von 24 auf 16 GB. Hoffe das ist ein Gerücht und die 5090 bekommt mindestens 24 GB.
Nicht von 16 GB ist die Rede, sondern von 16 32-Bit-Speichercontrollern für ein 512-Bit-Speicherinterface und idealerweise 16 GDDR7-Speicherbausteine. Diese Speicherbausteine können durchaus je 2 GB DRAM umfassen, was letztzlich 32 GB VRAM entspräche und deutlich wahrscheinlicher ist als "nur" 16 GB.
 
  • Gefällt mir
Reaktionen: jotecklen, Slim.Shady, NerdmitHerz und 4 andere
Also einfacher Zocker: Warum nicht 32 GB?
Ich meine ... meine 3090 hatte ja schon 24.

Muss ja irgendwie vorwärtsgehen, oder nicht!? ^^
 
  • Gefällt mir
Reaktionen: homunkulus
Vitche schrieb:
Nicht von 16 GB ist die Rede, sondern von 16 32-Bit-Speichercontrollern für ein 512-Bit-Speicherinterface und idealerweise 16 GDDR7-Speicherbausteine. Diese Speicherbausteine können durchaus je 2 GB DRAM umfassen, was letztzlich 32 GB VRAM entspräche und deutlich wahrscheinlicher ist als "nur" 16 GB.
Das passiert wenn man auf Arbeit einen Text nur mal schnell überfliegt.
Danke das du es erklärt hast.
 
  • Gefällt mir
Reaktionen: Jan und Vitche
ThirdLife schrieb:
Und gebracht hats was ? Garnix - die R7 wurde von der 1080 Ti zersägt in jedem Szenario. Ich halte alles über 24GB und 384 Bit für ein Gerücht. Ohne Not wird hier garnix "verschenkt" seitens nVidia.

Naja, sie brauchen Argumente, um dem geneigten HighEnd Käufer das Geld aus der Tasche zu leiern.

Der Performancezuwachs dürfte bei Blackwell relativ gering sein. Wir bekommen erneut einen 5nm Prozess, der sicherlich leicht optimiert ist gegenüber "4N" und die Blackwell Architektur wird auch ein wenig was reißen, aber wo soll da der große Sprung herkommen, dass Leute Bock kriegen, nochmals €2000+ für das Topmodell hinzulatzen?

Auch an Innovationen wird es mutmaßlich mangeln, da der Fokus voll und ganz auf AI/Datacenter liegt. Also wird nVidia versuchen, uns den Braten mit 512-Bit und VRAM satt schmackhaft zu machen.

Dass das funktioniert, sieht man doch gut hier im Forum. Offenbar waren für viele hier die schmalspurigen 384-Bit und die schlappen 24GB VRAM hart an der Grenze zum "Speicherkrüppel".

Einige scheinen sich von 512-Bit und mehr VRAM offensichtlich Bombastisches zu erhoffen. Was auch immer das sein mag. Aus nVidia's Sicht wird man in einigen Monaten vermutlich nur wieder sagen können: Alles richtig gemacht. Mit Speck fängt man Mäuse und mit 512-Bit plus VRAM die DAUs mit dickem Geldbeutel :D .
 
  • Gefällt mir
Reaktionen: Rock Lee, FrankN84, stevefrogs und eine weitere Person
@Blackvoodoo
16 GB sind ja nur eine hypothetische Möglichkeit mit 512 bit. Realistisch sind 32 GB bei einem solchen Interface, wobei ich auch weiterhin eher an 24 GB und 384 bit glaube. 512 bit und 32 GB möglicherweise für eine Titan.

bensen schrieb:
Die könnten mehr verkaufen, wenn TSMC mehr liefern könnte.
Die Speicher kommen doch von SK Hynix, Samsung und Micron? Anyway, genau das ist ja indirekt mein Punkt: Es wäre wünschenswert, wenn die Fertigungskapazitäten für HBM3 mal ausgebaut werden würden.
 
Mimir schrieb:
Aber aus meiner Sicht sprechen drei Dinge dagegen. ...

+ Nvidia bleibt so oder so weiter vor AMD. Warum den Abstand noch mehr vergrößern? AMD wird ja wahrscheinlich nichts mal auf 4090er Niveau bringen.
 
  • Gefällt mir
Reaktionen: Mimir
Zurück
Oben