News GeForce RTX 5090: PCB der FE soll 16 GDDR7-Chips fassen und „dreiteilig“ sein

bensen schrieb:
Wenn man nicht auf HBM setzt, klaut man auch keine Kapazität. Also kann man das durchaus parallel bringen. Dein Post ist frei von Logik.
Ich schätze mal, du hast viel Meinung, aber wenig Ahnung, daher erschließt sich dir die Logik nicht. Wo kommen denn deiner Meinung nach GDDR6/7 her?

Diese werden in denselben Fabriken bzw. von denselben (Belichtungs-)Maschinen gefertigt wie HBM. Seit jeher ist es sogar so, dass RAM und Flash-Speicher eng miteinander verknüpft sind. Wenn man bei der einen Technologie die Fertigungskapazitäten erhöhen will, muss man sie bei der anderen wegnehmen - oder halt neue Fabriken bauen, was aber nicht so schnell geht. Bei (G)DDR und HBM dürfte es sehr ähnlich sein.

Folglich stünden natürlich auch mehr Kapazitäten zur Fertigung von HBM zur Verfügung, wenn man diese Fertigungskapazitäten bei GDDR-Speicher abbaut und eben auf HBM umstellt. Das geht natürlich nicht von heute auf morgen, aber es wird in der Industrie seit Ewigkeiten so gemacht. Fabriken sind nicht nur für "das eine" Produkt, sondern können eben an die Bedürfnisse angepasst werden.
 
SaschaHa schrieb:
Ich schätze mal, du hast viel Meinung, aber wenig Ahnung, daher erschließt sich dir die Logik nicht. Wo kommen denn deiner Meinung nach GDDR6/7 her?

Diese werden in denselben Fabriken bzw. von denselben (Belichtungs-)Maschinen gefertigt wie HBM. Seit jeher ist es sogar so, dass RAM und Flash-Speicher eng miteinander verknüpft sind. Wenn man bei der einen Technologie die Fertigungskapazitäten erhöhen will, muss man sie bei der anderen wegnehmen - oder halt neue Fabriken bauen, was aber nicht so schnell geht. Bei (G)DDR und HBM dürfte es sehr ähnlich sein.

Zuerst beschuldigst Du jemanden "wenig Ahnung" zu haben, und dann kommt von Dir "Bei (G)DDR und HBM dürfte es sehr ähnlich sein."? Das widerspricht sich, findest Du nicht?

HBM3e und GDDR7 werden beide in 10-12nm Verfahren gefertigt, das stimmt schon mal grob mit Deiner These überein. Das ist aber nicht der ausschlaggebende Punkt warum die Verfügbarkeit von HBM eingeschränkt ist.

Entscheidend ist das Packaging, dort fehlen Kapazitäten, und nur HBM benötigt diesen Prozess-Schritt:

1716491495350.png


1716491563601.png


Wenn also genügend GPU Chips verfügbar sind, und man gar nicht alle davon für Datacenter Produkte verwenden kann (Ausschuss, fehlende CoWoS Kapazitäten), und man zusätzlich auf GDDR7 für Consumer setzt, dann nimmt man sich keine Kapazitäten weg.

Vereinfacht: Das Packaging begrenzt sowohl die Datacenter GPU Herstellung als auch die HBM3e Herstellung. Den Überschuss an GPU-Chips müsste Nvidia dementsprechend wegwerfen, ODER ohne Packaging mit GDDR7 bei geringerer Marge trotzdem verkaufen.
 
  • Gefällt mir
Reaktionen: Banker007, Poati, stevefrogs und 4 andere
Dreistellig wäre mir lieber als dreiteilig
 
  • Gefällt mir
Reaktionen: -MK
Wenn nVidia ein halb so großes PCB für halbe Kosten hinbekäme, dann würden sie es dir trotzdem teurer verkaufen, ist doch klar, weil du spart ja Energie.

Also ein PCB aus drei Teilen mit zwei Löchern für höheren Preis kann ich mir vorstellen bei nVidia. Drei Teile ist High-End, zwei Teile Mid-Class und ein Teil 5050/5060 Ti SUPER ;)
 
  • Gefällt mir
Reaktionen: Sansio
Ein großes PCB ist sehr wahrscheinlich günstiger zu fertigen als 3 kleinere PCBs die man miteinander verbinden muss. Die Material-Ersparnis ist minimal verglichen mit dem Aufwand 3 kleinere PCBs funktional miteinander zu verbinden.
 
  • Gefällt mir
Reaktionen: -MK, Banker007, KingL und 2 andere
@raPid-81
Das Packaging ist letztendlich doch auch nur eine von vielen Stellschrauben, an denen man drehen könnte, wenn man eben die nötigen Schritte einleiten würde. Es ist ja nicht davon auszugehen, dass die Nachfrage nach AI-Produkten in naher Zukunft wieder abnimmt. Vieles wäre möglich, wenn gewisse Unternehmen nicht ausschließlich auf Gewinnoptimierung setzen würden, und letzteres sollte man auch kritisch hinterfragen dürfen.

Aber jetzt mal zurück zu meiner (sarkastischen) Aussage:
SaschaHa schrieb:
Noch sinnvoller wäre es wohl, gar nicht erst Grafikkarten für den Enduser zu verkaufen, sondern alle Kapazitäten für AI und Co. zur Verfügung zu stellen :evillol:
...woraufhin es hieß:
bensen schrieb:
Wenn man nicht auf HBM setzt, klaut man auch keine Kapazität. Also kann man das durchaus parallel bringen. Dein Post ist frei von Logik.

Zum Zeitpunkt meines Posts wurde die eingeschränkte Verfügbarkeit von HBM3 überhaupt noch nicht thematisiert. Diese hat @bensen selbst erst mit seinem Post ins Spiel gebracht, Zitat:
bensen schrieb:
Doch tut es, da die Packaging Kapazitäten für Cowos nicht ausreichen.

Erst mit dieser Information und der darauf aufbauenden Annahme, dass die Erhöhung der Fertigungskapazitäten nicht möglich sei (und darüber lässt sich streiten), ist die Logik meiner Aussage angreifbar. Da Logik aber abhängig von der zugrundeliegenden Informationslage ist, hat er damit einen Strohmann gebaut, indem er mir eine Kenntnis unterstellt, die er ja selbst erst ins Spiel gebracht hat.

Mein vorangegangener ebenfalls von ihm zitierter Satz...
SaschaHa schrieb:
Das eine schließt doch das andere nicht aus :freak:
...zeigt doch gerade, dass mein Post auf der Annahme basierte, dass die Kapazitäten für HBM3 eben nicht allzu stark limitiert sind bzw. ich davon ausgehe, dass man die Kapazitäten auch erhöhen könnte.

Aber jetzt mal genug damit. Fazit für mich: 384 bit wären aus meiner Sicht weiterhin genug, und HBM3 hätte ich statt einer Erhöhung auf 512 bit für wünschenswert gehalten.
 
aid0nex schrieb:
Bei allen Gerüchten ist doch eine Sache gewiss: Die Karte wird mindestens 2.500€ kosten, so viel ist doch wohl klar! 😊
...und damit bin ich dann auch raus! Das einzige, was ich von Nvidia noch kaufen werde, sind Aktien. Die Zeit seit Corona hat mir das PC Gaming aufgrund der absurden Preise nur noch madig gemacht, ich bin nach gut einem Jahrzehnt auf der Gaming Masterrace zurück zur Konsole gewechselt und dort super glücklich.
häh, das ergibt doch keinen Sinn. Nur weil du dir das High-End-Produkt nicht leisten kannst/möchtest, ist die gesamte Plattform jetzt unattraktiv?
Das wäre als würdest du sagen, dass du dir den Aston Martin nicht leisten kannst und darum wieder auf das gute alte Fahrrad setzt (nichts gegen ein Fahrrad aber sollte klar sein, was ich meine).

Stattdessen vielleicht einfach mal 1 oder 2 Preisklassen weiter unten umsehen und schon bist du preislich ziemlich nahe an den Konsolenpreisen dran und zudem deutlich flexibler.
Aber naja, musst letzten Endes du wissen, was oder wie du es machst.
 
  • Gefällt mir
Reaktionen: iron_monkey
@SaschaHa Du scheinst zu glauben, dass man Fabs innerhalb kürzester Zeit bauen, und mit der benötigten Technologie sowie Personal, bestücken könnte. Dem ist nicht so.

Intel Fabs in Magdeburg - geschätzte 5 Jahre
TSMC Fab in Dresden - geschätzte 3 Jahre

Die exponentiell gestiegene Nachfrage existiert seit nicht mal einem Jahr. TSMC baut bereits Packaging Fabs auf. Micron und Co sind auch dabei die Kapazitäten zu erhöhen. Aber das dauert eben Jahre und war bis vor kurzem noch eine Hoch-Risiko Wette bei Kosten von mehreren Milliarden pro Fab.
 
  • Gefällt mir
Reaktionen: iron_monkey
@raPid-81
Neu bauen natürlich nicht, aber ggf. umstellen bzw. erweitern. Fabs sind ja keine statischen Objekte, sondern durchaus flexibel einsetzbar. Zugegeben habe ich das Packaging zuvor aber nicht berücksichtigt, sondern eher an die Belichtung und die Gemeinsamkeiten gedacht.
 
SaschaHa schrieb:
@raPid-81
Neu bauen natürlich nicht, aber ggf. umstellen bzw. erweitern.

TSMC erweitert die Packaging-Fabs. Dauert Monate bis Jahre.

https://www.trendforce.com/news/202...ve estimated that by,new peak of 50,000 units.

To address the massive demand from customers, TSMC is actively expanding its advanced packaging capacity. Industry sources cited by the report have estimated that by the end of this year, TSMC’s CoWoS monthly capacity could reach between 45,000 to 50,000 units, representing a significant increase from the 15,000 units in 2023. By the end of 2025, CoWoS monthly capacity is expected to reach a new peak of 50,000 units.

2023 - 15000
Ende 2024 - 45000 bis 50000 pro Jahr
Ende 2025 - 50000 pro Monat

WENN (großes WENN!) alles läuft wie geplant.

SaschaHa schrieb:
Fabs sind ja keine statischen Objekte, sondern durchaus flexibel einsetzbar.

Ähm, nein. Flexibel ist da kaum etwas. Eine 10nm Fab kann man nicht einfach in eine 5nm Fab "umbauen". Genauso wenig kann man eine "Wafer-Fab" mal eben umbauen in eine "Packaging-Fab".

SaschaHa schrieb:
Zugegeben habe ich das Packaging zuvor aber nicht berücksichtigt, sondern eher an die Belichtung und die Gemeinsamkeiten gedacht.

Und genau das ist das Nadelöhr aktuell. 50000 bis Ende 2024 scheint die maximale Kapazität für GB100/200 zu sein. Mehr geht nicht. Heißt die restlichen gebuchten Wafer werden für Gamer und Semi-Professional GPUs verwendet.
 
  • Gefällt mir
Reaktionen: iron_monkey
Jetzt blühen die wilden Tech Spekulationen,

5090 mit 32GB ..wär schon schön,

und dann kommt der Tag der UVP.. 3500 Euro, :D
 
Ja ja, möglich. Das ist nVidia. Da werden alle Consumerkarten, bis auf 1-2 unbezahlbare Luxuskarten, Speicherkrüppel sein.
Da braucht man doch nicht rumorakeln was möglich "wäre".
Solange mir keiner das Gegenteil beweist...

Und so ne Gammel 8-12 GB Karte der letzten Gen ist schon hoffnungslos überfordert deswegen.
 
  • Gefällt mir
Reaktionen: Sansio und Flaschensammler
raPid-81 schrieb:
Eine 10nm Fab kann man nicht einfach in eine 5nm Fab "umbauen".
Solche massiven Umbauten meine ich auch nicht, dort sind völlig unterschiedliche Generationen an Maschinen im Einsatz. Nicht in allen Bereichen sind solch massive Umbauten nötig, von solchen Umstellungen rede ich. Mir fehlt aber die Expertise bzw. die Quellen für Beispiele. Mir ist lediglich bekannt, dass DRAM und Flash stark miteinander verknüpft sind. Die Quellen kann ich ggf. morgen mal raussuchen, auf die Schnelle wird das heute nichts mehr. Gute Nacht von meiner Seite!
 
TigerNationDE schrieb:
Eher "Weil es Leute kaufen"

Ich seh ja bei meiner 4090 wie oft sie die 24GB braucht. Da hätten auch 16 gereicht. Aber gleich kommen wieder zig Leute mit 500 Mods in irgendwelchen Spielen, oder diesem einen Titel, oder irgend nem Rendering etc. Wofür es halt eigentlich Profikarten geben müsste und z.T. auch gibt. Aber hey ..... Wer sind wir die das beurteilen :D
Profikarten für "diesen einen Titel" oder 500 Mods?
Klingt sinnig. Dann noch Profikarten für Multiplayer und Strategiespiele? Ehrlich, technisch liesse sich das umsetzen. Leider ist es absoluter Unsinn, da kein Schwein die Kosten tragen wollen würde.

Davon ab: Wenn sofort zig Leute Mods und entsprechende Titel (dass es 500 Mods oder nur ein einziges Spiel sein soll lass ich als Übertreibung mal so stehen) als Anwendungsgebiete für mehr VRAM sehen, könnte dir das zu denken geben. Reichen 16GB vielleicht für dich, aber nicht für jeden?
Ist "deren" Argument vielleicht gar nicht, dass sich mit weniger niemals nie irgendetwas spielen lässt, sondern eben die Fälle, in denen man von mehr VRAM profitiert? Geht es letztendlich also gar nicht um die Fälle, in denen der VRAM nicht limitiert sondern um die, in denen er es tut 😮😲?
 
SaschaHa schrieb:
Ich schätze mal, du hast viel Meinung, aber wenig Ahnung, daher erschließt sich dir die Logik nicht.
Dein Ernst? Klassisches Eigentor.
Ich habe zuvor geschrieben, dass es nicht der HBM ist sondern der Interposer. Bevor du mir Unwissenheit unterstellt hast. Da brauchst du dich dann auch nachträglich nicht rausreden. Ganz schwacher Diskussionsstil.

Und wie @raPid-81 dir anhand der Schaubilder gezeigt hat, ist der Aufbau von HBM doch grundlegend anders. Der Logic Die, die Durchkontaktierungen, das Packaging des HBM selber. Wenn es so einfach wäre, hätte Micron schon längst umgestellt und würde nicht hynix und Samsung den Reibach überlassen. Die hatten nur 3% Marktanteil im letzten jahr. Und die Prognose für dieses Jahr ist 7%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
raPid-81 schrieb:
Und genau das ist das Nadelöhr aktuell. 50000 bis Ende 2024 scheint die maximale Kapazität für GB100/200 zu sein. Mehr geht nicht. Heißt die restlichen gebuchten Wafer werden für Gamer und Semi-Professional GPUs verwendet.
Was krass ist wenn man bedenkt dass nVidia alleine 120k 4090 im ersten Quartal nach Release abgesetzt hat. Da müssten die zwei Jahre vorproduzieren mit den Kapazitäten die es erst 2025 gibt um nur mal das "homöpathische" Highest-End-Segment abzudecken. :smokin:
 
  • Gefällt mir
Reaktionen: raPid-81, Flaschensammler und iron_monkey
Hier geht es auch ja nur um die Founders Edition der 5090.
Eine 5090 von den AIBs wird vermutlich ein stinknormales PCB mit einem dicken Kühler werden.

Ein weiterer Tweet spricht von PCB mit DIE, einem PCB für den PCIe-Slot und einem PCB für I/O, also z.b. DP2.1 oder HDMI 2.1. Vielleicht ist auch der 12V-2x6 auf dem I/O-PCB.

TigerNationDE schrieb:
Ich seh ja bei meiner 4090 wie oft sie die 24GB braucht. Da hätten auch 16 gereicht.
Ich hatte schon mehrere Male, das 16GB nicht genug wären.
Z.b.:
1716509130858.png

Die Karte soll ja ein paar Jahre halten...
Und keiner wird (sollte) sich eine 5090 kaufen und dann kein 4k nutzen.

ThirdLife schrieb:
Was krass ist wenn man bedenkt dass nVidia alleine 120k 4090 im ersten Quartal nach Release abgesetzt hat. Da müssten die zwei Jahre vorproduzieren mit den Kapazitäten die es erst 2025 gibt um nur mal das "homöpathische" Highest-End-Segment abzudecken. :smokin:
GB100/GB200 ist ja mehr als nur ein "kleiner" 600mm² DIE. GB ist ja die ARM Grace CPU + Blackwell welches 2x800mm² Fläche hat. Bei der Größe ist auch viel Bruchware am Wafer...
50k GB100/200 brauchen also mehr Wafer als 120k 4090er. Wenig ist das nicht.

Und raPid-81 meint auch das die 50k durch das limitierte Packaging zustande kommen. Heißt also die DIEs die vom Wafer kommen erstmal zusammen auf ein Substrate mit dem HBM zu packen. Das ist nicht weniger komplex.
Entweder produziert nun Nvidia vor und hat DIEs im Lager sitzen oder man kalkuliert knallhart und produziert statt GB100 mit den restlichen Wafer die GB202/5090er. Dessen Packaging ist bei weitem nicht so kompliziert.
 
Zuletzt bearbeitet:
theGucky schrieb:
Ich hatte schon mehrere Male, das 16GB nicht genug wären.
Dann zähl doch mal die Spiele auf. Cyberpunk ist z.B. das erste für das ich dich belächeln würde. Warum? Weil die Optimierung halt einfach total für die Tonne ist.
 
bensen schrieb:
Ich habe zuvor geschrieben, dass es nicht der HBM ist sondern der Interposer. Bevor du mir Unwissenheit unterstellt hast.
Und davor hast du mir bereits eine sinnfreie Logik unterstellt, aufbauend auf einer Information, die du mit jenem Kommentar erst ins Spiel gebracht hattest und die ich zuvor offensichtlich noch gar nicht hatte. Ist das jetzt der bessere Diskussionsstil? Dann haben wir letztendlich beide einen Fehler mit unseren Formulierungen gemacht.

Dir Unwissenheit zu unterstellen, war sicherlich falsch, Ahnung hast du offenbar. Dass der Kommentar bezüglich des Interposers von dir kam, war mir bis jetzt offen gesagt nicht aufgefallen.

Beenden wir diese Fehde doch jetzt. Meinem ursprünglichen Kommentar lag eine falsche Annahme über die Verfügbarkeit von HBM zugrunde, das ist alles. Der Wunsch nach Endprodukten mit HBM bleibt, auch wenn er kurzfristig wohl nicht erfüllt werden wird.
 
Zurück
Oben