News Blackwell-Nachfolger: Nvidia gibt Ausblick auf Rubin (Ultra) und Feynman

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.555
  • Gefällt mir
Reaktionen: Pry_T800, Quidproquo77, TPD-Andy und 11 andere
“NVIDIA Paves Road to Gigawatt Al Factories”

Puh, das ist natürlich eine Ansage… Ich weiß nicht, ob mir die Richtung so gefällt, aber anscheinend gibt es ja genug Nachfrage.
 
  • Gefällt mir
Reaktionen: LikeHike, derin, TPD-Andy und 5 andere
1TB HBM pro 'GPU' in 2027... joa, da kann ganz gemütlich ein Deepseek R1 mit ordentlich großem Context drauf laufen. Hui.

Und wir Gamer werden vermutlich kaum bis garnicht mehr VRAM erhalten. Wer will mit mir wetten, dass wir nächste Generation bei 32GB verbleiben?

600kW pro Rack... wie viel Durchfluss braucht man da, wenn man sich auf 10K Temperaturdifferenz ein- und ausgehend beschränkt?

Die spezifische Wärmekapazität (cp) von Wasser ist 1,16 kWh/(m³K)
-> 600kW / (1,16 kWh/(m³K) * 10K) = 52 m³/h? Also 52.000 L/h...

Meine WaKü macht 60~70 L/h, je nach Temperatur.

In Fernwärme konvertiert kann man damit dann ganze Stadtteile beheizen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxrl, Jan, LikeHike und 12 andere
LamaMitHut schrieb:
John Connor gefällt das nicht.

Ohne Witz, das war auch mein erster Gedanke.

Diese Gigafactories können dann wohl selbstständig Terminator bauen 🤣
 
  • Gefällt mir
Reaktionen: rentex, Fallout667 und LamaMitHut
Rickmer schrieb:
Und wir Gamer werden vermutlich kaum bis garnicht mehr VRAM erhalten. Wer will mit mir wetten, dass wir nächste Generation bei 32GB verbleiben?
Denke NV wird bei dem 2er Rhythmus bleiben. 3+4er Serie 24GB, 5+6er =32GB.
Aber die Chinesen kaufen doch jetzt schon alle 5090er auf, die sie finden können, man muss denen doch nicht noch mehr Anreize geben. 32 GB sind fürs Gaming auch eigentlich erstmal genug. Für lokale KI Anwednungen wärs natürlich nett, aber das arme NV muss ja auch noch was mit den Pro Karten verdienen.
 
  • Gefällt mir
Reaktionen: Yosup und Convert
wird natürlich von 12VHPWR-Stecker/n versorgt, bin ich mir ganz sicher 😄
 
  • Gefällt mir
Reaktionen: Brrr, rentex, coral81 und 2 andere
Feynman...

...war eine amüsante Nervbacke und an seinem Lebensende sogar auf Wangerooge.

Im selben Jahr, als er dort war, war ich auch auf der Insel und aß eine leckere Nordseescholle zum Mittag.

Unvergessen, so lecker.

Damals war ich noch sehr jung und 8514/A "Grafikkarten" von IBM scheinbar der neueste Scheiß...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan, Rexaris, DaBo87 und 6 andere
Sardellenpizza schrieb:
Das ist wohl eher eine Wette auf die zukünftige Nachfrage.
Sehe ich auch so; aktuell steckt in KI viel mehr Wunsch als Realität. Beeindruckend ist der Umfang, den Nvidia da ankündigt, natürlich trotzdem. Aber es würde mich nicht wundern, wenn Feynman noch den wahren Gegebenheiten im Jahr 2028 angepasst werden muss.
 
  • Gefällt mir
Reaktionen: Sennemaa und the_IT_Guy
Endlich die richtige "Karte" um mal nen paar Porno-Bilder zu erschaffen, schnell Stable Defusion installieren. The Future is Now.
 
  • Gefällt mir
Reaktionen: Simonte, Aslo und TomausBayern
Man muss Nvidia lassen, dass keinerlei Abbremsen erkennbar ist. Die machen weiter und verdoppel in nur wenigen Jahren zahlreiche Parameter, wohingegen andere (hust keuch INTEL) da Jahre lang auf der Stelle getreten und nun die Gekniffenen sind.

Hut ab, Lederjacke.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Averomoe schrieb:
verdoppel in nur wenigen Jahren zahlreiche Parameter

aber die Skalierung dazu stimmt nicht und die Effizenz sinkt eher als das die steigt - Fortschritt durch Mehrverbrauch und Ineffizenz nennt man das eher

Averomoe schrieb:
Hut ab, Lederjacke.

eher Hut auf und schleich dir und komm zurück, wenn die Effizenz sich bessert :D
 
Sebbi schrieb:
wenn die Effizenz sich bessert
Das wirst du in den kommenden Jahren kaum noch sehen. Die Fertigungen geben es einfach nicht mehr her. Ab jetzt gibt es mehr Leistung quasi nur noch durch Architektur Fortschritte oder Mehrverbrauch.
 
  • Gefällt mir
Reaktionen: Qyxes
Die AI-Linie in 3 Jahren brauchen sie gar nicht ankündigen. Bis dahin stürzen NPUs Nvidia in die nächste "Krise"
Ergänzung ()

KillerGER87 schrieb:
Das wirst du in den kommenden Jahren kaum noch sehen. Die Fertigungen geben es einfach nicht mehr her. Ab jetzt gibt es mehr Leistung quasi nur noch durch Architektur Fortschritte oder Mehrverbrauch.
Das wurde auch schon vor 20 Jahren gesagt.
 
  • Gefällt mir
Reaktionen: maxrl, CDLABSRadonP..., Sebbi und 2 andere
ReactivateMe347 schrieb:
Das wurde auch schon vor 20 Jahren gesagt.
Vor 20 Jahren halbierte man mit jeden Prozess noch die Leistungsaufnahme, vor 10 Jahren setzte man die Weichen auf EUV, aber danach kommt nun mal nichts mehr und physikalische Grenzen sind nun mal physikalische Grenzen. Seit fast 10 Jahren lässt sich zwar noch die Dichte erhöhen, aber die Effizienz skaliert bei weitem nicht mehr im gleichen Tempo.
 
  • Gefällt mir
Reaktionen: franeklevy, JustAnotherTux, Brrr und 7 andere
Bin gerade auf der APEC in Atlanta… man bereitet sich schon auf 1000kW pro Rack vor.

Und neue Standorte der Gigawatt Al Factories nahe von Atomkraftwerken.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Sebbi schrieb:
aber die Skalierung dazu stimmt nicht und die Effizenz sinkt eher als das die steigt - Fortschritt durch Mehrverbrauch und Ineffizenz nennt man das eher
So what? Energie ist mit all den neuen Atomkraftwerken genug da, Effizienz ist was für demokratische Apokalyptiker und schließlich wird AI die Welt retten, ist doch geil diese Zukunft oder nicht? :alien_alt:
 
  • Gefällt mir
Reaktionen: LikeHike und mKstan
Zurück
Oben