News Nvidia CEO Jensen Huang: Blackwell wird in Serie gefertigt, die Nachfrage ist „verrückt“

Da die Kunden jeden Preis zahlen, wird man Apple bei neueren Fertigungsverfahren Konkurrenz machen. Also mehr Refresh denn je... :daumen:
Schön für Nvidia, aber schlecht für die PC-Gaming oder Gaming im Allgemeinen. Nvidia sieht die Margen bei AI bzw. im Serverbereich und wird jetzt die Gamer noch härter auspressen wollen, um höhere Margen durchzudrücken.
Also eine 2k 5090 kann ich am Horizont sehen.
Jede Generation bzw. jede zweite Generation versucht Nvidia die Preislatte höher zu treiben und schraubt die Preise der Klassen immer weiter hoch. War bei -80er gewesen, dann -80 TI und mittlerweile bei -70 TI. Die nächste Karte -70Ti wird wohl natürlich "noch mehr" kosten.
Also nächste Karte wird bei mir wahrscheinlich eine AMD sein und möchte Nvidia's Preise nicht weiter tragen, genauso wie ihre Features, für die immer mehr Leistung gefordert wird um überhaupt mein Monitor's RR von 144Hz zu halten.
 
Ein Artikel über Data-Center-GPUs von Nvidia und über was wird hier diskutiert: Reichen ihr Geld wegnehmen und Gamingkarten. :D

Die nächsten Jahren sehen für Nvidia echt nicht schlecht aus. Wenn die es wirklich schaffen die KI-Leistung jedes Jahr um das 2-3 Fache zu steigern, haben wir in 5-7 Jahre bereits die 100-Fache und in 10 Jahren die 1000-Fache Leistung. Das wird dann auch ziemlich zeitnah deutliche Auswirkungen auf den Arbeitsmarkt haben. Was man den Schülern heute wohl raten sollte was sie später mal werden können?
 
  • Gefällt mir
Reaktionen: Quidproquo77, -MK, sloven und eine weitere Person
Vielleicht sollte im Artikel-Titel ganz groß drinstehen: Achtung, es geht nicht um Gaming-Grafikkarten! 🙏

Ist ja gruselig, wieviele nur die Überschrift lesen und losposten. 🤯
 
  • Gefällt mir
Reaktionen: Quidproquo77 und RogueSix
dermatu schrieb:
Ich glaub der kotzt eher innerlich bei jedem Wafer den er für Consumer-Gamingscheiß verschwenden muss.

Theoretisch ja, aber deswegen wird ja Gaming-Blackwell noch im 5nm Prozess gefertigt, damit Jen-Hsun seinen Mageninhalt bei sich behalten kann :D .

Die Engpässe liegen seit einiger Zeit ja eher beim Packaging, nicht bei den Wafern/Fertigungskapazitäten. Das könnte bei Jen-Hsun schon eher zu Brechreiz führen, dass die Gaming-Produkte da die Pipeline verstopfen.
 
realistisch ist mit cowos was mit blackwell begonnen hat und selbst bei den quadros kommt (desktop ebenso)
Perf. Zuwächse von 4 Fach bis rubin möglich
Dazu kommt das ab a18 node die dichte der alu halbiert wird und nochmal die doppelte alu menge möglich sind also am ende die 8 fache Leistung schon 2028
Danach folgen Taktsteigrungen bis zu 30% in a12 node
Danach braucht nvidia eine neue Idee wie man mehr perf. herausholt auch dafür gibt es ne Fertigungserweiterung mit mehreren alu chips aufeinander was nochmal die alu Menge bis zu dreifach erweitert was am ende dann 32 fache perf. bei gleicher tbp
Dann ist es 2034 und ein limit tritt ein und man kommt um mcm nicht herum mehrere gpu tiles verbinden. planar mit aktiven interposer aus glas (Das substrat wird größer mehr chips auf ein größeres substrat) womit dann Silizium interposer abgelöst werden (cowos Prinzip Silizium interposer auf Si chip auf alu chip)
Dann werden riesige chips möglich von min 1600mm²
Am desktop steigt man aber ab a16 node aus da alles in die apu gehen wird und nvidia aus dem desktop Geschäft aussteigt da keine cpu Plattform mehr gibt.
Ich hoff das nvidia mit intel ne apu Linie baut ansonsten sehe ich schwarz bei den Treibern ab 2032 das diese online bleiben. zumal win 13 an schwierig wird das überhaupt nvidia gpu unterstützt werden.
Zwar dauert es noch aber ohne Partnerschaft mit intel ist nvidia aus dem Desktop raus.

kurzfristig sieht es so aus als ob nvidia Dominanz bei dgpu hat die Wahrheit ist aber das die firmen Tendenzen zeigen das man Konsolen artige pc haben will.
Die Fertigung lässt keinen dedizierte gpu mehr zu da die Ramkosten zu hoch werden und es effizienztechnisch sinniger ist alles auf einen chip zu haben. Das betrifft amd sowie intel
Und da der Takt Weg versperrt ist wegen waferkosten muss in die breite gegangen werden das gute die Strom Ersparnis ist gewaltig.
ne rtx4090 perf bei a18 node mit nur 160w tdp sind möglich Plattform 300w tbp apu board ram ssd
ich erwarte in apu grob die doppelte rtx4090 perf bis 2028
Der Wechsel ist fließend ob überhaupt etwas nach rubin am desktop kommt als dgpu ist ungewiss
Und hängt von intel plan ab
Also ist es nur logisch das nvidia auf Ai setzt den das ist die einzige Ausweg wie die Firma überlebt.

Das cpu limit Problem wird man nicht lösen können bis amd oder intel ne völlig neuen Ansatz für x86 cpu in der ipc finden
Intel hatte ne Idee wurde vom ceo verworfen, amd noch keine
nach rubin voller chip 192sm a256alu (192tf/235tf nv tf) wird man keine cpu mehr finden die das auslasten kann. Nebenbei die letzte nvidia desktop gpu die es geben wird.
Aufhalten kann das nur jensen mit intel Kooperation apu
Wann die sku kommt ist unklar ich gehe von fasst 2030 aus

Der Takt Weg hätte funktioniert wenn die chip gleich groß geblieben wären dann hätte es die ersten 9ghz cpu und 5ghz gpu gegeben das aber wurde von den waferpreisen zunichte gemacht
n2 27000$ 800mm²
a18 35000$ 400mm² Belichtungsmaske cpu müssen min 30m² groß bleiben um rentabel zu sein dgpu unter 200mm²

Das es so kommen wird ist klar. Apu müssen sein
 
  • Gefällt mir
Reaktionen: Turbolord und Javeran
Excel schrieb:
Die große Frage ist, wie man diese gigantischen Kosten seitens der Unternehmen wieder einspielen will. Für mich erschließt es sich einfach nicht.

Es gibt momentan in der IT Welt was AI betrifft einfach einen riesigen FOMO. Jeder hat Angst, morgen von links von der Konkurrenz überholt zu werden wenn man nicht ganz vorne mit dabei ist.
 
  • Gefällt mir
Reaktionen: suspect_user und 7H0M45
Xericore schrieb:
Beeindruckend, was Nvidia da abliefert. Nur hat Nvidia damit so viel Erfolg, dass sie sich nicht sonderlich auf Gamer GPUs konzentrieren müssen und zu allem Überdruss schafft AMD es nicht, Kapital daraus zu schlagen.
oder Intel. Ja.
Und die Leute wundern sich, warum die 4060 und 4090 knapp sind
 
@BAR86

Naja, in beiden Fällen macht nVidia eben frühzeitig Platz für die Nachfolger. Bei der RTX 4060/Ti wurde wohl die Produktion für zwei Wochen gestoppt für eine "inventory correction", sprich um Überbestände abzubauen.

Und bei der RTX 4090/AD 102 ist es sehr naheliegend, dass weder nVidia noch die Boardpartner Interesse daran haben können auf größeren Beständen sitzen zu bleiben. Abschreibungen dieser Chips würden richtig ins Geld gehen.

Am Ende des Crypto-Wahns, kurz vor Einführung der RTX 4000er, musste nVidia ja eine "smoothe" $1 Mrd. an Überbeständen abschreiben (= Mülltonne auf, GPUs in Mülltonne rein, Mülltonne zu).
Das wollen sie vermutlich nicht unbedingt noch mal wiederholen ;) und sorgen jetzt frühzeitig dafür, dass der Channel weitestgehend frei ist für die RTX 5000er Generation.
 
ElliotAlderson schrieb:
Wann war das der Fall?
Bzgl. PL Verhältnis (FPS/€) die letzte Dekade !

RX 580/90 vs. 1060, Vega 56 vs. 1070, Vega 64 vs. 1080, Radeon VII vs. 1080Ti, 6700XT vs. 3070,
6800XT vs. 3080, 6900XT vs. 3090, 7800XT vs. 4070, 7900GRE vs. 4070 Super, 7900XT vs. 4070Ti Super,
7900XTX vs. 4080/Super (sind es sogar mehr FPS bei weniger €uronen) ... :stock:

Lediglich im 4 stelligen Enthusiasten Bereich (2080Ti, 3090Ti und 4090) hatte AMD wenig (lediglich "Cherry") entgegenzusetzen (bzgl. ultimative Leistung in Form von max. FPS, aber trotzdem das bessere FPS/€ Verhältnis).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und spw
Xericore schrieb:
und zu allem Überdruss schafft AMD es nicht, Kapital daraus zu schlagen.
Vielleicht sollte man einfach mal anerkennen was nVidia da für eine Technik fertigt im zusammenspiel mit ihrer Software. AMD KANN einfach derzeit nicht besser. Es ist ja nicht so das sie es nicht versucht hätten in den letzten X Jahren. Selbst wenn man an die Radeon 7 denkt, die ein großes Risiko darstellte zu seiner Zeit, und ein Verkaufsschlager war sie dann halt nich
 
  • Gefällt mir
Reaktionen: W4RO_DE
TigerNationDE schrieb:
Vielleicht sollte man einfach mal anerkennen was nVidia da für eine Technik fertigt im zusammenspiel mit ihrer Software. AMD KANN einfach derzeit nicht besser. Es ist ja nicht so das sie es nicht versucht hätten in den letzten X Jahren. Selbst wenn man an die Radeon 7 denkt, die ein großes Risiko darstellte zu seiner Zeit, und ein Verkaufsschlager war sie dann halt nich
Du musst dein Nvidia loben und AMD bashen, anders gehts anscheinend nicht!
Xericore schrieb:
Beeindruckend, was Nvidia da abliefert. Nur hat Nvidia damit so viel Erfolg, dass sie sich nicht sonderlich auf Gamer GPUs konzentrieren müssen und zu allem Überdruss schafft AMD es nicht, Kapital daraus zu schlagen.
@Xericore hat mehr geschrieben, als du zitiert hast!
 
  • Gefällt mir
Reaktionen: SweetOhm
Ayo34 schrieb:
Du argumentierst mit Erbe und Gewinn und dann ist die "Lederjacke" die Nr.1 auf deiner Liste? Wie passt das zusammen? Hört sich eher nach einer persönlichen Sache an...
Es sollte für JEDEN etwas persönliches sein. Die heutigen Milliardäre sind krasser als die Oberfürsten im Feudalismus. Und auch die hätten für JEDEN damals eine eine persönliche Sache sein sollen.
Auch muss natürlich an die Vermögen der Superreichen massiv ran. Trotzdem muss man, wenn man es ernst meint, nicht umverteilen in den reichen Ländern, sondern über die 8 Milliarden Menschen hinweg und dann wird es Dir und Mir erstmal deutlich schlechter gehen. Aber es wäre fairer.
Natürlich muss man ZURÜCK-verteilen auf diversen Ebenen. Umverteilung klingt zu nett. Die Erstverteilung beruht ja auf Ausbeutung auf mehreren Ebenen.

Insgesamt geht es aber gar nicht nur darum, die Geldflüsse zu verbessern, sondern unser Wirtschafts-Modell (erheblich) zu verbessern. Leider scheint ein Großteil der Ökonomen daran rein inhaltlich gar kein Interesse zu haben. Die interessieren sich dafür, das bestehende Modell irgendwie als bestmögliches Modell zu bestätigen. Oder gehen schlicht davon aus.

Ich sehe es aber auch so, dass ein Großteil von K.I. vor allem durch Business-to-Business-Applikationen umgesetzt wird. Auch wenn die meisten es nicht glauben: Im Alltagsleben hat die digitale Revolution eher klassische Geräte/Produkte ersetzt, statt viel neues zu bringen.

Und damit es sich im B2B-Bereich lohnt müssen Firmen dadurch mehr Umsatz generieren können oder ihre Kosten verringern. Ich gehe davon aus, dass hier insb. das letztere stattfinden wird. Insb. dort wo Standard-Büro-Arbeiten stattfinden, also quasi "Informationsverarbeitung", da sollte es haufenweise Möglichkeiten geben, mit K.I. Mitarbeiter einzusparen. Dazu zählen auch akademische Bereiche.

Anwälte, Steuerfachleute, Buchhalter, Controller, Sachbearbeiter, Entwickler, etc etc. Da sollte man überall einige Prozente an Mitarbeitern reduzieren können.
Ich könnte mir vorstellen, dass gerade Microsoft hier Methoden in sein OS und/oder Office einbauen wird, um K.I. auf ganz bestimmte Jobs im jeweiligen Unternehmen zu trainieren. So wie SAP Berater in den letzten Jahrzehnten im Konzernumfeld nicht mehr wegzudenken sind, haben wir dann KI-Berater, die ständig sondieren welche Jobs man reduzieren kann.

Ob's so kommt? Who knows.

Ansonsten profitiert definitiv die Forschung in Wissenschaft und Technik enorm. Wir kriegen also in 5 Jahren noch dollere Wettervorhersagen. Wenn sich das nicht allein lohnt.
 
Das schwierigste in diesen Vorträgen muss wohl sein, sich jedes mal neue Superlative ausdenken zu müssen.
 
  • Gefällt mir
Reaktionen: SweetOhm und 7H0M45
@Booth: klingt interessant, dazu müsste es ja bestimmt Berechnungen geben wie so eine Umverteilung auf die Wirtschaft und Gesellschaft wirkt? Widerstand wirst du auf jeden Fall (massiven) ernten ;-) auch das die KI auf bestimmte Berufe „spezialisiert „ werden halte ich für überaus schlüssig. Dafür werden Firmen viel Geld zahlen. Bin mal gespannt wann die Robotik so weit ist und auch dann in der physischen Welt interagiert. Das wird auch nochmal einen Wandel mit sich bringen
 
Excel schrieb:
Die große Frage ist, wie man diese gigantischen Kosten seitens der Unternehmen wieder einspielen will. Für mich erschließt es sich einfach nicht.
So sehen auch einige Analysten. Allerdings ist es am Anfang immer so. Einige Beispiele: Hat jemand schon mal daran gedacht, dass Tesla mit Gigacasting Geld verdient? Nun machen die alten Autohersteller nach und setzen auch diese Technik ein. Es hat auch Unkenrufe gegeben als TSMC und Samsung große Anzahl von teueren EUV-lithographiemaschinen von ASML bestellten. Die marktführenden Batteriehersteller wie CATL, BYD, LG Energysolution haben Milliarden von Dollars in Forschung und Fertigungsstraßen investiert als der Elektroautomarkt noch viel kleiner war als heute. Hätten sie damals nicht so viel investiert, würden sie heute nicht so viel Geld verdienen. Bill Gates sagte1993, dass Internet ein Hype sei und Steve Ballmer hat über iPhone gelacht, als es auf den Markt kam.

KI wird in vielfacher Sicht unser Leben verändern. LLM ist nur ein Anwendungsfeld, was viele stupide Jobs überflüssig machen wird und wer diese Technologie nicht einsetzt, wird schnell vom Markt verdrängt werden. KI wird zunehmend auch in anderen Gebieten Einzug halten. Roboter, autonome Fahrzeuge, Wettervorhersagen, Forschungen und Entwicklungen werden beschleunigt. Wie der Google-CEO kürzlich schon gesagt hat, das Risiko ist größer wenn man jetzt nicht in KI investiert.
 
Kann jemand auf DAU-Niveau beschreiben, was einen "KI-Chip" von anderen Chips unterscheidet?

Natürlich ist mir klar, dass auch Chips - wie jedes andere Bauteil - mal in oder in die andere Richtung optimiert/ spezialisiert werden können. Mal mehr auf Schnelligkeit, mal mehr auf Effizienz... mal mehr Cache, mal weniger... mal sind benötigte Befehlssätze hardcodiert im Chip vorhanden, mal nicht...

Aber auch "KI-Chips" denken ja nicht. Selbst der modernste "KI-Chip" ist jeder Stubenfliege Lichtjahre unterlegen beim Thema "Intelligenz" und diese "KI-Chips" haben mit "Denken" rein gar nichts zu tun.

Was genau adelt also einen Chip zum "KI-Chip"?
 
  • Gefällt mir
Reaktionen: suspect_user
--jabber-- schrieb:
Gibt es eigendlich neue GPUS von Intel oder ist da was in aussicht?
Ponte Vecchio ist ja massiv gefloppt und der Nachfolger Rialto Bridge wurde eingestellt.

Intels Hoffnungen liegen in Gaudi 3. Der Chip soll teilweise deutlich schneller sein als Nvidias H100 und sogar die doppelte Effizienz bieten. Allerdings ist das Teil spät dran und muss sich nun wohl mit Blackwell messen. Je nach Scenario könnten die Chips durchaus gleichauf liegen.
 
  • Gefällt mir
Reaktionen: --jabber--
Zurück
Oben