News Nvidia Blackwell: B200-GPU kommt als Dual-Die mit 208 Milliarden Transistoren

Sollte Blackwell nicht mit N3 gefertigt werden? N4P klingt ein wenig enttäuschend :D
 
Ja, gerade resobiert der KI-Sektor unheimlich viel und die Gamer gucken blöd aus der Wäsche. Mittelfristig profitieren aber auch die da ganz enorm von. Der KI-Sektor finanziert derzeit soviel Forschung und Entwicklung sowie den Aufbau von Produktionskapazitäten - die Mittel dafür hätten die Gamer gar nicht aufbringen können, jedenfalls nicht in so kurzer Zeit. HBM wird zum Massenprodukt etc pp...

Wenn der Markt irgendwann saturiert ist wird es Grafikkarten geben gegen die eine 4090 wie ein schlechter Scherz wirkt.
 
  • Gefällt mir
Reaktionen: slamaa, TerraByte1982, Sherman789 und 5 andere
dev/random schrieb:
1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI

1. Ist es kein Consumer-Produkt.

2. Sagt die Leistungsaufnahme allein rein garnichts aus ohne reale Leistungdaten - daher wird die Effizienz abgeleitet. Sollte der Chip 3x soviel brauchen wie aktuelle Chips, dabei aber 4-5x soviel Arbeit verrichten wie der Vorgänger, wäre das absolut ok - ziemlich gut sogar.
 
  • Gefällt mir
Reaktionen: kaji-kun, MrHeisenberg, NerdmitHerz und 6 andere
MarcelGX schrieb:
Mir wird schwindelig ob der ganzen Zahlen. Einfach nur wow. Nvidia schwingt sich zum Monopolisten im wichtigsten Technologiemarkt unserer Zeit auf, oder?
Der sind sie schon längst. Und fairerweise muss man sagen, dass sie schlicht und ergreifend der Schein-Konkurrenz Galaxien voraus sind.

Man kann Jensen für viel kritisieren, aber er liefert einfach permanent ab und das ist auch das, was Nvidia und ihn am Ende auszeichnet: Sie wollen mehr und sie tun alles dafür, da wird sich nicht ausgeruht.
 
  • Gefällt mir
Reaktionen: Sherman789, MarcelGX, autopilot und 8 andere
War ne coole Präsi, ich denke aber was man als Consumer daraus schliessen lassen kann ist dass der Vollausbau von einem Die bei 104 Mrd Transistoren liegt ggü. aktuell 80. Ergo kann man für eine 5090 mit reduziertem Ausbau etwa ca. 30% mehr erwarten.

Einen Dual-Die werden die für uns Pöbel nicht bringen. :D ich geh also von etwa 21.504 Shadern und 168 SM aus, wenn überhaupt.
 
  • Gefällt mir
Reaktionen: dualcore_nooby
Gelten die 10 PetaFLOPS für FP8 für einen Chip, oder für das Dual-GPU Modell? Im Vergleich zum Vorgänger macht das ja einen großen Unterschied, ob man von 4PFlop auf 10PFlop steigert (Single-Chip Vorgänger auf Nachfolger), oder von 8PFlop auf 10PFlop (Dual-GPU Vorgänger auf Nachfolger). Das ist mir nicht ganz klar...
 
Keine wirklich guten Nachrichten, wenn ein so großer Hersteller direkt oder indirekt den KI-Markt beherrscht.
 
  • Gefällt mir
Reaktionen: tritratrullala, Mr.Seymour Buds, edenjung und eine weitere Person
Ob die Gaming Chips auch Blackwell genannt werden?
Ich hab das von Beginn an bezweifelt.
Hopper und Blackwell haben nix mit Gaming zu tun.
 
dev/random schrieb:
1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI
wieso entscheiden? einfach mit der grafikkarte kochen und zwei fliegen mit einer klappe schlagen :hammer_alt:
 
  • Gefällt mir
Reaktionen: Tschitta, dev/random, Kaulin und eine weitere Person
Wer von Euch noch nicht die Terminator 1 und 2 Verfilmung gesehen hat, wird viele parallelen Erkennen.
 
  • Gefällt mir
Reaktionen: Midnight Sun, Slim.Shady und Tzk
robertsonson schrieb:
wieso entscheiden? einfach mit der grafikkarte kochen und zwei fliegen mit einer klappe schlagen :hammer_alt:

dev/random schrieb:
1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI

Diesen Chip seht ihr niemals im Konsumer Bereich.
Wir sind absolut nicht die Kunden für NVIDIA.

Und ja "wir" können dankbar sein das NVIDIA ARM nicht erhalten hat.
 
Eine Vergleichstabelle mit B100 / H100 / B200 / H200 (evtl. noch MI300X) wäre sehr informativ.
 
  • Gefällt mir
Reaktionen: Hades-69, tritratrullala, InTheEnd_AI und 3 andere
speedy55 schrieb:
Beachtliches Stück Hardware, was die Ing. da aus einen Stück Silicium noch rausholen können.
Da man sich schon bei 3 nm befindet, eigentlich an die phys. Grenzen kommt, frage ich mich, wie weit man da noch gehen kann ^^.
Ich hoffe, Nvidia bringt noch eine 5090 raus ^^.
Augenmerk werden leider nicht mehr die Gamer sein, sondern in der Tat KI.
Es gibt für jeden Bereich eine Abteilung und es gibt auch eine für Gaming. Wachstum heißt ja nicht, dass etwas aufgegeben wird. Hier sehen es viele falsch. früher haben die anderen Abteilungen von der Gaming Sparte profitiert und jetzt ist es eben anders herum.

Ich freue mich auf die Zukunft, die jetzt noch schneller kommen wird, da mehr Inovationen gemacht werden, als wenn nur rein für Gaming Entwickelt wird.
 
  • Gefällt mir
Reaktionen: Kaulin und Player49
Oh man, sehr beeindruckend, aber das aller wichtigste wurde hier mal wieder vergessen:

"But can it run Crysis?" :D
 
  • Gefällt mir
Reaktionen: Kaulin, Schawez und allmecht
Zanza schrieb:
Wer von denn " Gamer " haben damals die Aktie von Nvidia gekauft?
wann war "damals", ich hab 2014 1 Monat vor Maxwell-Release welche gekauft (allerdings damals "nur" um 5k, mehr hatte ich damals nicht als Spielgeld).
monstar-x schrieb:
naja ist ein Markt in dem Intel noch nichtmal mitspielt. Von daher können sie auch nicht sterben.
Überraschenderweise hab ich dann doch im Oktober auf einer Konferenz einige gesehen die bevorzugt mit Intel (Ponte V) arbeiten, allerdings dürfte das Kostengründe gehabt haben.
Ergänzung ()

R3DN4X schrieb:
Sollte Blackwell nicht mit N3 gefertigt werden? N4P klingt ein wenig enttäuschend :D
der Gamingchip vielleicht in N3, der kommt ja auch erst in einem Jahr.
Würde er in N4 kommen, wär der Performanceschritt überschaubar.
 
*could it generate Crysis?

Holla die Waldfee, bin auf die ersten Ki-produke auf Blackwell - Basis gespannt. Sora dürfte dadurch fast schon für Inhalte in Spielfilmlänge taugen, die Software macht ja auch Fortschritte.
 
  • Gefällt mir
Reaktionen: slamaa, coral81 und dualcore_nooby
Was mich eher interessieren würde, HBM wurde ja von AMD und Hynix entwickelt. Erst dadurch, werden solche Monster möglich. Bekommt dafür AMD Lizensgebüren?
 
  • Gefällt mir
Reaktionen: Flaschensammler
dev/random schrieb:
demnächst wohl beim Stromverbrauch entscheiden
Was hast du für einen Herd? Meiner zieht bis zu 23 kWh.

Edit: nachgeschaut, es sind 11 kW
 
Zuletzt bearbeitet:
Sternengucker80 schrieb:
Was mich eher interessieren würde, HBM wurde ja von AMD und Hynix entwickelt. Erst dadurch, werden solche Monster möglich. Bekommt dafür AMD Lizensgebüren?
High IO Memory/ HBM wurde von vielen entwickelt. AMD hat hier eine ähnlich "große" Rolle wie Nvidia beim Entwickeln von TSMC Prozessen, sie waren halt der Testballon.
Ergänzung ()

knoxxi schrieb:
Was hast du für einen Herd? Meiner zieht bis zu 23 kWh.
Ich nehm an KW?
Dein Herd zieht 23KW?
Sicher nicht 2.3, so viel zieht bei mir der Induktionsherd.
 
  • Gefällt mir
Reaktionen: InTheEnd_AI, dermatu, dualcore_nooby und eine weitere Person
Zurück
Oben