Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Blackwell: B200-GPU kommt als Dual-Die mit 208 Milliarden Transistoren
- Ersteller nlr
- Erstellt am
- Zur News: Nvidia Blackwell: B200-GPU kommt als Dual-Die mit 208 Milliarden Transistoren
Yosup
Lt. Junior Grade
- Registriert
- Nov. 2022
- Beiträge
- 455
Ja, gerade resobiert der KI-Sektor unheimlich viel und die Gamer gucken blöd aus der Wäsche. Mittelfristig profitieren aber auch die da ganz enorm von. Der KI-Sektor finanziert derzeit soviel Forschung und Entwicklung sowie den Aufbau von Produktionskapazitäten - die Mittel dafür hätten die Gamer gar nicht aufbringen können, jedenfalls nicht in so kurzer Zeit. HBM wird zum Massenprodukt etc pp...
Wenn der Markt irgendwann saturiert ist wird es Grafikkarten geben gegen die eine 4090 wie ein schlechter Scherz wirkt.
Wenn der Markt irgendwann saturiert ist wird es Grafikkarten geben gegen die eine 4090 wie ein schlechter Scherz wirkt.
E1M1:Hangar
Lt. Commander Pro
- Registriert
- Okt. 2022
- Beiträge
- 1.756
dev/random schrieb:1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI
1. Ist es kein Consumer-Produkt.
2. Sagt die Leistungsaufnahme allein rein garnichts aus ohne reale Leistungdaten - daher wird die Effizienz abgeleitet. Sollte der Chip 3x soviel brauchen wie aktuelle Chips, dabei aber 4-5x soviel Arbeit verrichten wie der Vorgänger, wäre das absolut ok - ziemlich gut sogar.
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.442
Der sind sie schon längst. Und fairerweise muss man sagen, dass sie schlicht und ergreifend der Schein-Konkurrenz Galaxien voraus sind.MarcelGX schrieb:Mir wird schwindelig ob der ganzen Zahlen. Einfach nur wow. Nvidia schwingt sich zum Monopolisten im wichtigsten Technologiemarkt unserer Zeit auf, oder?
Man kann Jensen für viel kritisieren, aber er liefert einfach permanent ab und das ist auch das, was Nvidia und ihn am Ende auszeichnet: Sie wollen mehr und sie tun alles dafür, da wird sich nicht ausgeruht.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.121
War ne coole Präsi, ich denke aber was man als Consumer daraus schliessen lassen kann ist dass der Vollausbau von einem Die bei 104 Mrd Transistoren liegt ggü. aktuell 80. Ergo kann man für eine 5090 mit reduziertem Ausbau etwa ca. 30% mehr erwarten.
Einen Dual-Die werden die für uns Pöbel nicht bringen. ich geh also von etwa 21.504 Shadern und 168 SM aus, wenn überhaupt.
Einen Dual-Die werden die für uns Pöbel nicht bringen. ich geh also von etwa 21.504 Shadern und 168 SM aus, wenn überhaupt.
Gelten die 10 PetaFLOPS für FP8 für einen Chip, oder für das Dual-GPU Modell? Im Vergleich zum Vorgänger macht das ja einen großen Unterschied, ob man von 4PFlop auf 10PFlop steigert (Single-Chip Vorgänger auf Nachfolger), oder von 8PFlop auf 10PFlop (Dual-GPU Vorgänger auf Nachfolger). Das ist mir nicht ganz klar...
- Registriert
- Dez. 2016
- Beiträge
- 1.608
wieso entscheiden? einfach mit der grafikkarte kochen und zwei fliegen mit einer klappe schlagendev/random schrieb:1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI
JoeDoe2018
Lieutenant
- Registriert
- Sep. 2018
- Beiträge
- 621
Wer von Euch noch nicht die Terminator 1 und 2 Verfilmung gesehen hat, wird viele parallelen Erkennen.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
robertsonson schrieb:wieso entscheiden? einfach mit der grafikkarte kochen und zwei fliegen mit einer klappe schlagen
dev/random schrieb:1000W für den chip?
Dann muss man sich demnächst wohl beim Stromverbrauch entscheiden - kochen oder KI
Diesen Chip seht ihr niemals im Konsumer Bereich.
Wir sind absolut nicht die Kunden für NVIDIA.
Und ja "wir" können dankbar sein das NVIDIA ARM nicht erhalten hat.
Speedcontroll
Cadet 3rd Year
- Registriert
- Sep. 2019
- Beiträge
- 46
Es gibt für jeden Bereich eine Abteilung und es gibt auch eine für Gaming. Wachstum heißt ja nicht, dass etwas aufgegeben wird. Hier sehen es viele falsch. früher haben die anderen Abteilungen von der Gaming Sparte profitiert und jetzt ist es eben anders herum.speedy55 schrieb:Beachtliches Stück Hardware, was die Ing. da aus einen Stück Silicium noch rausholen können.
Da man sich schon bei 3 nm befindet, eigentlich an die phys. Grenzen kommt, frage ich mich, wie weit man da noch gehen kann ^^.
Ich hoffe, Nvidia bringt noch eine 5090 raus ^^.
Augenmerk werden leider nicht mehr die Gamer sein, sondern in der Tat KI.
Ich freue mich auf die Zukunft, die jetzt noch schneller kommen wird, da mehr Inovationen gemacht werden, als wenn nur rein für Gaming Entwickelt wird.
- Registriert
- Apr. 2005
- Beiträge
- 225
Oh man, sehr beeindruckend, aber das aller wichtigste wurde hier mal wieder vergessen:
"But can it run Crysis?"
"But can it run Crysis?"
wann war "damals", ich hab 2014 1 Monat vor Maxwell-Release welche gekauft (allerdings damals "nur" um 5k, mehr hatte ich damals nicht als Spielgeld).Zanza schrieb:Wer von denn " Gamer " haben damals die Aktie von Nvidia gekauft?
naja ist ein Markt in dem Intel noch nichtmal mitspielt. Von daher können sie auch nicht sterben.monstar-x schrieb:R.I.P
Intel
Überraschenderweise hab ich dann doch im Oktober auf einer Konferenz einige gesehen die bevorzugt mit Intel (Ponte V) arbeiten, allerdings dürfte das Kostengründe gehabt haben.
Ergänzung ()
der Gamingchip vielleicht in N3, der kommt ja auch erst in einem Jahr.R3DN4X schrieb:Sollte Blackwell nicht mit N3 gefertigt werden? N4P klingt ein wenig enttäuschend
Würde er in N4 kommen, wär der Performanceschritt überschaubar.
LamaMitHut
Commander
- Registriert
- Nov. 2013
- Beiträge
- 3.038
*could it generate Crysis?
Holla die Waldfee, bin auf die ersten Ki-produke auf Blackwell - Basis gespannt. Sora dürfte dadurch fast schon für Inhalte in Spielfilmlänge taugen, die Software macht ja auch Fortschritte.
Holla die Waldfee, bin auf die ersten Ki-produke auf Blackwell - Basis gespannt. Sora dürfte dadurch fast schon für Inhalte in Spielfilmlänge taugen, die Software macht ja auch Fortschritte.
Sternengucker80
Commander
- Registriert
- Sep. 2006
- Beiträge
- 2.392
Was mich eher interessieren würde, HBM wurde ja von AMD und Hynix entwickelt. Erst dadurch, werden solche Monster möglich. Bekommt dafür AMD Lizensgebüren?
Was hast du für einen Herd?dev/random schrieb:demnächst wohl beim Stromverbrauch entscheiden
Edit: nachgeschaut, es sind 11 kW
Zuletzt bearbeitet:
High IO Memory/ HBM wurde von vielen entwickelt. AMD hat hier eine ähnlich "große" Rolle wie Nvidia beim Entwickeln von TSMC Prozessen, sie waren halt der Testballon.Sternengucker80 schrieb:Was mich eher interessieren würde, HBM wurde ja von AMD und Hynix entwickelt. Erst dadurch, werden solche Monster möglich. Bekommt dafür AMD Lizensgebüren?
Ergänzung ()
Ich nehm an KW?knoxxi schrieb:Was hast du für einen Herd? Meiner zieht bis zu 23 kWh.
Dein Herd zieht 23KW?
Sicher nicht 2.3, so viel zieht bei mir der Induktionsherd.
Ähnliche Themen
- Antworten
- 26
- Aufrufe
- 7.809