News Blackwell Ultra: Nvidia GB300 kommt auf 288 GB HBM3e und 1,4 kW pro GPU

Wenn eine Desktop Graka nen Verbrauch von 1,4 kW hätte, wäre es nen Aufstand wert, aber nicht bei so ner "Spezial HW".
Dann wieder so ne Diskussion warum sich einige Foristen hier und da ne 4090 leisten können...sie arbeiten wohl und verdienen überdurchschnittlich gut, daher whatever.
Hätte sie mir ebenfalls ohne weiteres leisten können, aber warum? Die 4080 reicht mir persönlich absolut und ich zocke ebenso AAA Titel..das ist aber mein Bier und mein Hobby. Dafür gibt es halt keinen Pauschalurlaub in der Türkei, Ägypten, Griechenland oder sonst wo...was ich persönlich absolut unwichtig finde (und ja, ich war schon in der Vergangenheit an wenigen Orten weltweit unterwegs).
Und wenn die Grakapreise explodieren, hat dies andere Gründe als ne bonzige Kundschaft. Entwicklung, Fertigung, Rohstoffpreise, einer Grafikkarte sind nun mal deutlich teurer geworden (als in der guten alten Zeit) UND VORALLEM FEHLENDER WETTBEWERB!
Aber im Gegenzug, nimmt man als PC Spieler verbuggte und nicht leistungsoptimierte Spiele hin, die dann eine 4090 brauchen🙄
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, Col. Jessep und Melvyn
Das ist alles irgendwie enttäuschend. Ich sehe da nicht wirklich eine Effizienzsteigerung, sondern da wird nur das Drumherum aufgebohrt.
 
Dessi schrieb:
Wenn man da ein Rechenzentrum betreibt, in dem 100000 GPUs werkeln, hat man sicher einen erhöhten Stromverbrauch. Da bräuchte man fast ein AKW nebendran...
Das kommt auch genau so. Nicht umsonst steigen manche Tech Firmen indirekt in die Atomkraft ein.

So ein Rechenzentren frisst 24/7 365 Tage enorme Mengen Energie.
 
Ja wild
 
wurde damals auch von Kollegen als Irre bezeichnet als ich mir meine 4090 für 1699€ geholt habe, aber Jährlich für seinen A6 1400€ an Versicherungen hinzublättern ist natürlich nicht Irre, da wird man ganz verdutzt angeschaut wenn man mal dagegen kontert xD
 
  • Gefällt mir
Reaktionen: fox40phil, rentex, stevefrogs und 6 andere
AssassinWarlord schrieb:
Was genau berechnet man eigentlich mit sowas, und was bzw. warum ist das so unglaublich rechenintensiv?
Aktuell: KI Modelle sind in der Ausführung (inferencing) zwar mittlerweile z.T. sparsam, im Training braucht man jedoch gewaltige Mengen an Rechenleistung und Speicher, um so ein Modell vom Rohdatensatz zu trainieren (also das neuronale Netz so aufbauen, dass für den Menschen sinnvoller Output generiert wird beim Inferencing).
Und wenn ein Unternehmen wie MS, Google oder OpenAI ihren Chatbot der ganzen Welt zugänglich macht, muss das ja auch irgendwo berechnet werden.

Abseits davon: Wettermodelle, Big Data Analysen (z.B. gewaltige Datensätze nach wiederkehrenden Mustern durchsuchen).
 
CadillacFan77 schrieb:
...Schon klar, dass das nicht der gleiche RAM ist)
Wäre schön, wenn es der gleiche VRAM wäre!
 
  • Gefällt mir
Reaktionen: dunkelbunter
Topas93 schrieb:
Ich bin je gespannt ob das nicht doch mehr unternehmen hervorbringt, zwei Dienstleistungen gleichzeitig vollbringen.
  • Heizung der Nachbarschaft/ Freibads
  • Vermietung von Rechenkapazitäten
Das wäre der richtige und logische Schritt meiner Meinung nach.
 
  • Gefällt mir
Reaktionen: Topas93
Hier entbrennt ja gerade eine Diskussion um Consumer-Grafikkartenpreise, die generell ziemlich OffTopic ist. Wenn so etwas unter Kontrolle gebracht werden soll, dann ist es erst einmal wichtig abzuspalten, was Punkte sind, die nicht zur Diskussion stehen. (weil die Antworten durchdiskutiert bzw. offensichtlich sind)

Und da ist nun einmal ein zentraler Punkt der, ob es generell vorstellbar wäre, für Consumer-Grafikkarten mehr zu bezahlen. Die Antwort darauf ist simpel und lautet ja klar, wenn man entsprechend etwas geboten bekommt. Die Antwort ist insbesondere deshalb trivial, weil schon zu Zeiten der ersten Titan es um etwas anderes ging, nämlich um Verteuerung und wie diese stattfindet.
Es ging gerade nicht um das Szenario mehr zahlen und dafür mehr bekommen, sondern darum, mehr zu zahlen, um das gleiche zu bekommen. Damals ging es darum, dass die 480 / 580 auch den größten Chip genutzt hatten und 500€ angesetzt wurde, die 680 nur noch den zweitgrößten Chip für weiterhin 500€ bekam und die Titan plötzlich 1000€ kostete.

Nochmal zwischendurch in anderen Worten zusammengefasst:

Wenn es eine neue Gen gäbe und diese einen größeren Sprung (z.B. sozusagen zwei Gens in einer) als sonst hinlegen würde, dann dürfte die Preisgestaltung höher ausfallen als sonst.
Und, ergänzend dazu: Wenn Herstellungskosten steigen, dann dürfen natürlich auch diese Kosten umgelegt werden --- sinkende Kosten sollten auch umgelegt werden und werden es (natürlich) selten.
Das sind aber nicht die kritischen Fälle. Kritisch wird es, wenn Preise durch die Decke gehen, ohne, dass davon irgendwas zu sehen ist.

Ich hoffe, ich konnte mit dem klaren Trennen dafür sorgen, dass die Diskussion etwas zielgerichtet-produktiver wird.
 
In den USA werden Atomkraftwerke, exakt aus diesem Grund aus dem Boden gestampft. Im Umkehrschluss müssen wir froh sein, dass das Intel/TSMC Projekt derzeit auf Eis liegt. Wieviel Wälder hätte Habeck denn noch roden müssen, um den Energiebedarf zu befriedigen? Ich denke NV und AMD tun wirklich ihr Bestes, aber z.B. die Belichtung eines Wafers kostet so viel Saft, welcher unserer Anforderungen, in Serie, gesprengt hätte. Scholz hat ja mal behauptet, man läuft rein, lässt sich Next-Gen CPU übergeben und geht wieder raus.... Was ein Depp!
 
MalWiederIch schrieb:
GeForce auf eine Datacenter CPU? „Fanboys“?
Hast du dich im Thread verlaufen?

Nvidia gelesen und direkt kam der Beißreflex ohne jeglichen Gedanken an die News zu verschwenden :p
Dass sich jemand mit 4090 in der Sig bei einem blöden Witz sofort an die Perlenkette greifen muss, ist nicht weniger lustig. :D
 
AssassinWarlord schrieb:
Was genau berechnet man eigentlich mit sowas, und was bzw. warum ist das so unglaublich rechenintensiv? Verstehe nicht so recht, wo in welchem Bereich man soviel Leistung braucht
K.I Sachen wie Chat GPT, Bildgeneratoren, Videogeneratoren, Midjourney, Sora…

Ich frage mich ob der neue Chip wirklich effizienter ist. Also an Leistung pro Watt. Es kann ja auch sein dass der schneller ist durch mehr Stromverbrauch.
 
Ach technisch immer wieder beeindruckend.
Diese "1,4kw" sind natürlich Bauernfänger...
Dass nur eine Zahl die zu keinem für uns verständlichen Bezug steht.

Ich mag technologischen Vorsprung!
Wenn man dran denkt, mit was wir erst vor 20 Jahren unterwegs waren.. :)
 
Gullveig schrieb:
Das ist alles irgendwie enttäuschend. Ich sehe da nicht wirklich eine Effizienzsteigerung, sondern da wird nur das Drumherum aufgebohrt.
Ist halt nur ein Refresh. Besser wirds mit dem richtigen Nachfolger
 
Krik schrieb:
Nope. Wer 2k für eine Grafikkarte ausgibt, der gibt vielleicht auch 20k oder 50k (oder was das Ding hier kostet) aus.

Eher nicht weil das ihr auch nicht wirklich Grafikkarten sind. Nvidea mag die herstellen aber für Grafik Berechnung ist das nicht das richtige (bei Film und Fernsehen als Render Maschinen das lass ich mal bewusst aussen vor, aber das ist ja auch nicht interaktive Echtzeit (wäre ja unnötig))

Und ich denke die Anzahl derer die 2k für ne Karte hinlegen ist deutlich höher als die Anzahl derer die 20,50 oder 100k aufbringen wollen.

gedi schrieb:
In den USA werden Atomkraftwerke, exakt aus diesem Grund aus dem Boden gestampft.

Aus dem Boden gestampft ist mal völlig falsch. Vielleicht mal nicht nur das Anschlagsbrett vom Presse Zirkus lesen sondern auch mal die Zahlen prüfen (wenn es eine gute Pressearbeit ist nennen sie ihre Quellen)

Der einzige Reaktor der in den US von A im bau ist ist North Anna 3. Und da war Projektstart 2007.

Und die SMR Geschichten die da durch die Weltgeschichte geistern sind alles nur Planspiele bisher. Google Plant bis 2030 einen SMR in Betrieb zu nehmen.

Was extrem unwahrscheinlich ist, da es noch keine Zugelassenen SMR in den Staaten gibt.

BTW es gibt auch erst 4 SMR Weltweit in zwei Anlagen. Wovon eine eigentlich kein SMR sondern nur Schiffreaktoren sind die Stationär betrieben werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mycomser
Das Erste, an was ich bei dem Bild denken musste war

Dinge mit Gesicht :lol:
 
  • Gefällt mir
Reaktionen: xpad.c
Tobias123 schrieb:
Stimmt. Was für ein Schwachsinn solche Heizplatten zu verbauen.
Wenn doch nur jemand die AI-Anbieter vor dem Fehler, effizientere Hardware zu verbauen, warnen würde...
Ergänzung ()

Skudrinka schrieb:
Diese "1,4kw" sind natürlich Bauernfänger...
Dass nur eine Zahl die zu keinem für uns verständlichen Bezug steht.
Was meinst du? 1400watt sind jetzt nicht so unüblich.
 
Zuletzt bearbeitet:
Zurück
Oben