Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBis zu 1.000 Watt Verbrauch: Dells Aussagen zu Nvidia B100/B200 und was dahinter steckt
Am Freitag schnellte der Aktienkurs von Dell um über 30 Prozent in die Höhe, was nicht zuletzt auf den Ausblick auf Einnahmen mit lukrativen KI-Systemen zurückzuführen war. Die Tech-Enthusiasten-Welt in Aufruhr brachte hingegen Dells COO Jeff Clarke mit Aussagen zu Nvidia B100 und B200 und dessen Stromverbrauch.
Und solange die Leistung einer solchen Lösung pro Watt höher liegt als mit einer weniger leistungshungrigen Alternative mit demselben Platzbedarf, werden Serverbetreiber, die in der Regel auf die Effizienz, aber nicht den absoluten Verbrauch schauen, nicht davor zurück schrecken auch solche Produkte einzusetzen
Außerdem werden die Chiplets tendenziell immer größer, und damit einhergehend ist die Abwärme leichter abzuführen... die 1000W sagen erst mal überhaupts nichts aus.
Analog dazu, ist z.B. aus dem gleichen Grund ein 24-Core AMD 9274F oder 32-Core 9384X o.ä. schwerer zu kühlen als ein 96-Core Genoa oder 128-Core Bergamo. Und natürlich wird daher auch ein 8-Core Ryzen häufig wärmer als seine 12- und 16-Core pendants.
Das wird halt immer schwerer und schwerer. Chip-Herstellung ist kompliziert und bei den Strukturen immer kleiner und kleiner zu werden macht's auch nicht einfacher.
Da die Chipfläche immer weiter steigt ist das erstmal nicht unnormal zumal das was Nvidia da in 1000W packt von der Rechenleistung vor 3 Jahren noch 10000W brauchte.
Aus dem Gesichtspunkt einfach eine normale Entwicklung im Serverbereich die man überall sieht.
Demnach bin ich gespannt was sie da bauen. Reizt mich immer sehr
ein bisschen sagen die 1000 Watt schon, den Leistungsfähigkeit schafft neue Anwendungsfelder. Das heisst es wird vermutlich tendenziell mehr Leistung "verbraten", weil dann auch z.B. Videos generiert werden können.
Spannend wird und da liegt meine Hoffnung, dass es kreative Softwareentwicklungen gibt, die das ganze effizenter gestalten und letztlich dadurch den Energieeinsatz absolut reduzieren.
Solange die Leistung für den Business Case stimmt sind 1000 Watt doch in Ordnung....gibt ja auch genug Möglichkeiten grünen Strom zu produzieren. Und wer viel Verbraucht, hat seine Investition auch schnell raus.
Zur Effizenz gibt es doch noch gar keine Infos. Die ergibt sich aus Rechenleistung pro Watt. Wenn die 1000W Karte ~50% mehr Rechenleistung als die 700W Karte hat, ist erstere sogar leicht effizienter.
Oder auch, ein Dual Socket Server hat auch einen höheren Verbraucht als ein Single Socket Server mit gleicher CPU, dafür aber auch ~ die doppelte Rechenleistung.
Spannend wird und da liegt meine Hoffnung, dass es kreative Softwareentwicklungen gibt, die das ganze effizenter gestalten und letztlich dadurch den Energieeinsatz absolut reduzieren.
"[...] In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. [...]"
Insbesondere weil solch Rechencluster in Summe ja auch keine Unmengen verbrauchen verglichen mit anderen Industrien. Was sind 1MW bei einem Schmelzofen ? Und die rüsten ja auch gerade auf regenerativ bzw. grün/blauen Wasserstoff um. Geht alles.
1000W ohne Angabe der Leistungsfähigkeit.
Da sehe ich erstmal kein Problem, vor allem nicht bei den Anwendungsgebieten.
Das hat ja keiner so "unter dem Tisch" stehend.
Auch hat nicht jedes Land 33 Cent Stromkosten für Gewerbe... statista
Das ist anderen Firmen also nicht so wichtig.
Erst recht nicht wenn Firmen eigene Solaranlagen+Puffer etc. haben.
Tesla wollte die Gigafab hier auch mit Solardach ausstatten.
Leistung bei allen ehren, wird bestimmt ne Granaten karte. aber um jeden preis braucht man das am ende doch nicht. ich hoffe es war eine allgemeine flapsige Äußerung. denk die aktuelle 4090 plus 15% wäre eher die range die ich sage , okay das geht noch. 1000W abführen heisst schon was und ist eine echte nummer
Solang das alles ohne Wakü geht, ist es von den Kosten und Aufwand sicherlich in Ordnung. Zudem wird fleißig an neuen Kühlkonzepten gearbeitet, was ohnehin ein spannendes Thema ist.
Leistung bei allen ehren, wird bestimmt ne Granaten karte. aber um jeden preis braucht man das am ende doch nicht. ich hoffe es war eine allgemeine flapsige Äußerung. denk die aktuelle 4090 plus 15% wäre eher die range die ich sage , okay das geht noch. 1000W abführen heisst schon was und ist eine echte nummer
Da das eine Beschleunigerkarte für den Einsatz in Servern ist, sollte es keine größeren Probleme mit der Kühlung geben. Da haben die Komponenten selber auch keine eigene, aktive Kühlung sondern nur einen ausreichend dimensionierten Kühlkörper, dessen Lamellen parallel zu Luftstrom ausgerichtet sind, den starke Lüfter mit hoher Drehzahl von Vorne nach Hinten durchs Gehäuse blasen. Im Serverraum spielt die Lautstärke der Kühlung auch keine wirkliche Rolle.