Was ich hier so witzig finde:
- Der Artikel stellt eindeutig klar, dass es Gerüchte sind. Diese wurde auch auf Twitter diskutiert. Und Sven hat recht, die Tweets kommen von im allgemeinen verlässlichen Tweetern
- Der Artikel sagt eindeutig, dass es um Serverkarten geht.
- Und dann heulen hier die meisten wegen dem Stromverbrauch bei den Gaming-Grafikkarten herum.
- Es sind defacto viele Gamer bei denen der Stromverbrauch keine Rolle spielt. Bei den sogenannten Minern und bei den Servern ist die Effizienz extrem wichtig. Den hier bezahlt man jedes verbratene MW doppelt.
- Bei vielen Gamern kommt es vor allem darauf an in welchem "Lager" der Mehrverbrauch auftritt. Nur wenn er im anderen Lager auftritt ist er relevant.
- Ich finde es im übrigen lächerlich sich über den Verbrauch aufzuregen, aber die Anforderungen an die Grafik immer weiter hochzuschrauben. Wenn es nicht gelingt effizientere Verfahren für das Berechnen der Grafiken zu finden. Läuft das ganze sehr bald gegen die Wand.
- Aber anstatt die Grenzen zu erkennen, stürzt sich alle Welt auf Verfahren, die noch mehr Rechenleistung verbraten.
- Nur als Anmerkung: Die Miner berechnen Hashs für Transaktionen, und werden dafür bezahlt. D. h. sie ermöglichen Transaktionen, die in den jeweiligen Währungen getätigt werden.
Es ist offensichtlich, dass die GPUs an die Grenze laufen. Auch die neue Halbleiterprozesse können hier nicht mehr aus der Patsche helfen. Wenn man mehr Transistoren benötigt und dies nicht alleine durch die höhere Dichte des neuen Prozesses erreicht wird, muss man mehr Fläche verwenden. Es gibt das Problem dass mit steigender Fläche der Yield sinkt. Und schließlich gibt es das Recticle-Limit (die größte Fläche, die auf einmal belichtet werden kann).
GA100 hat eine TDP von 400 Watt. Laut Gerüchten soll GH100 nun 18432 FP32-Shader haben. GA100 hatte 8192, von denen die A100 6912 nutzt. Ich denke die 1000 W sind nur eine Größenordnung. Um auf 1000 W zu kommen muss Nvidia auch ordentlich an der Taktschraube drehen.
Der Tweet von @kopte7kimi nannte die Fläche des Chips. Stimmen die Zahlen oder hat sich @kopte7kimi vertan? Hierzu gab es auch eine heftige Diskussion auf Twitter. Im ersten Tweet war übrigens von "slightly less than 1000 mm
2" die Rede, dann ist er zurück gerudert und hat die 900 genannt, und nachgelegt, dass sicher ist, dass die Chipfläche im Vergleich zum GA100 ansteigt.
Auf der anderen Seite ist klar, dass der GA100 mit 826 mm
2 schon sehr nahe am Recticle-Limit liegt. Viel Spielraum bleibt nicht.
Alle nehmen an dass Nvidia im Recticle-Limit bleibt. Aber es gibt auch Methoden dies zu durchbrechen. Diese haben ihren Preis. Aber auch das Aufteilen der GPU verursacht Kosten. Chiplets und MCM im sogenannten 2,5D haben das Problem, dass die Signalwege länger sind als wenn alles auf einem Chip bleibt.
Deshalb gehen einige wie Cerebras exakt den gegenteiligen Weg und machen extrem große Chips. Sie haben gewissermaßen die Reparaturen für die unvermeidlichen Fehler bereits eingebaut. Cerebas Wafer Scale Engines hat bei ihrer Fläche von 46225 mm
2 1,5 % Reserve-Cores eingebaut. So viele hätten sie laut anandtech Interview aber nicht benötigt. Zum Vergleich: Bei der A100 verwendet Nvidia nur 108 der im GA100 vorhandenen 128 SM.
Ob die 900 bzw. 1000 mm
2 stimmen oder ein Missverständniss sind, werden wir sehen. Ian Cutress meinte, dass Nvidia die dafür notwendigen Patente für das Überwinden des recticle limits nie bekommen würde. Und wenn man das Recticle Limit umgeht, lohnt es sich tatsächlich für 5 % mehr Fläche?
niteaholic schrieb:
"cost: arm+leg" Sagt ja schon alles
- Cerebras verkauft ihre Wafer Scale Engines nur im System und deshalb nennen sie wahrscheinlich keine Preise für eine WSE-2 keinen Preis. Deshalb hat Ian Cutress arm + leg geschrieben.
- Cerbras hat wohl aus Versehen 2 Millionen $US als Preis für WSE-1 genannt. Hört sich für einen "Chip" teuer an, aber wie viele dieser Wafer Scale Engines werden sie verkaufen?
- Die Produktionskosten werden den kleinsten Anteil am Preis des "Chips" ausmachen. Der Preis für einen belichten Wafer für N7 liegt meines Wissens bei TSMC unter 10 000 $US. Auch die Nachbehandlung (Sägen, Packaging, Testen, ...) wird nicht die Welt kosten.
- Aber die Entwicklung und das Design müssen auch bezahlt werden.
- Und wie wird die Software bezahlt?
Als Vergleich von der Website von Cerebras:
Die Zahlen skalieren schon mit dem höheren Flächenverbrauch. Allerdings gibt es nur Angaben zur Bandbreite. Auch auf der Website gibt es nichts zur Performance.
Ein Cerebras CS-2 ist ein Schrank der um einen WSE-2 herum gebaut wurde. Ein CS-2 hat einen Peak-Verbrauch von 23 kW.
Die Website ist übrigens richtig cool und beinhaltet eine virtuelle Tour durch ein CS-2.
Wenn sie zum Laufen kommen wird das ein ernsthafter Konkurrent für Nvidia.
Das Risiko für Cerebras sind die hohen Einstiegskosten. Deshalb bieten sie auch einen Cloudzugang an.
Hardware69 schrieb:
Ich lese hier immer mal wieder was von gestiegener Effizienz
Ich kann diesen Gedankengang nicht nachvollziehen. Ich verstehe unter gestiegener Effizienz entweder
- gleiche Leistung bei geringerem Strombedarf
- höhere Leistung bei gleichem Strombedarf
Es ist höhere Mathematik.
Effizienz = Performance / Verbrauch
Wenn die Performance und den Faktor 4 steigt und der Verbrauch um den Faktor 2 steigt, um was steigt die Effizienz?
Das deutsche Leistung ist leider doppeldeutig, da es sowohl für die Rechenleistung als auch elektrische Leistung verwendet werden kann.