News Nvidia Hopper („GH100“): Gerüchte sprechen von ~900 mm², 1.000 Watt & Single-Die

Lord_X schrieb:
Auf welchem Mond lebst du? Das hat ja mit den Preis der aktuellen Gen. so gut geklappt! Papi bezahlt das schon!
Was hat das mit den Preisen zu tun??
Und ja ich bin Papi, und ich bezahle meine GPUs 😂

PS. Und zum Glück auf der Erde, kein Mond 😉
 
  • Gefällt mir
Reaktionen: Sun-Berg
Mich interessiert nur gute Mittelklasse unter 200 Watt und wenig im idle und Multimonitoring. Darüber ist für mich nicht interessant. Schade das es nur noch um Spitzenmodelle geht.
 
HPC ist nicht Gaming. Daher locker bleiben. Lovelace kann wieder anders aussehen.
 
  • Gefällt mir
Reaktionen: edenjung
Kaum steht 1.000 W in der Headline, obwohl es NUR ein Gerücht ist, bekommen einige User hier direkt Schnappatmung.^^ Außerdem geht es um Hopper und der ist meines Wissens nach für HPC vorgesehen und nicht für den Heimanwender. Da kommen mit Sicherheit genügsame Varianten auf Basis von Locelace auf den Markt.^^
 
  • Gefällt mir
Reaktionen: owned139 und Angry Cat
Nur mal so Interessehalber, wie kühlt man 1000W von so einer "kleinen" Fläche effizient und mit welche Art Kühlung, Wasser?
 
Was ich hier so witzig finde:
  • Der Artikel stellt eindeutig klar, dass es Gerüchte sind. Diese wurde auch auf Twitter diskutiert. Und Sven hat recht, die Tweets kommen von im allgemeinen verlässlichen Tweetern
  • Der Artikel sagt eindeutig, dass es um Serverkarten geht.
  • Und dann heulen hier die meisten wegen dem Stromverbrauch bei den Gaming-Grafikkarten herum.
    • Es sind defacto viele Gamer bei denen der Stromverbrauch keine Rolle spielt. Bei den sogenannten Minern und bei den Servern ist die Effizienz extrem wichtig. Den hier bezahlt man jedes verbratene MW doppelt.
    • Bei vielen Gamern kommt es vor allem darauf an in welchem "Lager" der Mehrverbrauch auftritt. Nur wenn er im anderen Lager auftritt ist er relevant.
    • Ich finde es im übrigen lächerlich sich über den Verbrauch aufzuregen, aber die Anforderungen an die Grafik immer weiter hochzuschrauben. Wenn es nicht gelingt effizientere Verfahren für das Berechnen der Grafiken zu finden. Läuft das ganze sehr bald gegen die Wand.
    • Aber anstatt die Grenzen zu erkennen, stürzt sich alle Welt auf Verfahren, die noch mehr Rechenleistung verbraten.
  • Nur als Anmerkung: Die Miner berechnen Hashs für Transaktionen, und werden dafür bezahlt. D. h. sie ermöglichen Transaktionen, die in den jeweiligen Währungen getätigt werden.
Es ist offensichtlich, dass die GPUs an die Grenze laufen. Auch die neue Halbleiterprozesse können hier nicht mehr aus der Patsche helfen. Wenn man mehr Transistoren benötigt und dies nicht alleine durch die höhere Dichte des neuen Prozesses erreicht wird, muss man mehr Fläche verwenden. Es gibt das Problem dass mit steigender Fläche der Yield sinkt. Und schließlich gibt es das Recticle-Limit (die größte Fläche, die auf einmal belichtet werden kann).

GA100 hat eine TDP von 400 Watt. Laut Gerüchten soll GH100 nun 18432 FP32-Shader haben. GA100 hatte 8192, von denen die A100 6912 nutzt. Ich denke die 1000 W sind nur eine Größenordnung. Um auf 1000 W zu kommen muss Nvidia auch ordentlich an der Taktschraube drehen.

Der Tweet von @kopte7kimi nannte die Fläche des Chips. Stimmen die Zahlen oder hat sich @kopte7kimi vertan? Hierzu gab es auch eine heftige Diskussion auf Twitter. Im ersten Tweet war übrigens von "slightly less than 1000 mm2" die Rede, dann ist er zurück gerudert und hat die 900 genannt, und nachgelegt, dass sicher ist, dass die Chipfläche im Vergleich zum GA100 ansteigt.
Auf der anderen Seite ist klar, dass der GA100 mit 826 mm2 schon sehr nahe am Recticle-Limit liegt. Viel Spielraum bleibt nicht.

Alle nehmen an dass Nvidia im Recticle-Limit bleibt. Aber es gibt auch Methoden dies zu durchbrechen. Diese haben ihren Preis. Aber auch das Aufteilen der GPU verursacht Kosten. Chiplets und MCM im sogenannten 2,5D haben das Problem, dass die Signalwege länger sind als wenn alles auf einem Chip bleibt.

Deshalb gehen einige wie Cerebras exakt den gegenteiligen Weg und machen extrem große Chips. Sie haben gewissermaßen die Reparaturen für die unvermeidlichen Fehler bereits eingebaut. Cerebas Wafer Scale Engines hat bei ihrer Fläche von 46225 mm2 1,5 % Reserve-Cores eingebaut. So viele hätten sie laut anandtech Interview aber nicht benötigt. Zum Vergleich: Bei der A100 verwendet Nvidia nur 108 der im GA100 vorhandenen 128 SM.

Ob die 900 bzw. 1000 mm2 stimmen oder ein Missverständniss sind, werden wir sehen. Ian Cutress meinte, dass Nvidia die dafür notwendigen Patente für das Überwinden des recticle limits nie bekommen würde. Und wenn man das Recticle Limit umgeht, lohnt es sich tatsächlich für 5 % mehr Fläche?

niteaholic schrieb:
"cost: arm+leg" Sagt ja schon alles :D
  1. Cerebras verkauft ihre Wafer Scale Engines nur im System und deshalb nennen sie wahrscheinlich keine Preise für eine WSE-2 keinen Preis. Deshalb hat Ian Cutress arm + leg geschrieben.
  2. Cerbras hat wohl aus Versehen 2 Millionen $US als Preis für WSE-1 genannt. Hört sich für einen "Chip" teuer an, aber wie viele dieser Wafer Scale Engines werden sie verkaufen?
    1. Die Produktionskosten werden den kleinsten Anteil am Preis des "Chips" ausmachen. Der Preis für einen belichten Wafer für N7 liegt meines Wissens bei TSMC unter 10 000 $US. Auch die Nachbehandlung (Sägen, Packaging, Testen, ...) wird nicht die Welt kosten.
    2. Aber die Entwicklung und das Design müssen auch bezahlt werden.
    3. Und wie wird die Software bezahlt?
Als Vergleich von der Website von Cerebras:
1643664096965.png

Die Zahlen skalieren schon mit dem höheren Flächenverbrauch. Allerdings gibt es nur Angaben zur Bandbreite. Auch auf der Website gibt es nichts zur Performance.

Ein Cerebras CS-2 ist ein Schrank der um einen WSE-2 herum gebaut wurde. Ein CS-2 hat einen Peak-Verbrauch von 23 kW.

Die Website ist übrigens richtig cool und beinhaltet eine virtuelle Tour durch ein CS-2.

Wenn sie zum Laufen kommen wird das ein ernsthafter Konkurrent für Nvidia.

Das Risiko für Cerebras sind die hohen Einstiegskosten. Deshalb bieten sie auch einen Cloudzugang an.

Hardware69 schrieb:
Ich lese hier immer mal wieder was von gestiegener Effizienz

Ich kann diesen Gedankengang nicht nachvollziehen. Ich verstehe unter gestiegener Effizienz entweder
  • gleiche Leistung bei geringerem Strombedarf
  • höhere Leistung bei gleichem Strombedarf
Es ist höhere Mathematik.

Effizienz = Performance / Verbrauch

Wenn die Performance und den Faktor 4 steigt und der Verbrauch um den Faktor 2 steigt, um was steigt die Effizienz?

Das deutsche Leistung ist leider doppeldeutig, da es sowohl für die Rechenleistung als auch elektrische Leistung verwendet werden kann.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Sind nur Gerüchte 1000 Watt GPU wird man vermutlich nur für medizinische Zwecke oder VR brauchen,
welches schon fast gestorben ist, eine Grafikkarte kauft man nur dann, wenn die neue doppelt so
schnell ist, eine RTX 2080 ist so schnell wie meine 1080ti gewesen.

Ich habe eine Asus RTX 3090 nur wegen 4K gekauft, so schnell wird Nvidia die Leistung
nicht verdoppeln können, leider bietet Asus keine Garantieverlängerung von 3 auf 5 Jahren wie EVGA oder Zotac sonst hätte ich diese für 1700 Euro nicht gekauft.
 
68000 schrieb:
Nur mal so Interessehalber, wie kühlt man 1000W von so einer "kleinen" Fläche effizient und mit welche Art Kühlung, Wasser?
Alle wirklich effizienten Kühlungen arbeiten mit Flüssigkeiten. Flüssigkeiten können viel mehr Wärme als Gase transportieren. Besonders wenn man das Volumen betrachtet.

Die beste Kühlleistungen erreicht man, wenn man im Wärmetauscher einen Phasenübergang (Flüssigkeit => Gas) hat. Deshalb wird oft nicht mit Wasser gearbeitet, denn dessen Siedepunkt von 100 °C ist zu hoch
 
  • Gefällt mir
Reaktionen: 68000
SV3N schrieb:
@pipip ich kann mit „Disses“ leben, das ist mein täglich Brot. 😄
DICH habe ich aber nicht gedisst. Nur die Gattung der selektiv Lesenden oder die willkürlichen Kontextumdeuter hier ^^
 
  • Gefällt mir
Reaktionen: SVΞN
Ich weiß @Laphonso, deshalb habe ich deinen Beitrag doch auch geliked. War auch nur ein Spaß meinerseits. ;)
 
  • Gefällt mir
Reaktionen: Laphonso
Angry Cat schrieb:
Ich habe eine Asus RTX 3090 nur wegen 4K gekauft, so schnell wird Nvidia die Leistung
nicht verdoppeln können, leider bietet Asus keine Garantieverlängerung von 3 auf 5 Jahren wie EVGA oder Zotac sonst hätte ich diese für 1700 Euro nicht gekauft.
Dann leg schon Mal das Geld für den Herbst bereit.

Die Gerüchteküche überschlägt sich. Die Gerüchte gehen im Vergleich zur RTX3090 von der doppelten Anzahl von Shadern und höherer Taktfrequenz aus.

Eine Verdopplung der Rohleistung im Vergleich zur 3900 ist im Bereich des Möglichen. Was in den Games ankommt wird man sehen.

Aber auch bei AMD wird mit großen Zahlen gehandelt
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Aber auch bei AMD wird mit großen Zahlen gehandelt (…)

Ja, Navi 31 auf Basis von RDNA 3 werden 15.360 Shader im MCM-Design nachgesagt.

Bei Nvidia wird es wohl auch diese Richtung gehen.

Die Netzteilhersteller reiben sich schon die Hände, so munkelt man. :D
 
  • Gefällt mir
Reaktionen: time-machine
ETI1120 schrieb:
Die beste Kühlleistungen erreicht man, wenn man im Wärmetauscher einen Phasenübergang (Flüssigkeit => Gas) hat. Deshalb wird oft nicht mit Wasser gearbeitet, denn dessen Siedepunkt von 100 °C ist zu hoch

Die Uebergaenge Fluessig->Gas und Gas->Fluessig sind tatsaechlich das Geheimnis von Heat pipes. Die Heat pipes fuer PCs verwenden gerne Wasser, denn das hat eine besonders hohe Verdunstungswaerme, und der Temperaturbereich passt (ueber dem Schmelzpunkt und deutlich unter dem kritischen Punkt). Der Siedepunkt ist vom Druck abhaengig, und in einer Heat pipe stellt sich der Druck so ein, dass das Wasser auf der heissen Seite verdampft, und auf der kalten Seite kondensiert.
 
bei jeder kaffeesatzleserei ist das immer spanned wie direkt der teufel an die wand gemalt wird. es wird weder gelesen dass es ein HPC chip ist, noch für welchen markt er gedacht ist und was die leistungseckdaten wenn sie stimmen für die Performance pro Watt usw. bedeuten.

lasst bitte die Kirche im Dorf, es ist alles in Ordnung :) ich freue mich eher darüber was heute möglich ist und wo das ganze noch hinführt. mehr lässt sich stand jetzt sowieso noch nicht sagen
 
  • Gefällt mir
Reaktionen: owned139
SV3N schrieb:
Ja, Navi 31 auf Basis von RDNA 3 werden 15.360 Shader im MCM-Design nachgesagt.
Bei dem Post konnte ich nicht widerstehen. Sonst halte ich mich mit Gerüchten eher zurück.

Bei den MI200 war ich doch ein wenig überrascht, dass AMD ein MCM-Design gewählt hat.
Allerdings sind die MI200 auch für die Software 2 GPUs. Somit kann AMD halt durch diesen "Trick" 8 anstatt 4 GPUs mit einer CPU koppeln.

Ich denke nicht dass AMD diesen Weg mit 2 GPUs bei RDNA 3 gehen wird. Wenn ich raten soll dann tippe ich auf das Active Bridge Patent und TSMC SoIC als Packaging Technik.

SV3N schrieb:
Bei Nvidia wird es wohl auch diese Richtung gehen.
Ich bin gespannt, ob AMD den Faktor 3 auf die Straße bringt. Vor allem wenn sie nun von CU auf WGP wechseln. Nvidia konnte den Shaderzuwachs bei RTX 3000 nicht komplett in Gaming Performance umsetzen.

Auf alle Fälle wird das Duell RX7000 gegen RTX4000 sehr interessant werden. Wobei ich zugeben muss dass mich vor allem die Technik fasziniert. Die Spiele mit denen ich meine Zeit verplempere stellen meist nur eine geringe Anforderung an die Grafik. Für mich ist ein interessantes Spielprinzip immer wichtiger als eine realistische Grafik.
SV3N schrieb:
Die Netzteilhersteller reiben sich schon die Hände, so munkelt man. :D
Meiner Meinung nach haben Nvidia und AMD beinahe die Grenze erreicht. Die Leute wollen Gaming PCs und keine Heizlüfter.

Ich hoffe, dass bei der neuen Runde AMD und Nvidia den Verstand walten lassen und ihre Boliden für die Normalanwender im Sweetspot betreiben. Sie können ja einen Turbo-Mode bzw. Benchmark-Mode für die Speedfreaks anbieten.

Das große Problem ist allerdings der Wettlauf zwischen AMD und Nvidia. Wenn jetzt auch noch Intel einsteigt befürchte ich schlimmes. Also, dass der Verstand auf der Strecke bleibt. Ich finde es grotesk 5% mehr Performance durch 50 % mehr Verbrauch zu erreichen.

PS: Ich finde es toll, dass ihr nicht nur PCs im Blick habt. Aber leider verstehen viele hier im Forum nicht, dass es auch andere Anwendungen für GPUs gibt als Gaming. Offensichtlich muss man im Klartext schreiben: Achtung im folgenden Artikel geht es nicht um Gaming GPUs, ...
 
Zuletzt bearbeitet:
PS828 schrieb:
bei jeder kaffeesatzleserei ist das immer spanned wie direkt der teufel an die wand gemalt wird. es wird weder gelesen dass es ein HPC chip ist, noch für welchen markt er gedacht ist und
Meine Meinung:
  • Einige haben die 1000 W gelesen und sofort gepostet ohne den komplett Artikel zu lesen und über den Inhalt nachzudenken.
  • Einige haben keine Ahnung was HPC bedeutet.
  • Einige glauben das Nvidia nur Gaming CPUs anbietet.
  • Einige wollen nur ihren Frust rauslassen, dass die Grafikkarten sehr teuer geworden sind. Und das tun sie bei jedem Artikel bei dem GPU auftauscht
PS828 schrieb:
was die leistungseckdaten wenn sie stimmen für die Performance pro Watt usw. bedeuten.
Dazu hält sich Nvidia wie immer bedeckt. Aber hier werden sie klotzen müssen. Denn sehr viele Unternehmen wollen sich etwas vom KI/ML-Kuchen abschneiden.

Ich denke AMD hat was die Numerik angeht, mit der MI200 ordentlich geliefert.

Allerdings gibt es bei KI, ML etc. sehr viele Anbieter, die weit mehr bieten als AMD. Es wird interessant sein, ob diese Startups schnell genug wachsen können, um sich tatsächlich einen größeren Teil vom Kuchen abzuschneiden.

PS828 schrieb:
lasst bitte die Kirche im Dorf, es ist alles in Ordnung :)
Du hast einerseits rechts andererseit nicht.

Du hast recht, in dem Sinn: Wenn etwas produktives geleistet wird und wenn die Effizienz von Generation zu Generation steigt, geht es in die richtige Richtung.

Andererseits
  • Ich habe das Gefühl ein erheblich Teil des Computings nicht produktiv ist.
  • Ich habe das Gefühl, dass da ein paar neue Lösungsansätze her müssen.
Beim Gaming finde ich laufen wir an Grenzen. Mein Gefühl ist, dass viel zu viel Rechenleistung für Pixel verblasen wird, die niemand ansieht. Wenn man die Darstellungsqualität weiter erhöhen will muss man die begrenzte Leistung des menschlichen Sehvermögens berücksichtigen.

Der Schlüssel dazu liegt in der Debatte über das Raytracing. Wenn man über Raytracing die Spiegelungen berechnet dann sind sie real wie sie auch vorhanden sind. Allerdings können wir in der Realität einen Großteil dieser Spiegelungen nicht wahrnehmen. Wir nehmen nur die Spiegelung im Zentrum unseres Sehfelds war. Die anderen nehmen wir allenfalls war, wenn sie in der Helligkeit alles andere überstrahlen.

Das Problem für das Game ist, woher weiß es wo der Spieler hinschaut. Ist es tatsächlich die Bildschirmmitte?

Alles was die benötigte Rechenleistung senkt ist positiv.

PS828 schrieb:
ich freue mich eher darüber was heute möglich ist und wo das ganze noch hinführt. mehr lässt sich stand jetzt sowieso noch nicht sagen
Mich fasziniert Technik. Manches verstehe ich, vieles bewundere ich nur.
Ergänzung ()

eastcoast_pete schrieb:
"Elektrisch heizen mit NVIDIA" Wo kann ich mir den Slogan urheberrechtlich schützen lassen?
"Elektrisch heizen mit AMD" und "Elektrisch heizen mit Intel" willst Du Dir nicht schützen lassen?

Meine erste CPU der MC68000 hatte einen Verbrauch von 1,35 W. Natürlich leisten die heutigen CPUs und GPUs unvorstellbar viel mehr.

Btw. auf meiner ersten Festplatte hätte ich ca. 20 Bilder meiner Handykamera ablegen können.

Wir waren fassungslos als wir von den DEC Alpha CPUs hörten die 30 Watt gezogen haben. Wir haben gewitzelt, wann Toaster CPUs als Heizelemente verwenden.
 
Zuletzt bearbeitet:
Die 1000 Watt halte ich für absolut unrealistisch und denke, dass ein Glied der Informationskette die Zahl falsch weitergegeben hat. Ggf. werden 1000 Watt eine kurzfristige Peak-Leistung für wenige Millisekunden sein, oder die empfohlene Größe für Netzteile. Realistisch gehe ich bei der DIE-Fläche eher von 450 bis 500 Watt aus, was zwar immer noch viel, aber nichts dramatisches wäre, insbesondere nicht beim HPC-Bereich.
 
Wow, German Angst und German Beissreflex schlagen hier wieder voll zu. 🤣

a) der Chip wird niemals in so einem Vollausbau kommen für Gamer
b) Ich würd das Topmodell auf 5-600W schätzen
c) Wäre das für fast doppelte Leistung immer noch sehr effizient in fps/W
d) kann man diese Karten bestimmt auch wieder prima Powerlimitieren/UVen
e) muss keiner ein Topmodell das 600W zieht kaufen

Wieder also viel Geplärr :heul: um nichts. Am Ende kaufen 80% aller Zocker eh das 200W (Lower)-Midrange Modell und genießen ihren evtl. 50-80% Performance Boost.

Man kanns den Leuten echt nicht recht machen. Was ist denn die Erwartungshaltung ? Eine 299€ Karte die 2x 3090 Performance liefert aber das bei 80W ? Man man man 🤦‍♂️
 
Zurück
Oben