News Nvidia Hopper („GH100“): Gerüchte sprechen von ~900 mm², 1.000 Watt & Single-Die

Wie sagt man so schön: easy skip.

Mein Angebot sind max. 500€ für RTX 3080-Leistung, 16 GB, max. 200 Watt. Ich habe Zeit. Sehr viel Zeit.
 
  • Gefällt mir
Reaktionen: prev und martin176
PHuV schrieb:
GA100 mit 400 Watt TDP zu GH100 1000 Watt TDP wäre eine kräftige Steigerung, was ich so erst mal für unrealistisch halte. 10% mehr Chipfläche sollte nicht 150% mehr TDP verursachen.
Die Shader saugen den Strom, nicht die Chipfläche.....
 
Damit sollte auch geklärt sein, wieso die aktuelle Generation den neuen Stromstecker bekommen hat. An normalen 8-pins hätten wahrscheinlich nicht mehr genügend auf die Längsseite der Platine gepasst, um den Chip zu versorgen.
 
Da werden Erinnerungen an die Voodoo 5 mit externem Netzteil wach :D
 
  • Gefällt mir
Reaktionen: edenjung, Vitec und Zhan
mastakilla91 schrieb:
Ein Kilowatt, na servas.
Langsam kommen wir in die Generator-Gegend, um nen Rechner zu betreiben.
Uhm, wenn ich mich nicht täusche war Hopper=Server und Lovelace=Endkunde
Glaube kaum das man 1kw Karten für den heimgebrauch auf den Markt bringt.

Ampere läuft an der Kotzgrenze, das muss in Zukunft aber nicht heißen das wir in 4-5 jahren Karten kaufen werden die 2kw verbraten.

Entweder Nvidia setzt in Zukunft auf chiplet design oder auf eine art 3D design mit stapelbaren chips, wenn das überhaupt möglich ist?
Ampere frisst mir einfach Zuviel, gerade meine Asus die bei vollen PL bis zu 480W verbraucht, deshalb habe ich meine 3090 bisher nur UV betrieben, reicht für aktuelle games.
 
Shoryuken94 schrieb:
Die 3090Ti ist der erste Vollausbau eines 102er Chips außerhalb der Titans. Der letzte Vollausbau des größten Chips gab es im Consumermarkt zuletzt bei der 780Ti mit vollem GA110 und nun dann halt irgendwann die 3090Ti.
Ja ok, aber der vollste Ausbau den man im Gaming-Bereich bekommen hat zu dem Zeitpunkt.
 
Spike Py schrieb:
Wenn sich das bewahrheitet, wird die rtx3090 evtl. mein letzter chip sein, den ich mit vollbestückung gekauft habe. das wird mir langsam zu absurd
Ernsthaft? Du weißt schon um welche GPU es hier geht?

Wahnsinn, die Kommentare hier auf CB waren auch schonmal durchdachter....
 
  • Gefällt mir
Reaktionen: owned139, yummycandy und Newbie_9000
Ist mir erst später aufgefallen, dass es um den neuen HPC-Chip geht, zeigt aber eindeutig wohin die Reise geht. Des Weiteren gibt es ganz klar eine Korrelation zwischen dem Verbrauch der HPC- und Desktop-Chips.
 
UNDERESTIMATED schrieb:
@Wishbringer :

Das bringt so nichts, aber:

"hier jetzt ein Zitat von mir: mit Watt und Leistung"

Ich hoffe das meinst du nicht wirklich so.

Ich habe da nochmal drüber gelesen und aus physikalischer Sicht einen Fauxpas begangen.
Watt = Einheit für Leistung
Ja, ich weiß, das kommt durch den Tunnelblick, wenn man allgemeine Begriffe für Rechenleistung verwendet!

Ich meinte:
Man kann vom Stromverbrauch nicht auf die Rechenleistung abzielen!
So wie auch nicht von der GHz-Zahl auf die Rechenleistung....

Bist Du damit zufrieden? :heilig:
 
  • Gefällt mir
Reaktionen: Colindo und UNDERESTIMATED
Spike Py schrieb:
Ist mir erst später aufgefallen, dass es um den neuen HPC-Chip geht, zeigt aber eindeutig wohin die Reise geht. Des Weiteren gibt es ganz klar eine Korrelation zwischen dem Verbrauch der HPC- und Desktop-Chips.
Naja.
Die 1000 Watt beziehen sich aufs Dual GPU MCM Modul.
Das wären 500W pro Chip und der größte auch für consumer releaste Chip dürfte wieder ~50% der Transistoren des Topmodelles haben. Da ginge die Reise eher in Richtung 300W.
 
Na da bin ich mal gespannt. Um die 300W ist bei mir die Schmerzgrenze erreicht. Deutlich darüber ist für mich einfach unverhältnismäßig. (Meine 3090 ist auch etwas optimiert sodass sie unter last "nur" 280W zieht ohne großartig Leistung einzubüßen)
 
michelthemaster schrieb:
1000 Watt Leistungsaufnahme, die sind doch komplett bescheuert...

LG

Micha

wenn der Miner dadurch aber das 5xfachen hashen kann, rentiert sich das wieder :lol:
was geht denen die Umwelt an :freak:
 
Wishbringer schrieb:
Man kann vom Stromverbrauch nicht auf die Rechenleistung abzielen!

In nur dieser Rechnung nicht, exakt das wollte ich damit ja auch aussagen. Mein Argument war auch genau so gemeint: Nämlich mehr als nur isoliert den Verbrauch zu betrachten und dahingehend Rückschließen zu wollen wie verschwenderisch die HPC-Grafikkarten sind.
Das ist einfach Unfug.

Schön, dass wir da dann einer Meinung sind. :)
Ergänzung ()

DiamondDog schrieb:
wenn der Miner dadurch aber das 5xfachen hashen kann, rentiert sich das wieder :lol:
was geht denen die Umwelt an :freak:

Wenn er dann statt 5 Karten nur eine braucht, ist das weitaus effizienter als so mancher hier vielleicht glauben mag.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Eigentlich ist die Meldung kein Grund zum Aufregen. Selbst wenn dann eine 4080 550 bis 600 Watt verbläst, Mann muss sie ja nicht kaufen. Wenn die Chips für den Gaming Bereich ähnlich groß werden, dann genügt auch eine 4070 oder 4060 Ti für die meisten. Diese werden dann sicher auch deutlich weniger verbrauchen und dennoch sehr schnell sein.
 
  • Gefällt mir
Reaktionen: PS828 und Newbie_9000
Maxxx800 schrieb:
Selbst wenn dann eine 4080 550 bis 600 Watt verbläst, Mann muss sie ja nicht kaufen.
Auf welchem Mond lebst du? Das hat ja mit den Preis der aktuellen Gen. so gut geklappt! Papi bezahlt das schon!
 
Mein Umstieg von der Vega64 zur 6900XT war bei ähnlichem stock Verbrauch (max. 300W TBP) etwa 2,5 mal mehr Leistung.

Ich finde so um die 300W lassen sich noch annehmbar mit Luft kühlen. Darüber wirds schwierig und auf WaKü habe ich keine Lust. Für mich ist bei 300W also erstmal Schluss. Ich denke die 6900XT wird auch noch ein paar Jährchen bleiben.
 
  • Gefällt mir
Reaktionen: Eller
Ghosthunt schrieb:
Da nVidia den Strompreis nicht beinflussen kann, erhöht man einfach massiv die benötigte Stromaufnahme so das man für den Strombedarf mehr zahlen muß als was Mining einbringt.
Hopper kommt aber erst nach lovelace?
Im Artikel gehts doch gar nicht um lovelace, denn die wäre der Nachfolger von Ampere.

Mining Karten betreibt man meistens im UV.
Eine 3090 lässt sich so zb. auf 280-320w betreiben und der ampere Nachfolger wird auch wieder die hashrate erhöhen, Karten die 1000w ziehen im heimrechner kann ich mir nicht vorstellen.
 
UNDERESTIMATED schrieb:
Ergänzung ()



Wenn er dann statt 5 Karten nur eine braucht, ist das weitaus effizienter als so mancher hier vielleicht glauben mag.
1. das
2. glaub ich tatsächlich nicht, dass die nur ansatzweise auf die Effizienz achten, sondern was am ende bei rauskommt aus der Karte und welchen wert es hat.
Denn die Stromkosten, in denen diese "revolutionären Weltverbesserer" sitzen, sind vernachlässigbar.
 
Ein 900mm² Chip alter Schwede. So einen Monster Chip würde ich gerne mal in der Hand den Händen halten.
Als Nerd geht einen dabei bestimmt einer ab. 🤣

Ich finde es übrigens auch sehr interessant wie viele User sich hier von den 1000 Watt getriggert fühlen obwohl es sich ja um eine HPC Lösung handelt. Das ist schon irgendwie amüsant, aber auch ein bisschen traurig.

Jedenfalls dürfte Hopper echt heftig werden bei der Chipgröße und der möglichen Leistungsaufnahme, echt spannend auch wenn man als normalo so ein Tier wohl niemals zu Gesicht bekommen wird. :D
MFG Piet
 
Zurück
Oben