News Nvidia Hopper („GH100“): Gerüchte sprechen von ~900 mm², 1.000 Watt & Single-Die

michelthemaster schrieb:
1000 Watt Leistungsaufnahme, die sind doch komplett bescheuert
Das ist doch hier letztlich egal, was eine einzelne Karte an Leistung benötigt. Der Einsatz ist nicht fürs Gaming, sondern für HighPerformance-Computing im Rechenzentrum. Dort werden die Servereinheiten / Blades / Racks / Was-auch-immer i.d.R. mit mehreren Modulen bestückt und es zählt letztlich nur der Gesamtverbrauch und die Effizienz.

Aber nichts für Ungut, ist nur meine Meinung :)
 
  • Gefällt mir
Reaktionen: owned139, Lockenmonster, Haffke und 16 andere
Wie groß der DIE ist - mir doch egal. Wer herstellt? Wurst, ich kaufe das, was ich mir leisten kann und was meinen Anforderungen gerecht wird. AMD oder NVidia ist mir da wurst. Was aber sauer aufstößt ist die Leistungsaufnahme. Bis zu 1000W? What? Und ich muss da Faust widersprechen, ich sehe diese GPUs nicht für Rechenzentren, damit will Nvidia beim Otto Normalanwender Geld verdienen. Und gerade angesichts unserer niedlichen Strompreise ist die Leistungsaufnahme nun nicht egal
 
  • Gefällt mir
Reaktionen: Kha'ak
1000 Watt da geht noch mehr. Meine Steckdose schaltet erst ab 3600 Watt ab. Also Nvidia da geht noch was. Ich möchte den Tag erleben, an dem ich den PC an den Starkstrom anschließen muss.
 
  • Gefällt mir
Reaktionen: uli_2112, Randalizer und cruse
habla2k schrieb:
Mit 1000W ist das doch immer mehr nur noch was fürs Mining, wo der Strom egal ist so lange genug beim schürfen abfällt.
Sehe ich auch so, sobald die nächste Generation erscheint, wird man viele 30XX Karten auf diversen Platformen finden, da die neuen Karten dann statt wie die 3090 125 mh/s mindestens das doppelte leisten.
 
Das ist ein Chip für "Supercomputer" ...
Jene die einen Supercomputer betreiben interessiert der Stromverbrauch in nahezu allen Fällen herzlich wenig.
 
  • Gefällt mir
Reaktionen: cruse und Charminbaer
Hardware69 schrieb:
Wie groß der DIE ist - mir doch egal. Wer herstellt? Wurst, ich kaufe das, was ich mir leisten kann und was meinen Anforderungen gerecht wird. AMD oder NVidia ist mir da wurst. Was aber sauer aufstößt ist die Leistungsaufnahme. Bis zu 1000W? What? Und ich muss da Faust widersprechen, ich sehe diese GPUs nicht für Rechenzentren, damit will Nvidia beim Otto Normalanwender Geld verdienen. Und gerade angesichts unserer niedlichen Strompreise ist die Leistungsaufnahme nun nicht egal

Ähm aber es steht explizit im Artikel das es ein HPC Chip werden könnte.

Eine wassergekühlte HGX-Serie für HPC-Systeme
 
  • Gefällt mir
Reaktionen: brauna1, domian und Colindo
Bei den Beta-Spielen heutzutage, Hardwarepreisen und Leistungsaufnahmen machen sie einem den Ausstieg aus dem PC-Gaming wenigstens leicht.
 
  • Gefällt mir
Reaktionen: Illithide und Felix#
Wieso tun hier soviele überrascht, hat jemand was anderes erwartet? Schaut euch doch die letzten Generationen an. xD
 
  • Gefällt mir
Reaktionen: RaptorTP
CDLABSRadonP... schrieb:
Wahrscheinlich werden hier aktuell DualDIE- und SingleDIE-Daten in einen Topf geschmissen. 500W pro Chip klingt durchaus realistisch. Vergleiche zu ersterem auch die letzte 3DCenter-Aufarbeitung:
https://www.3dcenter.org/news/news-des-2930-januar-2022
Deshalb, mal abwarten, Tee oder Kaffee trinken und schauen, was die Energieeffizienz bzgl. Performance per Watt ergibt. Hier sah bisher Nivida eigentlich recht gut aus, und ich nehme mal an, daß sie das bei Hopper nicht anders machen werden.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Den Chip wird wohl kaum einer der hier Anwesenden jemals zu Gesicht bekommen. Wer aber nur die Überschrift ließt und sich dann getriggert fühlt…
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, FlixZ, owned139 und 5 andere
Bin mal gespannnt was dabei rauskommt wenn man sichere Daten bekommt.
 
Zuletzt bearbeitet:
Ich mag die News zu den neuen Generationen.
Man merkt einfach, dass nichts klar ist und das entweder mit einem großen Wurf zu rechnen ist oder eher ein Debakel droht. Je nachdem auf welche Technologien man vertraut.

Mir scheint es so, dass der monolithische Aufbau an den Grenzen des machbaren steht und daher es sinnvoller erscheint ins multichiplet Design zu gehen.

In jedem Fall ist die Bereitschaft bei den Usern gesunken noch mehr TBP den Karten zukommen zu lassen.
Für meinen Teil habe ich sogar meine Strix 3090 gewinnbringend verkauft um sie durch eine 3070 zu ersetzen.

Allein für die Preisdifferenz zwischen den Karten könnte ich wahrscheinlich einen Nachfolger zum Release kaufen, welcher oberhalb einer 3090 performt.
 
Immer dieses geheule bezüglich Strom. Ganz einfach: es werden deutlich mehr Transistoren verbaut, welche entsprechend Strom brauchen. Dieser Chip ist nichts für Spieler.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, Pisaro, read-only und eine weitere Person
Ach, was! Denkt ihr die Hersteller wissen nicht Bescheid, das die Energiekosten keine Rolle mehr spielen wird? Wir bekommen "Freie Energie" aus dem Universum, Dank Nicola Tesla. Freie Energie, Zukunftsmusik? Real!
 
Zuletzt bearbeitet:
Tawheed schrieb:
Immer dieses geheule bezüglich Strom. Ganz einfach: es werden deutlich mehr Transistoren verbaut, welche entsprechend Strom brauchen. Dieser Chip ist nichts für Spieler.
Verwunderlich, nachdem bei NV bei den letzten Generationen die Leistungsaufnahme deutlich zugenommen hat? Mal unabhängig der ökonomischen Folgen von höheren Stromverbrauch, würde es uns als Gesellschaft wesentlich besser helfen, wenn wir mal anfangen würden, schonender und sparsamer mit unseren Ressourcen umzugehen.

Hier reden wir sehr wahrscheinlich nicht über einen Consumer-Chip. Aber auf dessen Basis wird ein Consumer-Chip folgen, der scheinbar noch einmal mehr ziehen wird, als es Ampere schon tut.
 
  • Gefällt mir
Reaktionen: Recharging
habla2k schrieb:
Mit 1000W ist das doch immer mehr nur noch was fürs Mining, wo der Strom egal ist so lange genug beim schürfen abfällt.
Könnte falscher nicht seine. Nirgendwo ist die Effizienz so wichtig wie beim mining. Bei allen anderen Anwendungen gibt es noch andere Kostenfaktoren (Lohn, Software, etc) die viel höher sind als die Stromkosten.
Bei einem Ingenieur ist es egal, aber die GPU in seinem PC un der Stunde 10 Cent oder 2 Euro Stromkosten verursacht, wenn er mit seinem Stundenlohn knapp 100 Euro kostet.
Bei den gamern ist es ähnlich, wenn ich mir ein Spiel für 10 euro kaufe, und 20 Stunden spiele, war das teuerste das Spiel und dann die GPU und dann der Strom.
 
  • Gefällt mir
Reaktionen: paccoderpster, read-only, Charminbaer und eine weitere Person
Zurück
Oben