News Nvidia Hopper („GH100“): Gerüchte sprechen von ~900 mm², 1.000 Watt & Single-Die

Sulforia schrieb:
In Zeiten der Pandemie wo finanziell allgemein schwierig ist und wo alles teurer wird, hat NV nicht besseres zu tun als Stromfresser zu produzieren die sowieso kaum lieferbar sind und bald kaum sich jmd leisten kann?

Zum einen geht es nicht allen in der Pandemie finanziell schlecht, zum anderen bist du auch jemand den man mit einer hohen Wattangabe triggern kann, ohne mal über die Effizienz nachzudenken, die man jetzt nicht einschätzen kann.

Zum anderen handelt es sich hier um ein Workstation bzw. Serverprodukt und kein Spielzeug. Der Sinn dahinter ist damit Geld zu verdienen und wenn ich mir die entsprechenden Firmen angucke, die solche Karten nutzen, sollte das Thema leisten weniger ein Problem sein.

Auch die Lieferbarkeit nicht. Die A100 ist unterhalb der UVP sofort lieferbar.

Zum Thema Stromkosten. Deutschland ist nicht der Nabel der Welt und Strom in weiten Teilen dieser Erde deutlich günstiger und oftmals auch deutlich sauberer als in Deutschland.

Und das fasst ganz gut zusammen, warum Computerbase keinen Spaß mehr macht. Nur noch Meckerköppe die auf ein paar Buzzwords anspringen und ohne Bezug zum Thema mit immer den gleichen Themen jegliche interessante Diskussion erfolgreich verhindern. Vielen Dank, damit macht man ein Forum kaputt.
Ergänzung ()

DischargeHammer schrieb:
Vielleicht wäre es mal an der Zeit solche Geräte mit exorbitantem Stromverbrauch stärker zu besteuern. Oder zumindest eine FPS/Watt Energieampel oder etwas vergleichbares einführen.


FPS/Watt ist natürlich bei einem HPC Beschleuniger wie hier eine super Messeinheit.... Lesen manche den Artikel nicht, wird nicht verstanden was das Thema ist, oder ist sowas gar Absicht?

Davon mal ab das das eine ziemlich bescheidene Entscheidung wäre. Verbraucht man mehr Energie, zahlt man automatisch schon höhere Abgaben an den Staat. Bei solchen Forderungen ist es kein Wunder, dass Deutschland beim Thema Fortschritt ein kleines Licht ist. Fortschritt wird durch staatliche Auflagen und hohe Kosten ins Ausland vertrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, Newbie_9000, PS828 und 3 andere
Die Verordnungen gelten für Standby und mittlere/durchschnittliche Verbräuche.
Bei Höchstleistung muss auch immer die Zeit in Relation stehen, bis eine Arbeit verrichtet ist. Wenn eine Berechnung in 1/10 der Zeit geschafft wird mit weniger als der 10-fachen Energie, dann ist es effizienter als die Arbeit mit einer Maschine, die 10 mal so lange braucht und dabei für die gleiche Arbeit mehr Energie benötigt. Oder eine Maschine ersetzt 10 alte, die mehr Energie brauchen.
Wenn einfach Leistungen über einem bestimmten Wert verboten werden, wird Fortschritt verhindert.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und Shoryuken94
1000 Watt....
Ok....
1 Netzteil für die Grafikkarte
1 Netzteil für den Rest des pc's.

Damals gabs doch 2 Gpu chips auf 1 karte....wird zeit für 2 Netzteile in einem gehäuse.
 
Mehr Leistung ist ja immer gut und wünschenswert. Aber aktuell geht das wohl fast nur noch über die höhere Leistungsaufnahme...
 
Anstatt hier solche Monster zu erschaffen, wäre ich dankbar wenn man das vorhandene mal zu normalen Preisen verfügbar machen würde. Ich werde wohl lange Zeit keine neue Hardware mehr kaufen wenn das so weiter geht.
 
„Der Grafikprozessor soll aber wohl doch keine Multi-Chip-GPU werden.“

Ist schon ganz gut so, SLI war ja auch nie wirklich gut, bis zum Schluss nicht. Deswegen ist es ja komplett in der Versenkung verschwunden.
 
Ich lese hier immer mal wieder was von gestiegener Effizienz

Ich kann diesen Gedankengang nicht nachvollziehen. Ich verstehe unter gestiegener Effizienz entweder
  • gleiche Leistung bei geringerem Strombedarf
  • höhere Leistung bei gleichem Strombedarf
 
Wenn das stimmt, könnte AMD mit den Ciplets + großem Die-Cache vor allem für Gamer an nvidia vorbeiziehen und aufgrund der bei kleineren Dies potentiell höheren Ausbeute das bessere Angebot machen können - Verfügbarkeit und und Unattraktivität für Miner vorausgesetzt.
 
  • Gefällt mir
Reaktionen: Maxxx800
anappleaday schrieb:
Ist schon ganz gut so, SLI war ja auch nie wirklich gut, bis zum Schluss nicht. Deswegen ist es ja komplett in der Versenkung verschwunden.

MCM hat nichts mit SLI zu tun. Es werden mehrere Chips verwendet, die zusammen arbeiten und als eine GPU vom System angesprochen werden. Ähnlich wie es bei einem Ryzenprozessor mit 12 oder 16 Kernen der Fall ist. Dort werden auch zwei Chips mit 8 Kernen verwendet, das System sieht das aber als einen Prozessor und kann Ihn auch so ansprechen.

Hardware69 schrieb:
Ich kann diesen Gedankengang nicht nachvollziehen. Ich verstehe unter gestiegener Effizienz entweder

Kein Wunder das du das nicht nachvollziehen kannst. Du gehst von einer eigenen, ziemlich falschen Definition aus.

Wenn eine 1000 Watt GPU 20 mal schneller als eine 100 Watt GPU ist, dann ist diese deutlich effizienter. Für die gleiche Arbeit musst du deutlich weniger Elektrische Energie aufbringen. Alternativ ist die 1000 Watt GPU mit der gestellten Aufgabe deutlich schneller fertig.

Für die Effizienz ist nur die aufgebrachte Energie pro Leistungseinheit wichtig. Wie groß man das skaliert ist für die Effizienz völlig egal. Es zählt nur wie viel Energie muss ich für das Ergebnis aufbringen.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und deo
4to cka3al schrieb:
Ich möchte den Tag erleben, an dem ich den PC an den Starkstrom anschließen muss.
Da brauch ich erstmal einen neuen Zähler, meiner ist nämlich nur 1phasig - 3phasig liegt aber bis in die wohnung und ist nur gebrückt.
hätte kein problem mit 400V starkstrom für den rechner ^^
Charminbaer schrieb:
HPC Chip werden könnte
im twitter post steht hpc only...
aber vermutlich kam der post erst später in den artikel
 
  • Gefällt mir
Reaktionen: Newbie_9000
Hardware69 schrieb:
Und ich muss da Faust widersprechen, ich sehe diese GPUs nicht für Rechenzentren, damit will Nvidia beim Otto Normalanwender Geld verdienen. Und gerade angesichts unserer niedlichen Strompreise ist die Leistungsaufnahme nun nicht egal

Wenn Hardware69 einen GH100, der wie schon sein Vorgänger GA100 höchstwahrscheinlich nicht mal ein Bild ausgeben kann und in Produkten für gerne mal fünfstellige Beträge steckt, beim Otto Normalanwender sieht, wird das wohl so stimmen.

Ich hab jetzt nur Seite 1 und 2 gelesen und 80% der Kommentare waren der letzte Müll, der nicht einmal zum Thema der News passt. Vielleicht sollte man darüber nachdenken, die Einschränkungen aus Politikbeiträgen auch auf Beiträge zu Grafikkarten zu übertragen.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, owned139, ComputerJunge und 3 andere
mae schrieb:
Die Grenze der Belichtungsmaschinen ist laut Wikichip derzeit bei 26mm*33mm=858mm^2. Aber naja, ist schon 95% von 900mm^2, da kann man vielleicht von "ungefaehr 900" reden.
Ich glaube nicht, dass diese Werte noch ganz aktuell sind. Das Maskensubstrat ist 152x152mm und man braucht rundrum ein paar Millimeter für's Handling, Barcodes und die Halterung für's Pellicle. Das begrenzt die maximale Ausdehnung des Patterns auf einer Maske, und wird 1:4 verkleinert abgebildet. Die "Brachflächen" am Maskenrand wurden in den letzten Jahren immer mal wieder minimal verkleinert. Der (rechteckige) beam des 193nm-Lasers gibt das noch her, und bei EUV-Layern wird die Maske abgescant. Die 900mm^2 sind also nicht aus der Welt, aber hart am Limit.
 
  • Gefällt mir
Reaktionen: ComputerJunge
1. Quelle ist so eine Sache, die 1000 Watt sehe ich eher, maximal, beim Gesamtsystem.
2. Eine Grafikkarte für Gaming mit 1000 Watt + 400 Watt System macht überhaupt keinen Sinn. Das wären komplett andere Dimensionen als in der aktuellen Generation.
3. Am Ende wird es auf ca. 500 Watt hinauslaufen, was ich schon nicht mehr unterstützen werde. Meine nächste Grafikkarte wird um die 250 Watt liegen. Entweder wirds dann eine 4070 oder 4060. Ganz einfach.
 
  • Gefällt mir
Reaktionen: Spike Py
Kann mich einer aufklären?
Lovelace soll der Nachfolger von Ampere werden, RTX40XX, aber was ist dann Hopper, wohl nicht für Spieler sondern Super PC's usw?
 
Gibt ja genug Sterne in der Milchstraße. Zukünftig werden dann Grafikkarten mit dazugehörenden Dyson-Sphären verkauft :D

nVidia hat mittlerweile das gleiche Problem, das auch Intel aktuell besitzt - und beides sind jeweils Probleme, die früher noch beim Konkurrenten AMD anzutreffen waren, sowohl bei CPUs, als auch GPUs.

Das Problem nennt sich: Leistungseffizienz

Klar, es ist immer toll, den dicksten, längsten, größten zu haben, aber zu welchem Preis?

Eine RTX 3090 ist im Schnitt ca. 7% schneller in UHD unterwegs, als eine RX 6900 XT. Dafür benötigt sie aber im Schnitt auch 17% mehr Strom.

In den Klassen darunter wird das Ganze noch viel deutlicher:
Eine RX 6600 XT ist nicht nur ca. 10% (in Full HD und auch in WQHD) schneller als eine RTX 3060, sie braucht dafür auch noch 15% weniger Strom.

Das ist das aktuell wahre Problem von nVidia UND auch von Intel. Ein 12700K, der unter Last in Cinebench nicht nur 10% langsamer rendert als ein Ryzen 5900X, sondern gleichzeitig auch noch 50 Watt mehr aus der Steckdose zieht, ist einfach kein vollumfänglich gutes Produkt.

nVidia-Grafikkarten wie auch Intel-Prozessoren sind schnell und teilweise schneller als die AMD-Konkurrenz - aber vom Standpunkt eines technologischen Fortschritts aus betrachtet sind sie zu belächeln, denn 20% mehr elektrische Leistung zuzuführen, um 5% schneller als die Konkurrenz zu werden, ist KEIN Achievement im Sinne des Fortschritts. Ganz im Gegenteil.
Ergänzung ()

ReinerReinhardt schrieb:
Kann mich einer aufklären?
Lovelace soll der Nachfolger von Ampere werden, RTX40XX, aber was ist dann Hopper, wohl nicht für Spieler sondern Super PC's usw?
Korrekt. Zur weiteren Aufklärung: weg mit dem Apostroph ^^
Noch weiter aufgeklärt: "Super PCs" würde "Super Personal Computer" bedeuten, du meinst vermutlich "Super Computer".
 
  • Gefällt mir
Reaktionen: ReinerReinhardt
Ayo34 schrieb:
3. Am Ende wird es auf ca. 500 Watt hinauslaufen, was ich schon nicht mehr unterstützen werde. Meine nächste Grafikkarte wird um die 250 Watt liegen. Entweder wirds dann eine 4070 oder 4060. Ganz einfach.
Damit wirst du es Nvidia so richtig zeigen, du Rebell! 😉
 
  • Gefällt mir
Reaktionen: Newbie_9000
Zurück
Oben