News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.026
600 Watt Leistungsaufnahme für Nvidias Topmodell(e) der Generation GeForce RTX 4000 auf Basis von Ada gelten inzwischen als gesetzt. Wie viel davon allein die GPU aufnehmen könnte, ergibt sich jetzt aus einer Herleitung, die bereits bei Ampere zu validen Ergebnissen führte.

Zur News: GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch
 
  • Gefällt mir
Reaktionen: Linuxlink, Pry_T800, Ned Flanders und 9 andere
Mehrleistung ohne Rücksicht auf Verluste.
Wird Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.

EDIT:
Nachtrag:
Ich weiß wie ein Transistor funktioniert und wo die Wärme entsteht.

Die letzte echte große Weiterentwicklung war der umstieg von ALU auf Kupfer für die Leiterbahnen im Prozessor. Was die Wärmeentwicklung drastisch senkte.
Wie wäre es mit einem Ersatz für Kupfer das den Strom besser leitet und keine wärme erzeugt (Supraleiter). Oder einen Ersatz für das Trägermaterial Silizium welches Wärme deutlich besser ableiten kann? Vielleicht schaffen wir es mal Kohlenstoff in der Größe der jetzigen Waver zu kristallisieren. Kristallisierter Kohlenstoff leitet Strom deutlich schlechter als Silizium und ist ein extrem guter Wärmeleiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MidwayCV41, aid0nex, DiamondDog und 25 andere
@Jan man könnte noch erwähnen, das Igor die 3,4 Watt pro Speicherstein von Micron erfahren hatte. Ob das eine offizielle oder 'inoffizielle' Aussage war, konnte ich dem Text nicht entnehmen.
 
  • Gefällt mir
Reaktionen: Recharging und derSafran
@Naicon Vorsorge gegen eine Sperrung der Erdgas-Pipeline :D
 
  • Gefällt mir
Reaktionen: aid0nex, JAIRBS, Ech0Foxt und 15 andere
Einfach nur Irrsinn.
Bleibt zu hoffen, dass die Karten abseits des Enthusiastenbereichs wenigstens vernünftige Verbrauchswerte aufweisen.
 
  • Gefällt mir
Reaktionen: budgetbuilder, aid0nex, Maxxx800 und 36 andere
450W alleine nur für die GPU ist einfach nur noch krank :freak: Also sehen wir dann bei der nächsten Generation die 4 Slot Trümmer.
 
  • Gefällt mir
Reaktionen: aid0nex, Tapion3388, dohderbert und 10 andere
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
 
  • Gefällt mir
Reaktionen: aid0nex, maxrl, Unnu und 5 andere
eine sehr zeitgemäße entwicklung diese leistungsaufnahmen


+ NOT!
 
  • Gefällt mir
Reaktionen: Kawii97, butchooka, aid0nex und 31 andere
Ich seh es mal positiv: die 4090 wird voll auf Kante genäht sein, da nVidia damit rechnet im Bereich Rasterisation gegen AMD den Kürzeren zu ziehen. Die 4080 könnte daher einen "sweet spot" darstellen. Außer nVidia quetscht auch hier alles raus - dann muss man wohl selbst die Leistungsaufnahme ein wenig reduzieren und fährt ganz gut auf 90% der Performance bei deutlich weniger Verbrauch, Lastspitzen und Abwärme.

Just my 2 Glaskugeln, basierend auf den bisherigen leaks. Man darf gespannt sein. Meines Erachtens aber eher auf AMDs Chiplet basierte Design. Dabei sage ich nicht, dass das "alles weghaut". Bin lediglich gespannt, wie gut es am Ende funktioniert.
 
  • Gefällt mir
Reaktionen: lubi7, Leon_FR, Harpenerkkk und 5 andere
Das die 4090 viel Strom verbrauchen und eine heisse Karte sein wird wissen wir ja bereits. Ehrlich gesagt fände ich Spekulationen und Gerüchte über 4060,4070&4080 deutlich interessanter . Gibt es zu diesen Karten Neuigkeiten ?
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba, aid0nex, megaapfel und 23 andere
leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
Bei AMD bin ich gespannt, ob der Plan mit ihren Multi Chip Design aufgehen wird.
 
  • Gefällt mir
Reaktionen: Unnu, pvcf, Zockmock und 3 andere
Eigentlich eine zeitgemäße Entwicklung weil wenn man nicht mehr mit Gas heizen kann übernimmt dann die Grafikkarte den Job nebenbei. :D
 
  • Gefällt mir
Reaktionen: DerTeumer, TeKILLA1983, CHILEChile und 2 andere
leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
Ja. Aber anscheinend mit einem effizienteren Topfdesign (Chiplets/Active Bridge). Wir werden es sehen. Das Top Modell wird aber wahrscheinlich auch fähig sein einige aktuelle Netzteile zu schmelzen.

@NorwegianViking eine gute Freundin aus Polen sagt immer "Kalt ist erst ab -15"
 
  • Gefällt mir
Reaktionen: CHILEChile, Lahire690, Mr Peanutbutter und eine weitere Person
Der Trend geht beim Verbrauch in die völlig falsche Richtung, zumindest übertreiben sie es unnötig deutlich beim anstieg, bessere Fertigungen können scheinbar den Mehrverbrauch auch nicht mehr spürbar bremsen.

Kein wunder das Untervolten das neue Übertakten ist.

Wird Zeit das man auf mehrere kleine effiziente GPU-Kerne setzt, so ähnlich wie bei CPUs, und auch mehr Cache einbauen.
 
  • Gefällt mir
Reaktionen: crystough, barrel428, crispychips und 5 andere
Gerade in einer Zeit, in der Menschen wegen Klimawandel und Umweltschutz auf die Strasse gehen, ist so etwas blanker Irrsinn. Ist man wirklich im Chipdesign so am Ende, dass man nur noch mit Watt auf Probleme werfen kann?
Aber wie die letzten Jahre gezeigt haben, werden sie die Karte fuer 1.800+ EUR UVP auf den Markt werfen koennen und es werden sich genueg Kaeufer finden, die ddafuer Schlange stehen. Denn man muss ja 4k+RTX+144fps erreichen.
 
  • Gefällt mir
Reaktionen: s0undjan, aid0nex, Tapion3388 und 21 andere
Heizt du mit Gas?
Nein, mit Nvidia!
 
  • Gefällt mir
Reaktionen: s0undjan, Gringoli, cryeR und 75 andere
@wern001 :
ein transistor wird immer 100% der energie in wärme umwandeln.
Es gibt bei der "Effizienz" keinen fortschritt! Es gibt evtl mehr rechenleistung pro Watt, aber es ändert sich nicht daran das 100% der energie in Wärme umgewandelt wird.
 
  • Gefällt mir
Reaktionen: Valeria, aid0nex, Qualla und 27 andere
JohnnyTexas schrieb:
Mit UV wird die Karte bestimmt Super!
Das bringt mich darauf, dass es ja tatsächlich keine 3000er Super Karten gab. Durch die Absatzschwierigkeiten und die Nachfrage aber mehr als logisch.
 
Zurück
Oben