News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Hoffe eine 4080 bleibt unter 300W. Leisten darf sie aber gerne so viel wie eine 3090.

Ansonsten sehe ich es wie viele hier. Auch wenn die Stromkosten an sich gar nicht so sehr in's Gewicht fallen bei einer >1.000€ GPU, es zählt der Umweltgedanke und vor allem der zusätzliche Aufwand die Wärme wieder aus dem Case zu bekommen.

Nvidia geht halt den leichtesten und günstigen Weg. Die dadurch entstehenden Probleme muss der Kunde ausbügeln. Bin dafür nur noch einen Nachfolger zu verkaufen, wenn der mindestens 50% mehr Leistung bei gleichem Verbrauch liefert, auch wenn das 3-4 Jahre dauert. Dann ist das eben so.
 
Ripcord schrieb:
Bin dafür nur noch einen Nachfolger zu verkaufen, wenn der mindestens 50% mehr Leistung bei gleichem Verbrauch liefert, auch wenn das 3-4 Jahre dauert. Dann ist das eben so.
Oder es bleibt einfach so und "DU" Kaufst einfach nur alle 4 Jahre eine neue GPU die dann für dich von der Leistung und vom Verbrauch her passt. Dann ist das eben so. ;)
 
Krasser ist doch, das die Netzteile in kurzen Intervallen den Faktor 3 bereitstellen müssen, sofern Igor‘s Lab recht behält.

Also 600W GPU x 3 muss die PSU im 1/10s Bereich abkönnen..
Wenn Mann dann noch eine CPU hat, die genauso boostet…

Ich seh schon die Beiträge:

Hilfe, mein PC schaltet sich trotz 900W Netzteil sporadisch aus.
 
  • Gefällt mir
Reaktionen: edenjung
Karre schrieb:
Hilfe, mein PC schaltet sich trotz 900W Netzteil sporadisch aus.
Passiert dann aber auch nur, wenn wieder die "Experten" grade so das Geld für die Graka haben und dann am Rest der viel Wichtiger ist überall gespart wird!
Ergo sollte diese Person Ihr Problem dann nicht zu unserem machen :schluck:
 
XPS schrieb:
Oder es bleibt einfach so und "DU" Kaufst einfach nur alle 4 Jahre eine neue GPU die dann für dich von der Leistung und vom Verbrauch her passt. Dann ist das eben so. ;)
Bei mir trifft das in etwa zu, da ich von der 2080 auf die 4080 umsteige. Spreche aber gerne für alle, mach mir das doch nicht kaputt 😄
 
  • Gefällt mir
Reaktionen: XPS
Zer0Strat schrieb:
Lol, Greymons Tweet mit "RDNA 3 braucht 500W" war wohl ein Aprilscherz. NerdTech meint auf Twitter, dass AMD das Desgin für <=350W ausgelegt haben soll. Aber Nvidia wird 600W auf die Karte prügeln?! Ich bin da wirklich sehr sehr skeptisch. Das hieße ja, dass Nvidia sich komplett verkalkuliert hätte, dabei sollen die Unternehmen angeblich gegenseitig ihre Roadmaps auf Jahre hinaus kennen.

@SV3N Hattest du nicht auch über den 500W Leak von Greymon berichtet? Dann wäre wohl ein Update fällig. :D

Anhang anzeigen 1204790
Ich hatte ja schon damit gerechnet, dass RDNA3 auch effizienter wird als Ada, mit dem Chiplet Design kann man einfach besser in die Breite gehen, aber das wäre schon eine ordentliche Klatsche für nVidia. Ob man sich wirklich dermaßen verkalkuliert hat?
"Nur" 350W bei einer Multi Chip Karte klingt ja fast schon so, als könnte man näher am Sweetspot bleiben, weil man den Konkurrenten sowieso im Griff hat (Pascal Vibes).
Da bin ich wirklich gespannt, ob da etwas am RDNA3 Verbrauch dran ist, die ~600W für Ada scheinen ja schon relativ sicher.
 
Ripcord schrieb:
und vor allem der zusätzliche Aufwand die Wärme wieder aus dem Case zu bekommen.
ganz easy, Mora... :D
 
guggi4 schrieb:
"Nur" 350W bei einer Multi Chip Karte klingt ja fast schon so, als könnte man näher am Sweetspot bleiben, weil man den Konkurrenten sowieso im Griff hat (Pascal Vibes).
Stell dir mal vor, AMDs MCM Speerspitze nuckelt gemütlich 350W, während eine RTX 4090 gerade so mit 600W mithalten kann. Da braucht's nur ne "Unlimited" Liquid Edition, um Nvidia komplett wegzuklatschen. Das ist nur schwer vorstellbar?!
 
Zer0Strat schrieb:
Stell dir mal vor, AMDs MCM Speerspitze nuckelt gemütlich 350W, während eine RTX 4090 gerade so mit 600W mithalten kann. Da braucht's nur ne "Unlimited" Liquid Edition, um Nvidia komplett wegzuklatschen. Das ist nur schwer vorstellbar?!

Klingt aus AMD Sicht wirklich fast zu gut um wahr zu sein.
Dass RDNA3 grundsätzlich sehr gut wird, war mir seit den Verbrauchsleaks von Ada klar, nVidia bläst nicht einfach aus Spaß den Verbrauch dermaßen auf, war ja bei Ampere bereits ähnlich. Aber das wäre eine komplett andere Liga.
 
  • Gefällt mir
Reaktionen: Tapion3388
Zer0Strat schrieb:
Stell dir mal vor, AMDs MCM Speerspitze nuckelt gemütlich 350W, während eine RTX 4090 gerade so mit 600W mithalten kann. Da braucht's nur ne "Unlimited" Liquid Edition, um Nvidia komplett wegzuklatschen. Das ist nur schwer vorstellbar?!
Das Problem ist eher, selbst wenn das so kommen würde (eher unwahrscheinlich) verkauft am Ende NV immer noch viel mehr Karten als AMD, es dauert glaube noch Jahre bis eine Situation eintritt wie bei den CPU's.

Auch wenn ich zum ersten mal ne AMD CPU genommen habe, 5950X wird es wohl mit DDR5 wieder Only Intel und NV geben.

Zusammen läuft es Overall einfach Runder als mit einer AMD CPU, auch wenn ich mit dem 5950X Aktuell zufrieden bin.

Auf der Anderen Seite habe ich bei NV im GPU Bereich die Treiber, Raytracing und DLSS!
Das Pendant von AMD ist da keine Option und die Treiber Definitiv auch nicht.

So das ich am Ende wieder bei Intel / NV Lande da es mir nur um Leistung geht und nicht um verbrauch und Preis!

Viele die das so sehen Landen am Ende immer wieder bei Intel / NV und ich denke im GPU Bereich wird es auch noch ein paar Jahre dauern, falls sich das überhaupt jemals ändern wird.
 
gustlegga schrieb:
Ja echt jetzt, immer diese lernresistenten Designer.....
Der Artikel war doch hoffentlich ein schlechter April-Scherz.?! :confused_alt:🤦‍♂

Zum Thema:
Ich halte die Entwicklung auch für etwas fragwürdig, gerade eben auch bezüglich der Abwärme.
Am interessantesten finde ich sowieso die 4060Ti bzw. die 4070, wenn sie wirklich 10-30% der Leistung einer 3090 bringen. Bin mal gespannt was AMD so zu bieten hat in dem Bereich, effizienter sollen Sie ja wohl sein, weshalb Nvidia wohl überhaupt dazu gezwungen war den Verbrauch soweit nach oben zu schrauben um mehr Leistung zu genieren.
 
Wintermute schrieb:
@NorwegianViking eine gute Freundin aus Polen sagt immer "Kalt ist erst ab -15"

Kalt ist, wenn die Vögel gefroren vom Himmel fallen. Mit meiner 6800xt lehn ich mich seit 1,5 Jahren zurück und beobachte das Spektakel im Liegestuhl. Der Verbrauch ist einfach pervers.
 
  • Gefällt mir
Reaktionen: Wintermute
Naja einen groben Verbrauchsvergleich wurde ja schon öfter geleakt.

MLID lag ja bisher sehr oft richtig:
1649164789616.png


Alles bis 300W wäre für mich noch interessant. Für alles darüber bräuchte man schon sehr viel mehr Kohle um zusätzlich zur GPU noch in ein neues NT, Gehäuse und Kühlung zu investieren. Und Dämmmaterial, leise werde die wohl alle nicht. :D

Wenn das so kommen sollte und man nur die Mittelwerte nimmt, dann wird die Effizienz von RDNA3 weiter gegenüber Ada steigen.

Dazu könnten die RTX40s echt deutlich teurer werden als ihre AMD Pendants, da kein Chiplet MCM Design und mehr Speicher verbaut wird.
 
Gar kein bock auf so einen Verbrauch, auch überhaupt kein verlangen mir das Ding zu kaufen.
Sonst hatte ich immer lust und hab alle Infos verfolgt..

Normalerweise sollte es doch andersrum gehen -> Mehr Leistung - weniger Verbrauch, in die Richtung sollte die Zukunft und der technische Fortschritt doch gehen
 
snickii schrieb:
Normalerweise sollte es doch andersrum gehen -> Mehr Leistung - weniger Verbrauch, in die Richtung sollte die Zukunft und der technische Fortschritt doch gehen
Warum sollte das "IMMER" so gehen ? und jetzt komm mir Bitte nicht mit Klima und Umwelt?
 
XPS schrieb:
Warum sollte das "IMMER" so gehen ? und jetzt komm mir Bitte nicht mit Klima und Umwelt?
Umwelt und Klima sind mir egal. Ich finde einfach das das technische Fortschritt wäre und nicht sowas wie es ist... Das ist doch genauso wie Intel mit ihrem Refresh vom Refresh mit immer mehr verbrauch.

Ist einfach mein persönliches empfinden, ich unterstütze solche Rückschritte sowieso nicht..

Ich mein... für die die eine Gasheizung haben sicher keine schlechte Alternative
 
  • Gefällt mir
Reaktionen: XPS
Bin auf die neuen Netzteile gespannt, die nach ATX 3.0 auch Spannungsspitzen bis fast 2KW aushalten müssen (siehe Igors Lab Test der 3090Ti).
 
leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
Wird man sehen müssen.
Zumindest in der aktuellen Gen sind die Karten von AMD sparsamer.
Und ich denke viele werden sich bei der nächsten Generation überlegen ob sie 500-600W nicht nur kühlen können sondern auch die Abwärme im Raum abführen oder ertragen können.
Ich sehe schon nächstes Jahr im Sommer die ersten Posts in Foren "Hilfe mein Rechner mit der 4080/4090 ist abgeraucht".
Ich habe mir 350W als Maximum gesetzt. Im schlimmsten Fall heißt es dann UV wenn ich mir so 100W einspare und auf 10-12% Leistung verzichten muss dann wird das gemacht.
 
  • Gefällt mir
Reaktionen: Nighteye
Zurück
Oben