News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

@SVΞN könntet ihr in dem Zusammenhang mal mehrere Karten aus verschiedenen Generationen bei einem fixen Powerlimit von 250W oder so vergleichen? Es werden inzwischen gefühlt mit jeder Generation neue Verbrauchsrekorde gebrochen aber üblicherweise auch Effizienz darüber liest man weniger😅
 
  • Gefällt mir
Reaktionen: dohderbert, Qualla, Atze-Peng und 15 andere
quakegott schrieb:
Optik sollte nicht alles sein was ein Game ausmacht!
Das sowieso... Es hat einen Grund warum so viele Indie-Titel zum Teil so sehr gefeiert werden. Und Optik ist es eigentlich nie... Ok beim ein oder anderen das außergewöhnliche Art Design....
 
  • Gefällt mir
Reaktionen: mr.meeseeks. und Alexus6677
quakegott schrieb:
Das ist eine Entwicklung die ich nicht unterstützen werde. Hier wird mit alles Macht versucht den längsten Balken zu haben ohne Rücksicht auf Verluste
Das ist in jeder Generation so. Das ist nicht neu.
 
  • Gefällt mir
Reaktionen: Postman und Zockmock
Ich hoffe nur das sich nicht zu viele die RTX 4090 kaufen sonst ist der Balckout schon sicher.
 
  • Gefällt mir
Reaktionen: mtmac, Tschitta, DannyA4 und eine weitere Person
Igor hat kurz gesagt eigentlich folgendes erklärt:

Um die von Nvidia angestrebte Leistung der RTX 4090 zu bekommen hätten sie beim Samsung 8nm Prozess 600W benötigt.

Da sie nun aber doch bei TSMC (4N) fertigen brauchen sie für die gleiche angestrebte Leistung "nur noch" 450W.

Aber das Design der Kühler und Platinen war da schon auf 600W ausgelegt.

So habe ich es verstanden.
 
  • Gefällt mir
Reaktionen: TigerNationDE, MGFirewater, Zockmock und 6 andere
fraqman schrieb:
Über 600W.. ich hoffe, die Effizienz geht in den nächsten Generationen nach oben.
Am Ende geht der Trend zum Zweitnetzteil, nur für die Karte.. Und das bei den heutigen Strompreisen 😏
Die neuen ATX 3.0 Netzteile haben bis zu 2600 Watt. Also alles easy 😁
 
  • Gefällt mir
Reaktionen: Alexus6677, Blackvoodoo und fraqman
ATIst schrieb:
@SVΞN könntet ihr in dem Zusammenhang mal mehrere Karten aus verschiedenen Generationen bei einem fixen Powerlimit von 250W oder so vergleichen? Es werden inzwischen gefühlt mit jeder Generation neue Verbrauchsrekorde gebrochen aber üblicherweise auch Effizienz darüber liest man weniger😅
Beim Ampere/RDNA2-Launch gabs ja den 270W-Test, = 6900@PL=-10%, ... evtl. machts dann Sinn, wieder ne 7900 mit PL=-10% herzunehmen und die anderen Grakas da hin zu trimmen.(x)
(die 270W bei AMD sind dann die realen TBP gewesen)

(x) Wolfgang hatte mal wissen wollen, wieviel Perf. ne 3080 verliert und ob net die 320W@stock zu sehr über
Sweetspot waren (damals 50W für 4% mehr Fps war sinnlos)


Und der Test@144fps ist soundso ganz praktisch@144Hz-Moni.
 

Anhänge

  • 270W@4k.JPG
    270W@4k.JPG
    65,8 KB · Aufrufe: 407
  • DE@144fps.jpg
    DE@144fps.jpg
    111,7 KB · Aufrufe: 408
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LencoX2, Eller, PulsarS und 3 andere
Geil gleich mal neuen Rechner konfigurieren :D
1665134650280.png
 
  • Gefällt mir
Reaktionen: derfledderer, Engaged, Aslo und 12 andere
Novasun schrieb:
Der Trend wird sein, dass das die EU durch Regularien verbieten wird in Zukunft... Wenn das über 1-2 oder mehr Generationen so anhält... Und das wäre dann auch gut so....
Denn sorry, das ist krank.

Mh... Ich stimme dir zwar zu dass es krank ist, aber ich kann nicht erkennen welche Grundlage die EU hätte so etwas zu verbieten? Man kann ja auch noch viele andere Produkte mit mieser Energieeffizienz erwerben. Ich könnte mir eher vorstellen dass es bald ein Label gibt und wir Grafikkarten mit Energieeffizienzklasse A++ bis G kaufen können :p
Oder gibt es da schon Richlinien die ich verpasst habe?

Edit: Wobei man dazu natürlich sagen muss, dass die Effizienz ja sogar deutlich zugelegt hat im Vergleich zu vorherigen Generationen. Die 4090 würde um die Leistung einer 3090 zu bringen ja auf jeden Fall deutlich weniger Leistung benötigen. Wie die Verteilung innterhalb einer Generation so normal verteilt ist kann ich aus dem Stehgreif nicht sagen. Denke aber die 4090 wird wahrscheinlich ineffizienter betrieben als ihre kleineren Brüder 4080/70 oder was noch so kommen mag...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zockmock
Ich kann über solche Zahlen nur den Kopf schütteln.
Habe seit 5 Jahren eine 1050ti, die immer noch gut ihren Dienst tut.
Auf eine Karte, die 3x so schnell ist, bei unter 100W, kann ich wahrscheinlich noch 10 Jahre warten.
Womöglich wird es irgendwann eine APU werden.
Im Moment würde es (bei Defekt) eine 6600 werden, wobei die auch schon doppelt so teuer ist.
Irgendwie gefällt mir die Entwicklung gar nicht.
 
  • Gefällt mir
Reaktionen: Hammerhead, Unnu und pfreampfl
DocWindows schrieb:
Die Effizienz ist in dieser Generation schon dramatisch gestiegen. Die 4080 soll bei ähnlichem Stromverbrauch zwischen 20% und 30% schneller sein als die 3090Ti..

Kann ja auch nur, immerhin hat sich die Strukturgröße der Fertigung fast halbiert. Und der Samsung N8 war schon vorher nicht für Effizienz bekannt.
 
Ich werd meine so oder so auf 350 einbremsen, damit mir das Netzteil nicht um die Ohren fliegt. :evillol:
SVΞN schrieb:
  • 3.000 MHz bei 425 Watt TBP / 362 Watt TGP
  • 2.640 MHz bei 616 Watt TBP / 498 Watt TGP
Bin ich doof? Warum braucht 3GHz weniger als 2,6GHz?
 
  • Gefällt mir
Reaktionen: JohnWickzer und AntiPriester
Man muss auch unterscheiden ob ich eine Karte kaufe, einbaue und einfach nur benutze oder ob ich die Karte bis an die Kotzgrenze übertakten will.
99,5% aller Käufer werden niemals irgendwas übertakten, weder an der Grafikkarte, noch an der CPU.

Wenn man das macht, darf man sich aber auch nicht über massiven Energiehunger beklagen.
Die 4000er Serie bietet aufgrund ihrer Entwicklungshistorie aber immerhin die Möglichkeit die Karten von den offiziellen 450W auf 600W zu prügeln.
Weil Platinen, Kühler usw. bereits darauf ausgelegt sind.

Ich halte dieses Vorgehen aber nicht für den Maßstab, an dem man die Karten messen sollte. Maßstab sollte die Out-of-the-Box-Experience sein.
 
  • Gefällt mir
Reaktionen: AntiPriester, Zockmock, Leereiyuu und eine weitere Person
Also ist das mit den 1kw Netzteilen wieder mal völlig unnötige Panik gewesen. Mit einer FE kommt man locker mit 750 W aus. 300 Watt frisst der Rest ja noch nichtmal, wenn man eine Zen4 im System hat. Da schaukelt das 750 W auch die Customs noch entspannt. Zumal gute Netzteile kurzzeitig auch 850 Watt liefern können, das garantiert zB bQ.
 
  • Gefällt mir
Reaktionen: Naitrael, Zockmock und Pelzi
quakegott schrieb:
Von mir aus kann die der Leistungssprung in einer Generation bei 0% liegen wenn die Effizient deutlich steigt.
Die Effizienz ist deutlich gestiegen. Wenn die dir so wichtig ist hau ein 70% Powertarget rein und gut ist. Ich habe das Gefühl, dass viele Leute hier im Forum denken das die Karten nicht effizient sind nur weil sie 450W ziehen wobei das eine null mit dem anderen zu tun hat.
 
  • Gefällt mir
Reaktionen: Azghul0815, TigerNationDE, Topi41 und 4 andere
Laut Igor hat sich mittlerweile alles geändert, weil Nvidia nicht mehr wie geplant in 8nm bei Samsung fertigen lässt, sondern in 4nm bei TSMC.

 
  • Gefällt mir
Reaktionen: Veitograf, Syrato und Hutzeliger
Sehr geil! Endlich wieder ordentlich Strom ziehen!

Freue mich schon mit über 600 Watt diesen Winter meine Wohnung zu heizen - let's gooo! :-)
 
  • Gefällt mir
Reaktionen: Blackvoodoo
Zurück
Oben