Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizGeForce RTX 3000: Asus empfiehlt Netzteile von 650 bis 1.000 Watt für Ampere
Nvidia empfiehlt Netzteile von 650 bis 750 Watt für seine drei Ampere-Grafikkarten der GeForce-RTX-3000-Serie rund um die GeForce RTX 3080 FE (Test), doch Partner Asus empfiehlt zumindest auf HEDT-Systemen von AMD und Intel deutlich mehr und sieht einen Bedarf von bis zu 1.000 Watt auf Threadripper 3000 (Test) und Core X.
die 1000 Watt sind auch für ein Threadripper system.
Laut Igor hat eine 3080 spitzen bis zu 400-450 Watt. Ein entfesselter Threadripper genehmigt sich auch gut und gerne 300-400 Watt. Ein paar Lüfter, SSD, Optisches Laufwerk, AIO...
Da sind 1000 Watt gerade noch ok
Viele Netzteile haben bei um die 50% Auslastung den besten Wirkungsgrad also von daher macht das nichts wenn man "eine Nummer größer" kauft, beim Netzteil.
Etwas vorsichtig die Empfehlungen, aber wer gestern beim Igor geschaut hat der weiß, dass das nicht aus dem Nirgens gegriffen ist.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Das finde ich hochinteressant, nachdem ich andernorts fast ausgelacht worden bin, weil ich für die geplante 3090 Karte in meinem 9980xe das 850 W Netzteil durch ein 1200 er ersetzt habe. War wohl doch nicht ganz so blöd.
Etwas vorsichtig die Empfehlungen, aber wer gestern beim Igor geschaut hat der weiß, dass das nicht aus dem Nirgens gegriffen ist.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wahrscheinlich um ein Debakel wie bei der Vega 64 zu verhindern, die ja bei 550W Netzteilen gerne den Überstromschutz ausgelöst hat da die Grafikkarte nur zeitlich durchschnittlich unter dem 550W Limit blieb
1000 Watt habe ich eh schon lange, aber wirklich brauchen wird man die nicht. Selbst mit meinen zwei Titan bin ich noch nie wirklich in Spielen über 820 Watt gekommen.
Man muss ganz ehrlich attestieren, gerade bei Ampere (analog zu Vega) können 100 Watt mehr (als von Nvidia empfohlen) absolut nicht schaden.
Bei allem was ich bisher an Lastspitzen gesehen habe, würde ich bei einer RTX 3080 zu einem hochwertigen be quiet!, Corsair oder Seasonic mit 750 Watt greifen, bei einer RTX 3090 zu einem eben solchen Modell mit 850 Watt.
Leute die mit einem 32- oder gar 64-Kern-Threadripper unterwegs sind, wissen in der Regel eh Bescheid und haben kein 550 Watt No-Name-PSU verbaut.
Aber die 100 Watt mehr einzuplanen, halte ich für absolut sinnvoll.
Ich möchte auf eine GTX 3070 oder 3080 sowie den kommenden Nachfolger des Ryzen 3600 (wahrscheinlich der dann 5600?) umsteigen, ich bin mir da nicht sicher ob mein 550W Seasonic Focus 80+ Gold ausreichen wird...
Ich möchte auf eine GTX 3070 oder 3080 sowie den kommenden Nachfolger des Ryzen 3600 (wahrscheinlich der dann 5600?) umsteigen, ich bin mir da nicht sicher ob mein 550W Seasonic Focus 80+ Gold ausreichen wird...
mit der 3080 reicht das nicht, schau mal das YT Video vom Igor, die 3080 hat Lastspitzen bis knapp 500 Watt, ich hab aktuell ein 500 Watt NT, das 750 Watt NT von bequiet ist schon bestellt, kommt in ein paar Tagen.
Habe momentan einen 8700K. Wenn ich irgendwann einen 9900k für lau bei ebay abgreifen kann, oder Intel noch eine gute CPU für den Sockel rausbringen sollte, wirds also knapp mit dem 750W Netzteil 😅 (in Kombi mit einer 3080)
Tja. Damit hatte ich beim letzten PC-Kauf nicht gerechnet, dass sich der Trend der letzten über 10 Jahre plötzlich so extrem umkehrt.
Gut, dass ich diese Generation sowieso noch aussetze, sonst wäre es wohl sehr knapp geworden, mit meinem 650W-Netzteil (derzeit 900K+RTX2080).
Hoffen wir mal, dass die nächste Grafikkartengeneration wieder etwas sparsamer wird. 😉
Ein 1000W-Netzteil hatte ich zuletzt zu Zeiten von Core2Duo und 8800GTX, und auch da nur, weil ich mir die Option auf SLI offen halten wollte.