Netzteil für zwei RTX 3080, wieviel Watt?

Status
Für weitere Antworten geschlossen.

duklum

Lt. Commander
Registriert
Okt. 2002
Beiträge
1.430
Hi,

mich interessiert die RTX 3080, da sie sehr gute Performance beim Rendern liefert. Eine habe ich vorbestellt. Ich rendere mit Cycles (Blender) und eventuell kommt noch Vray dazu. Meine Renderszenen sind nicht sonderlich groß, darum sind die 10GB für mich vollkommen ausreichend. Gespielt wird nicht. Mein Netzteil ist in der Signatur. Nur mal so theoretisch, wenn ich eine zweite 3080 dazustecken würde, wieviel Watt schätzt ihr wären dann von Nöten? Unter der Annahme, dass das Powerlimit der Karten herabgesetzt wird, auf ca 270W (siehe hier). Klar 750Watt würden nicht genügen um die Lastspitzen beider Karten abzufangen.

Da es momentan eher theoretisch ist, habe ich es hier statt in Kaufberatung gepostet, hoffe das ist so OK.

Danke schon mal.
 
1000 Watt würde ich schon nehmen. Alles andere wäre ja auch irgendwie sinnlos, weil die 1000W Netzteile nicht soviel mehr kosten.

Der Test bei Igor hat ja gezeigt, dass hier nicht einfach mit der TGP gerechnet werden kann, auch wenn man diese nun reduziert. Seiner Aussage nach sollte man zur Sicherheit schon 400-450W inkl. Lastspitzen nur für die GPU einplanen. Wenn wir das bei reduzierter TGP jetzt einfach mal um 100W reduzieren sind wir immer noch bei 2x 350 = 700W nur die für GPUs.

UNabhängig davon was man nun wirklich "braucht". Die wenigsten 750-850W Netzteile werden 4x 8 Pin über je einen Strang bieten, von daher wird 1000 nicht so verkehrt sein. Je nach Modell der 3080 wären ja sogar 6x 8 Pin nötig.
 
Zuletzt bearbeitet:
Geht das ohne nvlink überhaupt?
 
Na wenn Du das Powertarget auf 270W begrenzt, dann 270W + den Rest.
Schau auf Dein Energie-Messgerät ob das hinkommt (also ob noch 270W Luft nach oben sind), sobald die 1. Karte steckt. Dazu hast Du Dir das doch mal gekauft.

Oder waren die 10 Euro für das Energie-Messgerät bei all der Hardware nicht mehr übrig? gggg

Praktisch, ganz ohne Theorie.

@timOC

Die meisten Renderer adressieren die Karten über OCL oder Cuda oder sonstwas direkt, dazu braucht es keine Verbindung der beiden Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fragger911, duklum und madmax2010
@timOC ja, das hat mit SLI/NVlink nix zu tun. Für die Renderengine sind das dann einfach zwei CUDA bzw Optix devices die benutzt werden können. Wobei seit Blender 2.9 auch NVlink unterstützt wird, das bewirkt aber nur, dass du deine Renderszene auf den VRAM beider Karten aufteilen kannst - du hast dann also doppelt so viel. Genau VRAM brauche ich aber nicht viel.
 
@Sebastian_12 Ich hoffe doch sehr das die RTX3090 Kein SLI unterstützt, sondern NVLink. Dual Channel SLI limitiert, im besten fall bei knapp 3GB/s NVLink 3.00 Geht aktuell bis 600GB/s iirc
 
  • Gefällt mir
Reaktionen: duklum
Okay, gut zu wissen.

Sofern es um das x470-system in der Signatur geht, laufen die Karten zwar nur mit pcie3@8x, aber das macht wahrscheinlich nichts.
 
@timOC ja die PCIE 3.0 @ 8x wären nicht schlimm, beim Rendern passiert fast alles auf den Karten selber und es entsteht nicht sonderlich viel Kommunikation zwischen CPU und Karten.

@HisN klar, ein Messgeräte habe ich. Werde ich dann mal vor den Rechner stecken.
 
  • Gefällt mir
Reaktionen: HisN
madmax2010 schrieb:
@Sebastian_12 Ich hoffe doch sehr das die RTX3090 Kein SLI unterstützt, sondern NVLink. Dual Channel SLI limitiert, im besten fall bei knapp 3GB/s NVLink 3.00 Geht aktuell bis 600GB/s iirc
Die Funktion im Treiber heist immer noch SLI.
Und die möglichkeit hat nur noch die RTX 3090 laut Nvidia Präsentation
Ergänzung ()

Kann man überhaupt 2 gpus ohne sli ansprechen ?
 
Sebastian_12 schrieb:
Kann man überhaupt 2 gpus ohne sli ansprechen ?

Schon seit vielen Jahren.
Hier mal Blender-Screens von 2013

1600361886601.png

1600361897549.png
 
madmax2010 schrieb:

Ups, sorry, hatte überlegt ob in Kaufberatung oder nicht, da ist mir der Sammethread entgangen. Aber nun gehts ja nebenbei auch noch um NVLink/SLI, hoffe darum ist es noch OK als eigener thread.

Wegen NVLink - ich denke Nvidia hat es aus folgendem Grund der 3090 vorbehalten:
Im Gegensatz zu mir können die Meisten die zb mit Blender oder Vray rendern nie genug VRAM haben. Gerade bei interior Szenen mit viel Geometrie und verdammt vielen hoch auflösenden Texturen kann man nicht genug haben. Mehrere Karten zum Rendern nutzen viele, aber der VRAM addierte sich nie. Das ist erst jetzt seit Blender 2.9 mit NVLink möglich. Da würden viele Pros vermutlich die Möglichkeit sehen sich mit zwei "günstigen" consumer Karten wie zb zwei 3070Ti s mit je 16GB einen VRAM von insgesamt 32GB zu erkaufen. Das würde Nvidia bestimmt nicht schmecken, für Pro features soll halt dick geblecht werden. Meine Vermutung.
 
  • Gefällt mir
Reaktionen: madmax2010
[OT @Sebastian_12] Ja, ich habe selbst 4 GPUs verbaut - Wenn du sie beispielsweise als Compute-karten verwendest kannst du sie einfach als Number cruncher verwenden - Da genügt eine einzelne PCIe Lane um sie mit aufgaben zu versorgen.
Von Biostar gab es da mal ein Miningboard, welches auch in der Bioinformatik / für Machinelearning sehr beliebt ist. Suche es mal raus..
Ergänzung ()

War doch von Asus: https://dlcdnimgs.asus.com/websites/global/products/Qm3pAt3CPluFrC2v/images/later.png

Bei dem Layout machen auch Brücken zwischen den karten nicht mehr viel Sinn :D

Kein Stress @duklum es poppen gerade nur gefühlt mehrere Threads pro stunde mit der Frage: Welches netzteil für meine 1-n Rtx 30x0 Karten auf
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HisN und duklum
duklum schrieb:
Aber nun gehts ja nebenbei auch noch um NVLink/SLI, hoffe darum ist es noch OK als eigener thread.
Deswegen habe ich das Thema offen gelassen.
 
  • Gefällt mir
Reaktionen: duklum und madmax2010
@madmax2010 ja, als der letzte Miningboom rum war, hatte ich kurz überlegt ob sowas ähnliches zum Rendern nicht auch taugen würde. Hätte man damals ja recht günstig bekommen können. Klar, ist witzig drüber nachzudenken, prakisch halte ich es aber nicht für eine gute Idee.
 
Ich denke mit einem Corsair AX1200i bist du auf der sicheren Seite. Bei einer 3080 soll ja ein gutes 650W NT ausreichen, ich denke da wirst du bei einer 2ten Karte wohl um die 1000-1200W brauchen!
 
  • Gefällt mir
Reaktionen: duklum
Verdammt, die Sache hat mir einfach keine Ruhe gelassen.
Mit nem Seasonic Prime Platinum 1300W sollte ich auf der sicheren Seite sein. Beides (vor-)bestellt, bei NBB.
Total bekloppt, dabei stehe ich eher auf den Underdog AMD. Aber selbst wenn die mit BigNavi voll überraschen, ich kann mir nicht vorstellen, dass sie eine Technik liefern die so fix rendert wie Optix (RT-cores). Selbst wenn doch, würden Blender und die anderen Renderer das bestimmt nicht direkt unterstützen.

Jetzt ist es dann doch praktisch geworden 😅
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben