Leserartikel GeForce RTX 3080 VS. 460W Netzteil

AndrewPoison

Admiral
Registriert
Jan. 2005
Beiträge
8.535
...den Titel "Leserartikel" verdienen meine paar Worte vielleicht nicht, ich wollte aber klar machen, dass ich hier keine Hilfestellung suche.

Zum eigentlichen: ich habe eine RTX 3080 zu einem akzeptablen Preis gesehen und daher direkt geordert - da für mich demnächst Schwergewichte wie der FS2020 in 4k anstehen, wäre ich ohnehin nicht drumherum gekommen. Allerdings sitzt bisher in meinem System nur eine GTX 1060, mein Netzteil ist mit 460W dafür absolut ausreichend dimensioniert und hatte nie Probleme. Und mein neues Netzteil für die RTX 3080 kommt auch am Wochenende und so habe ich mit dem Gedanken gespielt, einfach mal zu testen, wie weit ich mit dem 460W-Netzteil komme: wissend, dass ich die Leistungsaufnahme der GPU ja z.B. über Afterburner drosseln kann.

Ausgangs-System:
CPU: AMD Ryzen 1700X (Stock)
RAM: 32 GB DDR-2400 (bremst zwar etwas die CPU, aber mein Setup ist halt auch schon wieder fast 5 Jahre alt)
GPU vorher: Palit GeForce GTX 1060 Dual
GPU jetzt: Gigabyte GeForce RTX 3080 Gaming OC
Netzteil: XFX XTS 460W Passiv (80 Plus Platinum)

Das Grundlegende - BIOS & Startup
Absolut kein Problem. Anlauf, Start, BIOS-Besuch und der Boot in Windows sind ganz gemütlich möglich. Keinerlei Probleme. Auch während der Treiber-Installation etc. nichts ungewöhnliches. Die gemessene Leistungsaufnahme des Gesamtsystems (ohne Monitor & Boxen) blieb Allzeit weit unter 200 Watt.
Da erst mal alles lief, habe ich den Afterburner angeschmissen und das Powerlimit von 100 auf 28 reduziert. Dies ist der niedrigste Wert, den ich einstellen konnte.

Leichte Gaming-Kost
Mit dem 28er Powerlimit lief z.B. BeamNG Drive problemlos - und schon schneller als mit der alten GTX 1060. Ich habe das Powerlimit stückweise erhöht, bis ca. 40% gab es auch hier keinerlei Probleme. Die Leistung der RTX 3080 war der alten 1060 da aber schon meilenweit enteilt. Zwischen ca. 44 und 48% Powerlimit hörte ich dann erstmals Elektronik-Geräusche, die sich als das alsbaldige Einsetzen der Schutzschaltungen des Netzteils entpuppen sollten. Schwarz war der Monitor, System ist aus. Reagiert auch nicht mehr auf den Power-Button. Gut - also abwarten, bis sich die Sicherung wieder gefangen hat.

Härtere Gaming-Kost
Nach 5 Minuten war es wieder soweit. Rechner fährt hoch, alles ist wieder im grünen Bereich. Zeit für die nächsten Tests, jetzt mal etwas fordernderes: Brigth Memory. Unreal Engine 4, viel krawumms. Zur Sicherheit regle ich das Powerlimit schon auf 35% herunter. Und ab gehts. Anwendung lädt, Bildschirm schwarz. Rechner aus. Diesmal auch ohne akustischer Vorankündigung elektronischer Komponenten.
Die obligatorischen 5 Minuten gewartet, Neustart, Powerlimit auf 28% und noch mal probiert: "Aus! Aus! Das Spiel ist aus!" höre ich in Gedanken.... doch siehe da, es läuft. Bricht auch nicht nach wenigen Augenblicken ab. Allerdings: es ruckelt schon ein gutes Stück in 4k und maximalen Details - aber es liegt ja auch nur ein viertel der Grafikpower an. Passt.

Die Sinnlos-Kost
Schauen wir doch mal, ob Furmark bei 28% Powerlimit die Grafikkarte bzw. eher das Netzteil ins schwitzen bringt. Das 4k/UHD-Preset läuft bei 28% PT durch mit 100fps, der Stromverbrauch liegt bei knapp 370W für das Gesamtsystem. Interessant ist, dass sich in meinem ersten Test mit BeamNG das Netzteil abschaltete als ich gerade mal um die 220W Last gemessen hatte - die Last-Spitzen sind hier also wohl wirklich kriegsentscheidend. Jetzt juckt es mich ja schon, zu gucken ob auch mehr geht. ...und tatsächlich. 32% gehen durch. Selbst 35%. Doch: die Framerate und die gemessene Leistungsaufnahme brechen ein. Beim Wechsel von 28 auf 32% verbraucht das Gesamtsystem 10W weniger, bei 35% waren es schließlich nur noch um die 170W und FPS im Keller. Hier wird also an anderer Stelle gedrosselt.
Aber gut, Furmark interessiert ja am Ende eh niemanden.

...nun, was können wir aus diesem kleinen Test nun mitnehmen?

  1. Ihr könnt, mit Leistungseinbußen, auch eine RTX 3080 und sicher auch 3090 mit eigentlich zu schwachen Netzteilen betreiben - auf Kosten der Performance. Es deckt dann eben einfach den selben Fall wie bei mir ab: Grafikkarte gestern bestellt, heute geliefert. Netzteil gestern bestellt & noch nicht ein mal versandt ^^ Zwischenzeitlich aber schon mal etwas von dem "mehr" an Performance kosten, bis dann auch die Resthardware eintrifft. Geht.

  2. Mir ist an manchen Tagen offenbar langweiliger als ich dachte ;)

PS: wer noch ein paar lustige Ideen hat, was ich bis zum Wochenende und dem Eintreffen des neuen Netzteils testen soll, nur raus damit ;)

In diesem Sinne,
Happy Gaming
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sgt_Stieglitz, Lord-Lue, thuNDa und 4 andere
Ich hadere auch noch mit meinem Netzteil und einer 3080. Ich habe ein 500 Watt be quiet! Pure Power 10 CM Modular 80+ Silver (Siehe Signatur).

Mit der 2080S läuft alles super, aber die 3080 wird da wohl letztendlich nichtmehr reichen.

Überlegung überlegung :D
 
AndrewPoison schrieb:
Mit dem 28er Powerlimit lief z.B. BeamNG Drive problemlos - und schon schneller als mit der alten GTX 1060.
Dass die RTX 3080 in jedem Fall schneller sein wird, war ja abzusehen :D Interessanter wäre wie es um die Effizienz steht. Also wie viel FPS bei wie viel Watt die beiden Karten produzieren.

Aktuelle Karten bei 100% PT interessieren mich überhaupt nicht. Die schlucken mir alle deutlich zu viel, dabei steigt die Effizienz ja extrem stark an wenn man die Performance nur minimal drosselt.



Noch ein kleiner Fehler im Text:
AndrewPoison schrieb:
auf Kosten der Performance. Es denkt dann eben einfach
 
Was ich mich halt frage , gerade die mod bios die 500w und mehr erlauben (z.b EVGA) das ist ein halber Fön , und das will erstmal aus dem Gehäuse abtransportiert werden.

so gut die Karten sind, und sicher wo gehobelt wird fallen auch Späne, aber wohin geht der Trend , wenn ich eine „Oberklasse“ (kein highend) 3080 schon 500w genehmigt ?
In meinen Augen teuer erkaufte Leistung (leider)
 
Chesterfield schrieb:
Was ich mich halt frage , gerade die mod bios die 500w und mehr erlauben (z.b EVGA) das ist ein halber Fön , und das will erstmal aus dem Gehäuse abtransportiert werden.
Also das höchste was ich bisher gesehen habe, bei der RTX 3080 war ein Bios mit 450 Watt, selbst wenn es ein 500W Bios gibt, werden sich das wohl meist nur die User aufspielen, welche auch einen Waterblock auf ihrer Grafikkarte haben.

Chesterfield schrieb:
so gut die Karten sind, und sicher wo gehobelt wird fallen auch Späne, aber wohin geht der Trend , wenn ich eine „Oberklasse“ (kein highend) 3080 schon 500w genehmigt ?
Die RTX 3080 ist derzeit High End und keine Oberklasse, denn diese ist gerade in Games minimal langsamer als eine RTX 3090, wenn Du natürlich die RTX 3090 auch nur als Oberklasse ansiehst, ja dann ist die RTX 3080 auch Oberklasse.

Nur was soll denn dann Deiner Meinung nach eine High Ende Grafikkarte sein? Die habe ich bisher auf dem Markt noch nirgends gesehen, wenn ich mich an Deiner Aussage orientiere.

Ich zocke mit meiner RTX 3080 im Gaming-Betrieb nur mit einem undervolting Profil, weil das völlig ausreichend ist, gute Temperaturwerte und auch der Wattverbrauch für die Leistung ganz ordentlich, vor allem in der UHD Auflösung.

Und wer einen Monitor mit VRR besitzt, dem kann es doch auch egal sein, ob ich jetzt 140 FPS mit einem undervolting Profil habe, oder 145 FPS habe mit Deinem 500W Bios. Den Unterschied was das Gamefeeling betrifft, wenn dann noch G-Sync aktiviert ist, merkst Du nicht.

Chesterfield schrieb:
In meinen Augen teuer erkaufte Leistung (leider)
Was die Preise derzeit betrifft, sicherlich! Sollte die Grafikkarte, gerade die RTX 3080, mal bei ausreichender Verfügbarkeit [vielleicht erleben wir das ja noch in diesem Leben!] vorhanden sein und der Preis dann wirklich mal bei den kolportierten 699,00 bis 750,00 Euro liegen, wäre das P/L absolut in Ordnung.
 
Ein 500Watt VBIOS ist doch total irrational. Selbst 350 Watt für eine 3080 sind doch schon krass. Die Wärme muss auch irgendwohin. Dem TE wäre es besser mit seinem Netzteil gegangen, wenn er statt dem Power Target lieber die Curve per Undervolt angepasst hätte. Keine Ahnung warum Nvidia soviel Spannung auf den Chip ballert. Meine 3080 braucht für 1850 Mhz kein 1050mV sondern läuft genügsam bei 850mV und verbraucht dabei 80 Watt weniger.
 
Zurück
Oben