Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Naja, ich würde mich da lieber an tatsächlichen Messungen von Systemen mit 3080 orientieren.
Die meisten PSU Kalkulatoren haben bei mir schon einige "Interessante" Ergebnisse ausgespuckt.
mein 3950x auf meinem msi X570 Creation mit diverser usb Kabelkram dran & der AE-9 und 64 gb ram OC auf 3833 mhz frisst schon mit der 1080 ti 790 Watt aus der Dose
bei der auflösung von 5120x1440p crg9 ssu von samsung
wenn ich das eine oder andere Video mal mit der Grafikkarte bearbeite bin ich sogar bei 820 Watt
mit Adobe Encoder & Adobe Premiere Plus
+ das NZXT karken x73 dazu 4 Lüfter noch dazu
und 4 ssd´s wobei die am wenigsten saugen
wollte auch auf die 30er wechseln hab auch nen corsair HX 1200 i Platinum drin aber laut bequiet reicht mein Netzeil im OC mode nicht dafür aus.
mein 3950x auf meinem msi X570 Creation mit diverser usb Kabelkram dran & der AE-9 und 64 gb ram OC auf 3833 mhz frisst schon mit der 1080 ti 790 Watt aus der Dose
bei der auflösung von 5120x1440p crg9 ssu von samsung
wenn ich das eine oder andere Video mal mit der Grafikkarte bearbeite bin ich sogar bei 820 Watt
mit Adobe Encoder & Adobe Premiere Plus
+ das NZXT karken x73 dazu 4 Lüfter noch dazu
und 4 ssd´s wobei die am wenigsten saugen
wollte auch auf die 30er wechseln hab auch nen corsair HX 1200 i Platinum drin aber laut bequiet reicht mein Netzeil im OC mode nicht dafür aus.
Ja gut das sind ja dann ganz andere Voraussetzungen bei dir mit 64GB RAM und so vielen laufwerken und OC xd.
Aber ein normaler PC mit 3700x, 16GB RAM, ATX Board, GPU 1-2 Festplatten paar Lüfter und Soundkarte verbrauchen eben bei weitem nich so viel.
Das zeigen ja die ganzen Testberichte Auf jeden Fall ist der Sprung von 460W auf 740W nicht plausibel
in dem Kalkulator, weil das aussagt, dass die RTX3000 Karten 280W meht als die 2080 Ti verbrauchen ^^
Keine Ahnung, aber wenn ich einen 3700x mit einer 2080 Ti kombiniere, mit 2 SATA Geräten, 6 Lüftern etc. dann haut er mir 460W raus, was völliger Quatsch ist. So ein System verbraucht bei Last um die 375-400W.
Die 460 Watt sind da recht großzügig. Hatte auch mal mit einem Strommessgerät mein eigenes Setup gemessen
und mit solchen Kalkulatoren verglichen und es wird beim Kalkulator immer mehr um die 100Watt mehr angezeigt.
Geht nicht um den Durchschnittsverbrauch.
In den Lastapitzen kann ne 3080 fast doppelt so viel verbrauchen wie ne 2080 Ti und das kann bei günstigeren Netzteilen schonmal zu ner Notabschaltung führen (laut einigen Experten wie zbs. bei Igors Lab)
Man hat sich vor paar Jahren über AMD lustig gemacht, weil die Karten teilweise ein paar Watt über Spec gelaufen sind - bei Nvidia sinds 180W über Spec und irgendwie gibts da nicht so ein großes Geschrei.
Geht nicht um den Durchschnittsverbrauch.
In den Lastapitzen kann ne 3080 fast doppelt so viel verbrauchen wie ne 2080 Ti und das kann bei günstigeren Netzteilen schonmal zu ner Notabschaltung führen (laut einigen Experten wie zbs. bei Igors Lab)
Man hat sich vor paar Jahren über AMD lustig gemacht, weil die Karten teilweise ein paar Watt über Spec gelaufen sind - bei Nvidia sinds 180W über Spec und irgendwie gibts da nicht so ein großes Geschrei.
Wo hasten das her, dass die Lastspitzen der 3080 fast doppelt so hoch wie bei der 2080 Ti sind?
Aber ja das gebashe gegen AMD habe ich eh nie ernst genommen.
Habe mit meiner 5700XT noch nie ernsthaft Probleme gehabt.
Mein letzter Blackscreen war Anfang des Jahres oder so.... ^^
Ich werde auch bei Big Navi auf den Verbrauch schauen. Mir ist auch egal, ob Nvidia jetzt notgedrungen eine 3080 mit 20GB nachschiebt. Wenn Big Navi auf 3080 Niveau mit 16GB VRAM kommt, weniger Strom zieht und preislich attraktiver ist, wirds wieder eine AMD.
Man hat sich vor paar Jahren über AMD lustig gemacht, weil die Karten teilweise ein paar Watt über Spec gelaufen sind - bei Nvidia sinds 180W über Spec und irgendwie gibts da nicht so ein großes Geschrei.
Wundert dich das?
Hätten Radeons Speicherfehler wie bei der 2080 Ti gehabt, viele Crashes produziert oder homöopathische Stückzahlen wie Ampere gehabt würden wir das noch 2030 in den Foren lesen.
Ich hab doch extra Igors Lab erwähnt?
Auch bei JayzTwoCents sieht man (zumindest bei der 3090 Review) deutlich, dass die sehr viel mehr in der Spitze verbraucht als selbst ne RTX Titan.
man muss fairerweise sagen durch die erheblich komplexere Boost Steuerung der letzen Generationen von Grafikkarten ist das Problem der Lastspitzen erst entstanden. Vor Vega /Navi und jetzt Ampere ist das nicht so präsent gewesen. Komischerweise habe ich von Turing nichts problemenatisches zu den Thema vernommen, allerdings bin ich mehr so der AMDler. Aber wieder der Fairness halber - ohne das würden die Karten noch erheblich mehr verbrauchen...
Turing war schon ein bisschen problematisch, aber ich sag mal da war das noch halbwegs im Rahmen (meine so 30W rum).
180W sind schon ne ganz andere Hausnummer.
AMD kann jetzt ganz genau hinschauen, wie man es nicht machen sollte. Der Release für BIG Navi muss einfach ein Erfolg werden! Würde es den Roten gönnen genau so wie mit Ryzen auch.
Spätestens jetzt sind wir hier in die Fanboys Ecke gerutscht, schade.
Hab jetzt ganzen Abend diverse Spiele in DX 12 und in UHD getestet. Noch mal, Spiele stürzen bei mir ausnahmslos nur in dieser Kombination ab und ich lande aufm Desktop. Alles andere läuft einwandfrei und sogar mit deutlich mehr Takt. Am schlimmsten ist es bei mir, mit Shadows of the Tomb Raide. Da muss ich -100 MHz runterregeln, damit es stabil läuft.
@SV3N , habt ihr auch mal mit nem 750W NT probiert wie die Reddit Kandidaten ? Sollte es ein Stromunterversorgungsproblem sein dann würdet ihr es mit eurem 1500W NT ja eh nicht merken. ^^
Nein, meines Wissens nach laufen unsere Grafikkarten ausschließlich auf dem von @Wolfgang vorgestellten GPU-Testsystem.
Die Problematik tritt aber bei betroffenen Anwendern mit modernen Corsair PSUs mit 850 Watt auf und da wird’s schon schwer mit Stromversorgungsproblemen zu argumentieren.
Dumdumdum bloobbbb....wofür hab ich nochmal 900 Euro Anfang des Monats ausgegeben?
....sorry aber das liesst sich sehr gruselig. Hätt ich soviel Geld ausgegeben würde ich mich jetzt richtig ärgern und hoffe das AMD sowas nicht auch abliefert. Für viele ist das sicherlich lang gespartes Geld und man gönnt sich mal was und dann geht das so nach hinten los.
Also dieser Thread ist ja gefundenes Fressen für alle AMD Fanboys und oder „Hater“ der 30er Reihe.
An sich bin ich von der Leistung meiner Gigabyte RTx 3080 Gaming OC begeistert.
Die Temperaturen sind super (Max.71 bei Last) und die Leistung ist brachial! Wobei mir RAytracing in vielen Spielen zu viel Leistung abverlangt, für das was man geboten bekommt.
Auch mir schmiert bisher ein Spiel reproduzierbar ab (back to Desktop).
Und zwar Forza Motorsport 7.
Spiele in UHD und alles maximiert. Es läuft butterweich. Schalte ich jedoch die das Leistungsziel (Framelimit) von zb. Dynamisch auf Unbegrenzt, schnellen die FPS an die Decke (bis zu 200fps) und das Spiel hängt sich auf. 2 Sekunden später lande ich auf dem Desktop.
Wenn ich dein System überschlage, wird es kaum jemals 650W brauchen. (Hast den Monitor am Messgerät bzw. die externe Station der AE9?)
Mit Reserven wegen der Spannungsspitzen der GPU bis 500W ist es ein 900W NT, aber sicher nie mehr. Da rechne ich mit grosszügigen Reserven.
Also 1300W im Calculator sind dafür totaler Blödsinn.
Die wolln dir nur teuren Quatsch andrehen.
Davon ab wirst mit so einem überdimensionierten NT im Idle massig Saft verschwenden.