Sammelthread Ampere (3070/3080/3090/Varianten) Overclocking/Undervolting Sammelthread

@amorosa
Ist bei meiner wohl genauso wie bei Deiner.

@Melu76
Laut meinem Spezl hat er die erste Karte nach 2 Wochen bei MSI/Mindfactory reklamiert, da diese eine Hotspottemperatur von 109° erreichte und zum drosseln anfing. Diese hier kommt maximal auf 97°.
Wie verhält sich das bei MSI seitens der Garantie wenn ich die VRAM Pads wechsle, erlischt diese dann?
 
Mit Hotspot hab ich echt Glück.
Der geht im UV nicht höher als 76Grad.

Ohne UV geht er auf 85 Grad hoch. Memorytemp ist dabei immer um 1-2 Grad höher als Hotspot.
 
DeViL(V)@StEr schrieb:
Wie verhält sich das bei MSI seitens der Garantie wenn ich die VRAM Pads wechsle, erlischt diese dann?

ich denke die garantie ist dann platt, es sei denn du entfernst den aufkleber an der schraube vorsichtig ohne ihn zu beschädigen ;) (hab ich auf jeden fall vermasselt, nicht drüber nachgedacht, besser: den aufkleber einfach mit einem messer vorher vorsichtig weghebeln)

bei mir hat sich die aktion auf jeden fall gelohnt mit 450w (fremdbios, das eigenbios hat 430w max) vollgas und hotspot bei 68°C (100% stock-luftkühler geschwindigkeit), kartentemp bei 56°C -

also die suprim kriegt einiges weggekühlt, die standard pads sind halt iwie kacke.
der ganze kühlkörper ist schon extrem massiv - aber das weißt du ja selber, das das teil mega ist
 

Anhänge

  • Screenshot (198).png
    Screenshot (198).png
    1.015,8 KB · Aufrufe: 142
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeViL(V)@StEr
Hab das ganze mal versucht während die Lüfter auf 100% (AB) liefen, Powerlimit auf 116% (mehr geht nicht)
Ebenfalls bei TS GPU 64°, Hotspot 83° und Memory 75°, Lüfter bei 3259rpm (was jetzt nicht gerade leise ist :evillol:), Verbrauch in der Spitze 421W.
Bei Auto-Lüfter gehen die Temperaturen im Schnitt um 12° höher, wobei die Lüfter nie auf 100% drehen.
Werde die Karte erstmal weiterhin mit UV betreiben, aber mal vorsichtshalber Pads bestellen. Glaub bei TechpowerUp stand die Dicke, welche man benötigt.

Einstweilen Danke für die Hilfe :-)
 
DeViL(V)@StEr schrieb:
Hab das ganze mal versucht während die Lüfter auf 100% (AB) liefen, Powerlimit auf 116% (mehr geht nicht)
Ebenfalls bei TS GPU 64°, Hotspot 83° und Memory 75°, Lüfter bei 3259rpm (was jetzt nicht gerade leise ist :evillol:), Verbrauch in der Spitze 421W.

beim hot spot wäre die differenz wichtig (die kartentemp hängt ja von ein paar anderen faktoren auch noch ab, airflow im gehäuse etc), also sollte man auf das delta schauen, das ist bei dir 19°, optimal wären so 15° (oder weniger) bei mir waren es (vor erneuern der pads) z.b. 25° delta was für mich viel zu viel war. jetzt bin ich bei <= 15°. 19° wären noch so gerade akzeptabel. Dewegen würde ich da auch nichts machen, wenn man sowieso UV macht.

meine karte hat jetzt auch wieder das original bios drauf und läuft hauptsächlich mit 130w PL und UV. (800mhz minimal takt bei last bis max 1530mhz). der test oben war nur einmal das absolute max (für mein setup) rausholen, natürlich sind 450w verbrauch völlig hirnrissig für den 24/7 betrieb (wenn wir dadruch den effizienten bereich verlassen)
Ergänzung ()


das hier hab ich benutzt
Melu76 schrieb:

paste als dot aufgetragen (ist nur eine kleine menge, hab (fast?) alles draufgepackt, konnte im grunde nichts falsch machen)

und bei den pads hatte ich mich vorher informiert welche stärke und menge (für den VRAM) ich für mein modell brauche
(https://thermalpad.eu/thermal-pad-sizes/msi-geforce-rtx-3080-suprim-x-10gb/)

die temps waren danach deutlich besser und insgesamt bin ich sehr zufrieden, mit dem handling
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeViL(V)@StEr
DeViL(V)@StEr schrieb:
ich habe mir vor 3 Wochen eine MSI RTX 3080 Suprim X geholt
no offense...
Was bringt einen heute dazu sich solch eine Karte in den PC zu stecken? War die so billig, dass sich das irgendwie rechnet?
Ada wäre m.M.n die bessere Lösung gewesen.
 
DaHell63 schrieb:
Was bringt einen heute dazu sich solch eine Karte in den PC zu stecken?
Ich gehe mal von einem Gebrauchtkauf aus. Habe auch eine gebrauchte 3080 für 400.- erhalten und konnte nicht nein sagen. :D

Für den Neupreis wäre es natürlich ein Fehlkauf.
 
@DaHell63 Wieso nicht?

400 EUR für eine 3080 klingt doch ganz ok - ich habe mir vor 3 Monaten eine gebrauchte 3090 für 720 EUR geholt.

Kommt ja immer aufs "Spiel-Profil" an - ich z.B. habe einen elendig langen Backlog auf Steam mit AAA-Titel von vor 3-10 Jahren ( :D ) - da ist die 3090 perfekt für, um >90-100fps in 4K zu bekommen.
 
DaHell63 schrieb:
War die so billig, dass sich das irgendwie rechnet?

Das rechnet sich schon. Angenommen ich kaufe mir eine 3080 für 500,- die 300w verbraucht oder eine 4070, die 150w verbraucht für 600 euro. bei gleicher leistung.

also verbraucht die 3080 150w pro stunde mehr. (beim zocken, bzw max last)
ich zocke sagen wir 2h am tag was schon rel. massiv ist, sind 14h woche. sind 730h jahr
1kw kostet 0.35 Euro

730 x 0.150 x 0.35 = 38 Euro

bedeutet, das ich fast 3 jahre zocken kann ohne das sich +/- viel ändert im geldbeutel.

im gegenteil den hunni kann ich sogar noch investieren, was evtl. noch zinsen abwirft.
die 4070 auf der anderen seite bietet framegeneration (dlss3)


also, es kann sich schon irgendwie rechnen, je anchdem wie die zielsetzung ist :)

wenn es mir darum geht langfristig zu nutzen bei wenig verbrauch wäre die 4070 eine gute wahl.
wenn es mir darum geht ad hoc günstig zu zocken, rechnet sich die 3080


EDIT:
Natürlich wird der obige vergleich bissel "milchig" weil hier gebraucht- mit neuware verglichen wird.
aber dafür muss man auch sagen, das man für 600 euros keine 3-fan-4070er mit fettem kühlkörper bekommt, sondern ein 2-fan modell mit etwas reduzierter ausstattung. während die fettesten 3080 gebraucht 500 euronen veranschlagen.
 
Zuletzt bearbeitet:
DaHell63 schrieb:
no offense...
Was bringt einen heute dazu sich solch eine Karte in den PC zu stecken? War die so billig, dass sich das irgendwie rechnet?
Ada wäre m.M.n die bessere Lösung gewesen.

Das fällt bei mir eher so in die Kategorie: "Eigentlich bin ich mit meiner 2070 Super Gaming X zufrieden (hatt ja auch noch 3 Monate Garantie) ...".
Eigentlich kann ich sicherlich auch noch Ada überspringen, da ich nicht gewillt bin € 700.- für eine 4070 Gaming X oder € 900.- für eine 4070Ti Gaming X auszugeben, wenngleich es gewaltig in den Fingern juckte.

Dann rief mich ein Bekannter an und bot mir seine (im November 22) gekaufte 3080 Suprim X für € 450.- an (Karte hat noch 2 1/2 Jahre Garantie).
€100 weniger als meine 2020 gekaufte 2070S und dazu mehr Leistung - für mich perfekt.

Denke mal, dass dann wohl der Großteil auch hier im Forum nicht mehr großartig überlegt, ob er das Doppelte ausgeben will für ein paar FPS mehr (4070/Ti).

Und zum Thema Verbrauch:
Wie weiter oben ersichtlich, betreibe ich die 3080 mit 180W-220W (auf dem Niveau lief meine 2070S auch).
Bei der 3080 brauche ich kein DLSS, was in manchen Spielen bei der 2070S durchaus von Nöten war.
 
  • Gefällt mir
Reaktionen: amorosa
DenMCX schrieb:
Können mir mal die 3090-Besitzer hier im Forum sagen, was bei euch typische max.-Temperaturen des RAMs (bei mir unter HWinfo64 als "RAM Junction Temperature" angegeben) ist?

Ich würde gerne die 86°C bei Last mit WaKü (+ Backplate - sprich alle RAM-Steine sind gekühlt) einordnen können...

DenMCX schrieb:
Hat sonst keiner mal Vergleichswerte bzgl. der RAM-Temperatur parat (egal ob WaKü oder LuKü)?
bisschen spät... naja vielleicht hilfts die dennoch 🙂
RTX 3090 FE - Powerlimit auf 114% - 850mV mit 1875MHz Luft gekühlt
Furmark gestartet und solange laufen lassen bis sich die Temperaturen nicht mehr änderten und die Karte überall ihre Werte beibehielt...

1682920603538.gif


Ich überlege noch, wie Power Consumption auf 119,4% TDP und Board Power Draw auf 417,8 Watt kommt wenn die Karte eigentlich nur 350 Watt hatte, ich laut Afterburner dieses auf 114% anhob und rechnerisch auf 399 Watt von den verfügbaren maximalen 400 Watt laut Bios komme.
 
  • Gefällt mir
Reaktionen: p4z1f1st
Melu76 schrieb:
wie undervoltest du denn?
Ich limitiere nur die maximale Spannung und Takt, ich senke die Spannung nicht an sondern cute die Kurve einfach so das der nicht weiter als bis 1800 MHZ geht Edit: bzw. bis 1785 MHZ, der senkt sogar um 15 MHZ.

1682934376036.png


Stock:

1682934402203.png
 
DenMCX schrieb:
400 EUR für eine 3080 klingt doch ganz ok - ich habe mir vor 3 Monaten eine gebrauchte 3090 für 720 EUR geholt.
Eine RTX 3090 ist ja auch keine RTX 3080....ausserdem wenn ich sehe, dass Du mal lässig 250W mehr für dein TSE Ergebnis durchjagen musst als eine vergleichbare RTX 4070TI..nö lass mal.
Ergänzung ()

DeViL(V)@StEr schrieb:
Denke mal, dass dann wohl der Großteil auch hier im Forum nicht mehr großartig überlegt, ob er das Doppelte ausgeben will für ein paar FPS mehr (4070/Ti).
Eine RTX 4070 kostet mit ~600€ ja nicht das doppelte
DeViL(V)@StEr schrieb:
Und zum Thema Verbrauch:
Wie weiter oben ersichtlich, betreibe ich die 3080 mit 180W-220W (auf dem Niveau lief meine 2070S auch).
Bei der 3080 brauche ich kein DLSS, was in manchen Spielen bei der 2070S durchaus von Nöten war.
Eine RTX 3080 ist nun mal nicht das UV Monster und 180-220W kosten dementsprechend.
@Melu76 hat ja einen TS Run mit 200W gepostet...da ist sogar noch die RX 6800 mit 150W TGP schneller.

Aber egal...mich hat es einfach nur interessiert. Eine fast neue Custom RTX 3080 für 450€ sind nachvollziehbar.
 
Zuletzt bearbeitet:
Was mir jedenfalls bei all dem Undervolting aufgefallen ist,dass die 20er Generation und die 30er Generationen sich zwar undervolten lassen und dadurch dann auch weniger Strom verbrauchen, aber wenn ich etwas über Cuda arbeiten lassen (DeepFake), dann verbrät die 2070S trotz UV ganze 220W. So wie meine 3080 dann auch an die 340W peakt.

Die Cudacores sollten doch mit dem Takt skalieren, oder ?

LG
 
Zuletzt bearbeitet:
amorosa schrieb:
aber wenn ich etwas über Cuda arbeiten lassen (DeepFake), dann verbrät die 2070S trotz UV ganze 220W.
taktet die bei Cuda nicht auch viel niedriger? Zumindest beim minen hatte meine rtx 3080 vielleicht 1 GHZ Takt anliegen auf der gpu
 
Voller Takt über alle Nvidia-Grakas.
Die Cuda-Cores sollen laut Google wohl genauso hoch takten, wie der Chiptakt.

Ich lasse dabei aus Interesse GPU-Z und Afterburner laufen um das ganze im Auge zu behalten.
Begrenzt auch fein bei 0.800, bzw. 0.850V oder was auch immer man einstellt.

Aber der Verbrauch ist jenseits von gut und böse. Das peakt auch 320W, 340W 360W, gar kein Problem, wenn man die Cudacores voll auslastet.

Also bitte : ACHTUNG bei UV und Cudaberechnungen.

Screenshot :

1682958733627.png


Sorry für diesen "Riesen-Screenshot", aber da ist nunmal alles drauf und man sieht mal eben einen Peak auf 326W trotz dem anliegenden UV und der Voltage.

Edit : 341W ist so eben mit UV erreicht worden.

Dabei werden dann auch deutlich höhere Temperaturen erreicht. Im Schnitt 10° mehr als beim Zocken bei der Chiptemperatur und satte 10° mehr bei Hotspot und Speicher.

War damals bei der 2070S ebenfalls so.

LG
 
Zuletzt bearbeitet:
amorosa schrieb:
man sieht mal eben einen Peak auf 326W trotz dem anliegenden UV und der Voltage.

Edit : 341W ist so eben mit UV erreicht worden.

Dabei werden dann auch deutlich höhere Temperaturen erreicht. Im Schnitt 10° mehr als beim Zocken bei der Chiptemperatur und satte 10° mehr bei Hotspot und Speicher.
bedeutet trotz UV höherer Stromverbrauch und Temperaturen als mit normalem Takt ohne UV?
 
Nein, bedeutet kaum mehr Ersparniss, mit Peaks bis quasi zum Stock-Verbrauch hoch.
 
Das ist gut zu wissen!


Wenn ich nun mit meiner RTX 3090 FE die größte Energieersparnis bei der geringsten Leistungseinbuße haben möchte, auf welche Werte sollte ich mich dann konzentrieren?

Meine Idee nach langer Suche im Netz war es meine Karte auf 850mV zu setzen, das Powerlimit zu öffnen und die GPU-Taktfrequenz auf 1875MHz zu setzen.
Das mit dem Powerlimit wollte ich ursprünglich mal mit dem Standardwerten, mit der die Karte ausgeliefert bekomm, ausprobieren, wenn sie nun anstelle 350Watt jetzt maximal 400Watt bekommt und ob die dann nicht mehr ins Powerlimit rennt aber das hat sie dennoch. Wieviel Strom muss sie sich ziehen können damit sie NICHT mehr ins Powerlimit kommt??450 Watt?? 500 Watt??

Eigentlich war mein Ziel so um die 1920MHz bis 1930MHz GPU-Taktfrequenz zu gehen weil ich im Netz gelesen hatte das es wohl einige Karten gibt die damit gut zurecht kommen sollten... meine gehört definitiv nicht dazu. Das hat aber keine thermischen Gründe.
Bin dann auf 1905Mhz runter was im ersten Moment wunderbar funktionierte. Jedenfalls bei Time Spy und Time Spy Extreme. Der Stresstest lief ohne zu hohe Temperaturen etc. durch.

Allerdings war Speed Way alles andere als stabil. Obwohl die Temperaturen weit weg von kritischen Werten war, ist der Test sporadisch abgeschmiert (im schlimmsten Fall Freeze vom System). Das selbe gilt auch die die Direct X11 Benchmarks.

Wollte dann in 5er Schritten runter gehen bis der Test ohne Probleme durchläuft aber beim "glattziehen" ist Afterburner bei mir hingegangen und hat alles auf 1875MHz gesetzt und das hatte ich dann erst mal zum Testen gelassen und da lief auch der Speed Way Stresstest komplett durch.

Wenn die Temperaturen vom GPU-Speicher schon jetzt unter voller Last bei 100° liegen, macht es keinen Sinn den weiter anzuheben richtig?
 
Ich denke auch dass das gut zu wissen ist, alleine in meinem Bekanntenkreis kenne ich zwei Menschen, bei denen das mit dem Netzteil nicht wirklich passt. Aber weil die Kohle knapp war, wurde undervolted. Bei einem schaltete das Netzteil vorher sogar mehrfach ab. Seit UV bei 0.800V und 1755mhz (3080) läufts.

Aber stell dir mal vor, die Leute machen irgendwas, was richtig heavy auf die Cudas geht. Dann sind wir wieder trotz UV bei Stockwerten und es macht im besten Falle nur „klick“ und nicht „peng“ beim Netzteil.

Ich meine zu glauben, das ich hier der erste bin, der mit dem Finger auf etwas zeigt, was evtl. für einige(aber nicht viele) wichtig sein könnte.

Dein Speicher ist ja jetzt schon sehr warm. Da würde ich nichts mehr machen. Aber mangels 3090 kann ich nicht genaus sagen wo Du hin kannst. Aber 0.850V klingt schonmal ganz brauchbar.

LG
 
  • Gefällt mir
Reaktionen: Intruder
Zurück
Oben