Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Mal schnell unter Wasser die 3090 angeschmissen - nu komm ich auch in die Regionen, welche mit Sandy Bridge und Luft verwehrt blieben https://www.3dmark.com/spy/32808807
...
Aber ist halt echt ein Witz die Mehrleistung der 3090 ggü. ner maxed out 3080.
Also erstmal mit GPU-Tweak 3 kann man (weiss nicht ob das mit dem letzten patch gekommen ist ) auch wie im msi afterburner undervolten.
meine tuf rtx 3080 v2 oc läuft grade mit 0.725mv und 60% pt bei etwa 200W und bis 2025mhz, weiss nicht ob das normal ist aber ja erreiche im furmark trotzdem noch sehr angenehme werte (bis auf den 6gb vram test da sagt er 43fps und mehr nicht ). bis jetzt ist das system auch recht stabil und 120W weniger bei volllast finde ich schon recht stark. temperaturtechnisch komm ich grade so an die 65°C.
0.725v bei 60%PT und 200W bei 2025mhz ? Bei einer 3080 ?
Das klingt etwas seltsam.
Also besonders 2025mhz bei 0.725V. Das macht keinen Sinn. Da müsstest Du ja den besten Chip aller Chips abbekommen haben, oder täusche ich mich da ? Das wäre wirklich krass, oder hab ich nen Denkfehler ?
Ja ich habe erst das Powertarget auf 60% gesenkt und dann im anschluss die spannungskurve angepasst aber bin da auch noch ein wenig am rumtesten da relativ neu in der materie , ich kann halt nur das sagen war mir hwinfo ausspukt. aber vllt seht ihr da mehr drin als ich achja das ist jetzt ein screenshot nach pc start.
Nachtrag : also ihr habt recht bei 3ten RotTR Benchmark war das der Graka wohl zu dumm ^^ muss wohl noch weiter nach den besten Einstellungen suchen.
Womit aber auch wieder gezeigt wird, dass sich von Turing auf Ampere quasi nichts getan hat an der Effizienz
2080 Ti bei 50.5 Punkte/Watt im Royal:
Werde hier mal mit der 3090 gegentesten..
Mit meinen aktuellen Daily Settings (1800@750mV 21 Gbs Speicher) sind es ebenfalls exakt 50,5 Punkte/Watt. In meinen Augen ein ziemliches Armutszeugnis für Ampere
PS: Der Speicher liegt dabei alleine schon bei ~60W.
Andere Karten kann ich da schwerlich vergleichen.
Mir ging es darum jedes Ergebnis der RTX 3070 FE/220W mit möglichst wenig Verbrauch zu erreichen.
Und ~75W weniger für die selbe Leistung kann man mitnehmen
Die Effizienz ist ja auch von Benchmark zu Benchmark verschieden.
Wenn man den Speed Way Benchmark heranzieht zieht Ampere gegenüber Turing auch wieder an.
Weltweit sehe ich nur 15 RTX 2080Ti oc, die an der RTX 3070/150W vorbeikommen. SW/RTX 2080TI
Joa, hängt wie immer vom Spiel/benchmark ab. In Timespy und Port Royal ist Turing einfach echt stark (oder Ampere halt etwas schwach).
Aber auch bei meinen Spielen legt die 3090 kaum was drauf pro Watt gegenüber der 2080 Ti (optimiert vs. optimiert).
Fun Fact: 280W PL auf der 2080 Ti resultieren in gleichem Takt wie 400W auf der 3090 - nur um das mal in Relation zu setzten. Die Mehrleistung kommt quasi ausschließlich aufgrund des dicken Chips und dem höheren Powerlimit.
Ich denke alles zwischen 500-1000 ist Daily kein Problem, solange die Kühlung passt. Würde einerseits die Temperatur und Leistung beobachten, wenn du übertaktest.
Nutze die 3090 schon seit zwei Jahren mit +750 MHz, damit ich über 1 TB/s beim Speicherdursatz liege. Mit Wasserkühlung wohlgemerkt.
Danke, ich werde mal testen. Aktuell hab ich 1900 MHZ mit 0,9 Volt. Das läuft schonmal gut. Den Speicher hatte ich damals Wärmeleitpads zur Backplate gegeben, da diese keinen kontakt zur Backplate hatten. Danach hatte ich auch beim Gaming bessere Temps auf dem Speicher.
Hab die RTX 3080 Vision D, kein besonders tolles Kühldesign, das lustige ist, es gab Markierungen auf der Backplate meiner Karte für Wärmeleitpads xD
Habe jetzt keine exzessiven Benchmarks durchgeführt. Bei Mining soll es ja heisser laufen. Aber beim Zocken liegt die GPU Memory Junction Temperature bei max. 64°C. Wasser durchschnittlich 30°C. Bin mir ziemlich sicher, dass diese auf der Rückseite sind. Vorne haben sie direkten Kontakt via WLP.
Weil mir die aktiv Backplate Konstruktion von AC über eine Heatpipe im Terminal nicht ganz geheuer war nutze ich sie nur passiv.
Damals bevor ich die WLP Pads hinzugefügt habe waren es beim Gaming an die 100 Grad und beim Mining dauerhaft 110 - 116 Grad (ab 110 taktet die GPU runter).
Hab das Speicher OC mal bei nur + 500 MHZ belassen, da es leider kaum mehr FPS bringt.
Habe jetzt keine exzessiven Benchmarks durchgeführt. Bei Mining soll es ja heisser laufen. Aber beim Zocken liegt die GPU Memory Junction Temperature bei max. 64°C. Wasser durchschnittlich 30°C. Bin mir ziemlich sicher, dass diese auf der Rückseite sind. Vorne haben sie direkten Kontakt via WLP.
Weil mir die aktiv Backplate Konstruktion von AC über eine Heatpipe im Terminal nicht ganz geheuer war nutze ich sie nur passiv.
Alles klar, in den Regionen liege ich auch etwa, wenn die GPU volle Pulle darf (400W) bei +750 MHz. Da sind dann in der Spitze beim Gaming bis 70°C bei 32°C Wasser. Bei meinem Alltagssetup (1800@750mV/21Gbs Speicher) dann recht ähnlich zu deiner Temperatur (ALC mit passiver BP).
Definitiv ein ordentliches Upgrade zur FE Stock Kühlung - keine Ahnung, wie Nvidia so einen Mist rausbringen konnte, der auch noch häufig gelobt wird. Stock erreicht der Speicher ~102°C beim Gaming was dazu führt, dass die Lüfter anstatt mit akzeptablen ~1300rpm auf ~1500rpm hochdrehen.
Wirklich traurig, da die GPU dabei nur ~65°C hat.
Daher hatte ich davor etwas bedenken, wie das mit passiver BP unter Wasser ist (gerade weil der ALC Block da wohl eher mäßig abschneidet). Zum Glück waren die Bedenken unangebracht, sonst hätte ich wohl noch einen passiven Kühlkörper draufgeschnallt, ehe ich da ne aktive BP verbaue.
da geht einiges, ist aber überflüssig wie ein kropf, es sei denn man will bissi benchen. 10GB sind nicht sie welt und das packt die 3080 dank guter speicherbandbreite auch ohne MEM OC.
ansonsten sollte deine kiste locker +1400 packen.
ich hab hier mal hand an eine luftgekühlte 3080 MSI Suprim X gelegt (3080 10 GB), vorher noch frisch Pads auf die VRAMS vorne und Kryonaut auf den GPU-CHIP, da das Default-Delta der Suprim einfach grottig ist und die stock pads am VRAM zu dick waren
der run hier war mit +1500, die packt auch mehr ohne artefakte
wie man sieht HOTSPOT 68/69°C, normaler GPU 15° drunter, VRAM auch vorbildlich.
(Lüfter auf 100% aber das nur für den Bench)
Das war übrigens eine "miner"-Karte.
also wurde als mining Karte verkauft. Wie man sieht mit Kryonaut für 9,- und 1x 80x40 2mm pads für 9,- auf dem VRam funktioniert das Teil besser als Stock.
(vorher war der hot spot +/- 90 (delta +30), VRam 87°C, und die gesamte karte bei 60°)
vor allem der hot spot hat ordentlich gedrosselt, deswegen war das erneute auftragen der WLP und bessere VRAM kühlung unablässlich.
Die Suprim X ist ein komplettes Monster am Karte, btw.
und im Idle zieht die auch nichts. 12w
Damals bevor ich die WLP Pads hinzugefügt habe waren es beim Gaming an die 100 Grad und beim Mining dauerhaft 110 - 116 Grad (ab 110 taktet die GPU runter).
Hab das Speicher OC mal bei nur + 500 MHZ belassen, da es leider kaum mehr FPS bringt.
Memory auch zu hoch.
(ist aber im verhältnis zum hot spot SEHR GUT, d.h. die ursachen werden in einer ALLGEMEIN schlechten Belüftungssituation liegen). Aber deine Optimierung mit den Pads an der Backplate scheint ordentlich was gebracht zu haben. Gutes Delta im Vergleich zum Hot Spot.
(ok, bei mir war der VRAM auch auf +1500, da wird der evtl. auch nochmal bissi wärmer, vergleich zum 24/7 betrieb hab ich noch nicht, ich hab erstmal maximal gebencht)
ursachen: vielfältig
als erstes mal das gehäuse abchecken, hier entscheidet sich alles weitere.
nächstes mal auch GPU temperatur maxen damit wir sehen können ob das delta i.o. ist.
Andere Karten kann ich da schwerlich vergleichen.
Mir ging es darum jedes Ergebnis der RTX 3070 FE/220W mit möglichst wenig Verbrauch zu erreichen.
Und ~75W weniger für die selbe Leistung kann man mitnehmen
Die Effizienz ist ja auch von Benchmark zu Benchmark verschieden.
Fazit: bis 250w bin ich bei einer guten effizienz, aber alles was danach kommt scheint in anbetracht der tatsache, das man bspw. DLSS qualität reduzieren könnte o.ä. maßnahmen zur FPS erhöhung durchführen könnte sinnvoller. Mit Schmerzen bis 320w, alles darüber ist nur Benchmark.
Hast du einen Screenshot zum 130/200/250 Setting? Eigentlich kannst du in dem Bereich nichts an Effizienz gewinnen (gute Skalierung und volle Auslastung vorausgesetzt), da die Spannung nicht weiter runter kann und die GPU ihren Verbrauch nur noch über den Takt anpassen kann (linearer Verbrauchsunterschied bei linearer Mehrleistung) - VRAM und sonstige Fixverbraucher aber wegen des konstanten Verbrauchanteils die Effizienz wieder verschlechtern würden.
Mich würde noch interessieren, wie viel Watt pro Punkte deine Karte bei den Settings im Royal macht