3090 UV/OC - Doch nur so geringe Auswirkungen auf Leistungsaufnahme?

UNDERESTIMATED schrieb:
Das ist mir bewusst
Dann weißt du auch, dass Einheiten wichtig sind, sonst explodieren bei NASA wieder Raketen.

Ich habe den SEM16 nicht, aber wenn der akkurat genug ist, fair enough - kann man so machen.

UNDERESTIMATED schrieb:
*kWh
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
MasterWinne schrieb:
Deine Zahlen sehen komisch aus. Da passt was definitiv nicht. Ich guck dann mal in unsere Tabelle... Und geb Durchschnittswerte

Edit: so... Alle Werte Stable ermittelt und Maximalwerte unter Volllast
Die "beste" war ne tuf im Silentmode, 0.74v@1730mhz - 310W - 90% PT - stock mem - max 63Grad im geschlossen Case, Stock Verbrauch lag bei 455W

Im Schnitt liefen alle 3090er quer durch alle Hersteller nit 0.825v@1750 bis 1770mhz - 350 bis 360W - 90% PT - stock mem - 68 bis 75Grad im geschlossen Case.

Gibt es da irgendwo eine Übersicht? Bin etwas zu faul für meine 3070 Vision selbst einen stabilen Wert zu ermitteln, habe aber in ersten Gehversuchen gut 15°C und massive Lautstärkereduzierung errungen bei minimalen Leistungseinbußen, aber mehr als 15 Minuten habe ich noch nicht investiert.
 
Rickmer schrieb:
Ich habe den SEM16 nicht, aber wenn der akkurat genug ist

Behauptet er wenigstens, prinzipiell brauchst den aber auch nicht wenn du einen Onlinerechner im Smartphone bedienen kannst. Ich habe so 5€ Ebaydinger, für das was ich messe reicht das Dicke, sonst klemm ich da eh was anderes davor, bspw. einen geeichten Stromzähler.

Guckt man eben auf die am Monitor sichtbaren Verbrauchswerte und kloppt die Ergebnisse in den Rechner. Der gibt dir genügend Schnellrechenoptionen für sinnvolle Ergebnisse.

Also bspw: 500Watt über 4 Stunden, oder 400Watt über 4 Stunden sehen dann so aus:

1681472564999.png


1681472587710.png
 
@DenMCX
Wenn du wissen willst ob du mehr oder weniger Punkte durch UV hast, würde ich eher die Grafikpunkte vergleichen und nicht die Gesamtpunkte. Ich hatte schon teilweise bei den CPU Punkten Unterschiede von mehreren 100 Punkte, ohne das sich dort etwas geändert hat. Es ist schon möglich, dass du dir dadurch deinen Vergleich verfälscht, da dich ja nur die GPU interessiert.
 
Martinipi schrieb:
Gibt es da irgendwo eine Übersicht?

Nimm dir nen Wecker, stell was um, stoppe 15 Minuten, mach davon einen Screenshot.
Nimm einen Onlinerechner und wirf die Wattangaben da rein, gib deinen aktuellen Verbrauchspreis der kwH an.
Das wiederholst du, bis die Leistungsaufnahme oder € maximal da ist, wo du Sie haben willst und dir das FPS Ergebnis passt.

Diese Werte knallst du in ein AB Profil und legst dir das auf eine Tastenkombi. Die drückst du dann für deine Lieblingsspiele wenn du Sie startest.

Ich spiele fiveM mit 3090 auf 60%PT und Valheim auf 90, in Minecraft greift ohne Shader das Bios der Karte, sie taktet also sehr weit runter und verbrät dann ~40W, aktiviere ich welche, springt sie auf ~2Ghz und zieht 350 ohne PT im AB, also 100%.

Der Witz ist ja der: Kaufe ich eine 4090 und spiele täglich 3 Stunden mit 500Watt kostet das monatlich 18,25€ bei 0,4€ die kwH Verbrauchskosten. Die 4090 durch 12 Monate immer noch gute 166€ oben drauf. Es kostet mich also monatlich mindestens ~185€, GeforceNow aber bspw. 20€ und der Laptop braucht weniger Saft als die Schreibtischlampe.

Man kann immer zwei Dinge tun: Kosten reduzieren oder Einnahmen erhöhen. Die Wahl trifft man selbst, ich fahre recht gut mit beiden Varianten gleichzeitig.
 
Zuletzt bearbeitet:
GPU-Z kann ziemlich einfach Durchschnittswerte anzeigen lassen indem man mittig auf den Wert klickt (Min, Max, Avg). Vor dem Benchmark unten rechts auf Reset drücken und dann hast du danach deine Werte:
1681474752518.png
 
UNDERESTIMATED schrieb:
Guckt man eben auf die am Monitor sichtbaren Verbrauchswerte und kloppt die Ergebnisse in den Rechner. Der gibt dir genügend Schnellrechenoptionen für sinnvolle Ergebnisse.

Also bspw: 500Watt über 4 Stunden, oder 400Watt über 4 Stunden sehen dann so aus:
Das ist doch absoluter Murks.
Und dafür brauche ich kein Online-Rechner, das kleine Einmaleins kann ich auch noch im Kopf.

Um auf einen Bench von wenigen Minuten einen akkuraten Gesamtenergieverbrauch zu messen, muss man eine Messfrequenz von mindestens einmal die Sekunde haben, sonst kann man direkt nach dem Max-Wert in GPU-Z gehen.
Daher auch meine Kommentare bezüglich Logging. GPU-Z kann wenigstens 'log to file'.

Für langfristiges Verbrauchstracking nutze ich selber Dect!READ in Verbindung mit AVM Fritz!Dect 210. Das loggt alle 40 Sekunden einen Verbrauchswert, das reicht locker für langfristiges Tracking, ohne, dass die Größe der Logfiles explodiert.

ruthi91 schrieb:
GPU-Z kann ziemlich einfach Durchschnittswerte anzeigen lassen indem man mittig auf den Wert klickt (Min, Max, Avg). Vor dem Benchmark unten rechts auf Reset drücken und dann hast du danach deine Werte:
Ist 'ne Option, klar.
Da ist dann natürlich aber auch ein wenig Zeit mit drin bis der Benchmark beginnt und bis man nach Abschluss des Benchmark das ausliest, das trübt die Genauigkeit der Ergebnisse.
 
@Martinipi
Wir führen als Systembuilder "Buch" über OC|UV und allgemeine CPU|GPU Erfahrungen. Macht vieles leichter, vor allem bei Beratungen und Empfehlungen.
Bei der 3070 liegt der Sweatspot bei 0.75 bis 0.85v. 0.85v. Bei 0.85v und 1890mhz sollte ein durschnittlicher Chip auf 1905mhz Realtakt und ca 180w kommen. Ab hier dann in die Richtung rantasten wo du hin willst, Bestwert war bei uns eine Amp ed. LHR die bei 0.75v 1815mhz stable geschafft hat.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Rickmer und Gelöscht 865248
Rickmer schrieb:
Das ist doch absoluter Murks.

Warum denn?

Rickmer schrieb:
Dann weißt du auch, dass Einheiten wichtig sind

Mir und hier eher weniger. Oder ist hier neuerdings die NASA unterwegs, die meine Berechnungen rauskopiert und einfügt ohne zu prüfen? Dann darf Sie mir gern dafür den nächsten Scheck der Regierung schicken, habe ja offenbar gut geleistet bisher.

Rickmer schrieb:
muss man eine Messfrequenz von mindestens einmal die Sekunde haben

Ein SEM16 hat mindestens 50, eine Grafikkarte so um die 5.0E-10. Meinst nicht auch, das reicht fürs erste?

Rickmer schrieb:
Für langfristiges Verbrauchstracking

Habe ich die 5€ Ebaydinger an den Steckdosen die mich interessieren, bspw. Kühlschrank und Schreibtisch, mache da ein mal im Monat ein Foto vom LCD und schau, wie es sich verändert wenn ich etwas veränder'.

Dann gehe ich in den Keller, hole mir ein Bierchen, mache da auch ein Foto vom geeichten Zähler und tippe die Daten genüsslich in den Online Zugang vom Energiedienstleister, der sofort meinen Abschlag anpasst. Reicht sogar Halbjährlich, wenn man derart faul sein möchte und man die Einpendelphase des E-Autos oder sonstwas überwunden hat und auch, um dann vllt. doch einen neuen Kühlschrank anzuschaffen. Denn so weiß ich ganz exakt, was ich Energiekostentechnisch mit einem anderen einspare und was mich das kostet oder mir spart.

Aber gut, man kann auch wie @Rickmer teure Logginggeräte kaufen, die einem den Krempel dann unbekannterweise irgendwie aufzeichnen, das ganze quer um die Welt senden, damit man von unterwegs auch sieht, dass jemand 2 statt 1 mal am Kühlschrank war und keinen Onlinerechner gut finden, weil man so viel Kopfrechnen kann, dass man nicht mal kapiert, worum es hier eigentlich im Thema geht.

Du kaufst ernsthaft einen Shelly Adapter um die Leistungsaufnahme in Timespy zu messen und schickst das mit DECT 2,4Ghz quer durch die Hütte?
Das tut doch weh, oder?
Aber gut, dass die Polizei dann wunderbar ermitteln kann wann exakt du am PC gesessen hast und was du dort vorzugsweise tatest, auf die Sekunde genau. Glückwunsch. :)
Einfacher geht's dann ja wirklich nicht.

Sorry, nichts gegen die Wahl so Logger zu nutzen, wenn eben sinnvoll, aber wo genau ist denn da der Unterschied?
Du hast die Rechenfunktionen und Verwaltungen mit dem Gerät gekauft, ich brauche den Spielkram nicht, damit ich weiß: Desktop kann ich weit Stromsparender gestalten mit 2 einfachen Handgriffen und Kühlschrank kann gern auch wieder auf 1 runter, wenn er denn fast leer ist und der Onkel mit seinem Wohnmobil hat in seiner Dosenzeit bei mir genau auf den Cent Strom konsumiert.

Der TE hat ein gutes gewöhnliches Strommessgerät, und das Gebrabbel über irgendwelche DECT Büchsen für Schweinegeld hilft ihm sicher weniger, als ein Onlinerechner zum schnellen nachsehen, ob sich die Stromersparnis für Ihn rechnet.
Ergänzung ()

MasterWinne schrieb:

Wie viele Karten wurden analysiert?
 
Zuletzt bearbeitet:
UNDERESTIMATED schrieb:
Mir und hier eher weniger.
:rolleyes:
Schlechte Angewohnheiten bekommst du dir so schnell nicht wieder abgewöhnt und schlimmer noch - andere sehen das und denken, das ist richtig so.

UNDERESTIMATED schrieb:
Ein SEM16 hat mindestens 50, eine Grafikkarte so um die 5.0E-10. Meinst nicht auch, das reicht fürs erste?
Du hattest vom Ablesen des Verbrauchswert geredet. Mit einem Einzelpunkt hochrechnen geht gegen alles, was du vorher angepriesen hattest.

Aber wie du erkennst - das Logging der Grafikkarte übertrifft alles, was du (bei vertretbarem Aufwand) extern messen kannst, daher warum kein Software-Logging?

UNDERESTIMATED schrieb:
Habe ich die 5€ Ebaydinger an den Steckdosen die mich interessieren, bspw. Kühlschrank und Schreibtisch, mache da ein mal im Monat ein Foto vom LCD und schau, wie es sich verändert wenn ich etwas veränder'.
5€ Ebaydinger - na hoffentlich gehen die nicht irgendwann in Flammen auf...

UNDERESTIMATED schrieb:
Aber gut, man kann auch wie @Rickmer teure Logginggeräte kaufen, die einem den Krempel dann unbekannterweise irgendwie aufzeichnen, das ganze quer um die Welt senden
Warum um die Welt senden? Weiter als lokales Netzwerk geht bei mir nichts.

UNDERESTIMATED schrieb:
Du kaufst ernsthaft einen Shelly Adapter um die Leistungsaufnahme in Timespy zu messen?
Das tut doch weh, oder?
Shelly, nein danke.

Und natürlich nicht für Timespy, das Software-Logging reicht mir das vollständig. Die internen Messungen moderner GPUs sind sehr akkurat. Müssen sie ja sein, für deren eigene interne Regulierung.

UNDERESTIMATED schrieb:
Sorry, nichts gegen die Wahl so Logger zu nutzen, aber wo genau ist denn da der Unterschied?
Damit ich nicht nur den Monatsdurchschnittwert habe, sondern auch die Durchschnittsleistungsaufnahme im Standby, im Idle, den maximalen und durchschnittlichen Stromverbrauch in verschiedenen Lastscenarien und noch viel mehr nachschauen kann.

UNDERESTIMATED schrieb:
Kühlschrank kann gern auch wieder auf 1 runter, wenn er denn fast leer ist.
Um auf die Erkenntnis zu kommen, brauchst du doch keine Messwerte?... Das ist mehr von der Art des Inhalts abhängig.

Wenn ich frischen Fisch im Kühlschrank habe, stell ich den auf minimale Temperatur, auch wenn sonst nichts drin ist. Wenn nur versiegeltes Zeug drin liegt weil ich morgen in den Urlaub fahre, kann die Temperatur hoch, auch wenn der Kühlschrank randvoll ist.
 
Rickmer schrieb:
und schlimmer noch - andere sehen das und denken, das ist richtig so.

Was andere sehen und denken ist mit relativ egal. Sind andere.

Rickmer schrieb:
Warum um die Welt senden?

Kennst du den Programmcode von den Dingern? Wie sicher bist du dir?

Rickmer schrieb:
und noch viel mehr nachschauen kann.

Wenn man das denn will, es geht ja aber nicht darum, sondern um welchen Wert er die Leistungsaufnahme im Lastbetrieb minimieren kann, ohne zu viel FPS-Leistung einzubüßen.

Rickmer schrieb:
Um auf die Erkenntnis zu kommen, brauchst du doch keine Messwerte?

Genau - eben auch keine die mich am Monitor daran erinnern statt selbst was zu tun.
Ich verstehe deinen Ansatz aber, wenn einem ein solches Monitoring den Gegenwert gibt, den man davon erwartet, dann ist eine solche Anschaffung sicher auch nicht falsch.

Es ist für die Frage im Thread für mich aber: Mit Kanonen auf Spatzen schießen.
Können die Dinger eigentlich beide Richtungen? Also bspw. auch Solarkrafteinspeisung gegenmessen?
 
@UNDERESTIMATED

Ja, da kommen so einige zusammen. Der erste Eintrag ist ne gtx 670 von 2012, seit dem fortlaufend mit den gängigsten Karten und CPUs. Bei uns auch "Optibuch" genannt und aben wir auch unter uns als Exeltab.
 
@MasterWinne Coole Sache sowas, frag doch mal die Redaktion ob Sie Lust hat, anhand solcher Daten die Effizienz in gleichen Szenarien abzubilden.

Ein Artikel bezüglich bspw. "Offlinegaming GTAV, 2013 und heute" mit FHD und bspw. 60fps dürfte vielen, die dauerhaft nach besserer und mehr Effizienz rufen, einige Augen öffnen.

Ich vermute mal, ihr habt da schon vergleichbare Ergebnisse ähnlicher Natur drin?

Darüber hinaus: Einen solchen gibt es mWn. [noch] nicht.
 
UNDERESTIMATED schrieb:
Kennst du den Programmcode von den Dingern? Wie sicher bist du dir?
Wireshark (und Konsorten) regelt.

Oder mit dem Holzhammer drauf und Internetzugriff verbieten. Jeder brauchbare Heimrouter kann das. Das ist z.B. auch bei Druckern sinnvoll, die Druckerhersteller haben alle Dreck am Stecken.
 
Rickmer schrieb:
Das ist z.B. auch bei Druckern sinnvoll, die Druckerhersteller haben alle Dreck am Stecken.

Daher Onlinefaxe ich was ich wirklich als Papier brauche zum Dönerladen und gehe was essen. Ich mag Ihn. Ist dann aber auch egal wer es hat, landet danach sowieso zu 99% in einer Behörde.

Allein diesen Toner und Tinenspass hab ich seit ca. 5 Jahren komplett aufgegeben.
Wer was in [gedrucktem] Papier braucht, braucht mich nicht.

Rickmer schrieb:
Wireshark (und Konsorten) regelt.

Kommt da also nichts durch? Dann kommt das mal auf die Liste. :)
Ich traue so Smartgeraffel alles zu, außer smart zu sein und mir Bordmittel zu geben, nicht mein halbes Haus abzuscannen und woanders auszuwerten.

So Saug- Wisch- und Mähroboter sind ja das geilste für Ermittler was je erfunden wurde.
 
Rickmer schrieb:
Wireshark (und Konsorten) regelt.

Oder mit dem Holzhammer drauf und Internetzugriff verbieten. Jeder brauchbare Heimrouter kann das. Das ist z.B. auch bei Druckern sinnvoll, die Druckerhersteller haben alle Dreck am Stecken.

Wissen wir, war schon immer mal ein Thema und Anfragen gabs auch schon genüge.
Angefangen hatte das privat, da aber seit längerem auch firmeninterne Daten mit einbezogen sind und entsprechend auch der Umfang des Datensatzes durch arbeitsbedingten Zugang und Ressourcen zu der ganzen Hardware und Testumfängen entstanden ist, gilt das entsprechend auch als Firmengeheimnis zu sehen, damit wird ja auch Geld als Dienstleistung verdient.
Auch die Arbeit diese für die Öffentlichkeit aufzuarbeiten wäre nicht ohne.
Hier und da mal paar einzelne Tipps oder Erfahrungswerte raus zu geben da eher kein Problem, aber im ganzen dann schon.
 
Ach, die Story. :(

Ja logisch, wenn man das nicht einfacher als per Hand anonymisieren kann und kein Redakteur ein NDA untermalen mag, wird es leider wohl echt nichts.
Ergänzung ()

MasterWinne schrieb:
Auch die Arbeit diese für die Öffentlichkeit aufzuarbeiten wäre nicht ohne.

Also was das angeht: CB-Redakteure bekommen bestimmt auch Gehälter.
 
UNDERESTIMATED schrieb:
Was möchtest du eigentlich erreichen? Soll die Leistungsaufnahme verringert werden, oder der Sweetspot der Karte in welchem Lastszenario genau?
Wie in einem meiner Posts mal kurz erwähnt ging es mir darum, dass ich für mich erstmal im allgemeinen nachprüfen wollte, ob die (teils reißerischen) Aussagen vieler UV/OC-Artikel mit "fast gleichbleibender Leistung bei 100Watt weniger Leistungsaufnahme" überhaupt so stimmen.

Deinen Ansatz mit den "längeren" Messungen speziell auch noch über die (k)Wh verstehe ich und sehe ich grundlegend auch als sinnvoll an. Dafür fehlt mir aber aktuell etwas die Muse 🤷‍♂️

Grundlegend bin ich ja schon mal so weit, dass ich definitiv NICHT im Stock-Modus der Karte verharren will (die hat ja mit Abstand den höchsten Leistungsbedarf bei gefühlt der schlechtesten Performance).

Und bzgl. "Sweetspot" musste ich den ja diesen durch die Versuchsreihe bei mir ja herauskriegen, mit welchen Spannungen, welcher Takt funktioniert.

Eine weitere Hilfestellung von euch wäre, wenn hier jemand grob weiß, wie das Takt/Spg-Verhältnis bei guten, mittelprächtigen und schlechten 3090-Chips so sind.
Dann kann ich meinen Chip schon mal irgendwo einordnen.

Rickmer schrieb:
Lässt du dir beim Durchlaufen des Bench auch von Afterburner die aktuell anliegende Frequenz anzeigen? Da eventuell mal drauf schauen.
Ja, das habe ich auch immer brav kontrolliert.

Da ist mir schon grundlegend aufgefallen, dass im TimeSpy4K-Benchmark es nur einen ganz kurzen Spike bzgl. des Takts je am Ende der beiden GPU-Tests gibt.
Hier ein Beispiel mit Profil 3 (1905 MHZ @ 800mV):

1681502732853.png


Ich frag mal völlig doof und unbefangen: Was würdet ihr mir aktuell raten?
Ich meine, es haben hier 2-3 es ja anfangs schon gut erkannt: Wenn ich mit den Stock-Einstellungen vergleiche, sind ALLE Profile besser.

Wenn ich so aus der Hüfte entscheiden müsste, ist gefühlt Profil #1 (1740MHz @ 750mV) ja schon fast der P/L-Sieger... mit Abstand niedrigste Leistungsaufnahme bei gerade mal 4,5% weniger Performance zum leistungsstärksten Profil #3 mit 1905 @ 800mV (8852 Punkte vs 9252 = -4,5% bei 425,6W vs 465,3W = -9,3%)
 
Ich würde auch das effizienteste Profil nehmen...
 
  • Gefällt mir
Reaktionen: p4z1f1st
DenMCX schrieb:
ob die (teils reißerischen) Aussagen vieler UV/OC-Artikel mit "fast gleichbleibender Leistung bei 100Watt weniger Leistungsaufnahme" überhaupt so stimmen.

Datu das Deadside Beispiel was ich geliefert habe, ja kann stimmen, ist aber ne Headline, die natürlich nur in einem ganz bestimmten Szenario zu ganz gewissen Umständen stimmt und nicht für alles und immer.
Ergänzung ()

DenMCX schrieb:
Dafür fehlt mir aber aktuell etwas die Muse 🤷‍♂️

Verstehe ich.

DenMCX schrieb:
Wenn ich so aus der Hüfte entscheiden müsste, ist gefühlt Profil #1

Jup, nimm das effizienteste was dir passt.
Kann aber wie gesagt bei einigen Spielen dann deutlich mehr als die Timespy Differenz sein - bspw. geht meine 3090 ohne zu zucken locker auf 2050mhz ohne PT zu erreichen und malt +200FPS in fiveM auf den Monitor, aber hechelt sich in Valheim mit 350Watt nachts zu tode und throttelt dann auf 16-1700.

However: Timespy ist zum einstellen erst mal nicht verkehrt, du solltest allerdings zusätzlich sehen, ob du nun Grafikregler bewegen willst um auf deine fps zu kommen, oder ob die Profile andere Differenzen haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: p4z1f1st
Zurück
Oben