Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
3090 UV/OC - Doch nur so geringe Auswirkungen auf Leistungsaufnahme?
Deine Zahlen sehen komisch aus. Da passt was definitiv nicht. Ich guck dann mal in unsere Tabelle... Und geb Durchschnittswerte
Edit: so... Alle Werte Stable ermittelt und Maximalwerte unter Volllast
Die "beste" war ne tuf im Silentmode, 0.74v@1730mhz - 310W - 90% PT - stock mem - max 63Grad im geschlossen Case, Stock Verbrauch lag bei 455W
Im Schnitt liefen alle 3090er quer durch alle Hersteller nit 0.825v@1750 bis 1770mhz - 350 bis 360W - 90% PT - stock mem - 68 bis 75Grad im geschlossen Case.
Gibt es da irgendwo eine Übersicht? Bin etwas zu faul für meine 3070 Vision selbst einen stabilen Wert zu ermitteln, habe aber in ersten Gehversuchen gut 15°C und massive Lautstärkereduzierung errungen bei minimalen Leistungseinbußen, aber mehr als 15 Minuten habe ich noch nicht investiert.
Behauptet er wenigstens, prinzipiell brauchst den aber auch nicht wenn du einen Onlinerechner im Smartphone bedienen kannst. Ich habe so 5€ Ebaydinger, für das was ich messe reicht das Dicke, sonst klemm ich da eh was anderes davor, bspw. einen geeichten Stromzähler.
Guckt man eben auf die am Monitor sichtbaren Verbrauchswerte und kloppt die Ergebnisse in den Rechner. Der gibt dir genügend Schnellrechenoptionen für sinnvolle Ergebnisse.
Also bspw: 500Watt über 4 Stunden, oder 400Watt über 4 Stunden sehen dann so aus:
@DenMCX
Wenn du wissen willst ob du mehr oder weniger Punkte durch UV hast, würde ich eher die Grafikpunkte vergleichen und nicht die Gesamtpunkte. Ich hatte schon teilweise bei den CPU Punkten Unterschiede von mehreren 100 Punkte, ohne das sich dort etwas geändert hat. Es ist schon möglich, dass du dir dadurch deinen Vergleich verfälscht, da dich ja nur die GPU interessiert.
Nimm dir nen Wecker, stell was um, stoppe 15 Minuten, mach davon einen Screenshot.
Nimm einen Onlinerechner und wirf die Wattangaben da rein, gib deinen aktuellen Verbrauchspreis der kwH an.
Das wiederholst du, bis die Leistungsaufnahme oder € maximal da ist, wo du Sie haben willst und dir das FPS Ergebnis passt.
Diese Werte knallst du in ein AB Profil und legst dir das auf eine Tastenkombi. Die drückst du dann für deine Lieblingsspiele wenn du Sie startest.
Ich spiele fiveM mit 3090 auf 60%PT und Valheim auf 90, in Minecraft greift ohne Shader das Bios der Karte, sie taktet also sehr weit runter und verbrät dann ~40W, aktiviere ich welche, springt sie auf ~2Ghz und zieht 350 ohne PT im AB, also 100%.
Der Witz ist ja der: Kaufe ich eine 4090 und spiele täglich 3 Stunden mit 500Watt kostet das monatlich 18,25€ bei 0,4€ die kwH Verbrauchskosten. Die 4090 durch 12 Monate immer noch gute 166€ oben drauf. Es kostet mich also monatlich mindestens ~185€, GeforceNow aber bspw. 20€ und der Laptop braucht weniger Saft als die Schreibtischlampe.
Man kann immer zwei Dinge tun: Kosten reduzieren oder Einnahmen erhöhen. Die Wahl trifft man selbst, ich fahre recht gut mit beiden Varianten gleichzeitig.
GPU-Z kann ziemlich einfach Durchschnittswerte anzeigen lassen indem man mittig auf den Wert klickt (Min, Max, Avg). Vor dem Benchmark unten rechts auf Reset drücken und dann hast du danach deine Werte:
Guckt man eben auf die am Monitor sichtbaren Verbrauchswerte und kloppt die Ergebnisse in den Rechner. Der gibt dir genügend Schnellrechenoptionen für sinnvolle Ergebnisse.
Also bspw: 500Watt über 4 Stunden, oder 400Watt über 4 Stunden sehen dann so aus:
Das ist doch absoluter Murks.
Und dafür brauche ich kein Online-Rechner, das kleine Einmaleins kann ich auch noch im Kopf.
Um auf einen Bench von wenigen Minuten einen akkuraten Gesamtenergieverbrauch zu messen, muss man eine Messfrequenz von mindestens einmal die Sekunde haben, sonst kann man direkt nach dem Max-Wert in GPU-Z gehen.
Daher auch meine Kommentare bezüglich Logging. GPU-Z kann wenigstens 'log to file'.
Für langfristiges Verbrauchstracking nutze ich selber Dect!READ in Verbindung mit AVM Fritz!Dect 210. Das loggt alle 40 Sekunden einen Verbrauchswert, das reicht locker für langfristiges Tracking, ohne, dass die Größe der Logfiles explodiert.
ruthi91 schrieb:
GPU-Z kann ziemlich einfach Durchschnittswerte anzeigen lassen indem man mittig auf den Wert klickt (Min, Max, Avg). Vor dem Benchmark unten rechts auf Reset drücken und dann hast du danach deine Werte:
Ist 'ne Option, klar.
Da ist dann natürlich aber auch ein wenig Zeit mit drin bis der Benchmark beginnt und bis man nach Abschluss des Benchmark das ausliest, das trübt die Genauigkeit der Ergebnisse.
@Martinipi
Wir führen als Systembuilder "Buch" über OC|UV und allgemeine CPU|GPU Erfahrungen. Macht vieles leichter, vor allem bei Beratungen und Empfehlungen.
Bei der 3070 liegt der Sweatspot bei 0.75 bis 0.85v. 0.85v. Bei 0.85v und 1890mhz sollte ein durschnittlicher Chip auf 1905mhz Realtakt und ca 180w kommen. Ab hier dann in die Richtung rantasten wo du hin willst, Bestwert war bei uns eine Amp ed. LHR die bei 0.75v 1815mhz stable geschafft hat.
Mir und hier eher weniger. Oder ist hier neuerdings die NASA unterwegs, die meine Berechnungen rauskopiert und einfügt ohne zu prüfen? Dann darf Sie mir gern dafür den nächsten Scheck der Regierung schicken, habe ja offenbar gut geleistet bisher.
Rickmer schrieb:
muss man eine Messfrequenz von mindestens einmal die Sekunde haben
Habe ich die 5€ Ebaydinger an den Steckdosen die mich interessieren, bspw. Kühlschrank und Schreibtisch, mache da ein mal im Monat ein Foto vom LCD und schau, wie es sich verändert wenn ich etwas veränder'.
Dann gehe ich in den Keller, hole mir ein Bierchen, mache da auch ein Foto vom geeichten Zähler und tippe die Daten genüsslich in den Online Zugang vom Energiedienstleister, der sofort meinen Abschlag anpasst. Reicht sogar Halbjährlich, wenn man derart faul sein möchte und man die Einpendelphase des E-Autos oder sonstwas überwunden hat und auch, um dann vllt. doch einen neuen Kühlschrank anzuschaffen. Denn so weiß ich ganz exakt, was ich Energiekostentechnisch mit einem anderen einspare und was mich das kostet oder mir spart.
Aber gut, man kann auch wie @Rickmer teure Logginggeräte kaufen, die einem den Krempel dann unbekannterweise irgendwie aufzeichnen, das ganze quer um die Welt senden, damit man von unterwegs auch sieht, dass jemand 2 statt 1 mal am Kühlschrank war und keinen Onlinerechner gut finden, weil man so viel Kopfrechnen kann, dass man nicht mal kapiert, worum es hier eigentlich im Thema geht.
Du kaufst ernsthaft einen Shelly Adapter um die Leistungsaufnahme in Timespy zu messen und schickst das mit DECT 2,4Ghz quer durch die Hütte?
Das tut doch weh, oder?
Aber gut, dass die Polizei dann wunderbar ermitteln kann wann exakt du am PC gesessen hast und was du dort vorzugsweise tatest, auf die Sekunde genau. Glückwunsch.
Einfacher geht's dann ja wirklich nicht.
Sorry, nichts gegen die Wahl so Logger zu nutzen, wenn eben sinnvoll, aber wo genau ist denn da der Unterschied?
Du hast die Rechenfunktionen und Verwaltungen mit dem Gerät gekauft, ich brauche den Spielkram nicht, damit ich weiß: Desktop kann ich weit Stromsparender gestalten mit 2 einfachen Handgriffen und Kühlschrank kann gern auch wieder auf 1 runter, wenn er denn fast leer ist und der Onkel mit seinem Wohnmobil hat in seiner Dosenzeit bei mir genau auf den Cent Strom konsumiert.
Der TE hat ein gutes gewöhnliches Strommessgerät, und das Gebrabbel über irgendwelche DECT Büchsen für Schweinegeld hilft ihm sicher weniger, als ein Onlinerechner zum schnellen nachsehen, ob sich die Stromersparnis für Ihn rechnet.
Du hattest vom Ablesen des Verbrauchswert geredet. Mit einem Einzelpunkt hochrechnen geht gegen alles, was du vorher angepriesen hattest.
Aber wie du erkennst - das Logging der Grafikkarte übertrifft alles, was du (bei vertretbarem Aufwand) extern messen kannst, daher warum kein Software-Logging?
UNDERESTIMATED schrieb:
Habe ich die 5€ Ebaydinger an den Steckdosen die mich interessieren, bspw. Kühlschrank und Schreibtisch, mache da ein mal im Monat ein Foto vom LCD und schau, wie es sich verändert wenn ich etwas veränder'.
5€ Ebaydinger - na hoffentlich gehen die nicht irgendwann in Flammen auf...
UNDERESTIMATED schrieb:
Aber gut, man kann auch wie @Rickmer teure Logginggeräte kaufen, die einem den Krempel dann unbekannterweise irgendwie aufzeichnen, das ganze quer um die Welt senden
Und natürlich nicht für Timespy, das Software-Logging reicht mir das vollständig. Die internen Messungen moderner GPUs sind sehr akkurat. Müssen sie ja sein, für deren eigene interne Regulierung.
UNDERESTIMATED schrieb:
Sorry, nichts gegen die Wahl so Logger zu nutzen, aber wo genau ist denn da der Unterschied?
Damit ich nicht nur den Monatsdurchschnittwert habe, sondern auch die Durchschnittsleistungsaufnahme im Standby, im Idle, den maximalen und durchschnittlichen Stromverbrauch in verschiedenen Lastscenarien und noch viel mehr nachschauen kann.
UNDERESTIMATED schrieb:
Kühlschrank kann gern auch wieder auf 1 runter, wenn er denn fast leer ist.
Um auf die Erkenntnis zu kommen, brauchst du doch keine Messwerte?... Das ist mehr von der Art des Inhalts abhängig.
Wenn ich frischen Fisch im Kühlschrank habe, stell ich den auf minimale Temperatur, auch wenn sonst nichts drin ist. Wenn nur versiegeltes Zeug drin liegt weil ich morgen in den Urlaub fahre, kann die Temperatur hoch, auch wenn der Kühlschrank randvoll ist.
Wenn man das denn will, es geht ja aber nicht darum, sondern um welchen Wert er die Leistungsaufnahme im Lastbetrieb minimieren kann, ohne zu viel FPS-Leistung einzubüßen.
Rickmer schrieb:
Um auf die Erkenntnis zu kommen, brauchst du doch keine Messwerte?
Genau - eben auch keine die mich am Monitor daran erinnern statt selbst was zu tun.
Ich verstehe deinen Ansatz aber, wenn einem ein solches Monitoring den Gegenwert gibt, den man davon erwartet, dann ist eine solche Anschaffung sicher auch nicht falsch.
Es ist für die Frage im Thread für mich aber: Mit Kanonen auf Spatzen schießen.
Können die Dinger eigentlich beide Richtungen? Also bspw. auch Solarkrafteinspeisung gegenmessen?
Ja, da kommen so einige zusammen. Der erste Eintrag ist ne gtx 670 von 2012, seit dem fortlaufend mit den gängigsten Karten und CPUs. Bei uns auch "Optibuch" genannt und aben wir auch unter uns als Exeltab.
@MasterWinne Coole Sache sowas, frag doch mal die Redaktion ob Sie Lust hat, anhand solcher Daten die Effizienz in gleichen Szenarien abzubilden.
Ein Artikel bezüglich bspw. "Offlinegaming GTAV, 2013 und heute" mit FHD und bspw. 60fps dürfte vielen, die dauerhaft nach besserer und mehr Effizienz rufen, einige Augen öffnen.
Ich vermute mal, ihr habt da schon vergleichbare Ergebnisse ähnlicher Natur drin?
Darüber hinaus: Einen solchen gibt es mWn. [noch] nicht.
Oder mit dem Holzhammer drauf und Internetzugriff verbieten. Jeder brauchbare Heimrouter kann das. Das ist z.B. auch bei Druckern sinnvoll, die Druckerhersteller haben alle Dreck am Stecken.
Daher Onlinefaxe ich was ich wirklich als Papier brauche zum Dönerladen und gehe was essen. Ich mag Ihn. Ist dann aber auch egal wer es hat, landet danach sowieso zu 99% in einer Behörde.
Allein diesen Toner und Tinenspass hab ich seit ca. 5 Jahren komplett aufgegeben.
Wer was in [gedrucktem] Papier braucht, braucht mich nicht.
Kommt da also nichts durch? Dann kommt das mal auf die Liste.
Ich traue so Smartgeraffel alles zu, außer smart zu sein und mir Bordmittel zu geben, nicht mein halbes Haus abzuscannen und woanders auszuwerten.
So Saug- Wisch- und Mähroboter sind ja das geilste für Ermittler was je erfunden wurde.
Oder mit dem Holzhammer drauf und Internetzugriff verbieten. Jeder brauchbare Heimrouter kann das. Das ist z.B. auch bei Druckern sinnvoll, die Druckerhersteller haben alle Dreck am Stecken.
Wissen wir, war schon immer mal ein Thema und Anfragen gabs auch schon genüge.
Angefangen hatte das privat, da aber seit längerem auch firmeninterne Daten mit einbezogen sind und entsprechend auch der Umfang des Datensatzes durch arbeitsbedingten Zugang und Ressourcen zu der ganzen Hardware und Testumfängen entstanden ist, gilt das entsprechend auch als Firmengeheimnis zu sehen, damit wird ja auch Geld als Dienstleistung verdient.
Auch die Arbeit diese für die Öffentlichkeit aufzuarbeiten wäre nicht ohne.
Hier und da mal paar einzelne Tipps oder Erfahrungswerte raus zu geben da eher kein Problem, aber im ganzen dann schon.
Wie in einem meiner Posts mal kurz erwähnt ging es mir darum, dass ich für mich erstmal im allgemeinen nachprüfen wollte, ob die (teils reißerischen) Aussagen vieler UV/OC-Artikel mit "fast gleichbleibender Leistung bei 100Watt weniger Leistungsaufnahme" überhaupt so stimmen.
Deinen Ansatz mit den "längeren" Messungen speziell auch noch über die (k)Wh verstehe ich und sehe ich grundlegend auch als sinnvoll an. Dafür fehlt mir aber aktuell etwas die Muse 🤷♂️
Grundlegend bin ich ja schon mal so weit, dass ich definitiv NICHT im Stock-Modus der Karte verharren will (die hat ja mit Abstand den höchsten Leistungsbedarf bei gefühlt der schlechtesten Performance).
Und bzgl. "Sweetspot" musste ich den ja diesen durch die Versuchsreihe bei mir ja herauskriegen, mit welchen Spannungen, welcher Takt funktioniert.
Eine weitere Hilfestellung von euch wäre, wenn hier jemand grob weiß, wie das Takt/Spg-Verhältnis bei guten, mittelprächtigen und schlechten 3090-Chips so sind.
Dann kann ich meinen Chip schon mal irgendwo einordnen.
Rickmer schrieb:
Lässt du dir beim Durchlaufen des Bench auch von Afterburner die aktuell anliegende Frequenz anzeigen? Da eventuell mal drauf schauen.
Da ist mir schon grundlegend aufgefallen, dass im TimeSpy4K-Benchmark es nur einen ganz kurzen Spike bzgl. des Takts je am Ende der beiden GPU-Tests gibt.
Hier ein Beispiel mit Profil 3 (1905 MHZ @ 800mV):
Ich frag mal völlig doof und unbefangen: Was würdet ihr mir aktuell raten?
Ich meine, es haben hier 2-3 es ja anfangs schon gut erkannt: Wenn ich mit den Stock-Einstellungen vergleiche, sind ALLE Profile besser.
Wenn ich so aus der Hüfte entscheiden müsste, ist gefühlt Profil #1 (1740MHz @ 750mV) ja schon fast der P/L-Sieger... mit Abstand niedrigste Leistungsaufnahme bei gerade mal 4,5% weniger Performance zum leistungsstärksten Profil #3 mit 1905 @ 800mV (8852 Punkte vs 9252 = -4,5% bei 425,6W vs 465,3W = -9,3%)
ob die (teils reißerischen) Aussagen vieler UV/OC-Artikel mit "fast gleichbleibender Leistung bei 100Watt weniger Leistungsaufnahme" überhaupt so stimmen.
Datu das Deadside Beispiel was ich geliefert habe, ja kann stimmen, ist aber ne Headline, die natürlich nur in einem ganz bestimmten Szenario zu ganz gewissen Umständen stimmt und nicht für alles und immer.
Jup, nimm das effizienteste was dir passt.
Kann aber wie gesagt bei einigen Spielen dann deutlich mehr als die Timespy Differenz sein - bspw. geht meine 3090 ohne zu zucken locker auf 2050mhz ohne PT zu erreichen und malt +200FPS in fiveM auf den Monitor, aber hechelt sich in Valheim mit 350Watt nachts zu tode und throttelt dann auf 16-1700.
However: Timespy ist zum einstellen erst mal nicht verkehrt, du solltest allerdings zusätzlich sehen, ob du nun Grafikregler bewegen willst um auf deine fps zu kommen, oder ob die Profile andere Differenzen haben.