Notiz Aus der Community: AMD Radeon RX 6700 XT auf mehr Effizienz optimieren

Beeindruckend, mit wie wenig Aufwand und mit wie wenigen Leistungsverlusten die Effizienz der Karte erheblich gesteigert werden konnte. Ungefähr 10% weniger Takt, mutmaßlich weniger wie 10% Leistungsverlust, aber ca. 33% an Strom gespart. Und das bei einer Karte, die aktuell eh zu den effizientesten Modellen aktueller Generationen zählt...

xxMuahdibxx schrieb:
Ich bin da schon fast für ein oberes Limit was CPU oder GPU so verbrauchen dürfen.
Ach du schei..., bitte nicht auch noch bei PCs mit der Bevormundungs- und Ökokeule rumwerfen.

Leute die sich an den hohen Verbräuchen aktueller Karten stören können doch auch einfach mal Verzicht ausüben oder sich wie der Ersteller des Erfahrungsberichts ein, zwei Stunden mit der Karte beschäftigen und sie entsprechend auf Energieeffizienz anstatt Leistung trimmen.

Meine Karte ist auf absolute Leistung getrimmt - aber mit gesetztem FPS-Limiter bei 160 (Bildwiederholrate von 165Hz mit Original-G-Sync). Ich habe also die maximale Leistung wenn ich sie brauche - und ansonsten ist sie begrenzt, weil die Leistung dann eh ins Leere läuft. (Macht bei mehr wie 165Hz dann nicht sogar G-Sync die Biege?)

Wegen der hohen Leistungsaufnahme aktueller Karten hätte ich für das angedachte 3080er-Upgrade (wäre nur die Cryptoscheiße nicht wieder aufgekommen und hätte ich mir nicht gedacht, ich storniere die lieferbare und mit Auftragsbestätigung bestellte Karte, weil mir 150€ über UVP zu viel sind...) ein neues Netzteil benötigt und habe fürs Gewissen sogar gleich eins mit 80+ Titanium genommen... Und das alte Platin-Netzteil im Freundeskreis weiterverwurstet (Ergo: Im Idle renne ich nun noch effizienter rum und das "alte" Netzteil hat ein zweites Leben gefunden).
 
Zuletzt bearbeitet:
rumpeLson schrieb:
Mit 1120mv rennst du halt weiterhin quasi immer ins Powerlimit. Versuch mal etwas in Richtung 850mv - 950mv. Mehr lohnt sich im Hinblick auf den Leistungsgewinn auch eigentlich wieder nicht.
Dafür muss man aber auch mit dem Takt, und damit auch der Leistung, schon ne ganze Menge runter gehen, damit man in dem Bereich stabil bleibt.

Meine 6800XT ist auf 1025mV eingestellt, das Powerlimit auf die Standardmäßig freigegebenen -6% gesetzt und der Takt leicht auf 2550Mhz erhöht, sodass sie meist ziemlich genau auf 2500MHz bei ~1050mV arbeitet.

Somit ist sie weiterhin im Powerlimit, nur halt bei 239W statt 255W und dabei trotzdem noch minimal schneller als die Referenz.
Und bisher läuft sie so auch komplett stabil bis auf eine Ausnahme. Den Timespy Benchmark bekommt sie so nicht ohne Absturz hin, dafür muss ich auf 1075mV hoch gehen, allerdings ist mir das egal, weil sie mit 1025mV ansonsten überall stabil ist, wo es zählt.

Wenn es wirklich um maximale Effizienz geht, kann man sie natürlich auch auf sowas wie 2200MHz runter stellen, sodass sie mit ~2150MHz läuft, damit würde die Spannung auch bei eingestellten 1025mV real irgendwo bei 850mV liegen.



Wichtig ist beim Einstellen rein über den Treiber eigentlich nur zu wissen, was die Einstellung für die Spannung bewirkt.
Das ist nicht die Spannung, die maximal anliegen soll, sondern nur die Spannung, die beim Referenztakt der Karte anliegen soll.
Man verändert also eher die Takt/Spannungs-Kurve als direkt feste Werte.

So in etwa würde sich eine Spannungsänderung auswirken(rein erfundene Beispielwerte):
Schema.png



Mein Referenz-Boost liegt bei 2400MHz, dort liegen die standardmäßigen 1150mV an.
Setze ich die Spannung auf 1025mV runter, würden diese bei 2400MHz anliegen.
Setze ich nun aber den Takt um 150MHz nach oben, wird der Takt entsprechend der neuen Kurve angepasst und ich komme real bei ~1050-1080mV raus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GerryB
iGameKudan schrieb:
Ach du schei..., bitte nicht auch noch bei PCs mit der Bevormundungs- und Ökokeule rumwerfen.
Wieso nicht... Wir waren bei der Stromaufnahme bei GPU und CPU auch so weit oben... Und dann ging es mit mehr Leistung und mehr Kernen wieder runter ..

Nur die letzten 2-3 Jahre versuchen alle die hyper Performance durch extreme verbräuche zu erzielen...

Und ehrlich 400 Watt insgesamt ist schon eine Menge Strom... Das ist nicht Mal Öko... Wenn man bedenkt daß ein System was 10-15 Prozent langsamer ist damit sogar auskommt.
Dann sind Systeme mit über 700 Watt mit gesundem Menschenverstand nicht gerechtfertigt..
 
  • Gefällt mir
Reaktionen: Balikon und chaopanda
@xxMuahdibxx Und jetzt geht es halt mit den Verbräuchen halt wieder hoch. Irgendwann gehts wieder runter. Und? Die hohen Verbräuche treten ja auch nur unter entsprechend starker Last auf. Mit Raytracing und dem (endlich!!!) zunehmenden Aussterben von FullHD gibt es aktuell gewichtige Punkte, die möglichst enorme Leistungssteigerungen nötig machen.

Abgesehen davon verbrauchen zwar die Grafikkarten zunehmend mehr Strom, dafür die CPUs zunehmend weniger (na gut, außer man kauft Intel...).

Ich habe jedenfalls keinen Bock in den paar Stunden die ich in der Woche noch zum Zocken komme auf Leistung bzw. Bildqualität verzichten zu müssen, nur weil manche die auf den Stromverbrauch wert legen scheinbar ein zu großes Ego haben, um sich dann die entsprechend sparsame Hardware zu kaufen - wo dann die Balken im Vergleich zu schneller Hardware kürzer sind. Und wenn man wirklich wert drauf legt, dann optimiert man eben seine Hardware hinsichtlich des Verbrauchs und nicht der Leistung.

Abgesehen davon: Es gibt nun wirklich weit größere Probleme in Hinsicht auf Stromverschwendung wie die paar Gaming-PCs. Diesen teils verlogenen Ökowahn brauche ich jetzt nicht auch noch beim PC.
 
xxMuahdibxx schrieb:
[...] Ich bin da schon fast für ein oberes Limit was CPU oder GPU so verbrauchen dürfen.

Die Realität zeigt ja zur Genüge, dass man mit teilweise 50-70 % des "normalen" Verbrauchs keine nennenswerten Leistungseinbußen hat. [...]
Es steht jedem frei, stromsparende Hardware zu kaufen. Warum sollte man Highend-Hardware nicht am Limit betreiben, um das letzte Prozent an Performance rauszukitzeln? Klar bricht dann die Effizienz ein. Die GPU wird aber auf die Gesamtbetriebsdauer gesehen nur selten zu 100% ausgelastet, die CPU in Games so gut wie gar nie. Mit deiner Argumentation könnte man auch sagen, die Leute sollten sich auf keinen Fall 144Hz-Monitore kaufen, weil dann die Leistungsaufnahme sämtlicher Komponenten "unnötig" ansteigt.
 
@iGameKudan war klar das ein 4Kler kommt und es muss muss muss .

und die paar Gaming PC´s .... sind eine Masse ... und da wartet noch eine Masse auf bezahlbare Grafikkarten z.B.

Und Stromverschwendung immer nur wo anders hin zu schieben ist genauso doof... entweder überall oder wir können es sein lassen.

und nein ich bin nicht Öko .... aber es ist ein Wahnsinn der aktuell in dieser Richtung betrieben wird nur um extreme Taktraten zu erreichen ( oder um halt den Cinebench Run noch im Zeitfenster ohne Drosselung zu schaffen @ PL2 und Tau bei Intel ) .

Fakt ist das dich 10 % weniger FPS auch nicht umbringen würden .. aber eine Einsparung von 30 oder mehr % Strom drin wären.

Was 200 Watt a 5 Stunden pro Woche a 100.000.000 Pc´s sind 100.000.000 kWh =
1 Liter Öl = 11 kWH Heizwert... Wirkungsgrad rein elektrisch gute 40 % ... 5 kWh Strom = 20.000.000 Liter Öl pro Woche für alle PC´s ... also 20.000 m³ ... Peanuts ist ok... * 50 Wochen = 1.000.000 m³ = 2 Öl Tanker voll ... dafür das man 10 % weniger Leistung hat ... sind ja nur 2 Öltanker.

Da der User aber halt schneller höher und weiter denkt ... ( OC hier und da ) oder das komische Wort mit P.. als Vergleich oft braucht ist echt ARM.
 
  • Gefällt mir
Reaktionen: Balikon, Luxmanl525 und Jurial
@xxMuahdibxx Ich denke wir kommen da eh auf keinen Zweig... Daher mein letztes Wort: Es steht dir frei stromsparende(re) Hardware zu kaufen oder sie dahingehend zu optimieren, wenn du dich damit besser fühlst. Auch dort gibt es Fortschritte... Man sollte dann natürlich nicht das Ego haben sich angegriffen zu fühlen weil der Benchmarkbalken nicht so lang ist.

Aber lass denen die ihren Spaß an der schnelleren Hardware haben mit diesem Ökowahnsinn in Ruhe... Lieber die Leistung haben für den Fall dass man sie braucht und ggfs. nen FPS-Limiter setzen oder so. Immer noch ökologischer und vorallem billiger als wenn man immer auf Kante kauft und häufiger aufrüstet. Ob es sinnig ist ab Werk die letzten 10% durch massiven Mehrverbrauch zu erkaufen sei dahingestellt, aber ob ich meinen Rechner auf Leistung optimiere und für die letzten 10-20% 50W Mehrverbrauch erzeuge spielt bei den paar Stunden im Monat die ich als berufstätiger Mensch Zeit zum Zocken habe absolut keine Rolle. Aber ich bin froh in dem Moment diese Leistung nutzen zu können - wenn auch mit hardwarebedingt höherem Stromverbrauch.

Wie mein Nachfolger schon schrieb: Dann kann man auch gleich HighRefreshRate-Monitore verbieten (die verballern mehr Strom), RGB (verbraucht nur Strom)... Ach, am besten gleich alles was Spaß macht. Eat, Sleep, Repeat...
 
iGameKudan schrieb:
Ob es sinnig ist ab Werk die letzten 10% durch massiven Mehrverbrauch zu erkaufen sei dahingestellt, aber

genau darum gehts aber ... und nix anderes.
 
  • Gefällt mir
Reaktionen: Luxmanl525
iGameKudan schrieb:
Mehrverbrauch erzeuge spielt bei den paar Stunden im Monat die ich als berufstätiger Mensch Zeit zum Zocken habe absolut keine Rolle.
...sagen viele Millionen Menschen und schon summiert sich genug auf, dass es vielleicht doch eine Rolle spielt.
 
  • Gefällt mir
Reaktionen: xxMuahdibxx
DisOrcus schrieb:
Leider macht der aktuelle Treiber (oder das aktuelle Win11 Dev-Update?) meinen VRAM wieder einen Strich durch die Rechnung und der boostet wieder 24/7. Aber mal schauen.
Ja taktet der neue Treiber im Windows wieder auf 1988Mhz?

Dann bleib ich bei dem Treiber den ich jetzt hab,da geht das nämlich runter auf 8Mhz.
 
Fighter1993 schrieb:
Ja taktet der neue Treiber im Windows wieder auf 1988Mhz?

Dann bleib ich bei dem Treiber den ich jetzt hab,da geht das nämlich runter auf 8Mhz.

Ich weiß halt nicht ob es am 21.9.1 liegt oder am aktuellen Win 11 Dev Update was ich drauf habe, das kam beides ziemlich gleichzeitig bei mir und tbh bin ich zu Faul auf den 21.8.1 zurückzugehen zum testen x)
 
Win 10 21h1 6800xt, neuester treiber von vor einigen tagen, taktet anständig runter und das wo ich nebenbei youtube laufen habe und noch nen call mit video in discord habe.
 

Anhänge

  • 1631752647172.png
    1631752647172.png
    334,3 KB · Aufrufe: 297
xxMuahdibxx schrieb:
Was 200 Watt a 5 Stunden pro Woche a 100.000.000 Pc´s sind 100.000.000 kWh =
1 Liter Öl = 11 kWH Heizwert... Wirkungsgrad rein elektrisch gute 40 % ... 5 kWh Strom = 20.000.000 Liter Öl pro Woche für alle PC´s ... also 20.000 m³ ... Peanuts ist ok... * 50 Wochen = 1.000.000 m³ = 2 Öl Tanker voll ... dafür das man 10 % weniger Leistung hat ... sind ja nur 2 Öltanker.
Bin ja generell dem Thema Strom "sparen" positiv gegenüber aufgestellt. Wie du aber von der Effizienz einer GPU zu Heizwert, Erdöl und Öltankern kommst will mir nicht ganz klar werden, außer du willst für GPUs als Heizungsersatz argumentieren.
 
@Epistolarius wie wird elektrischer Strom aus z.b. Erdöl hergestellt ?

Wird das nur irgendwo reingeschmiert und es läuft ?

Oder kann man über den Heizwert und dem Wirkungsgrad des Kraftwerks eine Abschätzung machen wie viel Öl man braucht um Strom zu erzeugen ?

Weil das Öl muss ja darin verbrannt werden und der Heizwert stellt halt die thermische Energie dar die dabei entsteht.

Natürlich ist der Gesamtwirkungsgrad höher da man noch Dampf oder Warmwasser dabei erzeugt... aber für einen gewissen Überschlag reicht es.

In der Rechnung ist nicht der Wirkungsgrad oder die Effizienz einer GPU oder CPU genannt sondern eine Beispielhafte Einsparung von 200 Watt angenommen wurden.
 
  • Gefällt mir
Reaktionen: Luxmanl525
xxMuahdibxx schrieb:
Mir geht's eher darum, dass in Deutschland kaum bis gar kein Strom durch Verbrennen von Öl erzeugt wird, Diesel z.B. wird vielleicht gerademal für Notstromgeneratoren genutzt. Wie du also auf so und soviel Öltanker im Jahr Mehrverbrauch durch ineffizienten Betrieb von GPUs kommst, weiß ich nicht.
https://de.wikipedia.org/wiki/Deutsche_Energiewirtschaft#Stromerzeugung

Vermute mal die Herstellung und weltweiter Transport von Elektronik ist weitaus umweltschädlicher als der Energieverbrauch hierzulande.
 
Öl lässt sich halt einfacher in eine Dimension stecken als z.b.gas...

Und es geht um PCs weltweit.. ergo warum sollte ich den Strommix Deutschland nehmen?.

Am Ende nur ankreiden eines Beispiels was nur die Augen etwas öffnen soll und nicht als genaue Rechnung dasteht .. eine Dissertation darüber habe ich auch nicht vor zu schreiben...

OK hätte es wohl auf Braunkohle Wagen und eine zuglänge berechnen sollen...

P.S. und ein anderes Problem nach vorne zu stellen wo es heissen sollte alle anzugehen bringt nichts am Ende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
Es ist immer wieder erschreckend wie viel Power bei GPUs verschenkt wird für den stabilen Betrieb ab Werk.
Bei meiner 2080Ti sind auch problemlos 50-60W drin und die Settings hat man meist in 10-15min rausgefunden im MSI Afterburner.
 
Nutz ich seit über 10 Jahren schon..den Ökostrom
 
  • Gefällt mir
Reaktionen: fullnewb und Luxmanl525
Zurück
Oben