Leserartikel AMD RX 6900XT auf Effizienz getrimmt

Eigentlich wollte ich diesen Artikel längst geschrieben haben, aber private Umstände ließen es leider nicht zu. Weitere Projekte mit Igor´s Lab, Prad und Gamestar musste ich auch aufschieben. Vielleicht tröstet es etwas zu wissen, dass ComputerBase nicht als einzige Anlaufstelle zu kurz kam.

Und natürlich ergibt so ein Beitrag am meisten zu Lebzeiten einer Hardware Generation Sinn. Nun sind bei AMD und Nvidia leider schon die neuen 4000er und 7000er Serien auf dem Markt und die 6000er Serie ca. 2 Jahre alt. Doch sind die neusten Karten nicht nur teuer und haben jeweils so ihre Kinderkrankheiten oder sind vergriffen, die 6000er Serie von AMD bietet nach wie vor viel Leistung für´s Geld und ist eigentlich auch erst jetzt zu vernünftigen Preisen verfügbar, so dass das Thema sicher noch relevant ist. Sofern man seine 6000er Karte optimal einstellt läuft die auch sehr effizient, was ebenfalls so wichtig wie nie zu vor ist. Im Fall einer 6900XT bekommt man auch so viel Leistung, dass man praktisch auf nichts verzichten muss und zukunftssicher ist.

Um diese Karten soll es in diesem Artikel gehen, wobei sich hier prinzipell die Geschichte der Artikel zur 6700XT und 6600XT wiederholt.

Wie damals beschrieben arbeite ich mit dem MPT, dem RadeonSoftwareSlimmer und der Leistungskonfiguration des AMD Adrenalin Treibers.

Im MPT lege ich die Minimal- und Maximalspannung der jeweiligen Komponente auf der Grafikkarte fest. Mit dem Treiber stelle ich dann die Taktraten und das Spannungs-Offset, sowie die Lüfterkurve ein. Der RadeonSoftwareSlimmer hilft mir das Ryzen Master SDK und Automatisierungen des Treibers garantiert zu unterbinden.

Während die 6700XT relativ üppig dimensionierten Speicher und Cache hat und mehr vom Speicher-OC als dem OC des Infinity-Caches profitiert, verhält sich die 6900XT ähnlich wie die 6600XT, die von größerem und schnellerem Cache deutlicher profitiert. Insofern habe ich die 6900XT´s die ich bisher einstellen konnte auf einen FCLK-Takt von 2000MHz gebracht und den Speicher auf die jeweils erlaubten 2150MHz gestellt. Die dadurch gesteigerte Bandbreite versorgt den großen Chip besser mit Daten, weshalb bei gleichem Kerntakt in vielen Fällen die Rechenleistung steigt und vorallem die Minimum-FPS besser werden und damit auch der Frameverlauf homogener.

Hauptsächlich holt auch AMD aus dieser Erkenntnis die Mehrleistung einer 6950XT im Gegensatz zu einer 6900XT, die es teilweise auch mit dem hochwertigen Binning in Form des XTXH Chips gibt. Ursprünglich hätte man neben dem Cache auch gerne HBM2 Speicher verbaut, doch aus Kostengründen hatte man das verworfen.

In Benchmarks und Spielen mit RayTracing limitieren öfter die eigentliche Architektur und der Kerntakt, weswegen die Leistungsvorteile des Speicher- und Cache-OC hier nicht ganz so stark durchschlagen. Bemerkenswert bleibt in diesen Fällen aber immer noch der gesunkene Stromverbrauch.

In Summe sorgen die Optimierungen dafür, dass wenn die Karte mit Standarteinstellungen ins PowerLimit laufen würde, sie ihren Takt voll halten kann und so konstant Leistung abgibt, nicht schwankt und dann auch mehr Punkte holt. Noch mehr Leistung wäre dann über echtes Übertakten des Kerns möglich, aber Effizienz ist mir wichtig und das was dann noch an Leistung zu holen ist, steht in keinem Verhältnis zum dafür nötigen Stromverbrauch. Der brächte dann auch wieder höhere Temperaturen und lautere Lüftergeräusche mit sich. 2,4GHz sehe ich also auch bei den großen Karten wie bei der 6700XT als den Sweetspot an.

Diese Angabe beziehe ich auf die konstant erreichte minimale Taktgeschwindigkeit unter voller Auslastung. Boost-Taktraten liegen in der Regel höher. Als Realtakt habt ihr in solchen Situationen übrigens ca. 80MHz weniger Takt als vom Treiber angepeilt. 2480MHz ergeben also einen Realtakt unter Last von etwas über 2400MHz. Man könnte die 2480 respektive 80MHz also als Boost-Spielraum für weniger Last oder als Offset beschreiben.

Sollte die Rechenleistung bei diesem Takt nicht ausreichen, werden auch 2,5 oder 2,6 GHz keinen so großen Unterschied machen, als dass man um den Austausch der Karte herrum käme. Vernünftig, sofern man das sein möchte, ist es also an Speicher und Cache zu gehen, alles zu undervolten und die Taktrate des Kern zu stabilisieren, anstatt sie selbst noch weiter zu erhöhen.


Die folgenden Fotos belegen z.B. schon eine Ersparnis von ca. 50 Watt unter voller Auslastung bei höher Leistung und im Durchschnitt, bei besseren Frametimes ca. 30 Watt Ersparnis. Vorallem senkt das UV auch die Stromspitzen, die über Fotos schwer darstellbar sind. Das hat teilweise drastische Folgen für die Temperaturen und die Lüfterkurve, die nun flacher verlaufen kann und die Karte unauffällig macht. Vorallem das Delta zwischen Gesamttemperatur des Kerns und HotSpot-Temperatur verbessert sich.


Im CyberPunk 2077 Vergleich zwischen Stock und Optimiert seht ihr mit jeweils 87 vs 70°C auf dem HotSpot eine Differenz von 17 Grad. Die Kerntemperatur differiert dabei um 12 Grad zwischen 69 und 57°C. Und das bei weniger Lüfterdrehzahl.
Eine Legende, zum Verständnis für die Messwerte von FPS-Monitor, findet ihr im Anhang des Artikels.
Beachtet bitte auch, dass die Grafikeinstellungen der Spiele nur für die Vergleichbarkeit gewählt wurden.
Tatsächlich spiele ich immer mit einem Mix aus Einstellungen, je nach optischem Vorteil und damit einhergehenden Kosten.
Hier ging es nicht darum, die maximale Leistung der GPU zu demonstrieren, oder RT und Ultra Einstellungen als immer sinnvoll darzustellen :heilig:

6900XT CyberPunk.jpg
6900XT Doom Eternal.jpg

6900XT FarCry 6 mit Framelimiter.jpg

In den 3D-Mark Läufen erkennt man gut, wie konstant der Takt verläuft. Das Leistungsergebnis, obwohl nicht auf die Höchstepunktzahl abgezielt, kann sich auch sehen lassen.

6900XT 2,4GHz Fire Strike.jpg

6900XT 2,4GHz Port Royal.jpg

Dies sind die Einstellungen die ich für die 6900XT verwendet habe. Leser können sie gerne als Orientierung verwenden, 1 zu 1 übertragen lassen sich die Einstellungen in der Regel nicht, da jeder Karte und sogar die einzelnen Chips darauf sich individuell voneinander in ihrer Güte unterscheiden. Einen guten Hinweis wie ihr noch mehr Energie sparen könnt findet ihr auch hier: https://www.computerbase.de/forum/t...fizienz-getrimmt.2123443/page-8#post-27884580


Sappphire 6900XT Nitro+ SE AMD Adrenalin Treiber Konfiguration.jpg.jpg

Generell empfehle ich den GANZEN Thread chronologisch zu lesen. Viele Fragen erübrigen sich dann und ihr könnt noch weiter ins Thema einsteigen :)


Nachtrag: Da mir in The Last of Us Part I die Differenzen zwischen der Standartkonfiguration und meiner Optimierung besonders dramatisch aufgefallen sind, hier noch ein weiterer Vergleich, den ich relativ aufwendig gemacht habe :) Spielversion war die 1.0.4.1 und genutzt wurde der 23.4.3 Treiber.

The Last of Us Part I - 6950XT - Ultra Pre-Set @ WQHD & 30 FPS - Stock vs Optimiert.jpg

The Last of Us Part I - 6950XT - Ultra Pre-Set @ WQHD & 60 FPS - Stock vs Optimiert.jpg

The Last of Us Part I - 6950XT - Ultra Pre-Set @ WQHD & im CPU Limit - Stock vs Optimiert.jpg

Einen ähnlichen Test habe ich mit Cyberpunk 2.0 und der 6950XT gemacht, auch dort sind die Unterschiede im Verbrauch ganz deutlich: https://www.computerbase.de/forum/t...er-als-ihr-denkt.2129358/page-4#post-28642262
 

Anhänge

  • 6900XT CyberPunk.jpg
    6900XT CyberPunk.jpg
    1,3 MB · Aufrufe: 5.904
  • 1672862209203.jpeg
    1672862209203.jpeg
    2,5 MB · Aufrufe: 3.417
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Blende Up, Gravlens und 71 andere
Ja, ergibt Sinn. VSYNC aus und FPS-Limit setzen. Das am besten innerhalb des Freesync Bereiches. Genau 60 FPS bei einem 60 HZ Monitor können aber zu Synchronisationsfehler führen. Also das es doch mal 61 oder 62 FPS sind und dann der Monitor Tearing zeigt, was er ja nicht soll. Ich empfehle daher 2-4 FPS unter dem oberen Ende des Freesync Bereiches zu bleiben. Bei dir dann 58 FPS.

Allerdings beträgt deine Systemlatenz dann ca. 16,8 ms. Mit mehr FPS und Latenzen von unter 12 ms fühlen sich viele Spiele besser an. Tearing merkst du aber am stärksten dann, wenn die FPS nur etwas über der Wiederholrate des Monitors liegen. 70 FPS auf einem 60 Hz Monitor zeigen z.B. häufig das Zerreißen von Bildern. Bei über 100 FPS auf den 60 Hz sind es dann schon wieder so viele Bilder, dass es weniger auffällt.

Ich würde mit CRU Monitor den Bildschirm übertakten und den Freesync Bereich nach unten und nach oben erweitern. Falls das nicht erfolgreich ist, dann doch einen anderen Bildschirm zulegen.
 
  • Gefällt mir
Reaktionen: Dig.Minimalist und WiP3R
Dig.Minimalist schrieb:
Ich habe einen BenQ 3270EW mit UHD und max 60Hz (Freesync Range 40-60Hz):
macht es Sinn einen Frame Limiter zu nutzen um Spulenfiepen zu minimieren und den Stromverbrauch, bzw. Effizienz weiter zu verbessern?
Das musst du für dich ausprobieren. Es macht Sinn ein Framelimit zu setzen um die Effizienz zu erhöhen und Spulenfiepen zu reduzieren. Von deinem Spielprofil her wäre es wohl ein guter Ansatz.
Aus genau den selben Gründen nutze ich ein globales Framelimit von 142 in 2K bei meinem 144Hz Monitor.
 
  • Gefällt mir
Reaktionen: Dig.Minimalist
Danke euch für die detaillierten Antworten 👍

Über CRU hatte ich noch nicht nachgedacht - mal schauen ob ein Übertakten möglich ist (schnelle google Suche macht mich nicht optimistisch) und ich die Freesync Range nach oben erweitern kann.

Sobald ich das stabile Maximum ermittelt habe, werde ich den Frame-Limiter auf „minus 2fps“ setzen.

Der 7600X kommt in den Eco Mode…

Freu mich schon auf‘s basteln - ist schon Jahre her 😁
 
  • Gefällt mir
Reaktionen: der-Kalli
der-Kalli schrieb:
Am Ende standen 238 Watt und 71 FPS der 6900XT gegen die 355 Watt und 101 FPS der 7900XTX gegenüber. Genau 30 FPS schneller ist die neue 7900XTX also gegenüber der 6900XT in A Plague Tale - Requiem an der selben Stelle mit identischen Grafikeinstellungen. Umgerechnet bekommt man in diesem Beispiel ca. 0,3 FPS pro Watt bei der 6900XT und bei der 7900XTX sind es ca. 0,29 FPS. 1 FPS kostet dann ca. 3,35 Watt bzw ca. 3,51 Watt. In anderen Spielen, oder bei anderen Grafikeinstellungen mag der Unterschied geringer oder größer ausfallen, aber hier war das so.
bei Berechnung muss aber bei der 6900XT gut 40W dazupacken für TDP Vergleich (=280W), denn bei 7900XTX sind die 355W als TDP?
somit wäre die 7900XTX bei ca. 3.51W/fps, die 6900XT bei ca. 3.95W/fps
 
Bei AMD zu AMD nehme ich an, es war TGP
 
Ich gebe immer den Verbrauch der kompletten Karte an. Gemessen aus der Telemetrie, nicht am Netzteil. So begrenzen sich die Karten schließlich auch selbst. Egal ob der Kern, der Cache, oder der Speicher den Verbrauch erzeugen, beim angegebenen Limit ist Schluss. Ob sich die Karten daran halten und aus welchem Anschluss sie wie viel Strom saugen, dass testet Igor auch immer mit.

Verluste auf der Platine durch Spannungswandlung ect. kommen dazu. Diese Verluste varrieren aber je nach Qualität der verbauten Kleinteile und von Custom Desing zu Custom Design. Die Temperatur dieser Komponenten spielt dann auch noch eine Rolle, weswegen sich der tatsächliche Verbrauch einer Karte über die Aufwärmphase hin verändert.

In A Plague Tale - Requiem war es übrigens sogar ein ungünstiger Vergleich für die 6000er Karte. Die Treiber sind noch nicht für das Spiel optimiert und in anderen Spielen ist die 7000er Karte nicht so viel schneller, bzw. braucht die 6000er oft auch noch weniger Strom. Im Idle oder mit Framelimiter betrieben sind die 7000er Karten momentan auch stromhungrig, bzw. die 6000er besonders sparsam.
 
Zuletzt bearbeitet:
@der-Kalli
welche Telemetriequelle ist es, hwinfo64?
lt. Screenshot hast Du bei der 6900XT 238W, hwinfo zeigt bei 6900XT eine TGP (bzw. ähnliche begrenzte Angaben), die fehlenden 30-60W für den Rest, sind da nicht zu sehen.
Aus welcher hwinfo64 Zeile/Quelle kommen die 238W?
Die 355W bei der 7900XTX entsprechen eigentlich der (default) Total Board Power, oder ist dort auch TGP, somit wäre die Gesamaufnahme deutlich höher?
auch Afterburner zeigt bei der 6900XT nur TGP an
 
Zuletzt bearbeitet:
Für diese Frage aber ich extra im Startbeitrag die Legende zu FPS Monitor beigefügt. FPS Monitor verwendet Teile des HWInfo SDK's zur Messung.

Bei heißen Karten kann es bei AMD 20 - 30 % Abweichung vom Softwaremesswert am Netzteil geben. Je höher die Aufnahme ist, desto größer ist auch die Abweichung. Beim Untervolten entlastet man neben den Chips auch andere Bauteile auf den Karten, weswegen auch die kühler laufen und die Verluste kleiner werden. Eine gut untervoltete Karte weicht nur 10 - 20 % ab.

Wie auch immer, wurden bei der 7900XTX und der 6900XT die selben Softwaremesswerte verglichen und der Vergleich ist korrekt. Vorallem weil die 7900XTX aufgrund des höheren Verbrauchs auch noch stärker abweicht und ihre 355 Watt dann eher geschönt zu verstehen sind als es das bei der 6900XT der Fall ist.
 
danke für den Hinweis mit FPS Monitor (habs überlesen und kannte ich gar nicht, aber sieht wie Afterburner mit hwinfo64 aus)
ich bezweifele, dass die dort angezeigten (Verbrauchs-) Werte der 6900XT und der 7900XTX im gleichen Kontext (d.h. beides als Gesamtverbrauch, bzw. beides als "TGP") zu verstehen sind
die Abweichungen der Softwareschätzung gegenüber dem echten Verbrauch sind natürlich bei beiden Karten vorhanden,

was ich bei mir (6900XT "default" AMD) sehe ist folgend (lt. Strommessgerät):
bei 200W TGP kommen grob ca. 30-35W dazu (somit 235W-240W Board Power)
bei 255W TGP kommen grob ca. 40-45W dazu (somit 295W-300W Board Power)
(beides mit 1.075V MPT, 2474Mhz Wattman, beides mit 0.05V Offset im Wattman), wahrscheinlich liegt es eher am Gesamtverbrauch und weniger am Spannung-Offset-Werten, da beides bei mir identisch ist
 
Zuletzt bearbeitet:
der-Kalli schrieb:
Wie auch immer, wurden bei der 7900XTX und der 6900XT die selben Softwaremesswerte verglichen und der Vergleich ist korrekt.
Also bei den 7000ern werden TGP und TDP angezeigt?
Der Unterschied ist ja, die 6000er können nur die TGP anzeigen. Bei den 7000ern wurde das geändert und man kann die TDP endlich sehen.
(technische Hintergründe zu den 6000er war glaub von Igor)
 
  • Gefällt mir
Reaktionen: whtjimbo
Dig.Minimalist schrieb:
Ich habe einen BenQ 3270EW mit UHD und max 60Hz (Freesync Range 40-60Hz):
macht es Sinn einen Frame Limiter zu nutzen um Spulenfiepen zu minimieren und den Stromverbrauch, bzw. Effizienz weiter zu verbessern?

Danke
Alexander

Ja macht es.
Am besten "Guru3D RTSS Rivatuner Statistics Server" nutzen, da hat man die besten/gleichmäßigsten Frametimes. Die Treiber haben meist eine ungleichmäße Frametime.
 
  • Gefällt mir
Reaktionen: Dig.Minimalist
Chill= min+max=57fps für nen 60Hz-Moni bei mir, ... Vsync=ON zusätzlich falls doch mal Chill net greift
(kann im Game dann 1-2 Sekunden dauern bis die Fps auf 57 runtergehen, da net wundern)

Chill=57fps@60Hz_Vsync=ON.jpg


btw.
bezgl. Inputlag probier ich gerade ne olle PS2-Mouse aus, ... könnte sein das der eigene Interrupt
günstiger ist als ne Konkurrenz auf dem USB-Kontroller mit Gerät XYZ
 

Anhänge

  • Chill.jpeg
    Chill.jpeg
    219 KB · Aufrufe: 192
  • Chill2.jpeg
    Chill2.jpeg
    569,4 KB · Aufrufe: 202
Zuletzt bearbeitet:
Bei mir ist Chill irgendwie kaputt.
Spiele mit Triple Monitor Setup und habe in ETS2 Probleme.

Screenshot 2023-02-04 082001.jpg

Die Frames fallen ab und zu unter die eingetragene Range (bis 60FPS hinab) und bescheren mir damit lags.
Vom Spielstart bis in´s Menü greift Chill gar nicht und die Karte singt mir bei 2000FPS ein fröhliches Spulenlied.

Kennt jemand dieses Problem bei Triples? Hatte es vorher, bei nur einem Monitor nicht.
 
Zuletzt bearbeitet:
Dann evtl. 71+71 und Vsync=ON probieren, wenns eeh ein anspruchsloses Game ist.

für
Shooter soundso 141+141 und Vsync am 144Hz-Moni
 
Zuletzt bearbeitet:
Mal etwas OT. Wenn ich UV und OC betreibe (1zu1 Kopie von dir @der-Kalli) dann läuft das System super. Sobald ich Cyberpunk anfange zu spielen hört die GPU einfach auf hochzutakten. Nur bei Cyberpunk.
Was mache ich falsch? Ich habe versucht zu googeln aber irgendwie bin ich zu doof dafür. Hast du eine Erklärung.
 
@w0wka Wie sehen den die Taktraten genau aus? Maximaler Takt liegt gerade bei hoher Last und starkem Raytracing nicht an. Beides Dinge die bei Cyberpunk zutreffen.
 
So um die 300-600 Mhz immer. Habe aber vorhin Treiber 22.11.1 draufgespielt und es scheint erstmal zu laufen. Sollte es wieder auftreten melde ich mich. Dankeschön erstmal.
 
btw.
Evtl. gehen die Crysis Remastered Games net so gut mit Chill. ... war heute komisch!?
Bin dann auf Vsync als Notlösung am 60Hz-Moni.(C3 R siehe Anhang)
(bin allerdings noch auf nem älteren Adrenalin 22.10.2)

Netterweise ist ja EA-Play im Gamepass mit enthalten, falls Jemand bei Remastered reinschauen möchte.
 

Anhänge

  • Crysis3 R@1836p .jpg
    Crysis3 R@1836p .jpg
    1,3 MB · Aufrufe: 170
Zuletzt bearbeitet:
Falls jemand von Seite 1 bis hier hin durchgehalten hat und noch nicht gesättigt ist, dann kann man hier https://www.computerbase.de/forum/t...besser-und-effizienter-als-ihr-denkt.2129358/ weiterlesen :D Der neue Artikel zeigt auch, dass ihr aus einer 6900XT fast eine 6950XT machen könnt.

@GerryB & @Shir Khan haben mich freundlicher Weise auch auf die versteckten schnellen Timings der 2. Stufe hingewiesen. Sie lassen sich mit dem MPT unter "OC Limits" bei "Memory Timing Control" für das Menu im Treiber freischalten, in dem man den Wert von 1 auf 2 ändert. Im Time Spy Benchmark hat das rund 100 Punkte mehr gebraucht. Bei meiner 6950XT war mehr Spannung als mit den schnellen Timings der 1. Stufe nötig. Für auf 2150 MHz limitierte 6900XT Nutzer könnte das nochmal ein größerer Vorteil sein, um aus dem Speicher mehr Leistung rauszuholen. Sofern der Speicher das schafft. Bei der vor ein paar Seiten vorgestellten Toxic werde ich das auch noch probieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Evgasüchtiger, el_froggo, Pjack und 3 andere
Schöner Artikel, der gerade wie gerufen kommt. Als Wiedereinsteiger beim Gaming und PC Hardware ist Undervolting zwar neu für mich, mit einem Ryzen 5900X und RX6900XT aber sehr interessant. Den Ryzen habe ich bereits im 65 Watt Eco Modus laufen. Ohne CurveOptimizer, einfach das bei meinem Asus Board vorhandene Preset gewählt und es läuft sehr gut. Bei für mich vertretbaren Leistungseinbußungen ist der Stromverbrauch deutlich gesunken.

Nun will ich mich ans Undervolten meiner 6900XT wagen. Wie funktioniert es denn, dass ich mit dem MPT ein zuvor ausgelesenes Bios editiere? Oder editiere ich doch direkt in der Karte und das ausgelesene BIOS dient nur als Backup? Wie würde ich es dann wieder zurückspielen können?
 
Zurück
Oben