6600 XT Optimiert

der-Kalli

Lieutenant
Registriert
Mai 2010
Beiträge
557
Vor ein paar Monaten habe ich umfangreich von meiner 6700 XT berichtet. Heute konnte ich eine 6600 XT für einen guten Freund einstellen und meine Erkenntisse von der 6700 XT übertragen.

Ohne die RDNA2 Materie neu zu erzählen präsentiere ich hier meine Empfehlung und erkläre noch kurz etwas zum Sinn der Einstellungen.

Aufgrund des nur 32MB kleinen Infinity Cache der 6600XT und dem schmalen 128 bit Interface stellt die Speicheranbindung den größten Flaschenhals für die Karte dar. Hier ist also auch der größte Leistungszuwachs durch manuelle Optimierung zu erwarten.

Dass sich die Bandbreite durch höheren Speichertakt erhöht ist seit Generationen klar, insofern habe auch ich den Speicher übertaktet. Von 2000MHz auf 2220MHz, was in ungefähr 2200MHz unter Volllast resultiert. Neu ist aber der Infinity Cache bei RDNA2 und bei meiner 6700XT mit 96MB Cache hatte ich auch getestet wie sich das auf die Rechenleistung auswirkt. Ich kam zu dem Schluss, dass es sich nicht lohnt von 1900MHz auf 2000MHz zu übertakten, da ich sogar mit nur 1000MHz kaum Leistungsverluste hatte und 1800MHz bei mir sich am effizientesten untervolten ließen. Bei der 6600 XT verhält es sich anders, denn der viel kleinere Cache lässt sich selbst auf 2000MHz übertaktet ordentlich untervolten und bzgl. der Leistung tut sich auch richtig was. Das ist nur logisch, da hier der Flaschenhals der Karte sitzt. Bei der Powercolor 6600 XT Fighter, die mir zum einstellen vorlag, beträgt der Standardtakt des Infinity Cache übrigens 1800MHz.

Den GPU-Kern habe ich auf 2520MHz im Treiber eingestellt, was unter Volllast in 2400MHz+ resultiert. Damit liegt der Boost niedriger als original, aber tatsächlich ist der Takt durch das damit mögliche Undervolting durchschnittlich höher und vorallem konstanter. Gerade in Situationen wo ohne diese Optimierung die Temperatur oder das Powerlimit begrenzen würden, kann der Chip nun frei laufen. Und der Verbrauch passt verhältnismäßig auch noch etwas besser zur gebotenen Leistung.

Mit erhöhtem Powerlimit hat die Karte ohne weitere Einstellungen, also quasi auf Standard etwas über 150W gezogen. Nun kommt sie trotz gesteigerter Leistung auf maximal 130W. Das entspricht 15% Ersparnis. Der Durchschnittsverbrauch ist natürlich auch nochmal besser geworden, meistens so um die 10 ~ 12%. Damit war eine entspannte Lüfterkurve möglich, was die Karte praktisch lautlos macht. 72C° HotSpot Temperatur werden maximal erreicht. Vorher waren auch mal 85C° drin. Im Idle lese ich mit GPU-Z nur 3W aus.

Die Lüfterkurve war genauso wie die Konfiguration der Spannungen nur durch modifizierte SoftPowerPlayTables per MPT möglich.
 

Anhänge

  • 6600 XT Adrenalin Konfiguration.jpg
    6600 XT Adrenalin Konfiguration.jpg
    285,4 KB · Aufrufe: 1.492
  • 6600 XT MPT Konfiguration.jpg
    6600 XT MPT Konfiguration.jpg
    295,7 KB · Aufrufe: 1.480
  • 6600 XT Empfehlung.zip
    6600 XT Empfehlung.zip
    2,3 MB · Aufrufe: 488
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnDoeX, tehschlonz, Asmudeus und 7 andere
Wäre interessant zu wissen, welche 6600 XT. Weil das wirkt jetzt für mich nicht so, als ob das OC irgendwas gebracht hat. Die 130-140W unter Gaming Last entspricht ja auch eher dem, was in zahlreichen Tests auch ohne "Hand anlegen" gemessen wird.
 
kachiri schrieb:
Wäre interessant zu wissen, welche 6600 XT
der-Kalli schrieb:
Bei der Powercolor 6600 XT Fighter, die mir zum einstellen vorlag,
Ergänzung ()

@der-Kalli

konntest du auch Erfahrungswerte über die "Großen" sammeln? Mich würden da Erfahrungen zur 6900XT interessieren.
Screenshot 2022-02-19 182752.jpg
 
  • Gefällt mir
Reaktionen: der-Kalli
@DannyA4 Leider nicht, ich kann dir aber mal telefonisch Support geben. Schreib mir eine PN.

Dass ihr gerne noch den Vergleich hättet habe ich mir schon gedacht ;) Die Bilder kommen. Hier erstmal das Ergebnis mit dem effizienten Setting, welches ich auch empfehle. +6% mehr GPU-Score.
Ergänzung ()

Komplett Stock, also Standardeinstellungen. Höherer Verbrauch, lauter, weniger Punkte. Und sehr wahrscheinlich in Spielen die speicherlastig sind ein größerer Unterschied als nur jetzt im synthetischen Benchmark.
Ergänzung ()

Und hier alles was geht, also 2620MHz im Treiber und damit etwas über 2500MHz Realtakt unter Volllast. Mehr war nicht stabil und auch das habe ich nicht auf Alltagstauglichkeit getestet. Das empfohlene Profil natürlich schon. Der Unterschied in der Leistung ist auch nicht sonderlich groß, weswegen man von diesem letzten Setting eigentlich Abstand nehmen sollte. Aber dann habt ihr eine Einordnung.
 

Anhänge

  • 6600 XT Time Spy @ ~2400MHz & Mem OC.jpg
    6600 XT Time Spy @ ~2400MHz & Mem OC.jpg
    371,5 KB · Aufrufe: 569
  • 6600 XT Time Spy @ Stock.jpg
    6600 XT Time Spy @ Stock.jpg
    368 KB · Aufrufe: 540
  • 6600 XT Time Spy @ ~2500MHz & Mem OC.jpg
    6600 XT Time Spy @ ~2500MHz & Mem OC.jpg
    345,2 KB · Aufrufe: 566
Zuletzt bearbeitet:
Hier ein guter Vergleich von mir zwischen Stock & wie empfohlen optimiert bei God of War. 1920x1080 +10% & 2560x1440 +7% an der gleichen Stelle. Trotz weniger Takt auf dem Kern, performt das stärker. Die Grafikeinstellungen des Spiels waren alle auf Hoch, außer Texturen die auf Ultra eingestellt waren. FSR war aus.

Dummerweise habe ich WQHD und HD beim betiteln vertauscht und die originalen Screenshots bereits gelöscht. Deswegen habe ich das fertige Bild notdürftig berichtigt, also wundert euch nicht, über die unsaubere Darstellung bei der grünen Schrift. Die Daten stimmen aber.

Nur logisch ist übrigens, dass mit meinen Einstellungen die Auslastung öfter bei 99% liegt. Der Kern wird einfach besser versorgt und läuft nicht teilweise "leer". Auch ohne Taktanpassungen beim Kern taktet der mit höherem FCLK & GDDR6 Speicher Takt niedriger. Denn je höher die Auslastung, desto niedriger der Takt. Ein hoher Takt ohne Auslastung bringt aber nicht viel. Insofern ist mein Vergleich hier viel wert und belegt die Aussagen vom ComputerBase aus dem Test zur 6600 XT, dass der Speicher, die Anbindung und der kleine Cache die Schwachstelle der Karte sind. Wie hier gezeigt, kann man die aber gut lösen. :)
 

Anhänge

  • God of War Vergleich.jpg
    God of War Vergleich.jpg
    4,8 MB · Aufrufe: 555
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tehschlonz und DannyA4
Für die die nicht genug Werte kriegen können, auch noch Port Royal mit +4% ;)
Ergänzung ()

Der Stromverbrauch in PUBG ist schon beeindruckend. Mit einem Framelimiter auf 90 FPS in 1080p mit 120% Renderskalierung, allen Settings auf Hoch, bis auf Texturen auf Ultra und Nachbearbeitung auf Niedrig, ist die Karte bis auf Ausnahmen bei unter 40W. Bei 180 FPS sind es dann ca. 100W. An der Effizienz habe ich fast mehr Freude als an der reinen Leistung :D Aber das war auch schon bei der 6700 XT ein Fest :D
 

Anhänge

  • 6600 XT Port Royal @ ~2400MHz & Mem OC.jpg
    6600 XT Port Royal @ ~2400MHz & Mem OC.jpg
    344,9 KB · Aufrufe: 332
  • 6600 XT Port Royal @ Stock.jpg
    6600 XT Port Royal @ Stock.jpg
    351,3 KB · Aufrufe: 338
  • PUBG.jpg
    PUBG.jpg
    1 MB · Aufrufe: 326
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tehschlonz und DannyA4
Also auf meiner MSI Radeon RX 6600 XT Gaming X führet die MPT-Konfiguration zu Artefakten und Treibercrashes.
 
Jede Karte ist einzigartig, Abweichungen der Chipgüte sind normal.

Nutze dieses Profil nicht für Karten anderer Hersteller. Du kannst es aber adaptieren.

Lade dazu die Navi23.rom Datei aus meinem Paket und zusätzlich in einer weiteren Instanz vom MPT meine Konfiguration. Übernimm für das Profil deiner Karte dann nur die Werte die ich geändert habe. Es kann nämlich sein, dass deine Firmware bei anderen Einstellungen völlig anders konfiguriert ist.

Das Basis Profil deiner Karte musst du vorher mit GPU-Z extrahieren und dann in das MPT einlesen. Die Modifizierung dann als .mpt Datei speichern und die SPPT in die Registrierung schreiben. Abschließend den Treiber neustarten und die Adrenalin Konfiguration laden.

Danach Fehlerquellen einzeln ausschließen, indem du jeden Takt mit jeder Spannung einzeln testest, während die anderen Einstellungen auf Standard sind.

Meine Empfehlung richtet sich an Leute die wissen was sie tun. Mit meinem Download soll das Prinzip klar werden und dann kann sich das jeder selber einstellen. Einfach draufspielen ist Lotto. Aber dass einem das bewusst ist setze ich vorraus.
 
  • Gefällt mir
Reaktionen: tehschlonz, Max007 und DannyA4
https://www.computerbase.de/forum/t...fizienz-getrimmt.2040961/page-3#post-26134225

Wie schon gesagt bringt das OC des Infinity Cache mehr, desto kleiner der Cache und die Speicheranbindung generell ist. Bei der 6700 XT ist das ab Werk gut bemessen und der Sprung von 1940 auf 2000MHz ist kaum messbar. Auch die 1800MHz die ich für mein Undervolting nutze machen kaum einen Unterschied zu 2000MHz. Erst die Halbierung auf 1000MHz zum testen war klar messbar, aber auch hier war der Leistungsunterschied geringer als von mir erwartet. Die 6600XT hätte man besser mit 64mb gebaut. Aber dafür lassen die 32mb sich gut übertakten und untervolten, und weil die Karte hier einen Flaschenhals hat, steigt eben auch die Leistung dadurch schön an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IceKillFX57
In God of War sind es fast 10% mehr avg-fps, ist doch ein sehr guter Mehrwert, den man für lau mitnehmen muss.

Ich habe meine Erfahrungen mit 6900XT UV/OC im Sammelthread ausgiebig mitgeteilt, auch hier konnte ich HotSpot von 107 Grad auf unter 90 Grad drücken, dank UV auf 1.075mV und OC auf 2560 Mhz. PL habe ich auf 250 Watt gesetzt. RDNA2 ist mit den richtigen Settings (und etwas Glück) ein absolutes Effizienzmonster.
 
  • Gefällt mir
Reaktionen: DannyA4 und der-Kalli
.
 
Zuletzt bearbeitet:
Ich muss noch erwähnen, dass ich die Karte nur mit 8x PCIe 3.0 betrieben habe. Laut IgorsLab sind in Durchschnitt 5% mehr Leistung noch zu holen wenn man einen 4.0 Slot verwendet. Da sind es dann zwar auch nur 8 Lanes, aber die laufen doppelt so schnell.
 
Prima, danke!
Ich habe eine 6600 XT Red Devil. Die ist ja von Haus aus schon etwas OC'ed. Aber da lässt sich sicher viel optimieren. Ich habe leider ein x470 Mainboard und damit kein PCIE 4.0 und einen Ryzen 2600 und damit (in der Kombi mit Gigabyte X470) kein Resizeable Rar. Lohnen sich die Optimierungen direkt an der GraKa unabhängig davon trotzdem (wenn man die mal im Verhältnis sieht)?
Elektrische Leistung sparen über den Treiber ist ja easy, aber die manuelle Optimierung der Rechenleistung scheint mir aufwändig, und meine Zeit ist derzeit gut ausgefüllt mit anderen Dingen höherer Priorität.
 
Zuletzt bearbeitet:
Natürlich kannst du mit deiner Konfiguration rBAR nutzen. Installiere das aktuellste Bios für dein Board und aktiviere im Bios dann rBAR.

Das man über den Treiber easy Strom sparen kann ist ein Trugschluss. Das gilt nur wenn die Karte auch untertaktet ist und nicht an den Trigger-Punkt kommt ab welchem die maximal mögliche Spannung direkt wieder angelegt wird. Bis dahin funktioniert der Spannungsregler nur als Offset. Halte dich an meine Anleitung hier und an die aus dem 6700 XT Thread.
 
Ich habe ein Gigabyte Mainboard...da geht rBAR bei X470 erst ab Ryzen 3XXX. )-:

Gigabyte rBAR - Abschnitt CPUs:

"The following CPUs support Resizable BAR.
AMD:
Ryzen 5000 – Ryzen 9 59xx, Ryzen 7 58xx, Ryzen 5 56xx
Ryzen 3000 – Ryzen 9 39xx, Ryzen 7 38xx, Ryzen 7 37xx, Ryzen 5 36xx, Ryzen 5 35xx, Ryzen 3 33xx, Ryzen 3 31xx
"
 
Zuletzt bearbeitet:
https://www.gigabyte.com/de/Motherboard/X470-AORUS-GAMING-7-WIFI-rev-11/support#support-dl

1. Update AMD AGESA ComboV2 1.2.0.0 for Ryzen™ 5000/ 4000 series processors support
2. AMD Smart Access Memory function support

Seit dem 5.3.2021 mit Version F60. F62 ist jetzt aktuell.


Habe deine Liste und die Info auf der Gigabyte Website gerade gesehen. Es kann sein dass die Info nur den nativen Support beschreibt. Da der Support für ältere CPUs nachgereicht wurde, kann es gut sein, dass es im Bios trotzdem aktivierbar ist. Hast du selbst mal nachgesehen?
 
Zuletzt bearbeitet:
Danke, ich hatte meinen Post über Deinem neuen nochmal aktualisiert mit einem Link auf die Seite von Gigabyte. Bei X470 steht in einer Tabelle in der Tat UEFI Version F60, aber eben auch mein obiges (nachträglich eingefügtes) Zitat zur Liste der unterstützen CPUs. Gigabyte ist da leider nicht so gut unterwegs, wie andere Hersteller.
Nun ja, da bei F62 steht: "Major vulnerabilities updates, customers are strongly encouraged to update to this release at the earliest." sollte ich wohl eh mal auf F62 gehen. Dann kann ich es ja ausprobieren, mache mir aber wenig Hoffnung.

Aber das ist ja hier ein wenig OT. Danke für die Erläuterungen zur Optimierung der GPU "an sich".
 
Zurück
Oben