Sapphire AMD Radeon RX 6700 XT Pulse auf Effizienz getrimmt

Da ich nirgends etwas aussagekräftiges gefunden habe, habe ich mal wieder selbst Tests gemacht. Und zwar habe ich die Auswirkung des Infinity Fabric Takts (FCLK) auf die Performance gemessen.

Standardmäßig läuft der mit 1940MHz und ich hatte ihn auch schon erfolgreich auf 2000MHz übertaktet. Dafür war etwas mehr Spannung als bei meinem vorher eingestellten UV nötig. Die Spannung die den FCLK stabilisiert ist übrigens ebenfalls die SoC Spannung.

Die +60MHz waren in FPS kaum messbar und für mehr Takt müsste ich übervolten, was ich vermeide. Untertakten war aber eine Option und deswegen habe ich einfach mal 1000MHz vs 2000MHz getestet.

In Metro Exodus Enhanced Edition war mir zuvor bereits die starke Auslastung des Titels auf die SoC Spannung aufgefallen, da meine UV Anläufe die sonst schon stabil waren hier scheiterten. Deswegen habe ich natürlich direkt Metro herangezogen, da der Einfluss hier groß zu sein scheint. Gemessen habe ich auf "Hoch" in WQHD mit RT da das für mich realistische Alltagseinstellungen sind. Aber wahrscheinlich wäre die Auswirkung in 4k noch größer und ich vermute, dass mit höherem Chip Takt auch wieder mehr Profit durch die höhere Bandbreite entstehen würde. Meine Karte lief aber nur mit 2,4GHz.

Ich habe jeweils 3 Durchläufe gemacht und mich für den Vergleich für das jeweils durchschnittlichste Ergebnis entschieden. So kann man Messfehler und Ausreißer halbwegs ausschließen und die Messung auf den reinen Unterschied durch den FCLK auslegen.

Grob kann man sagen, dass man im Durchschnitt 3-4 FPS verliert, bei den maximalen sind es 4 und bei den minimalen sind es 5 FPS. Dafür dass ich den Takt halbiert habe finde ich das erstaunlich wenig. Das bedeutet aber auch, dass hier mit OC kaum noch Perfomance zu holen ist. Mit klassischem Speicher OC erreicht man mehr :)

Die beste Effizienz hat man wohl bei 1800MHz, da reichen 1000mv auf dem SoC.
 

Anhänge

  • FCLK OC Vergleich Metro Exodus.jpg
    FCLK OC Vergleich Metro Exodus.jpg
    443,1 KB · Aufrufe: 403
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Buali und pyro
der-Kalli schrieb:
Der Verbrauch zeigt die gesamte Karte, nicht nur den Kern.
Wie ermittelst du das? Der AMD Sensor selbst überwacht ja bekanntlich nur den Chip.
 
Zuletzt bearbeitet:
@TheOpenfield In FPS Monitor lässt sich einstellen welche Verbräuche angezeigt werden sollen. Ich verwende die ASIC Power Angabe.

An alle: Ich habe die Downloads von mir aktualisiert. Alle MPT Profile enthalten nun Undervolting in homöopathischen Dosen für alle Module auf der Karte. Da ich nun im Bekanntenkreis ein paar 6000er Karten gemacht habe, weiß ich dass das bei den meisten laufen müsste. Ursprünglich hatte ich da kaum was geändert, damit hauptsächlich die Wattman Profile bei möglichst vielen Leuten laufen. Jetzt traue ich der breiten Masse etwas mehr zu, aber auch das ist wohl noch konservativ. Das Optimum holt man eh nur aus der Kombination von Wattman und MPT raus.

Wahrscheinlich kann man da also noch mehr einstellen, aber da das immer individuell ausfällt, habe ich die Profile hier nur geringfügig angepasst. Ein kleiner Vorteil sollte aber auch so schon entstehen. Mein persönliches Profil von Seite 2 geht natürlich noch weiter.
 
Zuletzt bearbeitet:
Hab hier mal 3DMark Time Spy und Port Royal Ergebnisse für euch. Mein 2,4GHz Profil mit Standardeinstellungen des Benchmarks für die Vergleichbarkeit.

Besonders möchte ich auf die Konstanz der Taktraten hinweisen. Trotz meiner Auslegung auf Effizienz erziele ich ein überdurchschnittliches Ergebnis. Das was eingestellt ist wird nämlich durchweg gehalten, wohin gegen andere Konfigurationen (z.B. Standard) schwanken weil diverse Begrenzungen erreicht werden. Wo andere drosseln, hole ich noch Punkte.

Mit 2,6GHz könnte ich wohl ziemlich weit vorne liegen :king:
 

Anhänge

  • port royal.jpg
    port royal.jpg
    220,3 KB · Aufrufe: 456
  • timespy.jpg
    timespy.jpg
    257,4 KB · Aufrufe: 477
  • Taktraten.jpg
    Taktraten.jpg
    177,3 KB · Aufrufe: 457
Zuletzt bearbeitet:
Verdammte Sch.... :D 5 Punkte unter der Bestmarke in Port Royal :D Vielleicht muss ich einfach noch ein paar Runs machen bis einer nach oben streut?? :D

In Time Spy immer hin "Legendär" :) Und laut ul.com im Grafikscore die 3070, welche auf 13722 Punkte kommt, geschlagen.

Während der Takt in anderen Benchmarks und Spielen auch mit RT höherliegt, liegt er in 3DMark verhältnismäßig niedrig. Auch ohne Begrenzung durch z.B. das PowerLimit, welches meine Karte mit meinen Einstellungen unterschreitet. Um also 2,6GHz glatt zu halten oder darüber zu liegen, müsste ich 2720MHz in Wattman einstellen. Damit läuft auch Time Spy durch, aber Port Royal crasht. Die Auslastung scheint extrem zu sein, oder die RT Bereiche auf dem Chip benötigen einfach generell mehr Spannung als der Rest. Mit 2680MHz laut Wattman und damit realen 2540 - 2560MHz gehts aber. Doom, CP2077, Metro, das läuft alles mit RT und 2,6Ghz, aber Port Royal würde mehr Spannung brauchen als AMD zulässt.

Mit Wasser- oder Stickstoffkühlung währe wahrscheinlich noch was zu machen, aber meine Pulse ist komplett stock.

Für alles andere kann ich sogar wieder untervolten und das scheint mir auch praktischer zu sein, denn Situationen wie im Benchmark erlebt man sonst wohl nie. Ist dann eben die Frage wie stabil man es haben möchte. Absolut, oder bis zu einem gewissen Maß, von welchem man vielleicht weiß, dass man es eh nie erreicht. War jetzt aber mal ganz interessant zu sehen was so geht.
 

Anhänge

  • Port Royal @ 2,6GHz.jpg
    Port Royal @ 2,6GHz.jpg
    308,8 KB · Aufrufe: 341
  • Time Spy @ 2,6GHz.jpg
    Time Spy @ 2,6GHz.jpg
    377,8 KB · Aufrufe: 340
  • Time Spy Daten @ 2,6GHz.jpg
    Time Spy Daten @ 2,6GHz.jpg
    254,5 KB · Aufrufe: 343
der-Kalli schrieb:
In FPS Monitor lässt sich einstellen welche Verbräuche angezeigt werden sollen. Ich verwende die ASIC Power Angabe.
Hast du das mal verifiziert? Das sollte bei einer 6700 XT Stock dann bei~225W liegen im Timespy beim Verbrauch für die gesamte Karte.
1638325505708.png


An der Steckdose lässt sich das natürlich ebenfalls gegenchecken, einfach den Grundverbrauch abziehen im Timespy GP2 (GPU Idle frisst höhere NT Verluste auf)
 
Ich habe nicht die nötigen Werkzeuge wie Igor um am NT oder der Karte selbst zu messen.

Nur vor ein paar Monaten konnte ich bei einem Freund meinen PC mal an der Dose messen. Das höchste was wir gemessen haben waren ca. 380W für das ganze System. Alles untervoltet was man untervolten kann. Dabei lagen laut Software bei CPU 60W und GPU 150W an. Sonst wären es eher so 80W und 190W, und ich vermute an der Dose über 500W. Die Spitzen kann ich durch zu geringe Auflösung meiner Messung nicht professionell erfassen. In Spielen mit Framelimiter und so ca. 80% Auslastung waren es meistens so 220W. Idle waren es so 40 - 50W. Und ohne untervolten 60 - 80W, in Spielen dann ca. 300W.

Ich kann dir nur definitiv zusagen, dass die 186W TGP der Pulse fast genau dem ASIC Power Wert entsprechen. Und meine Angaben zu Ersparnissen sich darauf beziehen. Verluste durch Gedöns auf der Karte können dazu kommen und dann wird die Karte auch bei über 200W liegen. Das ganze untervolten wird aber sicher auch weitere Bauteile auf der Karte entlasten und insgesamt für einen Betrieb sorgen, in welchem Wandler usw. effizienter arbeiten. Deswegen sinkt durch untervolten sicherlich auch der Verbrauch den ich per Software nicht erfassen kann. Generell kann man sagen, dass bei niedrigerem Verbrauch die tatsächlichen Werte näher an dem dran sind was man ausließt. Also die Abweichung wird geringer. Vielleicht nicht immer prozentual, denn bei 6W im Idle kann es ebenfalls wie bei hohem Verbauch sein, dass das Gedöns nicht im optimalen Betriebsbereich läuft und neben Kern+Speicher+SoC auch nochmal 6W nuckelt. Das wäre dann zwar eine Verdopplung, aber bei 186W sind es vielleicht 30 - 40W.

Bei meinen 150W (oder meistens eher weniger, so ca. 130W) sinds insgesamt dann vielleicht 165W an der Dose für die GPU. Genau sagen kann ichs nicht.

Untervolten bringt also eine noch größere Ersparnis, als ich sie per Software auslesen kann, wenn man bedenkt, dass die nicht sichtbaren Verluste ebenfalls sinken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheOpenfield
der-Kalli schrieb:
In Time Spy immer hin "Legendär" :) Und laut ul.com im Grafikscore die 3070, welche auf 13722 Punkte kommt, geschlagen.
Stock mit oc zu vergleichen hat wenig Sinn.
Auch würde ich den Time Spy Grafik score nicht 1:1 auf die Grafikleistung in Spielen umlegen.
 
Klar ergibt es Sinn das zu vergleichen. So erkennt man das Potenzial.
Natürlich entspricht ein synthetischer Score nicht der Spieleleistung, aber aussagekräftig ist es dennoch.
Und es passt ja auch was ich raus habe. Die 6700XT kommt auch standardmäßig immer wieder mal an die 3070 ran, meistens liegt sie zwischen ihr und der 3060Ti. Mit OC drüber im Benchmark und sicherlich auch dann in Spielen.
 
Zuletzt bearbeitet:
Dann sollte man aber auch ne oc RTX 3070 dagegensetzen..so wie meine.
RTX 3070.jpg


Und zum Thema Time Spy
Eine RTX 3080TI ist in 1440p (so wie Time Spy) so 25% schneller als eine RX 6800.
Hier mal das Durchschnittsergebnis von 20248 RTX 3080 TI. Meine RX 6800 schlägt hier den Durchschnitt.
3DMARK.jpg


Was sagt das jetzt über die Gamingperformance aus?
Ok, wenn ich Valhalla nehme kanns sogar hinkommen. Aber ansonsten spielt die RX 6800 in einer ganz anderen Liga als die RTX 3080 TI.
 
"Dann sollte man" nö wieso denn? Es ist der Witz am Übertakten aus etwas schlechterem mit Potenzial, etwas besseres zu machen, was dann praktisch gleichwertig mit etwas gutem ist was aber auch mehr Geld gekostet, oder bei gleicher Leistung höheren Verbrauch hätte.

Klar kann man auch die krasseste Karte ab Werk kaufen und selbst die dann nochmal tunen. Aber es geht ja gerade nicht darum wer den längsten hat. Sondern nur wie lang der von der 6700XT ist. Und die Aussage über die Gamingperformance lautetet dann: Ob 3070 oder 6700XT+oc, das kommt praktisch aufs selbe raus. Ein paar FPS Differenz wird es je nach Titel immer geben, aber wenn einer der beiden die Puste ausgeht, wird die andere auch kaum besser sein. Selbst wenn jetzt da noch ein Unterschied ist, wird der in 2-3 Jahren egalisiert, da es dann höchstens noch ein Sidegrade und kein Upgrade mehr ist. Wer die eine oder die andere Karte hat, wird in Zukunft wahrscheinlich zum selben Zeitpunkt aufrüsten müssen. Die eine hat halt mehr Speicher, die andere kommt besser mit RT klar. Aber ansonsten, quasi egal was man kauft.

Wer es wie ich aus Prinzip geil findet eine Karte zu haben aus der man viel rausholen kann und die einfach sehr hoch taktet, egal was dabei raus kommt, der holt sich halt ne RDNA2 Karte. Wer einbauen und Ruhe haben will, nimmt halt ne Ampere Karte. Da kann man weniger umfangreich dran basteln, sie brauchen mehr Strom, aber sie sind für viele das rundere Paket. Wobei ich es ja aufgrund des Speicherausbaus eher eckig finde, aber sonst hab ich da keine Probleme mit. Schon alles verbaut gehabt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4to cka3al
Hier mal ein direkter Vergleich.
Ich habe meinen "Unterbau" aktualisiert und bin dabei von:

CPU AMD Ryzen 2700x + BCLK OC & UV
RAM 32GB (4 x 8GB) Crucial Ballistix 3200MHz SR + OC, Timings & UV
MB MSI B450m Mortar Max + UV
SSD 2TB Samsung 860 EVO @ SATA
NT BeQuiet! Pure Power 11 500W

auf:

CPU AMD Ryzen 5800x + UV & CO
RAM 32GB (2 x 16GB) Crucial Ballistix 3600MHz DR + OC, Timings & UV
MB MSI MAG B550m Mortar + UV
SSD 2TB Samsung 870 EVO @ SATA
NT BeQuiet! Straight Power 11 550W

gewechselt.
Beide Systeme waren in gesundem Maße ausgereizt und ich wollte so testen, ob man PCIe 4.0 gegenüber 3.0 in 3DMark spürt. Kurz gesagt: nein :D

Mit dem Profil für 2,6GHz performt die GPU fast identisch. Je nach Run gibt es mal mehr mal weniger Punkte, aber das ist immer nah beieinander. Nur die Gesamtpunktzahl steigt durch die stärkere CPU.

Wer also ein nach wie vor zügiges System von 2019 hat, kann wirklich mehr Wert auf die GPU als auf den Unterbau legen. Wenn aber das restliche System limitiert, ist der Leistungssprung wirklich mess- und spürbar. Natürlich ist das auch von der Anwendung, dem Spiel, abhänig. In 3DMark reicht das ehemalige System aber völlig aus um die GPU auszureizen.
Ergänzung ()

Just 4 Fun noch nen Firestrike durchlaufen lassen.
 

Anhänge

  • TimeSpy 2,6GHz detailed monitoring.png
    TimeSpy 2,6GHz detailed monitoring.png
    185,8 KB · Aufrufe: 325
  • TimeSpy 2,6GHz.png
    TimeSpy 2,6GHz.png
    783,3 KB · Aufrufe: 333
  • Firestrike 2,6.png
    Firestrike 2,6.png
    472,4 KB · Aufrufe: 349
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4to cka3al, ph0be und BacShea
Hier habe ich mich nach selbem Ansatz um eine 6600 XT gekümmert: https://www.computerbase.de/forum/threads/6600-xt-optimiert.2072126/

Es lohnt sich dort, den GoW Screenshot mal direkt mit dem zu vergleichen, den ich an diesen Beitrag anhänge.
Dann hat man nicht nur den Vergleich zwischen einer optimierten 6600 XT und einer die mit Standardeinstellungen läuft, sowie einer optimierten 6700 XT und einer die mit Standardeinstellungen läuft, sondern auch den Vergleich zwischen den beiden Karten.

Die Grafikeinstellungen waren natürlich identisch für diesen Vergleich. Der Effizienzgewinn ist bei beiden Karten schön, aber auf der 6700 XT einfach nur heftig.

Ganz krass ist wenn man die 95FPS bei 140W in WQHD auf der optimierten 6700 XT mit den 68FPS bei 127W in WQHD auf der standardmäßigen 6600 XT vergleicht. Die Karten trennen dann nur etwas mehr als 10W, aber ganze 27FPS. Insane.


Kleiner Hinweis noch zum Screenshot "Optimiert HD" von der 6700 XT: Die avg FPS sind da höher als der aktuelle Messwert, weil ich kurz zuvor im Charaktermenü war und die FPS dort viel höher als in der Testszene selbst sind. Der Screenshot war unmittelbar nach Verlassen dieses Menüs entstanden, womit die avg FPS die dort angezeigt werden nicht aussagekräftig sind. Bei den aktuellen FPS gab es aber keine Schwankungen, höchstens alle 20 Sekunden mal +- 1FPS. Insofern sind die dann schon valide.

GoW Vergleich 6700 XT.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pyro und BacShea
Leider bekomme ich das Profil,nicht mehr geladen.Wärst du so nett und erneuerst su deine Profile :)

Danke dir für deine Arbeit.
 
  • Gefällt mir
Reaktionen: der-Kalli
So sah es hier mit 1075 mV GPU Vcore aus. Ich habe noch nichts übertaktet und nur die Lüfterkurve angepasst, weil der gesamte PC jetzt schon bei 330 W ist. Die GPU selbst soll angeblich maximal 170 W ziehen laut Afterburner. Das kann eigentlich nicht stimmen, denn mein Brennenstuhl-Messgerät zeigt wie gesagt 330 W an, wovon die CPU sich maximal 80 W genehmigt. Board, Speicher, Platten und Peripherie ziehen nicht und nimmer noch mal 80 W. Der Monitor ist hier bereits rausgerechnet.
 

Anhänge

  • 3dmark13280.jpg
    3dmark13280.jpg
    228,2 KB · Aufrufe: 302
@downforze Warum nicht? Board, Speicher und Fans und SSD ziehen auch ihren Teil.

Lade dir doch HWINFO hier bei CB oder direkt beim Hersteller runter.
In dem Tool steht dann, was die übertaktete CPU plus dessen IOD/SOC verbrauchen.
Als Anhaltspunkt: meine CPU (5900X) nimmt "gerade" CPU Core Power ca 109W plus CPU SoC Power ca 19W.
1646167631013.png

Und dann mehrere SSD und Lüfter im Rechner = das läppert sich zusammen.

Und dein Netzteil hat ja keine 100% Effizienz.
Wenn das "Messgerät" 330W "anzeigt", die Effizienz vom Netzteil bei X% (PiMalDaumen geschätzt 90%) liegt, dann kurz selber rechnen und sich grob rantasten-> 330W/100*x=theoretischer Verbrauch der Teile im Rechner. Dann abzgl. CPU abzgl. SoC abzüglich GPU...
 
Zuletzt bearbeitet:
Volvo480 schrieb:
@downforze Warum nicht? Board, Speicher und Fans und SSD ziehen auch ihren Teil.
Ich messe normalerweise GPU und CPU und subtrahiere das dann vom Leistungsmesser, weil die Abweichung nur bei 0,2% liegt.
Kann sein, dass bei der CPU im Afterburner SOC nicht miteingerechnet wird. Dann kommt das mit AiO und den 3 x Ultracase und 4 Platten vielleicht doch hin.
Die 6700 XT zieht mir bei gelockten 60 fps trotzdem zu viel. Da sehe ich zu 80% ~ 170 W.
 
SkeLLetonDancer schrieb:
Kannst du mir bitte den Link zu deinen OC und UV versuchen für die vega 56 schicken? Ich komm bei meiner vega 64 einfach nicht weiter beim OC. Den Speicher hab ich stabil auf 1100 mhz aber bei der Gpu selber komme ich nicht weiter. Danke schonmal ;)
Darf ich fragen worauf du noch wartest und die Vega nicht verkaufst 😉
Für die kriegst garantiert 600€+ noch ein Schein hinzulegen und hast eine RX6700XT mit 70% Mehrleistung und sehr niedrigen TDP(Screenshot).
Die Strompreise steigen, Mining wird teurer die Vega günstiger, daher...
Moep89 schrieb:
Bei meiner 6900XT bin ich ähnlich vorgegangen, allerdings ohne MPT. Das brauche ich nicht, da Takt, Spannung und Lüfterkurve auch Wattman kann und mehr nicht nötig ist. Maximaltakt etwas runter, Spannung leicht absenken, RAM hochtakten und Lüfterkurve nach Geschmack anpassen und fertig. Statt 300W zieht meine Karte nun maximal 200W bei einstelligem Leistungsverlust.
200W mit 6900 🤦
Werde mit 250W überglücklich
 

Anhänge

  • Screenshot_20220306-032640.jpg
    Screenshot_20220306-032640.jpg
    356,8 KB · Aufrufe: 289
Firstdim schrieb:
Darf ich fragen worauf du noch wartest und die Vega nicht verkaufst 😉
Für die kriegst garantiert 600€+ noch ein Schein hinzulegen und hast eine RX6700XT mit 70% Mehrleistung und sehr niedrigen TDP(Screenshot).
Die Strompreise steigen, Mining wird teurer die Vega günstiger, daher...

200W mit 6900 🤦
Werde mit 250W überglücklich
Die Vega steht doch schon lange zum verkauf. Nur will sie niemand🤷. Hab leider nur den Wasserblock und keinen Luftkühler mehr.
 
  • Gefällt mir
Reaktionen: Firstdim
@SkeLLetonDancer
na, dann drücke ich dir die Daumen 👍
Keine Ahnung welche Hash Rate die 64-er hat.
Meine ging schnell über die Theke, habe mir auch Mühe bei der Bilder usw gegeben, das kann manchmal viel bringen.
 
  • Gefällt mir
Reaktionen: SkeLLetonDancer
Zurück
Oben