AMD VEGA 64&56 Erfahrungsthread

Bei eingestellten 990 mV für P6 und P7 habe ich bei 1485Mhz gelegen. Vielleicht ist meine Karte einfach schlechter als Deine, aber die volle Kontrolle kriegt man ja nicht mehr drüber dank dieses Features, das Frequenz und Spannung selbst auslotet für bessere Effizienz und Stabilität.
 
Bei 1600 eingestellt? Das macht meine Karte unter 1050mV gar nicht erst mit^^
 
Also ich merke keinen Unterschied zum 17.9.2 hinsichtlich Performance. Nur, dass 3D Mark bei mir nun auch mit Stocksettings zum Systemhänger führt. Unigine Superposition läuft Problemlos.
Was liest ihr denn an Spannungen aus?

Ich habe im P7 1542 MHz @ 905 mV und P6 1522 MHz @ 900 mV eingestellt, die Karte läuft dann mit 1405-1425 MHz und zieht bei Unigine Superposition 150 W GPU-only und im Timespy 135 W. Die ausgelesenen Spannungen sind dabei zwischen 865 mV und 885 mV (den Speichercontroller habe ich auf 900 mV eingestellt). Meine Karte kommt mir nicht unbedingt als Golden Sample vor, ich denke du könntest evtl. ähnliche Werte einstellen @ Rage.
 
150W GPU Only entspricht bei mir ca 300W Systemverbrauch, der Rest der Karte verbraucht ja auch noch mal gut 50W.

905mV bei 1542Mhz sind doch schon sehr gut, viele Tester kamen erst gar nicht unter 950mV, meine Karte ist bei 950mV und 1522 schon nicht mehr stabil.

Bei den Spannungen verhält es sich bei mir genau wie mit dem Takt, sie liegen immer ziemlich genau 50mV unter dem was ich eingestellt habe, also 1000mV waren immer 0,95V und 1030mV waren immer 0,98V.
Im Fall von 975mV die ich jetzt nutze habe ich in Spielen meist 0,933V in der Anzeige stehen. Je niedriger man runtergeht, desto weniger wird die Differenz, bei dir sind es ja nur noch 30-35mV Unterschied.


Aber ich habe eben auch mal den Test gemacht und 1422@950 gegen 1522@975 getestet, real waren es dann 1370 gegen 1470Mhz und das hat im 3DMark einen Unterschied von 6% ausgemacht. Also diese 6% sind mir die 335W statt 310W wert.
Bei 1400Mhz scheint auch definitiv der Sweetspot zu liegen, denn darüber hinaus verbessert sich nicht mehr viel.

1270Mhz brachten im ersten 3DMark Test 88fps(Stock, 310W)
1370Mhz kamen auf 100fps (950mV, 310W)
1470Mhz kamen auf 106fps (975mV, 335W)
1570Mhz kamen auf 109fps (1050mV, 390W)
Alle Ergebnisse mit HBM auf 980Mhz

Nicht mal ganz 3% mehr für eine dann benötigte Spannung von 1050mV und einen Verbrauch von 390W zu 335W ist nicht mehr rentabel.
 
Zuletzt bearbeitet:
Taxxor schrieb:
1270Mhz brachten im ersten 3DMark Test 88fps(Stock, 310W)
1370Mhz kamen auf 100fps (950mV, 310W)
1470Mhz kamen auf 106fps (975mV, 335W)
1570Mhz kamen auf 109fps (1050mV, 390W)

Echt seltsam wie dieser Chip mit dem Takt skaliert. Die Fury konnte nicht mit der steigenden Zahl an Cores skalieren, hier ist es auch noch so extrem beim Takt. GCN gehört langsam begraben und durch etwas besseres ersetzt. Die haben lange genug dran rumgedoktert.
 
Der Speicher geht nicht höher als 980Mhz und selbst das ist schon ne Menge von den 800Mhz Stock Takt.

In dem Bereich ist er auch für gute 5% der Steigerung verantwortlich. Mit dem 64er Bios bekam ich ihn auch auf 1100, aber da flacht die Kurve auch stark ab, zwischen 980 und 1100Mhz HBM Takt war dann bei ansonsten gleichen Einstellungen noch ein Plus von 2%.


So extrem finde ich die Taktskalierung gar nicht. Von 1370 auf 1570 sind es 14% mehr Takt, entspricht 9% mehr Leistung, das empfinde ich doch eigentlich als ziemlich normal.
 
Zuletzt bearbeitet:
Durch viel rumtesterei hab ich mittlerweile feststellen können, das die Vega 56 ab 50° anfängt runter zu takten. Das heisst wenn man wirklich das maximale rausholen möchte, müsste man die Temperatur immer unter 50° halten mit einer Kühllösung.
Mal gucken was die Vega customs leisten können ^^
 
Quark. Wie kommt man auf den Schluss? Wie hält dann meine Karte den Takt trotz 79 Grad?
 
smon2k schrieb:
Durch viel rumtesterei hab ich mittlerweile feststellen können, das die Vega 56 ab 50° anfängt runter zu takten. Das heisst wenn man wirklich das maximale rausholen möchte, müsste man die Temperatur immer unter 50° halten mit einer Kühllösung.
Mal gucken was die Vega customs leisten können ^^
Quatsch!
 
Bild.jpg
 
Und Nekro, hast Du 1487 Mhz im Treiber eingestellt? Was gemeint war, war, dass der Boost reduziert wird wenn die Grafikkarte wärmer als 50° C wird, das Gegenteil zeigst Du mit Deinem Screenshot nicht.
 
Rage schrieb:
Und Nekro, hast Du 1487 Mhz im Treiber eingestellt? Was gemeint war, war, dass der Boost reduziert wird wenn die Grafikkarte wärmer als 50° C wird, das Gegenteil zeigst Du mit Deinem Screenshot nicht.
Ich hab 1020mV eingestellt sonst nix also reines UV. Ich kann dir such einen Screen mit 49Grad machen, nach 10 Sekunden. Die Hitze schellt schnell nach oben.
 
Und jetzt möchte ich anhand meiner Screenshots nochmal den Zusammenhang von GPU Temperatur und Takt wissen. Danke.

ROTTR_2017_10_03_19_57_50_953.jpgRotTR AB.png

Den Takt drosseln lässt bei mir maßgeblich die HBM Temperatur.

ROTTR_2017_10_03_19_58_42_992.jpg

Was man aber auch bei PCGH schon festgestellt hat: http://www.pcgameshardware.de/Radeo...cials/Fragen-Antworten-Vega-56-10-1235968/#a5
Bei meinem ersten Screenshot sieht man, wie ohne erkennbaren Grund die FPS leicht fallen. Dieses setzt wohl mit 85° HBM Temperatur ein: "Die Mining-Leistung lag Anfangs bei 35,9 MH/s und blieb dort, solange die angezeigte HBM2-Temperatur unterhalb von 85 °C verweilte. Ab 85 bis hinauf zu 95 °C sank die Performance schrittweise zunächst auf 34,9, dann auf 33,3 und auf 32,8 MH/s, um beim Erreichen der 95-Grad-Celsius-Marke dann auf 29,7 MH/s abzufallen."

Betrifft zwar im Prinzip Mining, aber ich denke dass sich intern irgendwelche Latenzen ändern oder dergleichen.
 
Zuletzt bearbeitet:
Ein paar MHz weniger beobachte ich bei mir jedenfalls auch, sobald die Karte 60 °C warm ist. Statt ~ 1492 MHz in Battlefield 1 sinds dann eher so 1474-1485.
 
Zurück
Oben