Test Radeon RX Vega 64/56: 6 BIOS-Power-Modi und Undervolting im Test

@ krautmaster

herzlichen glückwunsch zum 10000000 vega bash post in dieser ausfühlichkeit. kannst du dein amd gebashe vielleicht einmal aus einem vega betreffenden thema heraushalten? dann müssen die leute, die nicht nur zum haten auf cb kommen, nicht ständig so ein schmu lesen, wenn man sich über vega unterhalten und tipps und tricks austauschen will. das geweine über den grafikkartenmarkt und wie alles die schuld von amd ist, ist nicht nur nervig, sondern auch noch lächerlich. außer dir will das keiner mehr lesen und deine ansichten bezüglich vega = totgeburt kannst du mit anderen grünen fanboys in einer innigen runde weiter breittreten, aber bitte verschone uns hier mit dem gesabbel. schreib nen offenen brief an amd oder mach n kalender draus oder starte ein thema im bereich "nvidia grafikkarten" -> "warum ich vega voll kacke finde", da kann man dann in geschlossenheit schön vor sich herhaten, während man den leuten, die sich über vega freuen und gerne daran herumbasteln, nicht permanent und so penetrant auf den sack geht.


Edit: ah hier mit cookie_dent hast ja schon n gleichgesinnten, soll ich euch den thread aufmachen oder schafft ihrs selber?

@ baal:

ich würde zunächst zu buildzoid halten, ich denke er kennt sich exrem gut aus. es könnte zwar sein, dass er auch was übersehen hat, aber bisher hat er eine hohe trefferquote und seine errungenschaften als hardcore-ocler sprechen für sich. buildzoid erreicht in dem undervolting test mit der vega 64 einen firestrike extreme graphic score von ~11400 und liegt damit genau im schnitt von dem, was andere mit vega erreicht haben. cb liegt mit garnichts im schnitt - cb produziert mal wieder eigene ergebnisse.
 
Zuletzt bearbeitet:
@Krautmaster

100% erreicht, genau meine Meinung.

Es kann einfach nicht sein das der Endkunde derart viel einstellen und verändern muss nur weil es der Hersteller selbst nicht hinbekommt.
 
cookie_dent schrieb:
Für FHD braucht man sicherlich nichts oberhalb von GTX1060/RX580, es sei denn man muss unbedingt mit 200 FPS spielen.

Aber nur, wenn man schon mit 30 FPS zufrieden ist.

Mit meinem i7-4790k und der GTX 1070 bekomme ich bei vielen aktuellen Games keine 60 FPS bei maximaler Grafik @1080p. Da muß man schon einige Regler nach links schieben.
 
Man, warum verkackt eigentlich AMD jeden Grafik-Launch. Die machen ihre Produkte immer schlechter als sie sind.
Die hätten einfach 3 simple Modi ab Release anbieten sollen. Einen vernünftigen Stromsparmodus, einen Balanced-Modus, der auch wirklich balanced ist und einen Turbo-Modus, der auch wirklich Turbo ist. Dann den Testern vernünftig Zeit geben, so dass auch alle Modi getestet werden. Dann wäre das Fazit deutlich wohlwollender ausgefallen.

Klar ist AMD mit der Hardware einfach ein Stück zu lahm und man muss ans Limit gehen um konkurrenzfähig zu sein. Aber bei der 64 haben sie es übertrieben und es ging einfach zu sehr auf den Verbrauch. Gerade mit dem Ref-Design, was für >200 W einfach nicht ausgelegt ist, kann da nichts bei rum kommen.
Wer an einer 64 interessiert ist, muss eigentlich auf Custom-Modelle mit gescheiter Kühlung warten (oder eben WaKü). Für die 56 gilt eigentlich fast das gleiche. Ist aber nicht ganz so schlimm.
 
Hallo zusammen,

@ Krautmaster

Man versucht hier was zu verteidigen was mit Abstand die desaströseste GPU Entwicklung der letzten 10-20 Jahre war.

Wir wollen doch Fair Bleiben, nicht? Und da wären dann die ATI 2900XT auch noch zu Nennen, wenn es um desaströse GPU Entwicklungen geht :freak:. Ebenfalls mit dabei ist Nvidias Fermi.

Wann war bitte ne GPU Serie (GTX 1070 / 1080) fast 2 Jahre aktuell?

Das dürfte bei der Nvidia 8800 GTX / 8800 GTS 640 der Fall gewesen sein. Ersterer in jedem Fall.

Wobei ich aber sonstig in deinem Resümee zu Vega völlig bei dir bin.

@ duskstalker

Was bitte regst du dich auf? Er hat im Großen und Ganzen völlig Recht. Ansonsten weise ich darauf hin, daß wir hier in Deutschland sind, solange man sich nicht Persönlich agitierend hervor tut, kann hier jeder seine Meinung Sagen.

So long....
 
Zuletzt bearbeitet:
ich habe eben ein paar firestrike durchläufe gemacht und teile mal die ergebnisse:

im balanced profil:
balanced.png

GPU 1642MHz@1050mV/HBM 1050/PT 0%:
OC+UV+rpm mem1050 0pt.png

GPU 1642MHz@1050mV/HBM 1050/PT 50%:
OC+UV+rpm mem1050 50pt.png

so einen riesen unterschied zwischen PT 0% und PT 50% ist gar nicht vorhanden bei mir, was leistung und benötigte energie angeht. zumindest nach dem was HWinfo ausspuckt, habe nichts hier um den realverbrauch zu messen.


und dieser lief mit P6&P7@1642MHz und sonst nix verändert:
1642 1642.png

Buildzoid liegt da ganz richtig, Vega verliert viel power bei gleichen states .. zumindest im 3dmark. das verhalten des HBMs ist dann völlig willkürlich, bei den graphicstests liegen nur 800MHz an und im combined 167MHz. wobei ich da anmerken muss, dass es erst seit dem neusten treiber so ist. mit dem 17.8er habe ich auch immer beide states gleich eingestellt und die ergebnisse passten. mit dem 17.9er war erst mal ein großes "?" bei mir ^^
 
Zuletzt bearbeitet:
Ich habe mir nicht alle Posts durchgelesen, daher hoffe ich, dass das noch niemand geschrieben hat:

Kann es sein, dass die Minimalspannungen von 950mV bei V56 bzw 1050mV bei V64 etwas mit der Spannung für den Speichercontroller zu haben? Bei der 470/480 war es zumindest so, dass man bei den einzelnen States zwar Spannungen unter 1000mV reinschreiben konnte, allerdings beim übernehmen immer auf 1000mV hochgesetzt wurde. Mit Ausnahme natürlich die Default-Spannungen, die bereits unter 1000mV lagen. Jetzt kommt es aber: Wenn man den Speichercontroller manuell undervoltet hat - z.B. auf 900mV - dann konnte man auch bei der GPU-Spannungen Werte bis runter zu 900mV eintragen, die laut Wattman und GPU-Z auch so übernommen werden.
 
es ist nur in der anwendung des wattmans das selbe, der HBM ist fest auf 1,35V getackert. evtl. mit editieren der registry kann das verändert werden, aber an den HBM traue ich mich nicht ran :)

aber ansonsten, ja. speichercontroller runter und die GPU geht ebenfalls niedriger.
 
duskstalker schrieb:
ja du kannst das bios der LC vega auf die normale flashen, dann hast du ein höheres maximales PT, allerdings hat die liquid auch ein niedrigeres temperaturtarget - mit einem custom loop ist das aber kein problem.

vega 64 bios auf 56 flashen geht auch. shader / rops werden dabei aber nicht freigeschaltet, aber die hbm voltage wird auf 1.35v angehoben, damit lässt sich der speicher auf der 56 vermuitlich auch richtung 1050 - 1100mhz übertakten.

Schließe mich duststalker an: Biosflash auf das LC-Bios geht problemlos (64er) und bringt nochmal 50W PT. Ich komme damit bis jetzt im CustomLoop unter Stresstestbedingungen auf max. 40 Grad Tcore und gut 1,7 GHz Coretakt stabil (mit 17.9.1, laut Wattmann, Superposition und GPU-Z, Frametimes außen vor). Das ist der Leistungsbereich einer guten custom-/OC-1080er für gut 600,-€. Unter Superposition extreme fallen dann sogar die ersten Ti. :evillol:

Viel Spaß beim Tunen und viel Glück bei der Siliziumlotterie.;)
 
Zuletzt bearbeitet:
C.J. schrieb:
Wenn man den Speichercontroller manuell undervoltet hat - z.B. auf 900mV - dann konnte man auch bei der GPU-Spannungen Werte bis runter zu 900mV eintragen, die laut Wattman und GPU-Z auch so übernommen werden.

Den Fehler hat Wattman seit er existiert :D

Speichercontroller Spannung = min. GPU Spannung.

WENN man Wattman zum Undervolting verwendet, was eine katastrophale Idee ist :D

Wattman und UV haben mich schon oft verrückt gemacht zumal meine GPU eine Spannung von 955 mV-960mV mitmacht, aber der Speichercontroller bei 975 mV läuft und entsprechende weitere UV Versuche weder die Temperatur noch die Leistungsaufnahme senken. Dazu kommt noch, dass bei RX480er ab dem 17.7.2 Treiber scheinbar willkürliche Spannungen anliegen ^^

Nur mit Afterburner konnte ich mithilfe erzwungener konstanter Spannung die 955 mV erreichen so dass diese auch angenommen wurden und in einer niedrigeren Temperatur und Verbrauch resultieren ^^
 
Dark Matter schrieb:
Aber nur, wenn man schon mit 30 FPS zufrieden ist.

Mit meinem i7-4790k und der GTX 1070 bekomme ich bei vielen aktuellen Games keine 60 FPS bei maximaler Grafik @1080p. Da muß man schon einige Regler nach links schieben.

Dann muss meine alte RX480 ein sehr gutes Exemplar gewesen sein und Deine 1070 eine Gurke, mit der RX war ich fast immer bei 60 FPS - meistens sogar mehr.
 
warte sehnsüchtigst auf den eiswolf, dann hat sich das mit den temps auch erledigt bei mir und es kann mal in die andere richtung mit dem testen gehen :)

@aivazi

bei mir funktioniert wattman mittlerweile, werte werden doch alle übernommen. bei eingestellten 1050mV lagen 1031mV an laut HWinfo .. also läuft doch ^^
 
Zuletzt bearbeitet:
Alienate.Me schrieb:
ich habe eben ein paar firestrike durchläufe gemacht und teile mal die ergebnisse:

danke :D hättest du vielleicht noch einen extreme run? buildzoid hat leider nur extreme gebencht :(

das verhalten vom HBM bei den powerstates hatte ich so garnicht auf dem schirm. aber wenn bei CB der hbm auch so wild hoch und runter getaktet hat, sollte CB die benchmarks nochmal neu machen. MIT hbm OC, wenn man schon dabei ist.
 
dfhbsgh.jpg

Vega 56 & 3770K@Stock
 
Taxxor schrieb:
Nach dem Test von Luxx stünde eine 56er nach UV einer 64er aber nur noch 3% nach, bei gleichzeitig 100W weniger Stromverbrauch

Wenn das so ist dann ist die 64 überflüssig. Dann nimm doch die 56.
 
bensen schrieb:
Man, warum verkackt eigentlich AMD jeden Grafik-Launch. Die machen ihre Produkte immer schlechter als sie sind.

Was hat den AMD bei den kleineren Modellen verkackt?
 
Alienate.Me schrieb:
@aivazi

bei mir funktioniert wattman mittlerweile, werte werden doch alle übernommen. bei eingestellten 1050mV lagen 1031mV an laut HWinfo .. also läuft doch ^^

Wenn die 1050 mV der GPU der Speichercontroller Spannung entsprechen, dann habe ich keine Zweifel daran.

Das Problem ist es weiter runter zu Undervolten.

Wenn die Speicher Controller Spannung zB. 1V entspricht kommt die GPU auch nicht unter 1 Volt, auch wenn du um es extrem darzustellen bei der GPU Spannung nur 20 mV eintragen würdest.

Das Problem hat Wattman seit Ewigkeiten, sonst würde ich mich nicht darüber aufregen ^^

Entsprechend kommt auch die "Falschaussage" von CB Zustande, dass Vega 64 nicht unter 1050 mV und die Vega 56 unter 950 mV kann.

Das müssten schlicht die Spannungen der Speichercontroller der jeweiligen Chips sein^^

@Lübke82: Geh wieder mit deiner TI spielen, wenn du das Potential der Vegas nicht anerkennst, wenn man diese optimiert, dann ist das nicht mein Problem.
Es gibt im OC Thread genug Nutzer die ihren Vegas dieses Potential entlockt haben.
 
Zuletzt bearbeitet:
wohlgemerkt bei einem Verbrauch zwischen GTX 1070-1080 @ Stockn bei dem Preis einer GTX 1070 und der Leistung einer GTX 1080...

Lübke82 schrieb:
Was sich hier wieder welche zusammenträumen...unglaublich.^^

Was hat das mit träumen zu tun?

https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html

Vega56 (sofern man sie mal wieder für 400€ bekommt) mit Undervolting, HBM OC und PT +50% liegt nahezu gleichauf mit der GTX1080FE.

Gesamtsystemverbrauch
GTX1070: 305W
Vega56UV: 321W
GTX1080: 333W
 
Zuletzt bearbeitet:
Zurück
Oben