AMD VEGA 64&56 Erfahrungsthread

Neuer Treiber 17.8.2.

Radeon Software Crimson ReLive Edition 17.8.2 Highlights

Support For

F1™ 2017
Up to 4% performance improvement measured on Radeon RX Vega 64 graphics when compared to Radeon Software Crimson ReLive edition 17.8.1(1)
PLAYERUNKNOWN'S BATTLEGROUNDS™ Early Access
Up to 18% performance improvement measured on Radeon RX Vega 64 graphics when compared to Radeon Software Crimson ReLive edition 17.8.1(2)
Destiny™ 2 Beta

Fixed Issues

Display may blank or go black after install upgrade with Radeon RX Vega Series graphics products.
Random corruption may appear in Microsoft desktop productivity applications on Radeon RX Vega series graphics products.
The "Reset" option in Radeon Settings Gaming tab may enable the "HBCC Memory Segment" feature instead of setting it to the default disabled state.
Radeon WattMan may not reach applied overclock states on Radeon RX Vega series graphics.
Unable to create Eyefinity configurations through the Eyefinity Advanced Setup option.

Known Issues

Mouse stuttering may be observed on some Radeon RX graphics products when Radeon WattMan is open and running in the background or other third party GPU information polling apps are running in the background.
GPU Scaling may fail to work on some DirectX®11 applications.
Windows Media Player may experience an application hang during video playback if Radeon ReLive is actively recording desktop.
Secondary displays may show corruption or green screen when the display/system enters sleep or hibernate with content playing.
After resuming from sleep and playing back video content the system may become unresponsive on Radeon RX Vega series graphics products.
Bezel compensation in mixed mode Eyefinity cannot be applied.
 
So wie ich das jetzt sehe anhand vom UHD Benchmark packt sie die GTX 1080 in 4K, hier wahscheinlich auch überwiegend dann in Spielen. In niedrigeren Auflösungen kann sich die 1080 wahrscheinlich wieder besser in Szene setzen. Ist man ja von AMD (ATI) gewohnt das sie in höheren Auflösungen mehr Puste haben...

Zur 1080 TI fehlt es dann hingegen leider schon ein ordentliches Stück auch in 4K.. Wäre uns bestimmt zu Gute gekommen wenn die Vega noch etwas mehr Dampf hätte..
Vielleicht wird´s ja noch durch etwas bessere Treiber... Wäre schön mal wieder etwas Konkurrenzkampf zu haben zwischen den beiden (Rot und Grün)... Belebt die Preise meistens in eine gute Richtung :D
 
Zuletzt bearbeitet:
Die 6100 Punkte 4K GPu Score sind allerdings von Kabelkasper mit 1700/1100 Mhz gemacht worden und das sicherlich bei PT+50%. Das Ding zieht dann sicher doppelt soviel wie die 1080 aus der Dose.

Potential ist defintiv vorhanden, nur diese Energieffizienz...
 
PanzerHase schrieb:
Was sagt ihr dazu?

Ich frage mich bei sowas nur noch: warum? Warum tut AMD uns und sich selber sowas an? Warum zum Geier keine einheitliche Fertigung? Da hab ich schon keine Lust mehr, eine V56 zu kaufen und unter Wasser zu setzen.
 
@PanzerHase: Hast Du noch die beiden Vegas? Wie gut skaliert hier Crossfire?
Ergänzung ()

@PanzerHase: Hast Du noch die beiden Vegas? Wie gut skaliert hier Crossfire?
 
Forschung und Entwicklung in jedem Bereich, auch im Chipdesign und in der Treiberentwicklung, ist kein Balken aus nem RTS Game, der mit der Anzahl der Forscher/Mitarbeiter schneller von 0% auf 100% springt. Vielleicht hat Nvidia gerade die besseren Leute, vielleicht fehlte den AMD Ingenieuren die zündende Idee für eine Problemlösung, vielleicht hatten sie eine gute Idee, die jetzt in der Praxis leider nicht funktioniert, wie vermutet. Vielleicht ist Vega aber auch der Knaller aber die Softwareentwickler für Treiber sind schlecht in Mathe :) Wir hoffen auf letzteres und warten ab.

HerrRossi schrieb:
Ich frage mich bei sowas nur noch: warum? Warum tut AMD uns und sich selber sowas an? Warum zum Geier keine einheitliche Fertigung?
Die Antwort ist ganz einfach, AMD hat keine eigenen Fertigungsanlagen und muss solche Jobs auslagern. Jetzt haben sie 3 Zulieferer, die im Zweifel aus technischen Gründen das GPU Package nicht im selben Format fertigen können. Wäre es von einem Fertiger einheitlich gewesen, hätten wir vielleicht nur 1/3 der Karten auf dem Markt, die jetzt schon sehr rar sind.
Wer den ganzen Artikel gelesen hat (auch beim Toms Hardware), kennt AMDs offizielles Statement, dass diese kleine Unebenheit mit etwas mehr Wärmeleitpaste brauchbar überbrückt werden kann, zumal der Speicher nicht der Haupthitzkopf auf der Platine ist. Als ich bei EKWB nachgefragt habe wegen des Wasserkühlers haben sie mir ebenfalls zugesichert keine Bedenken haben zu müssen.

Jammern hilft nicht und das hier ist auch nicht der richtige Thread dafür. Wem das zu blöde ist, kauft halt was anderes. Gibt doch genug Auswahl auch am grünen Ufer ;)
 
Was in der Liste auch praktisch wäre, wäre die Spannungsaufnahme des Gesamtsystems (Wenn man über das Equipment verfügt) um die Streuung des undervoltings einschränken zu können, welche Werte man im Schnitt erwarten kann.
 
Ich habe zwei in ver. Shops bestellt da ich damit gerechnet gabe das die sehr schnell vergriffen sein werden. Eine davon ist bei mir, die andere hat keinen Liefertermin. Laut Hersteller sollte sich das in der nächsten Woche aber klären.
Wenn ich die zweite Karte habe (ist eine Limited deren Backplate ich sehr viel besser in mein System integrieren könnte) werde ich mal CF testen wovon ich mir aber nicht so viel verspreche.
D.h. ich hätte dann auch eine Karte zum Kaufpreis abzugeben. Der war 609€ :P Ob ich die Limited oder die Black abgebe kann ich aber erst nach Begutachtung sagen.

Die Liste werde ich abändern.
Einmal Verbrauch GPU pur
Einmal Delta Stock zu UV
Also packt eure Werte schon mal in eure Posts rein dann kann ich das evtl. Morgen fertig machen.
Die Liste werde ich dann als Screenshot einfügen und auch zum Download bereitstellen. Evtl. wäre auch sowas wie Google docs praktisch damit man selber eintragen kann?
 
Zuletzt bearbeitet von einem Moderator:
bin seit gestern auch besitzer einer vega 64 und mit dem releasetreiber hat testen überhaupt keinen sinn gemacht. 5 3dmark durchläufe mit den selben setting gaben bis zu 1000pkt unterschied. mit dem heutigen treiber sieht das schon anders aus, aber wirklich vertrauen darauf, dass die werte des wattman angenommen werden kann man ja auch nicht. habe kein messgerät und kann die gesamtleistung meines systems nicht messen und kann nur anhand der stabileren taktraten bei 100%PT feststellen, dass UV funktioniert. wirklich schlüssig ist mir das gesamte verhalten dennoch nicht.

ich war es bisher gewohnt, dass wenn nichts mehr geht bildfehler kommen oder treiber/gesamter PC abstürzt. bei vega ist das jetzt nicht so. 1632Mhz bei 1050mv (bei 1000mv verschlechtern sich die werte wieder) im wattman eingestellt kommen (gehe erst mal immer von 100%PT aus) kommen 1540-1580Mhz im 3DMark an. stelle ich auf 1682Mhz bei 1050mv kommen bis zu 1624Mhz im 3DMark an. erhöhe ich das PT kommt natürlich mehr an, aber ich verstehe nicht was Vega da macht? erhöht der chip selbst die voltage wie er es benötigt für einen stabilen betrieb, auch ohne das PT anzuheben? bzw. wieso habe ich höhere stabile taktraten bei 1050mv mit 1682Mhz statt 1632Mhz, obwohl auch bei 1682Mhz nur 1624Mhz max erreicht wurden?

kann man die karte noch dazu bringen fehler zu produzieren, wenn sie eh taktet wie es ihr passt?
 
Zuletzt bearbeitet:
Normalerweise sollten Fehler schon reproduzierbar sein. GPU, Vram, Shader erzeugen bei zu hohem Takt oder zu wenig Spannung unterschiedliche Formen von Bildfehlern. Von Schachtbrett, Dreiecke, Flackern im Bild kann da alles vorkommen. Das ist auch heute immer noch so auch wenn wir mittlerweile im Boostzeitalter sind.

Bei zu hohem GPU-Takt gibts meistens immer wieder so aufplopende rote Punkte im Bild... Ist bei mir auch so...

Die GPU hält sich an die Werte was im Bios hinterlegt ist und je nach dem boostet die Karte mit den entsprechenden Werten. Das PT sowie die Temperatur sind Faktoren die mehr oder weniger stark drosseln je nach Custommodell. Die Chipgüte spielt auch eine Rolle wie hoch (maximal) eine GPU takten bzw boosten kann.

Kennt man ja von Nvidia bei Pascal. Temperaturlimit und Powertarget spielen hier eine sehr große Rolle. AMD scheint hier aber noch etwas empfindlicher zu arbeiten.

Hier mit dem Originalkühler drosselt die Karte sofort wenn sie ins Spiel kommt, nur im Menu taktet sie voll:
PC Gameshardware Booststeps

Wenn du jetzt im Afterburner zum Beispiel mehr GPU-Takt einstellst hält sich die Karte an höhere Booststeps, ich nenne es mal die "Boosttabelle" sieht dann anders aus bzw hat höhere Werte. Hoffe man versteht was ich meine. Das die Karte im Takt fällt kannst du fast nicht verhindern. Wasserkühler und extrem hohes PT helfen hier dann meistens weiter um den höchsten Boosttakt fahren zu können auch mit OC.

Bin zwar kein Vega Experte aber im Großen und Ganzen sollte es wie bei Pascal sein...
 
Zuletzt bearbeitet:
Das konnte ich mit dem aktuellen Treiber auch beobachten. Die Frequenz schwankt immer um wenige Mhz, so als ob der Wert "echter" wäre als noch mit 17.8.1. Allerdings kommen bei eingestellten 1602 Mhz maximal 1540 MHz raus, unabhängig vom Power Target.

Das die Karte im Takt fällt kannst du fast nicht verhindern.

Mit der VEGA geht das halt gut mit Undervolting.

EDIT: Ach das ist ja interessant. In einigen Reviews habe ich gelesen VEGA würde sich im Idle bis 29 Mhz runtertakten. Mit 17.8.1 war sie bei mir immer minimal auf 854 Mhz. Mit den neuen Treiber geht sie nun runter bis 26-30 Mhz. Kann natürlich auch sein, dass es bisher eine Falschanzeige war.
 
Zuletzt bearbeitet:
Mit der Taktanzeige scheint es sich ja gebessert zu haben, aber die Spannungsregulierung ist wieder das totale Chaos bei mir :D
Der Verbrauch und auch der mögliche Takt (+15% Power, 1,125V) haben mit dem 17.8.1 noch wirklich einen Unterschied an der Steckdose gemacht, den 17.8.2 Treiber lässt die Spannungsregulation irgendwie kalt, was Stromverbrauch angeht, es ändert sich nichts :)

EDIT: Ok... in anderen Testszenarios lässt sich ein Unterschied feststellen. Es ist aber immer noch sehr wage, mit welchen Settings meine Karte wirklich stabil läuft und wann der WattMan für einen Freeze verantwortlich ist. Manchmal rennt die Karte mit 1,125V problemlos stundenlang durch Benchmarks, manchmal stürzt sie ab, wenn ich die Werte setze bzw. ist abgestürzt nach ner halben Stunde als ich manuell den Lüfter hochgeschraubt habe. Die Leistung reicht mir gerade sogar im PowerSave Modus aus, vielleicht warte ich noch etwas und teste nicht wieder jeden Treiber einzeln durch... wobei dafür bin ich dann doch wieder zu neugierig ;)
 
Zuletzt bearbeitet:
Naja, 1,125 ist ja nun auch kaum weniger als Stock, die 1,2V aus P7 liegen ja mit PT+15% fast nie an.
Das du da keinen Unterschied siehst zu den Stock 1,15V im P6 wundert mich jetzt nicht.
 
@cvzone: Naja mit dem alten Treiber war es im selben Test gestern noch ein Unterschied von 30-40 Watt in den Lastspitzen. Der P6 steht bei mir erst mal auf 1,1V.
 
Witcher 3 / 1440p / max. Quality (Hairworks off)

Vega 64 LC Stock----------------------------------------------------------------GTX 1080 TI OC Stock
AVG FPS 88----------------------------------------------------------------------AVG FPS 95
Verbrauch 490W - 510W--------------------------------------------------------Verbrauch 340W - 355W

Vega 64 LC Stock PT +50------------------------------------------------------GTX 1080 TI OC Stock PT +20
AVG FPS 92---------------------------------------------------------------------AVG FPS 97
Verbrauch 520W - 540W-------------------------------------------------------Verbrauch 350W - 360W

Vega 64 LC Stock PT +50 -100mv HBM2 @ 1045 ---------------------------GTX 1080 TI OC Stock PT +20 0,925mv (mittels Curve eingestellt) GDDR5X @ 6000
AVG FPS 97---------------------------------------------------------------------AVG FPS 106
Verbrauch 370W - 388W-------------------------------------------------------Verbrauch 310W - 335W

Vega 64 LC 1600 MHZ PT +50 -150mv HBM2 @ 1045-----------------------GTX 1080 TI @ 1635 MHZ PT +20 0,850mv (mittels Curve eingestellt) GDDR5X @ 6000
AVG FPS 93---------------------------------------------------------------------AVG FPS 89
Verbrauch 340W - 355W-------------------------------------------------------Verbrauch 265W - 277W


Ich muss sagen, die Vega 64 Karte schlägt sich eigentlich gut gegen die TI. Wer sich jetzt wundert warum die Vega 64 LC so nah an die TI rankommt, mit +50 PT taktet die Karte durchgehend mit 1752 MHZ. Die TI OC taktet ab Werk mit 1924 MHZ und mit PT +20 mit 1945 MHZ.
Eine stark undervoltete Vega 64 kann eine Referenz TI (1635 MHZ ist halt nicht viel) schon schlagen, gut die Vega Karte braucht da immer noch mehr, liefert aber auch mehr FPS.
Getestet habe ich Witcher 3 noch nicht mit dem neuen Treiber.
 
Ich hab meine XFX 64 EK kühler ca 40° jetzt mit 1750 mhz und HBM 1050 mhz ohne drops hinbekommen mit dem tool. pstat 6 auf 1070 Volt. powerlimit+ 20%
Die karte braucht so ziemlich genau 100 watt gesamtsystem gemessen weniger als mit stock einstellung.
Da schlägt sie in The Division 4k zb. eine 1080 OC 2 Ghz und wird von einer stock TI nicht weit weg sein.
Kommt halt immer auf die Games an.
 
Zuletzt bearbeitet:
@rico007:

Also brauch deine Vega 64 Stock VS. UV 150 Watt weniger, bei 5 % mehr Leistung als eine TI FE und Stock Liquid ? :D

Da soll mal noch einer kommen und sagen, dass AMD mit Absicht ein "selektiertes" Modell weitergeleitet haben soll, als konnte man davor nie undervolten....

Wie schaut es eigentlich mit den Temperaturen aus, bei Stock vs. UV also zwischen deinem ersten und letzten Wert^^
 
Zuletzt bearbeitet:
Zurück
Oben