AMD VEGA 64&56 Erfahrungsthread

An der Temperatur ändert sich wenig, da ich die Zieltemperatur nicht geändert habe.
Der Lüfter dreht halt langsamer und versucht dann die Temperatur von 58° zu halten (ab und an schwankt es auf 60°). Wenn ich den Lüfter auf 50% stelle, dann hat die Karte max. 51°, was für einen Single Radiator schon gut ist.
 
Bei dem neuen treiber werden mir jetzt im wattman nur 26hz idletakt angezeigt.
Wohl wieder ein neuer bug.
 
Zuletzt bearbeitet:
Ob man an die TI ran kommt in Zukunft keine Ahnung, wäre aber schön wenns so werden würde. Die Grafikkartenpreise würden wahrscheinlich endlich mal wieder etwas sinken. Hier ein Score meiner TI im UHD zum Vergleich... : ;)

Schon noch etwas entfernt würde ich sagen, leider:
UHD Firestrike.jpg

Schätze die Vega wird sich Final irgendwo zwischen der TI und der normalen 1080 einordnen...
 
Zuletzt bearbeitet:
Mit welchen Taktraten betreibst du die TI?
 
Beim zocken hab ich 1974 Mhz, einsteigen tut sie bei ca. 2Ghz. Durch die Temperatur fällt sie auf 1,974 Ghz. Den Speichertakt habe ich auf 5700 gesetzt. Im Benchmark war es ein bisschen höher...
 
@VAN DOOM

so weit ist mir das auch klar. ich lasse den lüfter beim testen auch mit 100% laufen um dem temptarget zu entgehen. vlt. ist mein unverständnis auch damit begründet, dass es noch nicht läuft wie es soll. ich verstehe halt nicht wieso bei 1050mv und 100%PT bei eingestelltn 1682Mhz mit 1620Mhz geboostet wird und bei eingestellten 1632Mhz mit 1580Mhz geboostet wird. sollte die karte dann nicht auch bei eingestellten 1632Mhz mit 1620Mhz boosten können? oder liegt da mein denkfehler?

zumindest wäre meine logik dahinter, dass es für die eingestellte spannung einen taktspielraum gibt und dieser, bei einem dynamischen boost, unabhängig vom eingestellten maximal takt ist. also die karte merkt wenn sie instabil wird und runtertaktet. wäre in meinem fall bei 1580Mhz schluss bei 1050mv und 100%PT egal ob ich 1682Mhz oder 1632Mhz einstelle würde ich es verstehen. aber das er bei 1682Mhz auf 1620Mhz boostet verstehe ich halt nicht, das sollte er ja auch bei eingestellten 1632Mhz können.
 
Das muss ein Bug sein. Diese Taktdifferenz (die bei mir auch auftritt) gibt es erst seit dem neuen Treiber.
 
Zuletzt bearbeitet:
Eine Karte merkt das nicht ob sie instabil wird oder nicht. Wäre aber schön. +1000 GPU Takt eingestellt und die Karte kennt ihre Grenze selbst und man spart sich das ausloten von Max-OC. :D Sie hält sich also an das was man ihr vor gibt. Packt sie den Takt nicht gibt´s Bildfehler oder Absturz... Das Temptarget ist meistens sehr streng. Alle paar Grad senkt zum Beispiel meine Karte den Takt und die Spannung (Boosttakt). Für maximalen Boosttakt also um das Temperaturlimit aus zu hebeln müsste ich so bei ca 40 ° bzw eigentlich unter 40° bleiben... Schafft nur eine sehr sehr gute Wakü...

Das Ganze bei dir könnte wie gesagt durchaus auch ein Treiberfehler sein, also gewisse Kinderkrankheiten (z.B. ein Bug) wie cvzone sagt. Die Karte ist ja noch ganz am Anfang. Im Treiber selber gibt´s ja auch noch gewisse Einstellungen. Bei mir optimale Leistung, adaptiv und maximale Leistung bevorzugen. All das sind Faktoren wo was schon mal durcheinander kommen kann wenn der Treiber verbugged ist.
Ich weiß nicht wie das im AMD Treiber aussieht ob es da auch so eine Einstellung gibt. Eventuell mal probieren hier was umzustellen im Energieverwaltungsmodus wenn vorhanden und prüfen was die Karte dann macht.

Finde den ganzen Boostkrams ohnehin nicht so sonderlich toll aber damit müssen wir uns leider rum schlagen egal ob rotes oder grünes Lager.

Leider hab ich keine Vega damit ich hier auch Erfahrung sammeln könnte. Interessant ist es aber allemal was das rote Lager so macht. Meine letzte AMD glaube ich war eine R9 290 Vapor X, ist also schon eine Zeit lang her... Daher werde ich dir wahrscheinlich keine allzu große Hilfe sein...
 
Zuletzt bearbeitet:
rico007 schrieb:
Witcher 3 / 1440p / max. Quality (Hairworks off)


Vega 64 LC Stock PT +50------------------------------------------------------GTX 1080 TI OC Stock PT +20
AVG FPS 92---------------------------------------------------------------------AVG FPS 97
Verbrauch 520W - 540W-------------------------------------------------------Verbrauch 350W - 360W

Vega 64 LC Stock PT +50 -100mv HBM2 @ 1045 ---------------------------GTX 1080 TI OC Stock PT +20 0,925mv (mittels Curve eingestellt) GDDR5X @ 6000
AVG FPS 97---------------------------------------------------------------------AVG FPS 106
Verbrauch 370W - 388W-------------------------------------------------------Verbrauch 310W - 335W


WOW. vega 64 bei den gleichen avg fps wie die 1080 ti oc mit nur 20-40W mehr verbrauch. schade, dass jeder denkt, vega sei der flop des jahrhunderts :rolleyes: zum teil unverdiente negativpresse für amd. :(
 
duskstalker schrieb:
WOW. vega 64 bei den gleichen avg fps wie die 1080 ti oc mit nur 20-40W mehr verbrauch. schade, dass jeder denkt, vega sei der flop des jahrhunderts :rolleyes: zum teil unverdiente negativpresse für amd. :(

Das AMD den Big Chips seit GCN 1.0 viel zu viel Spannung gibt sollte eigentlich jeder wissen. Man konnte die Spannung so gut wie IMMER um ~100 mV senken und übertakten.

Das war bei Tahiti so, bei Hawai bei der Fury, warum sollte es nun bei Vega anders sein ? :D

Ich Finde das Szenario ziemlich ähnlich zum Tahiti Release.

Tahiti langsamer als das Konkurrenz Modell, bei mehr Stromverbrauch bla bla.

Mit etwas UV hatte die 7970 plötzlich eine ähnliche Effizienz wie die GTX 680.


Das wissen noch wie viele ? wahrscheinlich keiner weil ja die 7970 so Ineffizient war und nur den Leuten Empfohlen wurde die ihr eigen Heim mit der Graka erhitzen wollen.

Irgendwie ist es total Anstrengend, dass der Stromverbrauch erst relevant geworden ist, als es Nvidia für nötig gehalten hat, ( Kepler..) Ab dem Tag war jeder grüne wie Konvertiert und Thermi hat es scheinbar nie gegeben..

Und Seit Pascal ist Undervolting auf einmal voll In und jede Pascal Karte generiert Strom....


Würden die Nvidia Hamletts den AMD Karten mal mehr Beachtung schenken und nicht so einen Quatsch sagen wie, dass man ZUGLEICH die beste Effizienz will und gleichzeitig von massivem OC und maximaler Leistung spricht, was einfach absolut widersprüchlich ist, dann wären wir sicher in einer besser Welt :'D

Wie viele haben sich damals eine GTX 1080 gekauft und von Effizienz und gleichzeitig von 2,1 GHz Takt gesprochen ? .......:lol:

Ich kann mich an ziemlich viele erinnern die Geld für eine 800 € Karte im Jahr haben, aber dann den Finanzberater brauchen um den Überblick über die Stromkosten nicht zu verlieren...
 
Zuletzt bearbeitet:
Denke nicht das es hier den meisten um die Effizienz geht, sondern das AMD zu lange gebraucht hat und jetzt kurz vor Final gerade mal die Leistung einer GTX 1080 erreicht laut vielen Testberichten und trotzdem etwas mehr Strom zieht. Bei einer ca. über 700 Euro Karte ist es mir ehrlich gesagt fast egal was die aus der Dose zieht. Hauptsache die Leistung stimmt.
Wäre wünschenswert wenn AMD noch was im Hintertürchen hätte um der TI auf die Pelle zu rücken, aber dem Anschein nach ist dies wohl leider nicht so.

Vergleich in Witcher 3 in 4K, also die Paradeauflösung für Vega. Die Pascal-Karten sind auch nicht sonderlich hoch getaktet. Sieht man schön das selbst in 4K die 1080 kaum geschlagen wird. In 1440p dürften die Abstände zur TI nochmals um einiges höher ausfallen.

Witcher 3 4K Vega vs 1080 vs 1080 TI

Übertakten kann man jede Karte um das vorweg zu nehmen. ;) Die Vega schwankt hier auch ziemlich vom Takt her. Mal nur 1400, mal über 1500 Mhz GPU-Takt....
 
Zuletzt bearbeitet:
VAN DOOM schrieb:
Wäre wünschenswert wenn AMD noch was im Hintertürchen hätte um der TI auf die Pelle zu rücken, aber dem Anschein nach ist dies wohl leider nicht so.

Das würde ich um ehrlich zu sein noch Abwarten, schließlich sind die Primitiv Shaders immer noch nicht aktiv, ebenso greift DSBR nicht immer in den richtigen Situationen. Jedoch kommt jetzt der Knackpunkt.

Dafür zitiere ich mal PCGH:

Einmal aktiv, können Primitive Shader dazu genutzt werden, nicht sichtbare Geometrie aus der Pipeline zu entfernen, noch bevor Sie wertvolle Ressourcen im Bereich des DSBR belegen. Primitive Shader können also dem DSBR helfen, effizienter zu arbeiten, indem etwa weniger Geometrie Batches angelegt werden müssen.

Dh. Vega ist aktuell nur Aufgrund des Taktes gegenüber Fiji schneller ^^

Das eigentlich interessante ist, dass AMD an einer API Unabhängigen Version arbeitet um die Funktion unabhängig von den Spielen in den Treiber zu implementieren.

Wenn DSBR deswegen tatsächlich noch nicht richtig funktioniert bzw. ineffizienter. Dann könnten bei Aktivierung der Primitiv Shader eventuell noch ein meiner Ansicht nach großer Leistungsboost zustande kommen im 2-Stelligen Bereich.

Schließlich hat die GPU und der Speicher wenn beide Funktionen richtig implementiert sind mehr Rohleistung über, wenn das Geometrie Culling richtig funktioniert und in Kombination, belegen die verworfenen Geometrien weniger Speicher und Vega hat mehr verfügbare Bandbreite für Spieleleistung.

Ich halte 20% mehr Leistung nur durch diese Funktion für realistisch.


Bedenke man jetzt noch, dass wenn eine RX 56 mit UV bei Hardwareluxx rund 5 % vor einer 1080 FE lag.
Dann wären das Immens für Vega und AMD hätte tatsächlich einen TI Konkurrenten. für 400-500 € mit OC/UV natürlich ^^

Zumindest kann ich mir die Preis Lage nur damit erklären, dass AMD noch was in der Hinterhand haben muss :D
 
Zuletzt bearbeitet:
In dem Video läuft The Witcher aber nur mit der 1080 Ti flüssig. Sowohl bei Vega als auch bei der 1080 ruckelt es für mein Empfinden. Paar Regler zurück und schon dürfte man bei den doppelten FPS liegen.

Wenn Vega eben mit UV keine schlechte Figur macht, ist das halt aber ein Problem. In der Regel wollen die Leute die Karte einstecken und spielen. Nicht erst Stunden damit verbringen den Sweetspot ihrer Karte finden zu wollen. Vega 64 für 700€ und mehr ist einfach zu viel für die Karte, wenn es in dem Bereich bereits 1080Ti mit 3GB mehr VRAM gibt und die direkt nach dem Einbau die Leistung auch zeigen. Gute Customs für maximal 600€ wären kein schlechter Deal, wenn man eben selbst Hand anlegen möchte.
 
Ich habe meine rx vega 64 liquid gerade mit maxboost 1652MHz und max vcore 1000mV laufen. (habe per hexeditor in der Registry auch die anderen Powerstates, p5 und p4 die Spannung reduziert, weil die Werte Standartmässig 1100mV für P5 und 1050mV für P4 waren). Der gesamte Systemverbrauch ist bei mir jetzt zwischen 330-350W (hängt vom Spiel ab) und ein übertakteter i7 5820k ist auch noch im System.

Was ich nicht verstehe ist, seit dem neuen Treiber 18.8.2. boosted die Karte nicht mehr bis zum Max P7 clock (bei mir 1652MHz) sondern nur mehr auf um die 1600MHz. Die Leistung scheint aber mit dem neuen Treiter gleich oder sogar leicht angestiegen zu sein (subjektiv und in benchmarks wie firestrike).

Naja, mal abwarten wie es nach dem nächsten Treiber update aussieht, vielleicht ändert sich dann wieder einiges (bezüglich undervolting,performance, verbrauch etc)
 
SKu schrieb:
In der Regel wollen die Leute die Karte einstecken und spielen. Nicht erst Stunden damit verbringen den Sweetspot ihrer Karte finden zu wollen. Vega 64 für 700€ und mehr ist einfach zu viel für die Karte, wenn es in dem Bereich bereits 1080Ti mit 3GB mehr VRAM gibt und die direkt nach dem Einbau die Leistung auch zeigen.

Sehe ich auch so ähnlich bzw ist auch meine Erfahrung. Eigentlich in so gut wie allen Games läuft es einfach von Anfang an super mit einer Nvidiakarte. AMD braucht hier einfach immer zu lange. Auch wenn die Treiber mal irgendwann gut funktionieren hängt man in den meisten Spielen immer noch meistens deutlich zurück. Hatte auch schon Mantle durch usw usw und mich nervte das einfach an AMD...
Nvidia ist einfach immer ein Stückchen schneller und ich will ja die Games jetzt zocken, daher habe ich von Rot wieder zu Grün gewechselt da Vega zu lange gebraucht hat.

aivazi schrieb:
Das würde ich um ehrlich zu sein noch Abwarten, schließlich sind die Primitiv Shaders immer noch nicht aktiv, ebenso greift DSBR nicht immer in den richtigen Situationen. Jedoch kommt jetzt der Knackpunkt.

Das Problem denke ich ist einfach immer das Abwarten. Mal sehen was der nächste Treiber bringt, usw usw.... AMD bringt es einfach nicht wirklich fertig eine Hammerkarte raus zu hauen die sofort in jedem Spiel ihre Leistung entfalten kann. Was irgendwann mal sein könnte oder wird denke ich interessiert die wenigsten. Wenn dann zum erscheinen in Test´s die Karte nicht schneller als eine GTX 1080 ist und zudem Pascal schon deutlich länger auf dem Markt ist kann ich es schon verstehen warum viele enttäuscht sind. Den Stromverbrauch mal außer acht gelassen.

Ich würde es AMD ja wirklich gönnen, kommt ja uns zu Gute in Sachen Preise. Leider sieht es momentan anders aus. Daher hatte ich ja nachgefragt was eine übertaktete Vega im UHD Benchmark zum Beispiel zustande bringt um es einigermaßen einschätzen zu können wo sie sich in Sachen Leistung einreihen wird...
 
Zuletzt bearbeitet:
VAN DOOM schrieb:
Das Problem denke ich ist einfach immer das Abwarten. Mal sehen was der nächste Treiber bringt, usw usw.... AMD bringt es einfach nicht wirklich fertig eine Hammerkarte raus zu hauen die sofort in jedem Spiel ihre Leistung entfalten kann. Was irgendwann mal sein könnte oder wird denke ich interessiert die wenigsten. Wenn dann zum erscheinen in Test´s die Karte nicht schneller als eine GTX 1080 ist und zudem Pascal schon deutlich länger auf dem Markt ist kann ich es schon verstehen warum viele enttäuscht sind. Den Stromverbrauch mal außer acht gelassen.

Ja das sieht aktuell nicht gut aus, was das Marketing von AMD an den Tag legt.

Jedoch musst du auch berücksichtigen, dass ich nicht von irgendwelchen Optimierungen schreibe, weil der Treiber noch nicht auf die Architektur angepasst ist, sondern erstmals von einer Beschleunigung der Berechnungen auf Hardware Ebene weil die Rechenlast minimiert werden, kann durch das Culling der Geometrien und Polygonen und AMDs Vega dadurch pauschal besser ausgelastet werden muss und somit Effizienter werden muss, die Frage stellt sich nur in welchem prozentualen Ausmaß die Leistung besser wird.

Edit: Einzig und allein AMD entscheidet, wann das Feature aktiviert wird, leider.... ^^

Das die Präsentation von Vega bzw. der Release eine einzige Katastrophe ist steht außer Frage :D
 
Zuletzt bearbeitet:
Ein sehr lobenswerter Artikel von PCGH rund um Vega: http://www.pcgameshardware.de/Radeo...Specials/Fragen-Antworten-Vega-56-10-1235968/

Vorallem die HBM Temperatur finde ich interessant. Werde das jetzt mal bei ein paar Tests beoabachten.

Edit: Im Schnelltest wird nun klar, wieso die Karte runtertaktet obwohl kein PT oder TT erreicht wird. Der HBM hat schneller seine 95° erreicht, bevor die GPU 80° erreicht. Aua aua...
 
Zuletzt bearbeitet:
Darauf habe ich mir auch bezogen.

bzgl. DBSR und den Primitive Shadern.
Dabei handelt es sich um eine Zusammenfassung verschiedener Aufgaben der Vertex- und Geometry-Shader innerhalb der GPU-Pipeline, um - richtig - Arbeit zu sparen.
Entsprechend ist es die Frage was PCGH mit "Richtig" meint wenn es noch hervorgehoben wird... vllt. wissen die ja mehr :D
 
Es ist einfach maßlos ärgerlich, wenn man behauptet DSBR ist nicht permanent aktiv. Da kann AMD lang was erzählen, wenn das nie jemand irgendwo nachstellen kann. Entweder bringe ich ein Major Feature was gut läuft, oder nicht. So kann ich es weder selber entscheiden ob ich An oder Aus will, noch sehe ich wo es schlussendlich überhaupt was bringt.
 
Zurück
Oben