Test Radeon RX Vega 64/56: 6 BIOS-Power-Modi und Undervolting im Test

RedDeathKill schrieb:
Es wäre schön, wenn man im Test auch Nvidia Grafikkarten einbaut, ansonsten ist der Test für mich nicht zu gebrauchen.

Ja ansonsten würde rauskommen dass Nvidia sich besser optimieren lässt.
Das würde dann alle Hoffnungen zerstören sich ne Vega Karte hinzuoptimieren.

-Ps-Y-cO- schrieb:
Nur Doof das Raja mit Vega garnix am Hut hatte ausser deren Präsentation ^^
Is nich auf seinem "mist" gewachsen.

Koduri leitet seit 2013 die GPU Sparte, also naja 4 Jahre arbeitet der schon an Vega in Verantwortung.
 
Simanova schrieb:
VEGA ist für mich persönlich ein Flop. Leistung/Watt ist das entscheidene Kriterium heut zu Tage (>30c/kwh).
Eine Vega 56 im 1080 Bereich bei 120 Watt wäre interessant gewesen.

Und die meisten würden sie trotzdem nicht kaufen, weil "Volta", zu spät, AMD Treiber und etc. .
Wahrscheinlich auch noch zum 1070 Preis, dieser BS ist mit unter der Grund wieso man mit Vega voll auf Compute gegangen ist.
Und mit RX Vega die Vega Instinct Reste vertickt.
Ich würde nicht mehr damit rechnen das AMD Preisdumping bei Highend D-GPUs für Endkunden betreibt, wozu auch, hat ja die letzten Jahre mit besseren GPUs zum zocken wie Hawaii auch nichts gebracht!
AMD ist sich dessen seid Fruy endlich bewusst geworden.

Interessant wird es nochmal bei RX Navi, kommt da auch die selbe Compute-DIE drauf wie für Instinct werden das herrliche Jahre bei GPUs!:evillol:
Zumal ich nicht glaube das bis Navi verbreitet DX12 oder Vulkan genutzt wird, geschweige den RPM!
 
Zuletzt bearbeitet von einem Moderator:
-Ps-Y-cO- schrieb:
https://www.youtube.com/watch?v=azyDxp6o6Eo

Also... Dieses Video zeigt PUBG mit Vega 64 / 1080 / 1080Ti

Glaube etwas scheint dort aber nicht zu Stimmen!
Meine Vega56 @ Stock geht auf 73°C / 1370-1460MHz @800MHz HBM (6GB Vram use) (Nutzt grade mal P5+P6)

Das Skurile... Ich habe Die Selben Einstellungen FHD@alles auf Ultra. und habe 87FPS drops auf 92 bzw. auch teilweise 78FPS.

Zockt Jemand PUBG mit einer Vega56? oder Vega 64? oder mit ner 1080Ti?

Das stimmt schon so. In dem Video ist auch eine Auflösung von 2560x1440 am Start und nicht FHD.

Ja ich zocke mit einer 1080 TI. PUBG wird ständig optimiert da es viele spielen. Kann gut sein das Vega leicht zugelegt hat was aber Pascal auch gemacht hat. Läuft mittlerweile etwas besser durch einen neueren Treiber und auch durch die Optimierungen vom Spiel selber. Die FPS Werte deiner Vega in FHD erreiche ich mit meiner TI schon so ungefähr auf 3440x1440 wohlgemerkt. Natürlich übertaktet. ;)
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
@duskstalker:

Du überschätzt die Verbreitung und Relevanz von Gameworks ungemein mMn.

nur wqhd als "best case" für amd. habe zu gameworks alles gezählt, was nvidia gameworks effekte nutzt, sind 14 von 19 spielen (~75%). in 5 davon überholt eine gtx 1060 die fury x, in zwei liegen sie gleich auf und in anno liegt die gtx 1060 gar vor der vega 56.

da CB doom @nightmare bencht (?????) wird die fury in doom auf gtx 1060 niveau gedrückt. die fury liegt hier normal 10% vor der gtx 1070. da die samplegruppe für non-gameworks so klein ist, hätte doom hier einen riesen ausschlag für die fury. ich habe in der entsprechenden folie eine grobe einordnung der fury mit normaler performance eingefügt. wie wolfgang mir versichert hat, haben die nightmare settings keinen ausschlag auf die performance, sondern nur auf zu kleinen vram. von daher ist das was ich hier tue von CB legitimiert.

tflops (sp) der karten:

fury x: 8,6
vega 56: 12,6
gtx 1060: 4,7
gtx 1080: 8,8

und jetzt schauen wir mal, was davon in den spielen ankommt:

gameworksilxn9.gif



in "kein gameworks" vs "worst case gameworks" liegen für die vega 64 20% mehr abstand zur 1080 ti strix. d.h. einmal erreicht sie 60% und einmal 80% der performance. um den nachteil durch gameworkstitel aufzuholen müsste amd eine neue generation grafikkarten auf den markt werfen. so groß ist der vorteil von nvidia in bestimmten titeln durch gameworks.

diese miese performance kommt durch 6 von 19 spielen zustande, die hier im cb parkour 42% der gameworksspiele und 31% der gesamten spiele ausmachen. der durchschnitt aller gameworkstitel ist nicht viel besser und hier liegt der anteil der spiele bei 75%.

amd müsste mit navi gegen nvidia einen sprung von drei generationen machen, um nvidia schlagen zu können. eine generation für volta, eine generation um auf "volta titan" niveau aufzuholen und eine generation um gameworks zu bekämpfen. und das wird niemals passieren.

überschätze ich also gameworks?
 
Zuletzt bearbeitet:
Experimentiere auch gern rum und werde ne Wakü raufklatschen, aber das finde ich arg komisch.

12 mögliche settings für den User?!
Spannung wird je nach chip automatisch gewählt, aber generell viel zu hoch?!

Wieso nicht ein "Fertigpaket" mit guter Energieeffizienz und fertig?


Ausserdem:
Solange man für 30€ Aufpreis ne 1080Ti FE bekommt, kaufe ich sicher keine Vega 64...
Der Preis darf gut noch 100-150€ fallen.
 
Also bei aller Enttäuschung über die GPU-Sparte von AMD im Allgemeinen und Vega im Speziellen muss ich hier jetzt doch nochmal eine Lanze für die Roten brechen. Was die Jungs und Mädels da in den letzten Jahren trotz aller Widrigkeiten und insbesondere angesichts des vermutlich sehr begrenzten Budgets hervorgebracht haben ist mMn mehr als nur respektabel!
Ich selbst hab kurz nach der Veröffentlichung von GTA V für gut 300€ meine HD7850 durch eine R9 290X ersetzt, mit der ich das Spiel ganz hervorragend auf WQHD und mit fast allen optischen Spielereien flüssig (40-50 FPS) genießen konnte. Und obwohl der Chip zu diesem Zeitpunkt schon mehr als 1 1/2 Jahre alt war, hat AMD kurze Zeit später mit dem Legendären Catalyst 15.7.1 nochmal eine ordentliche Leistungssteigerung aus der Karte rausgeholt. Überhaupt gefällt mir die AMD-Treiberentwicklung seit Sommer 2015 eigentlich außerordentlich gut, insbesondere weil eben auch noch für die älteren Generationen optimiert wird! Umso enttäuschter war ich dann natürlich, als die sehnsüchtig erwarteten (und fest für meinen neues TR-System vorgesehenen) Vega-Karten nicht das halten konnten, was ich (und vermutliche viele andere auch) mir erhofft hatte. Und so kams dann, dass ich schweren Herzens zur Konkurrenz gegangen bin :(
Aber allein weil meine (technisch gesehen) mittlerweile fast 4 Jahre alte 290X nun mit 30 MH/s beim Mining noch immer erstaunlich konkurrenzfähig ist (wenn man mal vom Stromverbrauch absieht) bin ich mir sicher, dass früher oder später wieder eine AMD GPU in meinem Rechner werkeln wird!
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Ja, Leistung / Watt ist dir sehr wichtig, deswegen übertaktest du auch deine CPU dermaßen. :rolleyes:

Das finde ich kann man nicht ganz vergleichen. Wenn man hier schauen würde wie oft die CPU auf Vollast ist und wie oft die GPU dürfte letztere auf Zeit gesehen um Faktor 100 (oder mehr) überlegen sein. Die GPU ist beim Gaming quasi immer bzw dauerhaft am GPU Limit also Vollast. Eine CPU ganz allgemein meistens nur sehr kurz. Dennoch kann OC wichtig sein um in diesen kurzen Peaks das Bottleneck nach oben zu schieben.

Wer sein Rechner weniger zum Rendern und eher Zocken nimmt wird den Hauptteil seines Stromverbrauches über die GPU generieren. Selbst das Mainboard dürfte bei Vielen über Zeit mehr brauchen als ne OC CPU da es eben konstanter Leistung aufnimmt.
 
Zuletzt bearbeitet:
duskstalker schrieb:
überschätze ich also gameworks?

Danke für das GIF. :daumen:

Gameworks ist mir immer noch ein größerer Dorn im Auge als DX11.

Krautmaster schrieb:
Das finde ich kann man nicht ganz vergleichen.

Kommt darauf an, ob man per P-State bzw. mit Auto-Spannung OC'ed oder das Ding auch im Idle mit manueller Spannung unnötig mehr saufen darf (auch wenn es keine hunderten Watt sind).
 
Zuletzt bearbeitet:
autoshot schrieb:
Also bei aller Enttäuschung über die GPU-Sparte von AMD im Allgemeinen und Vega im Speziellen muss ich hier jetzt doch nochmal eine Lanze für die Roten brechen. Was die Jungs und Mädels da in den letzten Jahren trotz aller Widrigkeiten und insbesondere angesichts des vermutlich sehr begrenzten Budgets hervorgebracht haben ist mMn mehr als nur respektabel!

Naja, die Frage ist: Was haben sie denn genau hervorgebracht in der langen Zeit?
Keine Frage, das Budget ist sicherlich deutlich kleiner, aber getan hat sich doch kaum etwas.

Nehmen wir mal das vermutlich etwas "rundere" Produkt, die RX Vega 56 (denn die 64 ist bis an die Grenze getrieben worden), um sozusagen Vega auch fairerweise unter "Idealbedingungen" zu verwenden.
Und dazu dann einfach die im Juni 2015 veröffentlichte Fury X. Also mehrere Jahre Entwicklungszeit dazwischen, ein von Grund auf neu designtes Produkt und dann bekommt man eigentlich fast nur den Bonus, den der bessere Fertigungsprozess bewirkt!

Denn im Test hat man ja gesehen, dass die Karten fast gleich viel verbrauchen und dabei die RX Vega 56 30% bzw. bei 4K nur noch 20% schneller ist und das kann man zum Großteil dem Sprung von 28nm auf 14nm Fertigung zuschreiben.
Mal übertrieben formuliert hätte man sich also die ganzen Entwicklungskosten fast sparen können und dafür lieber die Fury X mit neuem Fertigungsprozess, dadurch etwas höheren Taktraten und mit 8GB HBM2 Speicher rausbringen können und man würde vermutlich auf ein ziemlich ähnliches Ergebnis kommen.
Das ist dann nicht wirklich sehr spektakulär, gerade wenn man die hohen Erwartungen vorher im Blick hat... Zumal Fury X so zu optimieren vermutlich auch noch deutlich günstiger gewesen wäre.

Sicher geht das nicht so einfach, aber 20-30% mehr Leistung bei fast gleichem Verbrauch kann man auch dem HBM2 Speicher + neuem Fertigungsprozess zuschreiben, da hat die Vega-Architektur also fast gar nix gebracht...

Nicht falsch verstehen, das soll jetzt keine reine Kritik an AMD sein oder ein "Lob für nVidia" (viel mehr tut sich da ja auch nicht, außer neue Fertigungsprozesse und immer höhere Taktraten). Aber gerade wenn es so geteasert wird, gehyped wird, ewig herausgezögert wird ... gerade dann kann man doch ein bisschen mehr erwarten als eine "Fury X auf Steroiden" oder nicht?

edit:
damit man nicht suchen muss:
-> ähnlicher Verbrauch: https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/
-> bei 4K nur 20% schneller: https://www.computerbase.de/2017-08...#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
-> taktbereinigt fast kein Vorteil: https://www.computerbase.de/2017-08...itt_vega_64_vs_56_vs_fury_x_bei_gleichem_takt
 
Man könnte vllt damit argumentieren, dass das eine Vorbereitung auf zukünftige Sprünge ist. Vllt liegt es auch daran, dass AMD aus Geldnöten eine Architektur für Professionelle und Gamer gleichzeitig aufstellt (und da muss man ihnen ja zugute halten, dass sie nicht wie NV GeForces ja idR im Computing eher abstinken, weil die eben nur darauf getrimmt sind, schnell Bilder zu produzieren).


Aber ja, irgendwas an der tiefgreifenden Architekturveränderung ist entweder sinnfrei (wobei ich das für unwahrsch. halte), nicht ausgenutzt durch zu wenig Arbeit im Treiberteam (das ich für AMDs größtes Problem halte, da müssen unbedingt mal Leute eingestellt werden) oder durch Nichtausnutzung auf Seiten der Spieleindustrie (die sich mit Gameworks ja 'freiwillig' von eigener und damit angemessener Optimierung abkapselt).
 
forumuser05 schrieb:
Mal übertrieben formuliert hätte man sich also die ganzen Entwicklungskosten fast sparen können und dafür lieber die Fury X mit neuem Fertigungsprozess, dadurch etwas höheren Taktraten und mit 8GB HBM2 Speicher rausbringen können und man würde vermutlich auf ein ziemlich ähnliches Ergebnis kommen.

Falls man Fiji so hoch takten kann; aber ja, die teilweise in der Tat verschwindend geringen Vorteile von Vega gegenüber Fiji bei gleichem Takt (bzw. mitunter sogar Nachteile) sind mir auch schon aufgefallen und sowas darf natürlich eig nicht passieren! Entsprechend auch hier die Hoffnung, dass sich das durch bessere Treiber bald ändert. Unabhängig davon find ichs im Übrigen schade, dass AMD nur 8GB Grafikspeicher verbaut, das is schon wie damals bei der Fury X vor zwei Jahren deutlich zu wenig für eine High End-Karte wie ich finde. Wär Vega mit 16GB gekommen hätt ich sie vermutlich sogar gekauft, aber 1050€ für eine Radeon Vega waren mir dann doch zu viel und so is es eben die 1080 Ti geworden.
 
Gameworks?
Man kann das Ganze auch so sehen:
Part 1
Part 2
Ist mal ein ganz anderer Standpunkt und mit so einigen Annahmen hat er durchaus recht.
​Interessant wird es auf jeden Fall.
 
VAN DOOM schrieb:
Grad noch mal bisschen durchgezapped und mir ist aufgefallen das ich einen deutlich schwächeren Physicsscore habe und trotzdem wesentlich mehr Punkte... :D

Anhang anzeigen 642123

der physicscore spielt wohl in der gesamtberechnung keine große rolle ^^

ich verstehe aber auch nicht warum ryzen im combined so abkackt, bzw. warum ein I7 die besseren werte hat im combined.
 
Ich finde bei 3DMark etwas anderes merkwürdig.

Hier der Vergleich
Alienate.Me schrieb:


Mit meiner übertakteten GTX980 erreiche ich einen Graphic Score von etwas über 15000.


78 gegen 110fps im Test 1
62 gegen 88fps im Test 2

Auch der Physics Score ist bei mir niedriger(6 Kerne vs 8) mit 53 zu 61fps

Aber im Combined Test steht es trotzdem 26,9 zu 27,8

Warum wirkt sich die viel höhere Leistung in den Graphic Tests und im Physics Test so gut wie gar nicht auf den Combined Test aus?
 
Zuletzt bearbeitet:
duskstalker schrieb:
...
amd müsste mit navi gegen nvidia einen sprung von drei generationen machen, um nvidia schlagen zu können. eine generation für volta, eine generation um auf "volta titan" niveau aufzuholen und eine generation um gameworks zu bekämpfen. und das wird niemals passieren.

überschätze ich also gameworks?
Überschätzen tust du gameworks nicht, nur "gewinnt" Nvidia das Rennen ja nicht durch ihre Hardware, sondern durch die Software. Insofern sollte/muss AMD "das Rennen" auf Softwareebene ersteinmal wirklich aufnehmen, gerade da hätten sie deutlich mehr zu gewinnen.
 
psYcho-edgE schrieb:
Vllt liegt es auch daran, dass AMD aus Geldnöten eine Architektur für Professionelle und Gamer gleichzeitig aufstellt
Ja, gut möglich, dass es AMD vielleicht gar nicht wirklich auf große Vorteile im Gaming-Bereich abgesehen hat mit Vega, sondern eher Computing, Mining (da verkaufen sich ja Karten auch wie geschnitten Brot) und dergleichen im Fokus hat und den kleinen Vorteil durch den höheren Takt und HBM2 aber eben trotzdem "zusätzlich" natürlich auch an die Gamer weitergibt.
Gut möglich, dass mit Freischalten und auch Verwenden der gewissen neuen Features in Spielen in Zukunft noch etwas mehr rauszuholen ist, aber das ist eben genau wie bei Polaris der Fokus auf DX12 und Vulkan (ist ja nicht so, dass 1 Jahr danach nun alles nur DX12/Vulkan ist, wie von vielen erhofft) bisher mehr ein Werbeding, als wirklich ein deutlich bemerkbarer Nutzen.

autoshot schrieb:
Unabhängig davon find ichs im Übrigen schade, dass AMD nur 8GB Grafikspeicher verbaut, das is schon wie damals bei der Fury X vor zwei Jahren deutlich zu wenig für eine High End-Karte wie ich finde. Wär Vega mit 16GB gekommen hätt ich sie vermutlich sogar gekauft...
Bei der Fury X stimme ich dir voll zu, die 4GB sind/waren dann doch bisschen zu wenig. An sich hätte ich mir für Vega auch bisschen mehr als 8GB gewünscht, allerdings muss ich auch sagen, dass es ja nur dann Sinn macht mehr Grafikspeicher zu verbauen, wenn man ihn auch ausnutzen kann. Und jetzt kämpfen ja selbst die Topkarten bei 4K in vielen Fällen noch deutlich unter 60fps rum, sodass die 12-16GB vielleicht vollgeschrieben werden könnten, trotzdem bliebe es wohl eine "Ruckelpartie".
 
Krautmaster schrieb:
Das finde ich kann man nicht ganz vergleichen. Wenn man hier schauen würde wie oft die CPU auf Vollast ist und wie oft die GPU dürfte letztere auf Zeit gesehen um Faktor 100 (oder mehr) überlegen sein. Die GPU ist beim Gaming quasi immer bzw dauerhaft am GPU Limit also Vollast. Eine CPU ganz allgemein meistens nur sehr kurz. Dennoch kann OC wichtig sein um in diesen kurzen Peaks das Bottleneck nach oben zu schieben.

Wer sein Rechner weniger zum Rendern und eher Zocken nimmt wird den Hauptteil seines Stromverbrauches über die GPU generieren. Selbst das Mainboard dürfte bei Vielen über Zeit mehr brauchen als ne OC CPU da es eben konstanter Leistung aufnimmt.

Das war vielleicht früher mal so..

Heutzutage gibt es, zumindest bei AMD, Technoligien, welche die Energieaufnahme während des spielens drastisch reduzieren.
Radeon Chill ist ein sehr gutes Beispiel!

Wer es bei einem unterstützten Spiel nicht nutzt, ist selbst Schuld.
 
@Taxxor

das verstehe ich ja auch nicht, der GPU-load bricht im combined völlig ein.

gpu load mit der RX480:
480 gpuload.png

und mit Vega:
vega gpuload.png

zwischen 35% und 90% bewegt sich der GPU-load.
 
Zuletzt bearbeitet:
Zurück
Oben