Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Botcruscher schrieb:
Apropos: Schon irgendwo erste Meldungen zur Freischaltung von 56er mittels Bios gefunden? Neben untervolten eine der wichtigsten Fragen.

hier:

We flashed BIOS successfully by using a new version of ATIFlash. This was tested by flashing the same BIOS that V56 ships with, just with a different name; unfortunately, even that small of a change is blocked by AMD’s new security features.
 
Ich muss jetzt mal etwas Kritik am Test äußern.

Warum wurde mit max PT getestet? Auf Seite 2 werden noch verschiedene BIOS und Treiber Einstellungen genannt. Gerade der power safer Modus scheint ja einiges zu bringen.

Böse Zungen würden jetzt unterstellen, dass das Absicht war in Vega mit >400W schlecht dastehen zu lassen.

Hätte man diesen max quatsch weggelassen und dafür im Eco Modus gebencht, wäre die Stimmung hier in den Kommentaren bestimmt deutlich besser. Kaum langsamer aber 60W weniger sieht dich deutlich besser aus als kaum schneller und 100W mehr als @stock.
 
GHad schrieb:
@swoptrok

Doch, ich hab das durchdacht und schon ein paar Argumente fallen lassen. Das einzige Gegenargument das hier immer kommt ist der Kunde und der Preis. Super, aber an die Umwelt denkt hier keiner?

Ja und wenn nvidia das Monopol hätte, würden sie natürlich ganz für Energieeffizienz stehen? Das ist doch das erste, das dann hinten runter fällt... (Neben Treibersupport, Support für ältere Karten, angemessenen Leistungssteigerungen je Generation und genereller Abwärtskompatibilität).
Ohne Frage ist der Stromverbrauch hier zu hoch, aber bei einem Monopolist nvidia würde es sicher nicht anders aussehen.

Bei einem Monopol kommt die Umwelt nur in der Frage "Was ist gesetzlich erlaubt?" und der Kunde in der Frage "Wieviel Kohle können wir ihm aus der Tasche ziehen ohne, dass es zu dreist ist?" vor. Alles andere von einem börsennotierten Unternehmen anzunehmen ist doch recht naiv.

Auch wenn die Perfomance jetzt eher schwach ist, können alle Gamer froh sein, dass es AMD gibt. Fanboy hin oder her.
 
Smartin schrieb:
M.E. verliert AMD immer mehr an Glaubwürdigkeit. Das ging damals schon mit der 2x 480 GTX anstelle 1x 1080 GTX "Promotion" los. Einfach nur peinlich.

Immerhin hat AMD inzwischen (fast) offiziell Crossfire eingestellt. Politisch korrekt heißt es, dass sie es nicht mehr so stark wie in der Vergangenheit unterstützen wollen. Nvidia hat ja bereits mit dem Pascal-Release den Support bei SLI auf 2 Karten (von ehemals 4) beschränkt. Damit ist Crossfire nun nicht nur seitens Game-Herstellern, sondern auch von den Grafikkarten-Herstellern faktisch tot.

Schade, aber so ist das nun mal. Andererseits ist interessant, dass AMD jüngst hat verlauten lassen, bei Navi nur noch einen Chip zu entwickeln, und diesen dann zusammenzusetzen zu einem Ganzen, so wie man das mit Ryzen / Threadripper gemacht hat. Das wird noch interessant, was da kommen mag. Damit findet die Skalierung der Grafikperformance nicht mehr über den Treiber (Stichwort AFR) statt, sondern die Hardware als solches erscheint gegenüber dem Betriebssystem / Treiber / Spielen als eine Einheit (obwohl sie de facto aus mehreren gleichen zusammengesetzten Teilen besteht).
 
whyme schrieb:
Ich muss jetzt mal etwas Kritik am Test äußern.

Warum wurde mit max PT getestet? Auf Seite 2 werden noch verschiedene BIOS und Treiber Einstellungen genannt. Gerade der power safer Modus scheint ja einiges zu bringen.

Böse Zungen würden jetzt unterstellen, dass das Absicht war in Vega mit >400W schlecht dastehen zu lassen.

Hätte man diesen max quatsch weggelassen und dafür im Eco Modus gebencht, wäre die Stimmung hier in den Kommentaren bestimmt deutlich besser. Kaum langsamer aber 60W weniger sieht dich deutlich besser aus als kaum schneller und 100W mehr als @stock.

Schaut bei der Performance, und besonders den Frametimes, halt nicht besonders gut aus, wenn die Karte dauernd am Power Limit kratzt, und 10mal die Sekunde runtertakten muss.

Undervolting wäre aber natürlich interessant.
 
Wahrscheinlich wird auch bei diesen Karten eine Mischung aus Undervolting und Overclocking die Karte deutlich verbessern. War ja schon bei der R9 290x und 7970 ( meinen letzten AMD Karten ) schon so.
 
swoptrok schrieb:
Ja und wenn nvidia das Monopol hätte, würden sie natürlich ganz für Energieeffizienz stehen? Das ist doch das erste, das dann hinten runter fällt... (Neben Treibersupport, Support für ältere Karten, angemessenen Leistungssteigerungen je Generation und genereller Abwärtskompatibilität).
Ohne Frage ist der Stromverbrauch hier zu hoch, aber bei einem Monopolist nvidia würde es sicher nicht anders aussehen.

Bei einem Monopol kommt die Umwelt nur in der Frage "Was ist gesetzlich erlaubt?" und der Kunde in der Frage "Wieviel Kohle können wir ihm aus der Tasche ziehen ohne, dass es zu dreist ist?" vor. Alles andere von einem börsennotierten Unternehmen anzunehmen ist doch recht naiv.

Auch wenn die Perfomance jetzt eher schwach ist, können alle Gamer froh sein, dass es AMD gibt. Fanboy hin oder her.

Da die Herstellung einer GPU, also aus Silizium viele Millionen Watt frisst, ist dieses Argument hinlänglich. Der Kunde merkt aber natürlich den Unterschied auf seiner Rechnung (wenn er 24/7 zockt). Zum Rest gebe ich dir 100% Recht, aber ich sagte schon was ich von GHad halte und musste mich noch zügeln
 
Frage: Der angegebene WATT Verbrauch im Test: Ist das das Gesamtsystem oder nur die Grafikkarte für sich?

Weil: Ich hatte gewartet, will aber kurz-/Mittelfristig aufrüsten, vor allem auch, weil ich einen Monitor-Neukauf Plane, hoch auf WQHD ... gerne auch mit Free oder Gsync ... nur: Da muss ich mich ja vorher für eine Grafikkarte entscheiden.

Und: Ich habe derzeit ein BeQuiet 420 Watt Netzteile, ich würde es natürlich begrüßen, wenn ich das nicht auch noch austauschen müsste, seit es nur, weil es weniger Arbeit ist ;)

Restliches System sind ein Xeon 1230v3, 24 GB RAM, eine R9 270X (die soll halt ersetzt werden), Samsung 840 EVO SSD.

EDIT: Kauf natürlich erst mit einem Custom Design ... daher halt vorab die Frage, wegen dem Stromverbrauch ... denke jedenfalls das müsste alles inklusive sein.
 
Meine RX480 muss so oder so noch ein Jahr durchhalten, aber ich finde die Vega 56 gar nicht so uninteressant. Jetzt mal die eine oder andere Optimierung bei Treibern und Spielen abwarten, gute Partnermodelle und wenn dann vielleicht ein "Refresh" wie die RX580 kommt, dann sollte es passen.
Bei den Lautstärke-Verhältnissen sind die Referenz-Karten leider keine Option, also hoffe ich mal, dass die Custom-Designs nicht so lange auf sich warten lassen und dass das bessere P/L-Verhältnis dann doch den einen oder anderen Käufer in Richtung AMD bewegt. Dem Markt würde es in jedem Fall gut tun, das haben wir ja jetzt erst bei den CPUs gesehen.

Die Leistungskrone ist ja schön und gut, aber wie unendlich viele Leute spielen noch auf FullHD bei 60Hz?! Das Geld sollte sich im Bereich der Mainstream-Karten verdienen lassen, und da sehe ich AMD gar nicht so schlecht aufgestellt. Für die Spieler bleibt nur zu hoffen, dass der Krypto-Wahn die Preise ruiniert. Denn ohne gutem P/L sieht es dann doch echt düster aus. :-/
 
Gamecollector schrieb:
Wow, die Leute die ein Monopol fordern - ist das Sarkasmus oder Dummheit?

In meinem Fall ist es eher Verdruss und Ernüchterung.
Zum einem liegt es an AMD selbst. Ihre Produkte sind nicht schlecht, jedoch häufen sich seit der ersten GCN Generation mehr und mehr die Ungereimtheiten.

So war die HD 7000er Serie eine gute Serie, die zwar mehr Strom verbrauchte, aber dafür in der Leistung mit NVidia gut mithalten konnte, dank guter Treiberoptimierung sogar manche ehemalige Konkurrenzmodelle mit der Zeit überholen. Das war schon recht gut, wenn man überlegt, dass die Karten noch vor NVidias GTX 600er Serie erschienen sind.
Trotzdem schaffte es AMD nicht, die Leistung von Anfang an auszunutzen. Das blieb im Kopf der Leute hängen.

Daher kauften die Leute vermehrt die GTX 600er Karten.

Mit der 200er/300er Serie von AMD gabs dann wieder eine Kartenserie, die recht gut mit der Konkurrenz mithalten konnte, aber zu Kosten des Stromverbrauchs (und damit Abwärme, Lautstärke, etc.). Als "Gegenleistung" bekam man je nach Modell mehr Ram, einige neue Treiberfeatures etc.
Auch hier gab es mit Treiberoptimierung mit der Zeit mehr Leistung, trotzdem auch hier konnte AMD die Leistung von Anfang an nicht voll ausnutzen. Das blieb im Kopf der Leute hängen.

Daher kauften die Leute vermehrt die GTX 700er/900er Karten.

Mit den neuen Polaris Karten wollte AMD das Mittelfeld dominieren.
Die ersten "Generation" der Polaris Karten lieferte passende Leistung fürs Geld, musste sich das aber auch wieder durch höheren Stromverbrauch und andere Kleinigkeiten erkaufen, die erst mit der zweiten Generation halbwegs gefixt worden.
Gegen die Enthusiasten Karten hatte AMD nichts zu bieten.

Daher kauften die Leute vermehrt die GTX 1000er Karten und die Polaris Karten wurden vermehrt von Minern aufgekauft.


Nun ist Vega erschienen und bietet 1 Jahr später momentan eine Leistung auf dem Niveau der Konkurrenz, kann aber nicht zum Highend aufschließen. Dazu relativ hoher Stromverbrauch bei Auslastung beim Topmodell bietet kaum Mehrwert zum nächst kleineren Modell.
Dazu kann man sich momentan nur wenig von der Fury absetzen, welche aber auch schon fast 2 Jahre alt ist.
Einige besondere Features, welche möglicherweise noch etwas Leistung bringen, sind momentan noch nicht aktiv.
All das in einem Paket ergibt wieder ein Bild zu den Karten, das sie wieder nicht loswerden, selbst wenn spätere Treiber noch einiges rausholen sollten.

Daher kaufen die Leute weiterhin vermehrt die GTX 1000er Karten.


Das ganze ist letztlich ein Teufelskreis. Ich verstehe einerseits, dass AMD nur ein begrenztes Budget hat und damit schon erstaunlich viel rausholt, dafür, dass sie sowohl CPU als auch GPU Segment versorgen müssen und wollen.
Andererseits macht AMD aber auch massig Fehler, die potentielle Kunden einfach verschrecken. Fehler, die mMn unnötig sind.

Soweit zu AMDs Seite.


Wenn AMD jedoch wirklich eine mehr als ebenbürtige Karte gebracht hätte, wäre diese Karte trotzdem nur selten gekauft worden. Die meisten spekulieren dann eher darauf, dass NVidia ihre Preise senkt, weniger, dass sie eine AMD Karte kaufen.
Kann ich verstehen, da sie sicherlich schon länger NVidia Karten nutzen und eine Umstellung immer schwierig für die meisten ist, und/oder sie sich einfach an die Firma gebunden haben (aus welchen Gründen auch immer).
Andererseits fördern sie aber damit das mögliche Monopol und damit auch den Preisanstieg und die Stagnation.

Soweit zur Kundenseite.


Aber: egal was AMD momentan macht, es reicht nicht, um in einem der beiden Segmente (CPU und GPU) sich vollends wieder an die Spitze zu setzen und genügend Gewinn zu generieren. Jedoch müssen beide Bereiche gestützt werden. Die Ryzen CPUs sind momentan super und endlich ein Lichtblick, dafür schwächelt die Grafikkartensparte. Die jetzigen Einnahmen aus dem CPU Bereich werden sicherlich auch in die GPU Sparte fließen, was dann aber wiederum im CPU Bereich vllt. nötig wäre in Zukunft, etc.
Dieses Hin und Her wird auf Dauer sicherlich nicht gut sein (bzw. hat zu den momentanen Problemen geführt).
Daher wäre es vllt. wirklich gut, wenn AMD sich aus dem GPU Segment momentan zurück zieht bzw. nur noch Mittelklasse Karten (das sollte eigentlich das umsatzstärkste Segment sein) produziert.




Zum Test und Karten selbst: mich stört vor allem der geringe Vorsprung zur Fury X. Die Karte ist immerhin 2 Jahre alt und trotzdem liegen die Vegas nur ~20-50% vor ihr. AMD scheint es nicht zu schaffen, die mögliche Leistung der Karte umzusetzen.
Wenn man die Konkurrenz betrachtet, dort liegt der Sprung von einer 980ti zu einer 1080ti bei 60-70%.
Den einzigen Nachteil, den die Fury hat, sind ihre 4gb Speicher, welche für 4k wohl zu klein bemessen sind (und sie daher bei den Frametimes solche Probleme hat).

Dazu sind die Treiber wohl wieder zu beginn problematisch, dass eigentliche wichtige Features nicht aktiv sind etc., was einfach ein schlechtes Bild auf die Karten bzw. AMD wirft.

Auf dem Papier verspricht die Architektur Vega auch weiterhin deutlich mehr Potenzial und AMD hat bereits größere Leistungssprünge durch zukünftige Treiber in Aussicht gestellt. Hier und heute ist davon aber nur der späte Sprung auf das Niveau der GeForce GTX 1080 zu sehen.

Und das wird sich leider wieder in den Köpfen der Leute festsetzen. Verständlich und daran ist AMD nicht ganz unschuldig, wie schon in der Vergangenheit. Als aufgeklärter Nutzer mag das für einen Toll sein (meine HD 7950 besitze ich seit 5 Jahren nun), aber für AMD als Firma dürfte das wieder nur dazu führen, dass die meisten Nutzer zu NVidia's Karten greifen.
Etwas, was sich AMD eigentlich nicht leisten kann.
 
Ich finde es schon teilweise sehr erstaunlich, wie die durchschnittlichen FPS das Bild trügen können...
(pro AMD Beispiel)

Frametimes.PNG
 
Zu Energiereffizienz: Die Karte kommt ja nicht nur in Europa, für uns ist der Stromverbauch vlt. ein Kriterium aber in Amerika oder Asien juckt das absolut niemanden, da zählt nur die FPS die rauskommen.
 
JSXShadow schrieb:
Ne 56er mit ~200 Watt Durschnittsverbrauch mit 10% über Referenzdesign für um die 400 Euro und dann ggf nochmal manuell undervolten auf 180~ oder nochmal 5% mehr Leistung...dann kommen wir damit der 1080 FE ziemlich nahe. Klar, das ist nur Spekulation, aber sogar die Frontier hat schon massives Potential zur optimierung und da die 56er weniger Elemente zum befeuern hat, glaube ich, dass diese uns noch überraschen wird.


Wo kommen die Zahlen her? Das ist Träumerei. Die Vega 56 verbraucht laut CB im Schnitt 233 Watt, nicht 200. Und bei 10% mehr Takt gegenüber Referenz wird das nicht weniger werden, sondern mehr. Alleine das Erhöhen des Power Targets - das für OC nötig sein wird - treibt den Stromverbrauch schon extrem. Und 400 EUR? Schau mal in die Shops, was die haben wollen ...
Im übrigen lässt sich eine GTX 1080 auch wunderbar undervolten bei gleichzeitigem overclocking, das kann nicht nur Vega.

EDIT: Mal aus dem CB Test zum Power Target: "AMD hat beide Radeon-RX-Vega-Grafikkarten derart konfiguriert, dass sie in jedem aktuellen Spiel sofort ins Power Target laufen und deshalb der maximal erlaubte Takt nicht erreicht wird."
 
Zuletzt bearbeitet:
Schade, da klappts mitlerweile bei den CPUs, dafür haperts an der neuen Monster GPU. Ich hätte von der Architektur auch deutlich mehr erwartet, eine Fury mit mehr Speicher und drangepappten 50% mehr Ausführungseinheiten hätte vermutlich locker das Gleiche gerissen. Vor allem konsistenter.
 
Zuletzt bearbeitet:
Morganhold schrieb:
Ich finde es schon teilweise sehr erstaunlich, wie die durchschnittlichen FPS das Bild trügen können...
(pro AMD Beispiel)

Ashes of the Singularity ist DAS AMD-Spiel, quasi das AMD Benchmark Spiel der Wahl, zusammen mit Doom natürlich.
 
Zuletzt bearbeitet:
Da wird es eindeutig eine GTX 1070 oder GTX 1080 werden. Der Unterschied bei Vega 56 zur GTX 1070 was die Leistungsaufnahme angeht ist ja schon nicht ohne.

Ich denke auch Nvidia wird sich jetzt Zeit lassen oder die GTX 1070 bzw. 1080 einfach umbenennen mit etwas mehr Leistung. Dann würde die GTX 1180 einfach die GTX 1080TI und die GTX 1170 die GTX 1080 ersetzen.

Fertig ist die nächste Grafikkartengeneration :evillol: .
 
MaW85 schrieb:
Leider schlechtes Ergebnis für Vega, auch wenn einiges richtig gemacht wurde, aber dazu noch bis über 400Watt Leistungsaufnahme.:freak:
Also da muss echt ein Wundertreiber kommen der die Leistung bringt, wer die Karte so kauft ist blind.

Wenn ich überlege dass in meinem Rechner "nur" ein 450 Watt Netzteil werkelt, daß bräuchte ich alleine ja schon für die Grafikkarte. Auf den Grafikkartenpreis von Vega muss definitiv noch der Preis für ein neues Netzteil drauf gerechnet werden, und damit ist das P/L-Verhältnis dann komplett dahin.
 
stoneeh schrieb:
Schaut bei der Performance, und besonders den Frametimes, halt nicht besonders gut aus, wenn die Karte dauernd am Power Limit kratzt, und 10mal die Sekunde runtertakten muss.

Undervolting wäre aber natürlich interessant.

Welche frametimes? Und nebenbei warum wurde das PT bei den nvidia nicht auch aufgedreht? Das wirft irgendwie ein komisches Licht auf den Test.
 
lol, wie sich wieder alle über den Verbrauch aufregen.
Mein Auto hat 140 PS also ca 100kW. Kann ich mir überlegen, ob ich damit ne Stunde Spaß habe oder doch lieber mit einer 300W = 0,3kW GPU 300 Stunden Spaß habe.
Die Umwelt wirds danken, wenn ich mehr Zocke und weniger Auto fahre.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben