Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

Du nutzt also einen Zen 1700X, einen Freesync Monitor und eine Vega 64. Und läuft alles zufriedenstellend, oder ruckeln alle Spiele die du spielst?
Ich gehe mal von ersterem aus, da alles smooth läuft, deine Vega 64 optimal eingestellt ist und du zufrieden mit dem System bist, weil es die Leistung erbringt, die du haben willst. Sonst hättest du dir ja das System nicht so zusammengestellt.

Also muss ja AMD doch irgendwie alles richtig genug gemacht haben, so dass du dir das System so zusammengestellt hast.

Wo ich AMD Hater geschrieben habe, kannst du mir ja mal aufzeigen.

Fakt ist, mal von den Preisen die durch das Mining versaut sind, bietet eine Vega Karte genau das, was sie bieten muss. Die 56er spielen in der Liga der 1070 von NV und die 64 in der Liga der 1080 von NV. Wie man an Tests sind, geben sich in den jeweiligen Segmenten AMD wie NV nicht viel und mal ist die eine schneller und mal die andere.
Somit schlägt sich hier jeweils eine Allroundkarte absolut vernünftig gegen eine reine Gamingkarte.

Somit ist Vega alles nur kein Flop. Es ist halt nicht der Heilsbringer, den hier immer wieder die Fanatiker gerne gesehen hätten. Ob AMD in Zukunft den Weg wie nVidia geht und eine reine Gaming GPU bringen wird und eine reine Profi GPU, wird sich zeigen. Aber anders als hier immer viele darstellen ist der einzige Nachteil der Vega Karten, das diese aufgrund der Allroundfähigkeiten und den dementsprechenden Hardwarefeatures die implementiert sind im Chip mehr Strom benötigt als die reinen abgespeckten Gaming Pendants von nVidia.

Und darauf immer wieder rum zu reiten, zeigt halt wie wenig Falsch am Ende Vega macht. Klar sie sind weit hinter dem Zeitplan gelaunched, Gründe gibt es genügend von schlechter Lieferbarkeit des HBM Speichers usw.
Aber ein Produkt kommt eben auf den Markt, wenn es fertig ist und nicht wenn es irgendwelche Fanboys haben wollen. Das dies eben nicht immer passend ist mit dem Konkurrenten ist normal. Wer das nicht versteht, der hat eben einfach nicht begriffen wie Komplex mittlerweile das ganze System ist.

Sich dann aber hier hin zu stellen und per se Vega als Enttäuschung ab zu stempeln und das auch immer wieder in Tests einfließen zu lassen. Sorry, aber das ist nicht wirklich ein Zeugnis von vernünftigem Journalismus.

Und dafür, das ihr das bei CB jetzt schon so lange macht, ist dies schon enttäuschend. Von einem Neuling, der das alles noch lernen muss, da kann ich das nachvollziehen. Von jemanden, der schon ein alter Hase ist in dem Bereich, erwarte ich doch mehr Neutralität in seinen Tests. Die eigene Meinung, kann man dann immer noch per Kommentar schreiben, sei es als eigenen Beitrag oder wie alle anderen Forenuser dann hinterher.
 
BestinCase schrieb:
Wenn es Mining nicht gegeben hätte läge die 56er heute bei 350 und die 64er bei 399
Das bezweifle ich stark. AMD wusste ohne mining ganz genau dass die Preise 100 Dollar hoch müssen, deswegen war das Angebot auch zeitlich begrenzt. Auch glaub ich nicht dass die Fertigung heute so wahnsinnig viel billiger ist als zum Release. Es ist und bleibt ein Monster Chip mit Interproser und HBM. Sowas kostet.
Mining hat die Stückzahl getrieben, das hilft ggf die Kosten pro Stück zu reduzieren, aber ich denke genauso wie man Fiji nie um unter 200 gesehen hat nimmt AMD eher die Karte aus dem Programm als sie dauerhaft für 300 anzubieteb.
 
  • Gefällt mir
Reaktionen: incurable
Gut wir werden sehen...

Aber nochmal direkt gefragt, was kann man mit einer Vega nicht mach, was man mit einer 1080 machen kann, Bezug auf gaming?
 
Wadenbeisser schrieb:
@Gschwenni
In der aktuellen Entwicklung sehe ich eher ein grundlegendes Problem des PC Spiele Marktes.
Die letzten Jahre haben immer wieder gezeigt das die Produkte trotz vorhandener Vorteile von der Zielgruppe weitestgehend ignoriert werden und lediglich als Preisdrücker herhalten sollten. Nun verlagert man anscheinend den Schwerpunkt der Entwicklung dort hin wo man damit Geld verdienen kann und der Spieler Markt hat letztendlich das was er signalisiert hat haben zu wollen.
.

Das glaube ich nicht. Einfach deswegen, da AMD mit Spielern schlicht viel mehr Geld verdient als im HPC-Segment. Radeon hat es bei Spielern (unverdienterweise) nicht einfach. Im Profi-Segment ist es für AMD aber noch viel schwerer. Quasi keiner nutzt da eine AMD-GPU. Alles ist Nvidia, primär wegen CUDA. Wenn AMD eine Architektur entwickelt, die primär für HPC gedacht ist, entwickeln sie imo an ihrem Kundenkreis völlig vorbei. Da ist die Kundenbindung mit CUDA noch viel größer als im Spieler-Segment.

Wenn sie es doch getan haben, ist das imo eine reine Fehlentscheidung. Auch das Argument " das große Geld" verstehe ich nicht. Nvidia tut viel im HPC-Segment, viel mehr als AMD. Und dennoch verdient Nvidia mit Abstand am meisten Geld an Spielern und nicht im Profi-Segment. Das große Geld ist da also wohl doch nicht. Pro Auftrag ist es großes Geld ja. Aber es gibt halt viel, viel mehr Spieler.
 
Wadenbeisser schrieb:
In der aktuellen Entwicklung sehe ich eher ein grundlegendes Problem des PC Spiele Marktes.
Die letzten Jahre haben immer wieder gezeigt das die Produkte trotz vorhandener Vorteile von der Zielgruppe weitestgehend ignoriert werden und lediglich als Preisdrücker herhalten sollten.
Ja, das ist das Problem. Und AMD täte gut daran, unmittelbare Konsequenzen zu ziehen, denn ich bin mir schon recht sicher, dass es da draußen einfachere und effizientere Möglichkeiten gibt als mit den sog. "Gamern" Geld zu verdienen. Und AMD hat offensichtlich verstanden, dass es diese Möglichkeiten gibt, nämlich bei den Prozessoren (vor allem OEM, da rollt das ganze ja langsam an). Sollen die Gamer Nvidia kaufen.

Gut sichtbar auch bei Ryzen. Absolut konkurrenzfähige Prozessoren die in der Praxis mit der Konkurrenz gleichziehen, aber für die Zielgruppe ist halt nur relevant, dass die Konkurrenz ihre Produkte billiger anbieten muss damit diese unter Begründung mehr oder weniger stichhaltiger "Argumente" direkt gekauft werden können. AMD hat so genau gar nichts verdient, außer ein "dank AMD gibt es nun wieder Bewegung im CPU-Markt" (haha, die hätte es auch vorher längst geben können)... :rolleyes:
 
Die Idee zum Test ist schon einmal schön, auch wenn man sich durchaus fragen kann, welche Relevanz die Vega Karten für den Spielemarkt haben.
Die Ausführung und die Bewertung der Tests aber durchaus schwierig.
"AMD Radeon RX Vega ist in Kürze ein Jahr auf dem Markt. ", dabei ist der hier verwendete Treiber ein April-Treiber und der alte Test ist aus dem August. Die Übertreibung beim Zeitraum schafft natürlich schon einmal größere Erwartungen.

Bei diesem Test sind durchaus alte Spiele rausgefallen, die Vega den Original-Test vermiest haben. z.B. Anno/AoTs.
Ich habe zwar nicht alle Patches und Release-Daten zur Hand, aber wenn man sich anguckt, dass GOW4 und Wichter III noch eine bessere Leistung bei Fury liefern als bei Vega, ich würde mich sehr wundern, wenn bei diesen Spielen in den letzten Monaten noch viel an der Grafikengine gearbeitet wurde.
Auch die anderen Spiele, bei denen beide Generationen ungefähr gleich auf liegen sind grossteils nicht die Newcomer.(Doom,Prey,DoW3, Schadow Warrior 2)
Wenn man diese 6 Spiele rausnimmt, dann ist der Vorsprung in FHD schon bei erstaunlichen 13%.
Aber es ist einfach Problematisch die Speicherkomponente einfach rausrechnen zu wollen.
Kingdom Come Deliverance und Prey sind in 4k bei beiden Karten gleich auf, was sie in FHD nicht sind. Obwohl gerade in 4k sich der doppelte Speicher bemerkbar machen sollte. Es ist einfach absurd, dass die Karte, die für hohe Auflösungen besser geeignet ist durch die Testmethode genau in diesen Szenarien verliert.
Bei FC5, FF XV, Mittelerde, AC Origin, Titanfall 2, SW Battlefront 2 erreicht Vega durchaus klar stärkere Ergebnisse(Schnitt 20% Mehrleistung).
Das wird so gut wie nicht gewürdigt.

Dazu spielt die Arbeit von AMD ihnen hier teilweise durchaus selber einen Streich. In DOOM und Shadow Warrior 2 und BF1 liegt die Fury nun deutlich näher an der Vega, weil sich die Testergebnisse der Fury (stärker) verbessert haben als die von Vega. Will man AMD es wirklich negativ auslegen, dass sie noch nach Performance-Gewinnen für eine Karte wie der Fury suchen?

Ich verstehe durchaus den Ansatz, aber man muss sagen, nur die verkrüppelten Vegas-Ergebnisse zu listen ist eine unzulässige Benachteiligung. Man hätte zumindest auch die realen Vegas Ergebnisse darlegen müssen.
Ein Hinweis, dass das zu schlechteren Timings führen kann ist da nicht genug.
Obendrein wurden ja durchaus Innovationen durch den Test wegrationalisiert. Wie soll Vega von einem besseren Turbo profitieren, wenn er auf 1050 festgetackert wird? Wie soll HBCC etwas bringen, wenn man die Spiele so einstellt, dass sie ja nicht über 4 GB VRAM brauchen?
Gerade bei HBCC wäre es doch spannend geworden, wie es sich in der Zeit entwickelt hat.
 
  • Gefällt mir
Reaktionen: duskstalker
Wolfgang schrieb:
Ich habe Privat einen Ryzen 7 1700X, habe einen FreeSync Monitor und Spiele auf einer Vega 64. Und ich habe viel Spaß mit dem System.
Wann kommt da eigentlich mal was von Computerbase?
Es ist schon irgendwie witzig, wenn man hier bei einigen Benches 160 gegen 180 Hz misst und die Grafikkarte so viel schneller ist, aber auf der anderen Seite in Benches mit 50 zu 55Hz die Freesync-Variante massive Vorteile mit sich bringen würde.
Wer bereit ist eine 1080 TI zu kaufen, kauft sich vermutlich auch einen neuen Monitor, aber für viele kann dieses Feature einen deutlichen Fortschritt bedeuten. Und GSync-Monitore beginnen meistens erst in einer ganz anderen Preisregion.
 
BestinCase schrieb:
Bin auch der Ansicht, dass man einige potenzial Bereiche von Vega nicht ordentlich berücksichtigt in der Bewertung, da ist zum einen das Thema UV, hier möchte ich auf einen user thread aus dem Luxx verweisen, der sich mit dem Thema UV auseinander gesetzt hat und wie ich finde bemerkenswerte Ergebnisse erzielt hat:
Nur was hat Undervolting (HBCC, generelle Spieleleistung etc.) mit dem Fakt zu tun, dass Vega nicht mehr IPC als Polaris bietet, obwohl es eigentlich so sein sollte?

Manche verstehen absichtlich oder unabsichtlich doch schlicht die Intention des Artikels nicht. Anders kann ich mir manche Kommentare nicht erklären. Hier geht es nicht darum, ob RX Vega 56/64 gute Grafikkarten sind. Ob man damit spielen/minen kann, warum sie so und so viel Euro kosten. Ob es DX12.1 gibt oder was auch immer.
Ergänzung ()

mace1978 schrieb:
Wann kommt da eigentlich mal was von Computerbase?
Zu was soll was kommen?
 
  • Gefällt mir
Reaktionen: Colindo, Rock Lee und Gschwenni
Ganz interessanter Test.

Aber könnt ihr vielleicht mal einen neuen Vergleich von Vega 56 Vs 1070/ti und Vega 64 Vs 1080 machen und am besten mit Custom Modellen? Das würde mich deutlich mehr interessieren. Was hat sich mit den Treibern und neueren Spielen getan im Hinblick auf das AMD Vs Nvidia Duell. Ich glaube das hab ich hier im thread schon öfter gelesen, dass das einige interessieren würde.
 
Ich seh das ähnlich. Freesync is AMDs stärkeres Argument zur Zeit was GPU angeht und auch der Markt hat es bisher gut angenommen. Es gibt recht viel Auswahl bei Monitoren und demnächst auch Samsung TVs. Das macht ne 56 um 400 Euro mit nem guten Freesync Monitor zu nem echt guten Deal was PL angeht.

Ich spiele mim Gedanken nen Samsung 65Q9FN zu holen, der müsste mit ner AMD Karte auch adaptive Sync können. Nicht dass ich das grad brauche, TV is TV, gezockt wird immer seltener. Aber was man hat das hat man und ich denke wenn mal mehr TVs mit Freesync können spielt das AMD in die Hände.
 
  • Gefällt mir
Reaktionen: Gschwenni
@Wolfgang

ich verstehe den Artikel schon, nur warum sollte Vega mehr IPC haben als Polaris?
 
Wolfgang schrieb:
Nur was hat Undervolting (HBCC, generelle Spieleleistung etc.) mit dem Fakt zu tun, dass Vega nicht mehr IPC als Polaris bietet, obwohl es eigentlich so sein sollte?

Manche verstehen absichtlich oder unabsichtlich doch schlicht die Intention des Artikels nicht. Anders kann ich mir manche Kommentare nicht erklären. Hier geht es nicht darum, ob RX Vega 56/64 gute Grafikkarten sind. Ob man damit spielen/minen kann, warum sie so und so viel Euro kosten. Ob es DX12.1 gibt oder was auch immer.
Ergänzung ()


Zu was soll was kommen?

Die Intention war klar, aber der Sinn?

Nach der Argumentation können wir heute auch alle noch Sandy Bridge kaufen, da die IPC ja auch nur 10-15% unter einem aktuellen Quadcore liegt.
 
BestinCase schrieb:
@Wolfgang
ich verstehe den Artikel schon, nur warum sollte Vega mehr IPC haben als Polaris?
RPM (in unterstützen Spielen), Draw Stream Binning Rasterizer, ROPs an die L2-Caches angeschlossen, Primitive Shader (gehen halt nicht), Next-Generation Geometry Engine, mehr Cache, einen Intelligend Work Distributor und noch so einiges mehr hat AMD genannt, um die die Leistung gegenüber Polaris zu erhöhen. Gegenüber Polaris wohlgemerkt, nicht Fiji.

Casillas schrieb:
Die Intention war klar, aber der Sinn?
Nach der Argumentation können wir heute auch alle noch Sandy Bridge kaufen, da die IPC ja auch nur 10-15% unter einem aktuellen Quadcore liegt.
Ist doch einfach interessant zu sehen, was sich zwischen den Generationen getan hat. Das hier ist eben keine Kaufempfehlung oder klassischer Test, es ist eher was für den Interessierten an der Technik (und alleine darum spielt das aufkommende AMD gegen Nvidia auch überhaupt keine Rolle).
 
  • Gefällt mir
Reaktionen: Oneplusfan, Gschwenni und Krautmaster
Wolfgang schrieb:
Nur was hat Undervolting (HBCC, generelle Spieleleistung etc.) mit dem Fakt zu tun, dass Vega nicht mehr IPC als Polaris bietet, obwohl es eigentlich so sein sollte?

Manche verstehen absichtlich oder unabsichtlich doch schlicht die Intention des Artikels nicht.
Um zu erkennen, ob eine Karte eine höhere IPC besitzt ist aber der Durchschnitt von einer "Willkürlich" ausgewählten Spieleauswahl schlecht geeignet. Wenn Spiele auf beiden Karten gleich schnell laufen und andere auf einer Lösung schneller, dann zeigen die schnelleren den Fortschritt. Die Gleichschnellen zeigen nur auf, dass dieser Gewinn -aus welchen Gründen auch immer- nicht immer genutzt werden kann.
Das kann an AMD liegen(Hardware+Software), das kann an den Spielen liegen, es kann an dem restlichen Testsystem liegen. Es kann aber auch an euren Testparametern liegen. Und bei eurem Ergebnis liegt z.B. die Vermutung durchaus nahe, dass die 4K-Tests durch Testparameter verfälscht werden.

Wolfgang schrieb:
Zu was soll was kommen?
FPS vs 99th Percentile vs reale Latenz.
Ob ich nun 160 FPS habe(die mein Monitor womöglich gar nicht anzeigen kann) oder 180 FPS, das macht einen Unterschied von 12,5%. Ein realer Vorteil bringt das aber nicht.
Die Percentile sind schon ein deutlicher Vorteil, denn wenn die Frames nicht konstant sind, das ist wesentlich störender als ein kleiner Geschwindigkeitsvorteil.

Ziel sollte aber eigentlich sein, möglichst gut die reale Latenz abzubilden. Es gibt noch eine Menge 60 Hz Monitore auf den Schreibtischen dieser Welt. Selbst wenn es 75Hz /90 HZ mit Freesync ist, dann bringen einem die extrem hohen FPS in Games trotzdem nichts.
Klar könnt ihr nicht alle Systeme hier abbilden, aber das Thema gelegentlich beleuchten würde denke ich nicht schaden.
 
@Wolfgang

Richtig. Der Vergleich zur Konkurrenz wäre bei sowas auch fehl am Platz.

Ich finde es wie gesagt super dass CB hier mit etwas Kreativität mal wieder seit langem einen Test macht der sich nicht nur um Ratings und Konkurrenz Vergleiche dreht.

Gerade weil Vega so viel Änderungen mit sich bringt ist dieser interne Architektur Vergleich (über Zeit) sehr interessant. Vielleicht kommen die Unterschiede auch irgendwann zu tragen. Aktuell aber weniger als zu erwarten war.

Eine mögliche Theorie ist dass eine Vielzahl der Verbesserungen gezielt in Game Engines eingebaut und beachtet werden müssen. Sowas dauert idr dann recht lange. Bei den 4D zu GCN Shadern war das auch so, das dauert. Jahre.
 
  • Gefällt mir
Reaktionen: Gschwenni
Dark_Knight schrieb:
Und hier sieht man wieder, wie "neutral" man bei CB testet. Traurig, das man hier AMD wieder so an den Karren fährt, nur weil man eine Abneigung gegen das Unternehmen und deren Produkte hat.

Stimmt, am besten sollte man AMD gar nicht mehr testen, weil es könnte ja sein dass das Ergebnis unterdurchschnittlich ausfällt.:evillol:
Dark_Knight schrieb:
Und das liest man mittlerweile in fast jedem Test zu AMD Produkten.
Wertneutrale Berichterstattung gibt es auf CB fast nicht mehr.

Das ist halt abhängig davon wie gut Produkte sind. Dafür gibt es Produkttester die gutes gut rezensieren und schlechtes schlecht rezensieren, so ist nunmal die Welt.
Ryzen zum Beispiel ist ein sehr gutes Produkt.
Effizienz stimmt, Leistung stimmt, Preis stimmt, Plattform stimmt.
Kann man wunderbar kaufen und empfehlen.
Dark_Knight schrieb:
Da wird immer aber auch immer nur das Negative bei AMD hervorgehoben in den Tests.
Auf der anderen Seite wird aber weder Intel noch nVidia (vor allem die Zurückhaltung bei GPP von CB) wirklich mal Kritik geübt und negative Dinge bei deren Produkten hervor gehoben.

In diesem Test im Gegensatz zu anderen wurde sich auf die IPC Steigerungen die AMD durch FineWine angekündigt hat bezogen und geprüft ob denn noch etwas dadurch zustande gekommen ist.
Die Diskussionen waren immer lang und jetzt hat man Gewissheit.
Eigentlich müsste jeder für den Test dankbar sein. Aber für manche hat er halt ned die Wunschvorstellung als Ergebnis und dann ist der Tester ein Fanboy.
Weißt du was da ned schaden würd? Selbstreflexion.
[/QUOTE]
Dark_Knight schrieb:
In der Realität betreibt nicht ein Vega Nutzer seine Karte so.

Darin sieht man, dass du den Test wie Wadenbeisser nicht verstanden hast.
Es geht hier nicht um die Realität, sondern darum zu sehen was die Vega µarchitektur zu Leisten im Stande ist.
Und diese theoretische Leistung durch die Überarbeitungen hat kein neuer Treiber entfesseln können.
Wie wahrscheinlich ists also, dass da noch mal was kommt?
Dark_Knight schrieb:
I
Wie hier einige schon gewünscht haben, wäre ein Test Vega gegen Pascal Stand jetzt viel interessanter. Natürlich Custom vs. Custom und 56 gegen 1070 und 64 gegen 1080.

Und da kannst du dich ned bis der Turing Test im July kommt gedulden?
Dark_Knight schrieb:
Aber solche Nachtests nach 1 Jahr wird es hier nicht geben. Das wäre ja Arbeit. Und man macht lieber solchen Sinnbefreiten Tests wie diesen hier um auf zu zeigen wie schlecht doch Vega ist, seiner Meinung nach.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/
https://www.computerbase.de/2018-03/fortnite-pubg-overwatch-benchmarks-high-end/
Hier bitte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
Gschwenni schrieb:
Und da kannst du dich ned bis der Turing Test im July kommt gedulden?

Haha. Legst du deine Hand dafür ins Feuer, dass CB dann einen gleichen Test (Bereinigung Taktunterschiede und nach Möglichkeit Shaderanzahl) bei den dann 3 Nvidia Architekturen durchführt? :evillol:
 
mace1978 schrieb:
Um zu erkennen, ob eine Karte eine höhere IPC besitzt ist aber der Durchschnitt von einer "Willkürlich" ausgewählten Spieleauswahl schlecht geeignet.
Mit dem Argument killst du jeden Artikel, wo es Benchmarks jeglicher Art gibt. Zumal: Willkürlich ist die Benchmark-Auswahl nicht. Die Spiele sind alle aus einem Grund ausgewählt. Ich hab nicht blind die Steam-Liste durchgeklickt.

mace1978 schrieb:
FPS vs 99th Percentile vs reale Latenz.
Ist ja durchaus eine spannende Sache. Nur was hat das mit dem Artikel zu tun?
Ergänzung ()

Casillas schrieb:
Haha. Legst du deine Hand dafür ins Feuer, dass CB dann einen gleichen Test (Bereinigung Taktunterschiede und nach Möglichkeit Shaderanzahl) bei den dann 3 Nvidia Architekturen durchführt? :evillol:
Wann sich das technisch machen lässt, natürlich. Und wenn Nvidia nicht zig Verbesserungen verspricht und die Ergebnisse gleich ausfallen, ist das auch kein Problem.
 
  • Gefällt mir
Reaktionen: Oneplusfan
Zurück
Oben