Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

Warum wird hier AMD Vega immer dermaßen gebashed, für freesync. immer noch eine gute Alternative im Leistungsbereich einer GTX 1080.
 
Golem hat schon mehrmals behauptet, GCN wäre technisch auf maximal 64CUs limitiert.

Kennt jemand dazu eine Quelle, die das bestätigt?
Ich hab bei Golem schon öfters wenn das in Artikeln vorkommt gefragt, aber die ignorieren diese Frage immer...
 
Faust2011 schrieb:
Und das wundert Dich? Pascal ist doch auch nur ein Shrink von Maxwell, d.h. Wechsel der Lithographie von 28nm auf 16nm. Nvidia konnte dabei allerdings die Taktrate deutlicher steigern als AMD, denn mit freiem Lauf boosten die meisten Pacal-Chips rund um die 2 GHz Grenze, was grandios ist.

Demgegenüber hat AMD diverse Features für Vega beworben, insbesondere auf Tiled rasterization (Draw Stream Binning Rasterizer) hatten viele gehofft und damit geschlossen, dass nun AMD auf Nvidias Maxwell aufschließt. Leider war das nicht der Fall.
Das ist genau das Hauptproblem. AMD hat im Vorfeld mehrere signifikante Architekturverbesserungen beworben, von denen im Endeffekt kaum etwas zu spüren ist.

Insbesondere die Tiled Rasterization hat ja seinerseits als NV das Feature eingeführt hat in vielen Fällen eklatante architekturbedingte Performanceverbesserungen gebracht. Das ist auch der Grund warum viele weit mehr von Vega erwartet haben. (Und dann zum Launch auch Gerüchte in Umlauf kamen wie dass es noch "nicht aktiviert" wäre)

Aus der Perspektive ist dieser Test nützlich.
 
  • Gefällt mir
Reaktionen: Rock Lee
Whiskey Lake schrieb:
Die müßen vom Spiel unterstützt werden.
Aber eigentlich hat AMD auch nie etwas anderes angekündigt, auch wenn die Medien noch jahrelang Lügen verbreiten, es wird halt nicht wahr!

Wenn ich mich etz recht erinner dann war sich AMD lange Zeit drüber im Unklaren. Entwickler haben gesagt sie wollen das in den Treiber integrieren und dann ward doch nicht so.
Der DSBR bringt scheinbar auch gar nix.

Die Primitiven Shader werden auch überhaupt nicht mehr kommen leider was uns Wolfgang das Vögelchen so zwitschert.
 
Precide schrieb:
Irrelevant?
Fiji zeigt wie irrelevant Vega eigentlich ist (und v. a. wie schlecht)
Sorry?
Vega bietet Takt und somit Leistungssteigerung. Was erwartest du bitte? Ist doch das selbe wie mit fast allen anderen Computerprodukten. Wie neulich noch der Test zum 3770K vs 7770K zeigte.. und da liegen mehrere "Generationen" zwischen.
Hawaii - Fiji - Vega.. das ist halt immer ein wenig mehr Leistung insgesamt. Und immer ein besseres FPS/Watt Ergebnis. Insofern, wo ist Vega "schlecht"?
Pro-Tipp: Versuch mal, den Takt von Vega auf deiner Fiji GPU zu halten, Fiji zu kühlen und dein Netzteil nicht zum Schmelzen zu bringen. :rolleyes:

Wie weiter oben schon gesagt: wäre der Markt nicht durch Miner leergekauft (SOOOO schlecht sind sie ja dann doch nicht, die Karten, was?) wäre der Preis niedriger und damit auch P/L OK.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Slainer
Die Presse hat das hinzu gedichtet.
AMD selbst hat das so nie gesagt!

sie haben zwar nicht gesagt, daß ein Spiel dieses Feature explizit unterstützen muß, sie haben aber auch nicht gesagt, daß es generell nur eine Treibersache ist!
 
Sehr interessanter Test. Der Performance-Zuwachsvon Fiji auf V64 entspricht (takt- und CU-bereinigt) so ziemlich dem Fortschritt von Polaris gegenüber Tonga. Der neue Rasterizer scheint nach wie vor völlig zu verpuffen. Das einzige gute Feature von Vega ist der HBCC. Wo 8GB VRAM nicht reichen, brechen ohne HBCC die Frames massiv ein, mit HBCC bleiben sie länger stabil. Auf Fiji wäre das ein Killerfeature gewesen, weil die 4GB HBM deutlich länger durchgehalten hätten.

Insgesamt ist Vega hier schon sehr enttäuschend. Aus Gamersicht hätte AMD lieber noch einen größeren Polaris nachschieben können. Mit 56 CUs und 384bit GDDR5 wäre man wie Vega bei um die 250W rausgekommen (sofern die Karte nicht direkt bis zur Kotzgrenze hochgeprügelt wird) bei annähernd gleicher Leistung. Der Chip wäre aber deutlich unter 400mm² geblieben und ohne HBM ausgekommen. P20 schafft auch locker 1400Mhz ootb, mit OC an die 1500Mhz, d.h. auch die massiven Investitionen in Taktsteigerungen waren gemessen an Kosten und Ertrag eher kontraproduktiv.
 
Leider besorgniserregend, wie wenig sich getan hat.

Bin (leider) noch mit einer AMD Fury unterwegs, die für mich einer der wenigen Fehlkäufe der letzten Jahre war.
Besonders die Frametimes in AC:Origins mit der Fury sind mir unerklärlich, das Spiel läuft weit schlechter auf Fury als mit einer 480/580 und ist für mich auf WQHD trotz Freesync nicht sonderlich flüssig spielbar.

Bleibt nur das Warten auf eine neue Generation von Nvidia (...).
 
Wolfgang schrieb:
Bessere Treiber bringen halt nichts, wenn die Architektur bezüglich Leistung pro Takt nichts bringt.
Wolfgang, der Takt von 1050 koppelt sich aber an State 2 und das kannst du außer mit ODT und Registry Powertable Mods nicht überschreiben, ob du den SOC (1107+) bzw. HBM dann auf 1000 MHz setzt oder nicht ist Wurscht. Und bitte nicht mit WattMan, dass ist für den Mond. Vega hält sich dabei nicht an Vorgaben die du editierst, da Treibersetting auch hardwareintern überschrieben werden. Da liegen dann nur 800-850 mV an. Ich kann mir nicht vorstellen das du damit stetig 1000 MHz beim HBM hälst.

Vor allem dürfte das zuweilen ordentlich heizen im HBM2. Das Problem hat Fiji dann gar nicht.
 
Das Problem bei AMD ist eher die Fertigung.

Bei 7LP erwarte ich höheren Takt, dieser Prozess wurde zusammen mit AMD entwickelt und ist für CPUs/GPUs gedacht.

14LPP ist ja immerhin nur ein "Smartphone-SOC-Prozess"!
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Strikerking schrieb:
Das könnte man besser herausfinden wenn man Vega mit dem Release Treiber und dem aktuellen Treiber testet natürlich mit den richtigen Taktraten. Ansonsten macht es keinen sinn.

Lies doch bitte einfach erstmal den Test fertig dann beantwortet sich deine Frage von selber. Die Treiber wurden eben schon verglichen.

Mit der HD 7970 und HD6970 gabs solche Tests auch mal und da ist GCN so richtig davon gezogen, das bleibt hier komplett aus.
 
Whiskey Lake schrieb:
Golem hat schon mehrmals behauptet, GCN wäre technisch auf maximal 64CUs limitiert.

Kennt jemand dazu eine Quelle, die das bestätigt?
Ich hab bei Golem schon öfters wenn das in Artikeln vorkommt gefragt, aber die ignorieren diese Frage immer...

AMD meinte iirc dass sie es persönlich nicht wollen. Es wäre zwar möglich, aber man hätte kein Interesse.
 
psYcho-edgE schrieb:
Warum sollte man Spiele mit solch unregelmäßiger Performance (PUBG) oder mit geringer GPU-Last (LoL, Fortnite) für Grafikkarten benchmarken?

Weil es darum geht den Nutzern zu zeigen, was ihr Lieblingsspiel für FPS auf dieser Karte hat. Dazu ist die Wahrscheinlichkeit höher das entsprechende Spiel zu treffen, wenn man auch ein paar angesagte Titel verwendet und nicht nur die Spiele, die vor X Jahren einmal für einen Redakteur-PC eingekauft wurden.
 
  • Gefällt mir
Reaktionen: WulfmanGER und ZeXes
Hier wird immer so getan als könne man mit Vega nicht spielen.
Was die Rohleistung angeht, ist sie kaum zu schlagen. AMD hat in das Treiberteam investiert, wahrscheinlich gerade weil Vega so schnell nicht abgelöst werden kann, die brauchen noch etwas Zeit, denke ich.
 
Liegt das nicht eher an der Fertigung?

64CUs in 14LPP sind immerhin auch noch ziemlich groß.
Bei 7nm sieht das anders aus, da wäre eine 64CU-GPU viel kleiner als Vega10.

Golem meint halt, daß es rein technisch bei GCN nicht mal theoretisch möglich wäre, dazu hab ich bis heute aber keine Antwort bekommen und auch selbst nichts gefunden.
 
raphe schrieb:
Weil es darum geht den Nutzern zu zeigen, was ihr Lieblingsspiel für FPS auf dieser Karte hat. Dazu ist die Wahrscheinlichkeit höher das entsprechende Spiel zu treffen, wenn man auch ein paar angesagte Titel verwendet und nicht nur die Spiele, die vor X Jahren einmal für einen Redakteur-PC eingekauft wurden.

Was bringt dir eine Übersicht an nahezu gleich langen Balken? Spiele im CPU-Limit werden durch schnellere GraKas nicht schneller. Die gleiche Diskussion kommt übrigens jedes Mal bei den 720p-Tests bei CPU-Benches.

Und die Spiele in der GPU-Auswahl sind schlicht die derzeitige Auswahl an GPU-Fressern, die CB mindestens ein mal jährlich auffrischt.

Ich weiß gerade nicht, ob du den Unterschied von GPU-Benches, CPU-Benches und Spielebenchmarks nicht verstehst oder nicht verstehen willst.
 
Wolfgang schrieb:
Was einen Vögelchen zwitschern will man lieber gar nicht wissen...

Oha, das klingt ja fast nach "AMD plant eine Aufgabe des Gaminggeschäfts". :heilig:
Wirklich wundern würde es nicht, laut diversen Quellen verdienen die an Vega nur aufgrund der Miningpreise Geld, da der HBM2 immer noch so teuer ist. Daraus müsste man ja ableiten, dass bei konkurrenzfähigen Preisen nichts bei AMD hängen bliebe oder es sogar ein Verlustgeschäft wäre, welches nur aufgrund von Marktanteilen weiter betrieben wird.
 
Für den Preis ist die Leistung leider zu wenig.

Die VEGA 56 für 300€ und wäre bereit zu zahlen.
 
Schöner Artikel der endlich mal alle Kritikpunkte unter einem Hut zusammenfasst für die man im Forum ansonsten immer als nVidia Fanboy betitelt wird. Der Link kommt gleich in die Favoritenliste rein für spätere Verwendung :D

Nitschi66 schrieb:
Da jetzt nun schon ein paar mal der Shrink von Maxwell auf Pascall angesprochen wurde:
Kann AMD sowas (ähnliches) nicht auf mit Vega schaffen?

Da Pascal kein Maxwell Shrink ist, sondern eine wirklich Architekturänderung, erübrigt sich die Frage eigentlich von selbst.

Maine schrieb:
Oha, das klingt ja fast nach "AMD plant eine Aufgabe des Gaminggeschäfts". :heilig:
Wirklich wundern würde es nicht, laut diversen Quellen verdienen die an Vega nur aufgrund der Miningpreise Geld, da der HBM2 immer noch so teuer ist.

Macht doch gar keinen Sinn, da sie ja trotzdem im Gaminggeschäft abliefern müssen wenn sie die Spielkonsolen weiterhin bestücken möchten. Sie brauchen einfach eine neue Architektur und zwar dringend.
Da Koduri jetzt weg ist und zwangsläufig ein neuer Architekt übernehmen muss, wäre jetzt ein idealer Zeitpunkt, damit man nach Navi (und Navi Refresh) mal wieder was neues raushauen kann. Ich glaube nämlich nicht dass Navi schon diese neue Architektur wird die man bräuchte, auch wenn das in der Vergangenheit teilweise so kommuniziert wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Galatian
Zurück
Oben