Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
F4naTy schrieb:
Schau dir mal die review von Techpowerup an.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/32.html

Kleiner Ausschnitt, bei 4k ist Vega im Powersaver Mode unglaublich gut - Amd hätte die karte genau so bringen sollen. Mit etwas Undervolting in Kombination mit Overclocking bekommt man sicher eine ziemlich geile Kombination hin.
Anhang anzeigen 637889

das sieht interessant aus - vega bleibt also weiterhin spannend :D ich hoffe in der beziehung kommen bald noch ein paar untersuchungen - wäre nicht die erste karte, die noch etwas getunt werden kann. die boardpartner bekommen wohl einige regler zum stellen, hoffentlich machen die sich auch die mühe. sapphire sehe ich hier eindeutig in der pflicht.


@gta 5 benchmark: rockstar games sind der letzte softwaremüll, genau wie bethesda. ich weiß nicht wie man so einen programmiertechnischen unfall als benchmark heranziehen kann, vorallem weil das ding auf allen amd karten einfach verheerend läuft. den hinweis "vega ist in gta 5 schlecht" kann man sich getrost sparen - natürlich suckt vega in gta, genau wie jede andere amd karte. genau so wie jede ryzen cpu in far cry primal suckt. das negative cherry picking ist wirklich zum reiern, dass das nach 48 stunden immernoch so viel spaß macht :freak:
 
me666 schrieb:
Trotzdem bleibt die Frage, wie will man das noch toppen?

Oder hiermit?
90087.png
 
Zuletzt bearbeitet:
Strikerking schrieb:
Ich hoffe es gibt in ein paar Monaten wenn es Partnerkarten gibt und einen Finalen Treiber einen Nachtest.

Einen Test mit einem BETA Treiber kann man nicht ernst nehmen.

Ich stelle mir die Frage, warum das AMD macht? Was ist das Problem noch ein paar Wochen an der Karte oder den Treiben zu arbeiten und ein finales Produkt zu liefern. Oder kann der Fehler nicht behoben werden?

Würde als Kunde sehr gern eine Stellungnahmne von AMD lesen.

Ich weiß, dass CB dran bleibt und uns immet mit den aktuellen Infos versorgt. Besondern mit den Treiber Tests.
 
1080 Leistung bei ~150Watt mehr Verbrauch.

Es sagt ja auch keiner die VEGA wäre durchgehend besser. Aber wenn man Freesync hat oder einen Sync Monitor kaufen will, für 200 Euro kriegt man viel Strom. VEGA ist nicht so schlecht, wie sie geredet wird.

Wenn einen Freesync oder Gsync natürlich völlig egal ist, spricht nicht viel derzeit für VEGA 64. Hätte ich kein Freesync, würde ich wohl auch eine 1080 kaufen, aber das habe ich nun mal und daher hilft das "kaputtreden" auch nichts.
 
Nach dem Test bleiben bei mir eigentlich nur wieder ein paar Fragen offen:

1.) Wie kann es sein dass man die Fury X trotz 50-60% mehr Takt + Architekturveränderung etc. im Schnitt nur um 30-40% abhängt ?!?!
=> womöglich stimmt hier irgendwas grob (noch) nicht.

2.) Es gab eigentlich noch nie den Fall dass eine Karte je nach spiele mal +30% und mal -30% performed hat... ?!?!
=> womöglich stimmt hier irgendwas grob (noch) nicht.

3.) Schade dass man wieder nicht einen AMD CPU und eine Intel CPU insbesondere bei DX12 games quergetestet hat.
=> Spekulation: man hätte womöglich gesehen dass die Karten in der DX12@AMD@CPU&GPU nochmal im Schnitt 10% zulegen.

4.) Keine Primitive Shader, kein HBCC, und ob der DSBR wirklich so funktioniert wie er soll ist auch offen
=> Primitive Shader kann nochmal ein boost von 10-25% bringen
=> HBCC kann und wird vor allem die min fps bzw die 99%tile boosten. Bei den 99%tilen ist eine Vega64 in der Regel vor einer 1080....komisch, vielleicht hängt das aber auch an der Intel CPU im Test...die FPS-Dips waren beim Ryzen CPU Test auch signifikant höher mit intel CPU.
Zufall ?

5.) Schade dass man die unterschiedlichen Bios/Power Modes nicht wenigstens mal bei 2-3 Games im Verbrauch getestet hat...
=> Techpowerups test zeigt dass man quasi fast keine Leistung verliert aber locker 20-50% Verbrauch sparen kann....
Damit werden die Karten zwar immer noch keine Effizienzwunder, aber immerhin wesentlich besser.

Alles in allem also ein Test der mehr Fragen aufwirft als er letztlich klärt.

Preise muss man sich erstmal etwas enwickeln lassen. Eine Vega56 für 400€ wäre aber durchaus was.

Naja bei mir steht eh erstmal ein Mainboard/CPU Wechsel an ....GPU dann 2018, bis dahin ist noch viel Zeit die Entwicklung zu beobachten.
 
me666 schrieb:
:confused_alt:
[...] 1080 Leistung bei ~150Watt mehr Verbrauch. [...]
Ja, der Verbrauch ist vergleichsweise hoch. Hab ja nur auf deine Frage geantwortet. In BF1 machen die Vega-Karten aktuell nunmal eine bessere Figur als in GTA V. ;)
 
Iscaran schrieb:
2.) Es gab eigentlich noch nie den Fall dass eine Karte je nach spiele mal +30% und mal -30% performed hat... ?!?!
=> womöglich stimmt hier irgendwas grob (noch) nicht.

doch, ist bei der fury genau das selbe - schau dir mal die werte an. spiele, die sich gut auf fiji ausbreiten lassen laufen grob auf 1070 niveau, andere spiele, vorallem alte gimpworks titel drücken die fury auf gtx 1060 niveau. hier wäre anno das topbeispiel, weil die auch vega 56 auf gtx 1060 niveau gedrückt wird. fehlende optimierung + gameworks = leistung aus der hölle.

manche spiele sind halt offener programmiert, und manche sind halt geradezu auf nvidia zugeschnitten. spiele, die eine neutrale performance zeigen, werden auch gerne als "amd benchmark" bezeichnet. so weit sind wir schon gekommen.
 
Starting with Vega architecture you have the ability to use a bit of your system memory and assign it to the graphics card.

~30GB/s vs 500GB/s

Now i have seen it all.


Iscaran schrieb:
Btw. zum Thema Treiberoptimierungen ist das vielleicht auch ganz interessant: planet3dnow

Das ist wie den Papst zu quoten das Gott es echt lieb mit uns meint...
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Guru3D hat bereits 4 Spiele mit HBCC getestet: http://www.guru3d.com/articles_pages/amd_radeon_rx_vega_64_8gb_review,31.html

Dafür dass wohl noch nichts extra für HBCC optimiert ist und die Spiele den Vram nicht ausreizen scheint es ja dennoch schon was zu bewirken.

Sieht für mich schon fast nach margin of error aus.

Btw. wer Hoffnungen hatte die VEGA 56 für 400€ zu bekommen - AMD und der Krypto-Driver wird das wohl zu nichte zu machen:

https://www.hardwareluxx.de/index.p...ive-edition-beta-fuer-blockchain-compute.html
 
Alles Gemunkel, am Ende entscheidet AMD ob sie noch Interesse am dGPU Gaming SKU Segment haben oder net; was sie seit Polaris abliefern sieht das wohl eher net so aus...
 
@me666

Ach echt ? Ist das so ? Und du bist Treiberprogrammierer oder zumindest Spieleentwickler und kannst das einordnen so wie E555user ?

Oder kannst du uns sonst irgendwie zu den Änderungen im Instruction Set des Treibers aufschluss geben ?
 
me666 schrieb:
~30GB/s vs 500GB/s

Now i have seen it all.

Sind wohl eher 40Gb/s ( oder im Fall von Threadripper 63Gb/s ) ,besser als mit 0,5 GB/s aus der SSD.
Ah und die GTX 970 konnte ihre letzten 500mb nur mit 28Gb/s befeuern, aber das war ja ein "feature" .
 
Zuletzt bearbeitet:
Hallo zusammen,

@ me666

Alles Gemunkel, am Ende entscheidet AMD ob sie noch Interesse am dGPU Gaming SKU Segment haben oder net; was sie seit Polaris abliefern sieht das wohl eher net so aus...

Alleine schon aufgrund der Konsolen, wird sich da nichts Ändern. Die Konsolensparte ist eine der Profitabelsten Abteilungen bei AMD. Und wenn sie irgendwann endlich mal ihre Lehren aus ihren Fehlern Ziehen, wird es auch wieder was bei den GPU`s. Immerhin haben sie es bei den CPU`s ja auch hinbekommen. Die Hoffnung stirbt zuletzt.

So long...
 
Was man net so in AMD Threads alles lesen kann...wenn die SoC Sparte so "trächtig" wäre, dann hätten sie wohl so manches Fiasco net nötig.

Wenn SoC's so toll wären dann würde Intel 80% ihrer Einnahmen im IoT Bereich haben und Jensen würde nur noch von Xavier labern (was er auch gerne tut) aber dem ist in der Realität net so.
 
me666 schrieb:
Planet3dnow ist wie 3dcenter und beyond3d samt anand nur noch AMD Krebs

Alleine für solche unfundierten und provokanten Unterstellungen solltest du von der Diskussion ausgeschlossen werden - die Ausdrucksweise spricht auch für sich. Ich beobachte deine Posts schon ein paar Seiten lang und mich wundert immer wieder, welche Motivation Leute wie du haben. Zig Mal auf alle Aussagen antworten, die anscheinend nicht in dein Weltbild passen, entweder belegst du deine Aussagen nicht (siehe Zitat) oder du postet aus dem Zusammenhang gerissene Screenshots und implizierst, dass sie repräsentativ wären.

Ich habe jetzt schon einige Reviews inzwischen gelesen, so schlecht sind die Aussichten in Bezug auf eine einigermaßen ausgeglichene Konkurrenz gar nicht. Vega wird ihre jeweiligen Kontrahenten in ein paar Monaten sicherlich überflügeln. Aktivierung der Features, Treiber, in den neuen APIs DX12 und Vulkan sieht Vega jetzt schon gut aus, vielleicht kommt auch das ein oder andere Spiel mit FP16 raus.

Das macht aus Vega sicherlich kein Effizienzwunder, aber der Powersaving-Mode, das von einigen Reviewern beschriebe mutmaßlich hohe Undervolting-Potential und der simple Fakt, dass AMD beide GPUs klar außerhalb des Sweetspots betreibt, weil man schon zum Release auf dem Niveau der Konkurrent in Punkto Leistung sein wollte, lässt erahnen, dass Vega nicht die Voll-Katastrophe ist wie hier teilweise dargestellt.
 
Aktivierung der Features, Treiber, in den neuen APIs DX12 und Vulkan sieht Vega jetzt schon gut aus, vielleicht kommt auch das ein oder andere Spiel mit FP16 raus.

Hat die IT-Foren-Welt schon zu Polaris Launch-Zeiten lesen dürfen und alles für die Katz (Vulkan ist Unity und somit eh nur Schrott).

Was zählt ist was am Launchday herauskommt, oder hatte die GTX6800/8800 erst nach 5 Monaten so tolle Leistungen gehabt?
 
Du vergleichst wieder Äpfel mit Birnen. Polaris war lediglich eine leicht überarbeitete Version von GCN, Vega ist laut AMD der größte Schritt seit Jahren und hat einen kompletten Rewrite des Treibers nach sich gezogen.

Ich bin schon einige Jahre dabei, aber auch zu Zeiten von GTX8800 kann ich mich nicht erinnern, dass Karten mit bewusst deaktivierten Features herauskamen.
Natürlich können wir als außenstehende schlecht einschätzen, wie viel Potential noch wirklich vorhanden ist, aber die Aussichten sind nicht so schlecht wie du sie darstellt - ansonsten wie gesagt Äpfel mit Birnen.

Warum eigentlich alles für die Katz bei Polaris? Die Leistung der RX480 ist doch nach Release einige Male stark gestiegen, so dass beide GPUs (vs. 1060) bei 1440p mit +-1% gleich auf sind. (https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/31.html).

Wo ich dir recht gebe ist, dass die Leistung schon zum Launch da sein muss / müsste. AMD schafft es immer wieder ihre Launches zu vermasseln, haben sie schon bei Polaris gut hinbekommen.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Tapion3388

Aktivierung der Features, Treiber, in den neuen APIs DX12 und Vulkan sieht Vega jetzt schon gut aus, vielleicht kommt auch das ein oder andere Spiel mit FP16 raus.

Der Punkt ist halt, daß genau diese Argumente bei den letzten Veröffentlichungen der AMD GPU`s auch herhalten mußten. Und es hat sich wenig bis gar nichts getan. Es steht mehr als zu befürchten, daß dies genau auch hier wieder gilt. Es gab keine Treiberverbesserungen bei der RX 480, die ist noch genauso weit weg von der GTX 1060, wie bei Erscheinen, der Verbrauch im IDLE wurde ebenfalls nicht gefixt, obwohl Medienwirksam angekündigt. Man will halt nicht so Recht mehr an all dies Glauben. Für mich sind das alles mittlerweile nur noch Luftnummern.

Das macht aus Vega sicherlich kein Effizienzwunder, aber der Powersaving-Mode, das von einigen Reviewern beschriebe mutmaßlich hohe Undervolting-Potential

Es ist halt nicht schön, daß wieder ein Gefummel und Gefricke herhalten muß, um da bessere Ergebnisse zu bekommen bzw. um da Verbesserungen Erzielen zu können. Noch dazu sind die meisten nicht solch Firm, um sowas zu machen, die wollen die Karte in die Mühle stecken und das soll es gewesen sein, ehrlich gesagt sollte es so im Großen und Ganzen auch sein. Und was du nicht bedenkst, der Konkurrent hat auch ein erhebliches Undervolting-Potential. Es ändert sich in der Relation also praktisch nichts.

dass Vega nicht die Voll-Katastrophe ist wie hier teilweise dargestellt.

Ist ja keine Voll-Katastrophe. Sondern im Prinzip einmal mehr eine Abwägungssache, die jeder selbst Treffen muß. Mir Persönlich ist der Stromverbrauch viel zu hoch. Dies in Verbindung mit der erheblichen Abwärme. Und was nicht zur Sprache kommt, bei dem ein oder anderen kann es sogar Passieren, daß er zusätzlich zum Preis der Vega noch ein Neues Netzteil einkalkulieren muß. Na ja, wie gesagt, Abwägungssache.

Ich habe jetzt extra abgewartet bis Vega da ist. Hätte ich besser nicht gemacht. Denn die Preise sind auch beim Mitbewerber nach Oben gegangen durch den Mining-Boom.

So long.....
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben