Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Auch ich bin leider sehr enttäuscht. Sooooo lange auf Vega gewartet und ich hätte es ihnen echt gegönnt mein Geld haben zu können... Echt schade für Vega. So wurde aber gestern eine GTX 1080 bestellt.
 
Angebot und Nachfrage eben.
Die Nachfrage übersteigt das Angebot, also setzen die Händler die Preise rauf um mehr daran zu verdienen.
 
Zotac2012 schrieb:
@Sebbi
Ja Nvidia ist schuld, das der RX Vega Chip so bescheiden Performt, wenn einem nichts mehr einfällt, dann sucht man die Schuld halt woanders. Aber was ist eigentlich mit dem Spruch der AMD Marketing Abteilung den man auf Twitter rausgehauen hat: "AMD macht sich bereit, das Unmögliche auf der SIGGRAPH 2017 zu zeigen! Oder auch das die RX Vega ein sehr gutes Preisleistungsverhältnis hätte, schaue ich mir jetzt die Vega 64 Preise an, sind diese teils teurer wie einzelne Modelle der GTX 1080. Interessant ist auch, das viele den Preis auch so akzeptieren, bei Nvidia hieß es noch, die Preise wären unverschämt

Solange wie Nvidia nicht den Code für Gameworks und die ganzen anderen Bibs offen hinlegt, muss AMD zu jeden Polygon Reverse Engineering betreiben, um Problemen auf die Sprünge zu kommen. Wenn dann da aber noch so Sachen wie bei PhysX eingebaut wurden, das wenn Grafikkarten anderer Hersteller gefunden wurden, alles nur noch per CPU und absolut ineffizenten Befehlen abgearbeitet wird statt mit der vorhandenen Nvidiakarte mit PhysX Chip ... sry aber da kann man durchaus sich denken, das in Gameworks und anderen Nvidia Bibs genau so ein Dreck drinne ist.

Darum finde ich es für mich moralisch verwerflich, mir irgendwas von denen derzeit zu holen, da deren Erfolg auf sehr sehr fragwürdigen Fundamenten steht. Wie siehts eigentlich aus mit den Treibern .... da sollen ja auch noch die Routinen von 2001 drinne schlummern .... ihr wisst schon umbenennen der 3DMark exe und schon hatte Nvidia karten nur noch ne Teil ihrer Leistung
 
Zuletzt bearbeitet:
crowblade schrieb:
Weil das bei der 1070 auf die 1080 ja auch anders war, richtig?

Achso, ne. Sogar ziemlich gleich :D


Ist schon schwer Balkendiagramme zu lesen.

CB hat praktischerweise auch ein Performance pro Watt Diagramm. Die 1080 hat ein besseres Verhältnis als die 1070. Die 64 logischerweise ein schlechteres als die 56.
 
Oh man, mit Vega 64 legt man (meiner Meinung nach) die größte Bauchlandung der IT Industrie in den letzten Jahren hin.
Vega 56 scheint ja ganz gut zu sein, man schlägt eine übertaktete 1070, die sich in etwa gleich viel genehmigen sollte. Aber Vega 64, der mit einem Verbrauch von 300-400W gerade mal an der 1080 kratzt bzw. bei 400W die OC-Version so eben überflügelt, ist ja wohl ein Armutszeugnis.
Dazu scheint nichts zu funktionieren, der HBCC ist noch immer deaktiviert, Primitive Shader funktionieren nicht und ich bin mir sicher, der neue Rasterizer läuft ebenfalls noch nicht rund.
GCN hat sich wohl überlebt, die Architektur muss endlich weg und grunderneuert werden. Hoffen wir mal, AMD schafft mit Navi, was sie mit Ryzen schon geschafft haben. Dank Erfahrungen mit dem Infinity Fabric sollten sie da zumindest einen Technologievorsprung haben.
Hier hätte es wohl echt gereicht, mit einem Fiji-Shrink mehr Takt raus zu holen.
Ein Glück, dass ich mit meiner 980 Ti noch lange auskommen werde, würde gern zurück ins rote Lager und mir endlich einen FreeSync Monitor anschaffen. Aber mein 1080p Monitor wird dann halt noch ein paar Jährchen stehen und da wird die übertaktete 980 Ti noch locker für reichen, liegt sie von der Leistung ebenfalls auf/über der 1070.
 
Pandora schrieb:
Bei AMD ist doch irgendwo der Wurm drin, kaum bekommen sie es mit den CPUs gebacken und liefern was ordentliches, brechen sie bei den GPUs ein.

Dachte ich mir auch. Klar an sich ist Vega schon ein Fortschritt aber es wird wohl dabei bleiben, dass überwiegend AMD-Enthusiasten zu den Kunden gehören werden. Aus dem NVIDIA Lager kann man mit Vega kaum jemanden abwerben.

Wenn NVIDIA nicht so mit den G-Sync Preisen schweinzen würde hätte es AMD noch schwerer.

Schade!
 
Zuletzt bearbeitet von einem Moderator:
azereus schrieb:
eigentlich n guter zeitpunkt meine R9 390 an nen miner zu verkaufen oder?

Dafür ist es vielleicht zu Spät
Also Ich hab meine R9 290 für 250€ vor 2 1/2 Jahren Gekauft
Als der Mining-Hype aufkam, Verkaufte Ich Sie für 293€ auf Ebay

Jetzt noch 100€ dazu, Vega 56

Mein Plan hat also super geklappt.
Man Kauft ja auch nur wenn man Braucht. Und Ich brauche.
Würde sogar eine 1060 6GB für 180€ nehmen.

Sollte Navi kommen, wird Vega Verkauft mit nem bisschen Verlust, und gut is.
Grafikkarte wird sowieso schneller Gewechselt als RAM und CPU bspw.
 
Für mich ist das ein notgedrungener Launch, um den Anschluss an NVIDIA nicht komplett zu verlieren. Dementsprechend Schlecht sind die aktuellen Benchmarks, da das volle Potenzial der Karte noch nicht ausgereizt wird.

Ich hätte gerne das Bundle mit dem neuen Monitor gekauft und finde es sehr Schade das AMD mit Zweierlei Maß in den USA und Europa misst.

Aber: Die Treiber sind noch nicht ausgereift und bei den Custom Designs gibt es sicherlich auch noch Luft nach oben.

Und einmal mehr heisst es bei AMD: Kommt Zeit kommt Rad(eon) ! :freak:
 
Also, ich wusste dass der Vega kein Riesen Knaller wird, aber dennoch nicht mal ein GTX 1080er einholen? Da bin ich echt froh ein über 1j GTX 1080 drin zu haben, welches immer noch schneller ist als die AMD Pendant :D

Aber echt schade für AMD, hätte gerne Konkurrenz gesehen in den oberen Rängen, denn zwischen der RX Vega 64 und GTX 1080Ti sind ja noch Welten...
 
tek9 schrieb:
Vega 56 ist eine interessante Karte die im Mittel 10 Prozent vor der 1070 liegt (siehe CB Review)

10% sind schon optimistisch, wenn es real in Full HD 6% sind, in WHQD 8% und 4K 7%.
Die GTX 1070 Gaming kann mit der max RX Vega 56 gleichziehn.
Ich weiß ned welche Karte da jetzt besser ist.
Ich würd eher die 1070er kaufen. Stabilere Leistung, weniger Noise.
 
Zitat aus demn Test: Die HairWorks-Integration in The Witcher 3 nutzt dagegen hohe Tessellation-Faktoren und schon dreht sich das Bild um. Die GeForce GTX 1080 verliert 16 Prozent durch die hübschere Haardarstellung, die Radeon RX Vega 64 höhere 23 Prozent. Radeon R9 Fury X und RX 580 werden gleich um 31 Prozent langsamer.

Ach neee....AMD verliert mehr FPS bei einem proprietären NVIDIA Feature und man schreibt das dann auch noch so verwundert auf? Ernsthaft?
@CB man kann diesen ganzen Nvidia Gameworks shit nun wirklich nicht vergleichen auf NVidia und AMD Karten, das ist total dämlich.
Man sollte dann vielleicht noch wenigstens erwähnen, dass man bei AMD die möglichkeit hat, die Tesselationsstufe im Treiber einzustellen und somit mehr Leistung bekommt, bei kaum schlechterer Optik der Haare.
 
Sebbi schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Jo bei manchen Reviewern muss man sich da an den Kopf packen WatchDogs 2 und Fallout 4 so Nvidia freundlich zu testen da müssten sie einen Award der Dummheit für bekommen ;)

Dabei ist grundsätzlich jedes Nvidia feature sehr gut zu erkennen und in Fallout 4 ist es ein konsolen befehl um Goodrays performanter auf AMD zu bekommen und selbst nicht potenten Nvidia Karten mit leichten Psy verlusten aber relativ unerheblich vs den Performance boost.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
_Cloud_ Post #762

Dein Post hat praktisch keinen Inhalt und wurde hastig in dieses Forum erbrochen. Ich schlage vor Du kaufst Dir mal ne Tüte deutsche Grammatik und bringst etwas Kontinuität in Deinen Satzbau.
 
Für die Leute, welche immernoch nicht verstehen wie unfassbar wichtig Undervolting ist in AMD-Systemen (sowohl Ryzen als auch jegliche GPU): http://www.gamersnexus.net/hwreviews/3020-amd-rx-vega-56-review-undervoltage-hbm-vs-core

Mehr Performance, reasonable powerdraw UND wesentlich stabiler. Mit höherwertigeren PCBs und Bauteilen von Partnerkarten erscheint meine Vision von steady 1.6 GHz Core und ~1 GHz HBM2 auf einer RX Vega 56 bei max 200 Watt doch nicht soo unmöglich. Kanns kaum erwarten das Teil zu optimieren <3
 
Andergast schrieb:
am Erscheinungstag ...

Naja, wenn AMD die Karte angeblich zurückhält um für ausreichende Verfügbarkeit zu sorgen und ich dann keine bekomme...

Und ich war sogar bereit ein Referenzdesign zu kaufen und über die ganzen Negativpunkte hinwegzusehen.
Aber ich habe jetzt einfach lange genug gewartet. Alles muss man sich auch nicht gefallen lassen.

Soll ich noch auf die 56 warten? Die dann wieder nicht Verfügbar ist. AMD hatte seine Chance. Ich brauche jetzt ne Grafikkarte und nicht in 5 Monaten, bei unsicherer Marktlage und Verfügbarkeit.

Die 1080 war schonmal 50 Euro billiger, ja. ABer sie war auch schonmal 200 Euro teurer. Von daher ist der Preis jetzt für mich ok. Ich habe ja auch 250 für meine RX 470 8 GB gezahlt. Da jetzt für 220 % mehr Leistung 550 zu zahlen ist für mich in Ordnung.
 
Zuletzt bearbeitet:
@ Gschwenni

Jein, im Test sind ja auch Gurken wie Dishonored 2 die recht offensichtlich an einer anderen Stelle massiv limitieren.
Wenn man dann auch noch sieht das z.B. beim 3D Mark gerade einmal gute 30% zwischen der Fury X und der Vega 64 liegen (Da sind bei vielen Spielen schon erheblich höhere Steigerungen drin) merkt man recht schnell das da was überhaupt nicht rund läuf.
 
Wieso wird nicht auf das Undervolting bzw. PT runtersetzen eingegangen? Wenn ich bei meiner 1080 das PT auf 60% stelle, fällt der Takt um nur 15%. Das kommt natürlich der Effizienz zu gute.

Wie ich gerne schon sagte, halte ich HBM im Consumermarkt einfach nur für unnötig und von einigen overhyped. Nvidia schafft mit GDDR5X auch hohe Bandbreiten und braucht dafür auch noch im Gesamten weniger Chipfläche. Die GTX 1080 Ti schafft 484GB/s vs 483GB/s bei Vega 64. Und die elektrische Leistungsaufnahme ist ja jetzt auch nicht groß anders.

Getreu der Aussage "Zu wenig, zu spät" liefert AMD zwar für den Preis die richtige Menge an Leistung, aber leider zu spät.
 
In Blender rendert die Vega 64 wohl 20% schneller als eine 1080ti. Irgendwas stimmt da nicht, warum bekommt AMD die (mehr)Leistung an TFLOPS nicht anständig auf die Straße? Das mag ein anderes Szenario sein, aber grundsätzlich wäre Leistung vorhanden...

Undervolting würde mich auch noch interessieren, insbesondere bei der 56. Ich hoffe CB legt da noch nach und testet ordentlich.

Zu den aktuellen Preisen:
Angebot und Nachfrage. Wenige Karten kosten zu viel... u don´t say?! Warum man unbedingt an Tag 1 so eine Karte haben muss erschließt sich mir nicht ganz. Einfach 4 Wochen warten und hoffen dass dann die Verfügbarkeit besser ist und evtl. bessere Treiber zeigen wohin die Reise geht (oder auch nicht).
 
Wo AMD bei den CPU's überrascht hat, enttäuschen sie bei den GPU's.

Man muss aber auch sagen das Nvidia da was wirklich gutes im Programm hat, das einfach zu überholen wäre unrealistisch.
Immerhin hat AMD, mehr oder weniger, den Anschluss wieder gefunden und das sollte man als Positiv betrachten.

Je nach dem wie sich die Preise in den nächsten Wochen so entwickeln, kann eine Vega Karte sehr interessant werden.
Eine AMD Radeon RX Vega 64 Max für 430€ würde sehr viele Abnähmer finden, aber da werden uns die Minder ein Strich durch die Rechnung ziehen.
 
Cru_N_cher schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

es ist eben die Frage was die Bib wirklich macht, wenn man die im Menü deaktiviert und was für Befehle da im Hintergrund ablaufen.

Mal eine Wahnvorstellung von mir: Man schaltet das Nvidia Feature ab, alles fein, sieht man nicht mehr im Spiel. Nun ist wie bei PhysX aber eine Erkennung von GPUs integriert, die dann statt den Feature bei vorhandensein einer anderen GPU als Nvidia irgendwelche Bremsen aktiviert, um die Konkurenz schlechter dastehen zu lassen. Das würde ich Nvidia zutrauen, sowas in Gameworks integriert zu haben.

Allerdings muss man Nvidia zugestehen, das die die Treiber an AMD Spiele gut anpassen können, wobei AMD ja hier mit absolut offenen Karten spielt.
Ob da Nvidia sich dann aber auch wieder durchmogelt, wie bei der 970, wo das Details nicht mehr berechnet werden oder schlechtere Texturen genommen werden, damit der VRAM auf jeden fall unter 3,5 GB bleibt oder das echte Optimierungen ohne Qualitätsverlust sind, kann man ja leider nicht feststellen, ohne das die Treiber von Nvidia Open Source sind. Hier darum in Zweifel für Nvidia, wenn auch die ganzen Aktionen, die sie sich geleistet haben in der Vergangenheit eben nen Beigeschmack hinterlassen.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Status
Für weitere Antworten geschlossen.
Zurück
Oben