Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

Mir stellt sich die Frage, warum sich AMD nicht endlich von GCN verabschiedet, vllt. wird Navi ja auch noch ein GCN-Aufguss!? Wie lange hat man Vega entwickelt, warum hat man nicht da schon ein komplett neues Design aufgelegt? Parallel zum neuen Design hätte man Polaris aufbohren können und man hätte eine Karte als Konkurrenz zur 1050ti bringen müssen.
Ich meine, dass sich AMD bei Gamingprodukten auf einfachere Technik beschränken sollte, komplizierte Features, die kein Spiele-Entwickler benutzt, bringen dann auch dem Kunden nichts. HBM/HBM2 ist nur teuer und schlecht lieferbar, bringt in Spielen aber auch nicht wirklich etwas. Mein Prinzip für AMD wäre "KISS", "keep it simple, stupid".
 
Sternengucker80 schrieb:
Selbst, wenn AMD/ATI besser und billiger war, wurde zu NV gegriffen.

AMD hat einfach ein Image Problem, aber wann hat AMD das letzte mal denn wirklich überzeugt? Wenn die Karten wirklich "besser" waren und auch noch günstiger dann hätte man die auch gekauft.

Mein Bruder und ich hatten beide eine XFX 7870 (XT war das glaube ich). Die war für den Preis ne richtige Flotte Karte, (besseres P/L als NV) wurde allerdings ziemlich heiß und laut. Das war aber nicht das Problem.

Sowohl mein Bruder als auch ich hatten Probleme mit Blackscreens, Bluescreens, Bildschirmflackern (da sich der Speicher ständig hoch und runter taktet) und Mauszeiger Bugs? (der Mauszeiger hat sich gelegentlich beim Verschieben auf den zweiten Bildschirm in Pixelbrei verwandelt). Wir beide hatten Unterschiedliche Systeme und nur die gleiche Grafikkarte.

Die Karte war schneller und günstiger als das Gegenstück von Nvidia, aber hatte dafür andere Probleme. Man hat einfach ständig das Gefühl irgendetwas fehlt immer bei AMD.
 
Ich hatte eine Powercolor HD 7870, die hat keinerlei Probleme gemacht, lief mir nur einem Lüfter undervoltet und übertaktet sehr kühl und leise, eine der besten Grafikkarten, die ich je hatte.
 
Gschwenni schrieb:
ich kann doch nicht immer anderen dafür die Schuld geben dass es nicht läuft.
Wäre ich mir nicht so sicher. In den meisten Fällen mag es tatsächlich so sein, ja. Nur wissen wir alle dass Grafikkarten- und CPU-Kauf häufig von Emotionen und Gefühlen geleitet wird und nicht zwingend nur rationale Beweggründe eine Rolle spielen.

Für ein Unternehmen mit geringem Budget sehr problematisch, denn bei solchen Käufergruppen ist Marketing wichtiger als alles andere, da der Kaufanreiz primär vom Image und der gefühlten Identifzierzung mit dem Hersteller ausgelöst wird.

Gschwenni schrieb:
Ja weil AMD es nicht geschafft hat zu überzeugen, dann muss AMD etwas ändern , aber nicht die Käufer.
Zu kurz gedacht. Wie soll AMD etwas ändern wenn trotz rational gleichwertigem Produkt die Konkurrenz gekauft wird? Die Mär mit der angeblich so miesen Effizienz ist ja auch ein Thema, welches damals in den Medien extrem hochgekocht wurde. Überhaupt sollte man sich hier ohnehin mal die Frage stellen, ob die Medien in ihrer damaligen Berichterstattung und Suggestion zu AMD-Produkten - die es zweifelsohne gab! - mit ´zu der Problematik beigetragen haben wo wir heute sind.
 
  • Gefällt mir
Reaktionen: E1nweg
Köf3 schrieb:
Wie soll AMD etwas ändern wenn trotz rational gleichwertigem Produkt die Konkurrenz gekauft wird?
Bei Ryzen funktioniert es doch auch, warum sollte das bei GPUs nicht funktionieren, wenn sie denn konkurrenzfähig sind?
 
  • Gefällt mir
Reaktionen: Gschwenni
@HerrRossi Hm, ich wünschte ich könnte das so bestätigen...
Wenn ich in den nächsten Einzelhandel (auch "PC-Laden") gehe finde ich nur Laptops mit Intel-Technik, nur Fertig-PCs mit Intel-Technik. Im Markt welcher wirklich lukrativ ist, ist Ryzen bis dato quasi nicht verfügbar.

Ich bezweifele, dass AMD allein durch Selbstbauer und die winzigen Mengen OEM Gewinn einfährt und den Marktanteil signifikant steigert - gerade wo Notebooks vom Großteil der Leute genutzt werden.
 
HerrRossi schrieb:
Das Prestige der schnellsten Grafikkarte, egal wie erreicht, hilft bestimmt ziemlich, wenn es einfach auf den Rest der Serie projeziert wird.

Und das ist ja nur der Startpunkt. Es kommt aber noch ein ganzer Rattenschwanz an Folgeeffekten dazu.

Zum Beispiel "Influencer" bei Youtube und Twitch, die ihre Zuseherschaft eventuell auch in eine Richtung lenken wenn sie ihr Setup besprechen. Die haben oft Partnerschaften mit den Gamingzweigen der Kartenhersteller und bekommen natürlich immer das Schnellste gestellt oder günstig zu kaufen. Der Kartenhersteller will ja auch gut dastehen. So kommt eins zum andern und plötzlich kennt keiner in der Zielgruppe mehr den anderen Chiphersteller. Der leistet zwar (in dem Preisbereich der Zielgruppe) das gleiche wie der "Große Hersteller", vielleicht sogar günstiger, findet aber in der Filterblase eben jener Zielgruppe nicht mehr statt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gschwenni
HerrRossi schrieb:
Bei Ryzen funktioniert es doch auch, warum sollte das bei GPUs nicht funktionieren, wenn sie denn konkurrenzfähig sind?

wie hoch ist denn der anteil von polaris 10/20 karten gegen die gtx 1060?

selten hatte man so einen technologischen gleichstand wie bei den zwei karten. polaris braucht etwas mehr strom, hat dafür mehr speicher und mehr power, was ihr jetzt in den aktuellen (nicht gameworks) spielen ungemein hilft - hier unterliegt die gtx1060 der rx580 ziemlich deutlich.

laut steam kommen ca 14 gtx 1060 auf eine polaris 10/20 karte und laut oculus rift ist der faktor immer noch >5, und die gtx 1080ti faktor 3 - also drei mal so viele gtx 1080 ti wie polaris 10/20 karten. eigentlich sollte man meinen, dass eine ausgeglichen gute mittelklasse nicht in so einem missverhältnis steht.

https://developer.oculus.com/hardware-report/pc/

da hast du, was dir "konkurrenzfähig" bringt, wenn "radeon" auf deinen produkten steht.

im übrigen scheint ryzen nicht wirklich den weg in gaming pcs zu finden - hier liegt intel laut oculus rift auch noch bei 88% marktanteilen. ryzen läuft sicherlich gut, aber leute schmeißen deshalb nicht ihre intel rechner weg, und die zahl der verkauften 8700k trotz ryzen+ ist irgendwie ernüchternd.
 
Zuletzt bearbeitet:
Rom wurde auch nicht an einem Tag erbaut, den massiven Rückstand, den AMD durch Bulldozer erlitten hat, kann nicht binnen eines Jahres aufgeholt werden, da muss auch viel neues Vertrauen aufgebaut werden, das gilt besonders in der Data Center-Sparte. Bei den GPUs ist es ähnlich, der Makel "zu heiß, zu stromhungrig" haftet noch an, das dauert seine Zeit, das loszuwerden und Nvidia hat anders als Intel auch nicht unbedingt künstlich die Leistung eingebremst.
Ich sehe jedenfalls keinen Grund, warum AMD jetzt die Flinte ins Korn werfen sollte, vom Miningboom hat man auch profitiert, das hat viel Geld in die Kassen gespült, das gilt es jetzt richtig einzusetzen und konkurrenzfähige Produkte wie Ryzen auch auf dem GPU-Sektor zu entwickeln.
 
Amd wird versuchen mit Navi eine konkurrenzfähige Mittelklasse GPU zu schaffen, ob ihnen das gelingt ist aber fraglich, da Navi noch auf GCN basiert, wie soll das auf dieser Basis funktionieren?
 
Ich weiß gar nicht was ihr wollt, im Gesamtkonzept ist AMD doch nVidia Meilenweit voraus!
FreeSync gibt es IMMER für UMME dazu. Da ist es fast egal ob die Grafikkarten mit nVidia mithalten können. Da das wichtigste Feature, bei AMD sehr viel besser und für 0 Euro Aufpreis zur Verfügung steht.

Ich rate niemanden zu nVidia im midrange Bereich, nur wenn man lächerlich viel Geld ausgeben kann und will, dann sollte man zu nVidia greifen.
 
HerrRossi schrieb:
"zu heiß, zu stromhungrig".

da ist die presse aber auch nicht unbeteiligt dran.

an der stelle darf man nochmal an das theater bei der referenz rx480 erinnern, die 75 watt aus dem pcie slot gezogen hat und es das mega drama war? die gtx 950 hat keinen externen stromstecker und zieht auch 75 watt. problem? das eine ist nvidia, das andere amd. skandal skandal.

und ich lass das auch mal hier:

stromverbrauch.jpg


laut CB liegen zwischen 1080 oc und vega 100w, laut toms hardware sinds 65w.
 
  • Gefällt mir
Reaktionen: E1nweg und Schmarall
Naja die RX480 hatte mehr wie 75 Watt aus dem pcie Slot gezogen, das war das Problem!

Dies stelle eine nicht unterbelichte Verletzung der Spezifikation dar, zum Glück konnte AMD durch einen Treiber-Hack das Problem lösen.
 
@duskstalker Du rennst bei mir im Grunde offene Türen ein, die Rolle, die die Presse spielt, ist nicht zu unterschätzen und oft liest man auch einen blaugrünen Bias heraus, was aber wenig verwunderlich ist. Das ist eben das Schicksal des Underdog und ob AMD mittelfristig nochmal Marktführer, egal ob bei CPU oder GPU, wird, darf bezweifelt werden. Das finde ich aber auch nicht schlimm, wichtig ist, mit vernünftigen Produkten kostendeckend zu arbeiten.
 
BestinCase schrieb:
Naja die RX480 hatte mehr wie 75 Watt aus dem pcie Slot gezogen, das war das Problem!

sicherlich wäre ein 8pin stecker an der rx480 besser gewesen, aber den wollte man nicht. trotzdem: alle meldungen über gestorbene mainboards bezogen sich auf einen einzigen post im amd reddit - und der rechner sah nicht so aus, als wäre die rx480 die einzige mögliche ursache dafür.

letztendlich kann man eigentlich nur davon abraten zwei referenz rx480 im crossfire zu verwenden. ich habe mich damals eingehend mit der thematik auseinandergesetzt und (ich glaube) im pcgh forum gabs einen pc bastler, der zu demonstrationszwecken eine enorm hohe last an pcie-slots angelegt hat - und es ist nichts passiert.

das überschreiten der pcie spezifikationen muss nicht unbedingt sein, aber ich habe seit dem reddit post nie wieder von einem gestorbenen pcie slot wegen einer rx480 gehört. ich fand das medienecho mal wieder amd typisch komplett überdreht.

die gtx 960 strixx hatte spikes bis zu 225w über den pcie slot:
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html

und auch die gtx 1070 überschreitet die "75"w spezifikation des pcie slots:
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1070-8gb-pascal-performance,4585-7.html

wo sind hier die gestorbenen pcie slots und #aufschrei?
 
  • Gefällt mir
Reaktionen: Schmarall
duskstalker schrieb:
wo sind hier die gestorbenen pcie slots und #aufschrei?
Danke für Deine Ausarbeitung und die Quellen. Genau das ist das was ich in einem meiner vorigen Posts meinte:

Köf3 schrieb:
Überhaupt sollte man sich hier ohnehin mal die Frage stellen, ob die Medien in ihrer damaligen Berichterstattung und Suggestion zu AMD-Produkten - die es zweifelsohne gab! - mit zu der Problematik beigetragen haben wo wir heute sind.

Von der Konkurrenz habe ich diese Art der Berichterstattung wie sie bei der RX480 ablief so nicht wahrgenommen. Selbst bei der 970 mit 3,5 GB-Schnell-RAM nicht...
 
Das kann schon sein, dass ohne diesen post auf reddit die Sache gar nicht untersucht worden wäre, gilt ja für beide Herstellet dann.
Ein CF mit RX480 wahr eine tolle Sache und hat gut funktioniert, das muss man lassen. Man konnte somit einer 1080 damals Paroli bieten. Vielleicht wäre das auch wieder eine gute Strategie mit Mainstream Navi ... Denn eine Vega64 hat ziemlich genau die Leistung von 2xRX480
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Beweise doch nicht den mangelhaften Wahrheitsgehalt deiner Aussagen immer wieder aufs neue.
Das Referenz Design der 290x hatte die 95 °C als Zieltemperatur anhand derer sie die Taktfrequenz an passte und damit auch der Verbrauch variierte.

95 Grad sind schon sehr nahe an den 100.
Wenn das unbedarfte User sehen und dazu die Turbine bei höheren PT, dann schreckt das jeden ab.
Wadenbeisser schrieb:
In der Standard Einstellung kam das Teil aufgrund der begrenzten Lüfterdrehzahl auf ca. 220W und war entsprechend weit von den 1000 MHz max. Takt entfernt.

In der Standardeinstellung dann aber auch langsamer als ne GTX 970 bei trotzdem noch deutlich mehr Stromverbrauch und die 390 zog dann später das doppelte bei Minimal mehr Leistung.
Wadenbeisser schrieb:
Das ist aber an und für sich vollkommen irrelevant weil die 290er Serie gegen nvidias GTX780er Serie antrat und zu Zeiten der GTX970 bereits die 390er Serie raus kam

Release GTX 970 September 2014
Release R9 390x/390 Juni 2015

Wadenbeisser schrieb:
Des weiteren schrieb ich ich von den Durchschnittswerten die aus mehr als einem Spiel gezogen wurden

Async Compute is noch immer völlig unwichtig, da vielleicht 0,1% der Spiele am Markt das unterstützen.
Ergänzung ()

D708 schrieb:
Und das Vega keine IPC Verbesserung bringt zu Polaris ist ebenfalls überhaupt nicht schlimm. Oder ist für dich Pascal auch ein Reinfall. Nach der Logik ist jede Shrink Gen Katastrophe.

Natürlich ist die Vega Generation hinsichtlich der IPC ein Reinfall Flop Fail nenn es wie du willst, weil es nach allen Beteuerungen von AMD nicht zu mehr IPC kommt.
Die Grafikkarte selbst ist wieder anders zu bewerten, hier gehts nur um die Architekturverbesserungen.
Und du hast immernoch nicht verstanden dass der Test Vega nicht schlecht macht, sondern nur deren geplanten IPC Verbesserungen, denn die wären nötig gewesen damit man ein gutes Produkt hat.
D708 schrieb:
Ich habe weder den Test, noch das Fazit kritisiert sondern nur die Vermittelung selbiger

Also darf man nix negatives zur Vega IPC schreiben, wenn man keinen Aufkleber mit Vega ist super auf der Stirn kleben hat?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
DocWindows schrieb:
Nein, kann man nicht. Denn du lässt dabei total die Sogwirkung der Superlative außer acht, die man ausüben kann wenn man eine "schnellste Grafikkarte" hat und ne gute Marketingabteilung. Dabei zieht die Existenz der Top-Karten die Verkäufe der schwächeren Karten mit nach oben.
Menschen sind keine Maschinen und entscheiden nicht rein nach logischen und rationalen Erwägungen. Werbung funktioniert z.B. nur deswegen. Würdest du lauter "Commander Datas" (ich hoffe du kennst Star Trek) als Kunden haben, dann wäre das was du vorschlägst eventuell ne Option. Dann gäbe es aber vermutlich auch kein webefinanziertes Internet.

Bei den CPUs klappt’s doch auch ganz gut.

Auch hier hat man nicht die schnellste CPU am Mark, aber runde Produkte zu einem vernünftigen Preis und von den APUs angefangen bis zum Ryzen 2700X ein gutes Portfolio.

Die Verkaufszahlen sprechen doch für sich.

Meiner Meinung nach muss man nicht immer die Speerspitze haben.

Liebe Grüße
Sven
 
AMD brauch einen Image Wandel, so müssen sie in einem Bereich auch richtig gut sein, sind sie ja bei Anwendungen, passt also.
 
Zurück
Oben