Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

Da hier grade viele unterwegs sein dürften, die sich für Grafikkarten interessieren und die was in der leistungsklasse der VEGA suchen, hier ein kleiner, freundschaflicher Tipp, bevor ich den Deal bei mydealz einstelle:

https://www.amazon.fr/dp/B01GEML1AU (1080 für 469,99€)

Bei solchen Preisen ist Vega leider obsolet. Da muss man die 64er schon für <430€ anbieten.
 
Ohne Testergebnis enthalte ich mich meiner Stimme. Ist einfach noch zu früh hier irgendwelche Daten zu diskutieren.

Warten auf den Test und man wird sehen ob AMD nun wieder etwas zu viel verspricht.

Aber der Trailer zu Wolfenstein II ist schon irgendwie interessant.
 
das forum ist so verseucht von Nvidia und Intel fanboys das ist nicht mehr normal :kotz:
das beste ist sie versuchen es durch pseudo argumente zu verschleiern und geben sich wie cuxnase als objektiv aus
gibt es überhaupt noch geistig gesunde foren?
 
m0LN4r schrieb:
Also sprich die schlechte Konkurenz von AMD, wird uns die neuen GTX 1170 oder 2070 sehr Teuer machen.
Das befürchte ich auch, aber man kann es Nvidia noch nicht mal ankreiden, offensichtlich ist ihr Produkt dermaßen der Konkurrenz voraus, dass das den Preis rechtfertigt, AMD würde es nicht anders machen.
 
@Luxmanl525

Naja, 100 Watt halt. Grob gesehen eine "old school" Glühbirne. Ich wohne unterm Dach, im Sommer ist es hier warm. Es war mit meiner alten 200 Watt Karte warm, mit meiner 300 Watt Karte auch und jetzt bin ich wieder knapp unter 200 Watt. Immer noch warm. ;D
Wegen 100 Watt mach ich da halt kein Fass auf. Dabei habe ich hier "extrem" Bedingungen und sollte für jedes Watt weniger dankbar sein. Was das wirklich an Temperatur ausmacht, müsste man messen. Viel dürfte das aber nicht sein.
 
Cuxnase schrieb:
Das war aber nur die FE, die anderenn koseten dann 599 Dollar.

Die ersten 1080-Custom-Karten waren anfangs auch nicht wirklich billiger als die FE. Die ASUS Strix kostete sogar ein paar Euro mehr. Die Inno3D iChill dann 40 weniger usw.
Und an der FE war ja auch nichts Besonderes. Die Vega Limited Edition hat wenigstens noch einen (optisch) exklusiven Kühler.

Wie gesagt, es dauert halt nach dem Marktstark einer neuen Karte immer erst mal etwas, bis sich die Preise auf ein gewisses Niveau einpendeln, das irgendwas mit Angebot/Nachfrage und Preis/Leistung zu tun hat.
Die erste UVP setzt der Hersteller logischerweise erst mal schön hoch an, um die Kunden abzugreifen, die sowieso zu fast jedem Preis das neue Modell haben wollen. Danach sinkt der Straßenpreis dann mehr oder weniger schnell.
 
Maine schrieb:
Ich bin nach den ganzen negativen Gerüchten doch ein bisschen positiv überrascht.

Man muss sich immer vor Augen halten, dass das Geld im GPU-Markt nicht mit den Flagschiffen à la 1080 Ti gemacht wird, sondern mit den Mittelklassekarten und den "günstigeren" High-End-Karten.
...
Wirtschaftlich gesehen macht das was AMD macht also absolut Sinn.
Und AMD ist ein privates, gewinnorientiertes Unternehmen (vergessen viele offenbar gerne), daher macht alles nur Sinn, wenn es wirtschaftlich lohnt.

what? Schon mal die Daten der Karte angeschaut? Gerade wirtschaftlich ist es der größte Unsinn was AMD hier macht. Nur weil man wie AMD gezwungen ist sein Produkt zu Mittelklasse Preisen zu verscherbeln heißt das nicht dass es wirtschaftlich ist. Was es bedeutet wirtschaftlich zu sein beweist Nvidia aktuell 1a - und das nur weil AMD in diesem Punkt kläglich versagt. Deswegen kann Nvidia ja ihre kleinen Chips mit günstigem Ram so teuer verkaufen.

Die RX Vega ist locker 30% zu schwach. Das belastet alle. Auch die die Mittelklasse Karten kaufen.

Eigentlich müsste Vega >1 Jahr nach Release der GTX 1070 / GTX 1080 deren Preise auf unter GTX 1060 Niveau drücken, wo sie eben hingehören.
 
Zuletzt bearbeitet:
Tommy64 schrieb:
[...]"Apropos Treiber: Laut AMD sollen durch neue Treiber deutlich größere Performanceverbesserungen möglich sein als mit der älteren GCN-Generation. Während diese ausgereizt sei, stehe man bei Vega erst am Anfang in der Entwicklung und es sei noch viel Potenzial vorhanden. Wie lange die Entwicklung dafür benötigt, bleibt aber unklar."

Das sind keine leeren Worte. ;) [...]

Und das klingt sehr naiv. Marketing ist, von wem auch immer, nie ganz ernst zu nehmen.

Persönlich "fürchte" ich aber, dass es hier wie bei Ryzen läuft. AMD bringt uns technisch einen Schritt voran, aber weil sich die Vorteile davon momentan nicht 100%ig in fps niederschlagen, kauft die Mehrheit weiter bei Nvidia und Intel ein.

Vgl. Ryzen mit 6 und mehr Kernen in Mainstream Markt vs. "Das nutzt mir aber jetzt noch nix, ich habe lieber dröfzig GHZ auf einem Kern, weil mein 12 Jahre altes Spiel dann besser (aka. 7 Frames mehr) läuft. " -> Intel wird gekauft
Intel bringt danach auch 6 Kerne im Mainstream -> Intel wird immer noch gekauft

PS.: @E1nweg: Denke auch, dass die 100 Watt auf der Stromrechnung nur wirklich zum Tragen kommen, wenn man 7 Tage die Woche, 52 Wochen im Jahr 3 Stunden zockt. Davon abgesehen ist die Kühlung und damit einhergehend die Lautstärke mMn wichtiger. Ob ich jetzt eine 200 oder eine 300 Watt Karte habe, ich würde immer die Leisere nehmen. Bloß ist bei der 200 Watt Karte -der Physik sei Dank- eher mit leiseren Custom Versionen zu rechnen.
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
...
Laut AMD waren doch zum Teil 50% der Hardwareengineers, die eigentlich der Grafiksparte zugerordnet sind, mit im Ryzen-Projekt involviert. ..
Da man dort die ganze Zeit auf Hynix und ihren verdammten HBM2-Speicher gewartet hat, hätten die wahrscheinlich auch nur Däumchen gedreht. Somit konnte AMD tatsächlich mal von den vielbeschworenen Synergie-Effekten profitieren und musste somit nicht die halbe Belegeschaft der 'Hardware engineers' verabschieden.

Sun_set_1 schrieb:
... AMD ging es wahrscheinlich darum, erstmal nicht den Anschluss zu verlieren. Wirklich kontern kann man dann wohl wieder 2018/2019.
Dein Wort in Gottes Gehörgang!
 
Aber was haben die 2 Jahre den gemacht? Eine Polaris mit 4096 wäre vermutlich schneller, als der Rotz hier. Das Teil ist doch nix anderes eine Fury mit 8GB und 1600 Chiptakt und dann brauch man 2 Jahre Entwicklung dafür, WOW. Also für sowas sollten Köpfe rollen. Aber wahrscheinlich ist das einfach nur Polaris Überfull Ausbau und deswegen auch die Werte, weil die richtige Vega, leistungstechnisch absoluter Mist war/ist.
 
Black&White schrieb:
Damit wäre man ja schon fast auf TI Niveau. Eine GTX 1080 @1950Mhz liegt bei knapp 22.500 pkt. Die hat auch schon die Vega FE geknackt.

Mit immer mehr Compute bringt dir das nur rein garnichts.

Nvidia wird dich immer weiter auf den höheren Shader count drücken ;)

Vor allem da es immer unwirtschaftlicher wird OC mit einzuplannen und vor allem extreme aufwendig die stabilität zu halten.
 
Zuletzt bearbeitet:
@Devcoax

unter der Haube is die Karte sicher deutlich mehr als eine Fiji mit 1600 Mhz, nur geht das Konzept absolut nicht auf und mitunter sogar nach hinten los.
Das Einzige was vielleicht bleibt ist eine Architektur die eben wieder besser skaliert. Aber auch danach siehts leider nicht aus.
 
MTPCKH schrieb:
das forum ist so verseucht von Nvidia und Intel fanboys das ist nicht mehr normal :kotz:
das beste ist sie versuchen es durch pseudo argumente zu verschleiern und geben sich wie cuxnase als objektiv aus
gibt es überhaupt noch geistig gesunde foren?

Aus deinen Beiträgen zu schließen, scheint hier der richtige Ort für dich zu sein.
https://www.reddit.com/r/AyyMD/
 
MTPCKH schrieb:
... und geben sich wie cuxnase als objektiv aus
gibt es überhaupt noch geistig gesunde foren?

Sorry aber cuxnase argumentiert noch 10x standfester als zb du. Wenn hier bisher unangebrachtes geflame aufkam dann würde ich mich eher mal an die eigenen Nase fassen.
 
so wie ich das lese, scheitert es diesmal total an der software. Die Hardware ist ja jetzt scheinbar mit HBM2 soweit. Aber die ganzen Dinge zum AB/AN schalten, heißt ganz klar nicht fertig. Ich denke wenn diese Dinge fertig sind, wird die Vega 10 auch knapp die 1080TI schlagen. Momentan noch nicht, bzw. nur in ausgewählten Programmen
 
Krautmaster schrieb:
Nur weil man wie AMD gezwungen ist sein Produkt zu Mittelklasse Preisen zu verscherbeln

Könntet ihr euch mal entscheiden?

Ständig heißt es, Nvidia bietet ihre Mittelklasse GPU (1070/1080) wegen fehlender Konkurrenz zu Oberklasse Preisen an.

Jetzt hat AMD eine GPU mit der gleichen Leistung und der gleichen UVP und dann heißt es, sie verscherbeln sie zu Mittelklasse Preisen.

Was denn nun?
 
Krautmaster schrieb:
... Die RX Vega ist locker 30% zu schwach. Das belastet alle. Auch die die Mittelklasse Karten kaufen.

Eigentlich müsste Vega >1 Jahr nach Release der GTX 1070 / GTX 1080 deren Preise auf unter GTX 1060 Niveau drücken, wo sie eben hingehören.
Das sehe ich leider genauso. Ein schlechtes Top-Produkt belastet die komplette Produktpalette. Die GPUs der unteren Preisklassen sind ja oft minderwertige Chips der oberen Preiskategorien, die nur nicht den Takt bringen oder schlicht teilweise deaktiviert sind.

Je höher man preislich bzw. leistungstechnisch ansetzen kann, desto besser läuft die Gewinnmaschinerie der kompletten Produktpalette. Das ist leider fast überall marktwirtschaftliche Logik.
 
Krautmaster schrieb:
[...]unter der Haube is die Karte sicher deutlich mehr als eine Fiji mit 1600 Mhz, nur geht das Konzept *bisher absolut nicht auf und mitunter sogar nach hinten los. [...]

Habe das mal kurz für dich korrigiert ;)

Denke(Hoffe) mal, dass die Karte im Vergleich zur Konkurrenz aus dem grünen Lager noch zulegen kann, wenn die ersten Spiele für sämtliche technischen Spielereien angepasst werden, die die Karte unterstützt.
Soll heißen, in aktuellen Spiele knapp hinter der 1080, in 2 Jahren vlt. mehr oder weniger deutlich vor der 1080. Fragt sich nur, ob es dann nicht zu spät ist...
 
Die Rohleistung von Vega scheint ja sehr gut zu sein. Nun ist eben die Frage, wie die Architektur und die Treiber diese Rohleistung in den Applikationen unterbringen und ob es die Softwarehersteller auf die Reihe bekommen, nicht nur für NVIDIA, sondern auch für AMD zu optimieren. Ich befürchte nur, dass für letzteres immer wieder Geld fließt und davon hat NVIDIA nunmal einfach mehr...
 
immortuos schrieb:
Und wieder die alte Leier, wird das nicht langsam mal peinlich?

Eben wenn man nur mal schaut das bei der RX480 bis jetzt ganze 5% bei rum gekommen sind dann müsste jetzt auf einmal mindestens das 6-fache, höchstwahrscheinlich aber mehr, drin sein um den riesen Vorsprung der GTX1080ti wett zu machen. HBCC wirkt auch eher wie eine Notlösung weil einfach nicht genug HBM2 vorhanden war. Daher ist die Hoffnung die 3GB mehr der ti damit zu egalisieren nicht sehr groß. Und die schon sehr mageren durchschnittlichen 3-15% die DSBR bis auf Ausnahmen laut AMD bringen soll, zeigen ja das aller Wahrscheinlichkeit nach der Treiber eben nicht mal eben 40% oder mehr aus der karte kitzelt die es bräuchte um mit der 1080ti konkurieren zu können.
Wenn man dann noch bedenkt das alles dann eh noch Werbecherrypicking ist und die Karten auch noch direkt mit so dicken Rabattpaketen verkauft werden, sollte man seine erwartungen an den Wundertreiber doch arg herunterschrauben.
 
Zurück
Oben