News AMD Radeon VII: Sapphire, ASRock und XFX starten mit Referenzdesign

Partnerkarten im Referenzdesign....naja ich hoffe sie haben nicht viel am PCB geändert, dann könnten ja eventuell die Fullcover Kühler der Vega56/64 passen.

Ansonsten ist es halt ein wenig begeisternder Launch.....man weiß schon vorher fast alles....und was man weiß ist ernüchternd.

16GB und mega Bandbreite sind das Highlight, aber das spiegelt sich auch im Preis wieder....12GB bei 3/4 der Bandbreite wäre für Spieler sinnvoller gewesen.

Ich weiß, dass immer gesagt wird, dass Vega ihre Shader nicht auslastet und man daher auf 4 CUs verzichten kann, aber wenn man gute DX12/Vulkan Spiele hat, dann ist eine Vega64 im Vergleich zur 56 auch im clock for clock Vergleich eine Ecke besser....Wenn sie jetzt noch die Auslastung durch Anpassungen verbessert haben(wie behauptet wurde), dann schmerzen die "nur" 60 CUs durchaus.....gerade wenn jetzt so viel Bandbreite da ist um alles schnell zu versorgen.

double precission und auch die ROPs sind beschnitten.....was Sinn ergibt, um die Pro Karten nicht zu kannibalisieren....aber ob man die ROPs nicht auch in Spielen gut hätte gebrauchen können?

Der Takt mag dank 7nm nun höher liegen, aber da die TDP wieder so hoch ist, sehen wir vermutlich wieder eine Taktung der Karte weit oberhalb des Sweetspots....inclusive immer noch schlechter Effizienz und höherer Leistungsdichte....also extremen Temperaturen.

Aus den gezeigten Spielebenchmarks von AMD selbst würde ich schließen, dass unter der Haube wirklich mehr verbessert wurde, da die Leistungssteigerungen teils größer ausfallen, als ich es erwarten würde(CUs, HBM2, GPU Takt).
Aber da bin ich sehr skeptisch, ob sich das auch durch alle Spiele zieht, oder ob nur eine Auswahl an Spielen die neuen Funktionen unterstützt.
Ich nehme an dass es zweiteres ist....und dann hat man wieder diese Extreme, wo Nvidia über alle Spiele gut bis mittelgut funktioniert....und die Radeon VII zwar in gut laufenden Titeln auf Augenhöhe ist......aber in vielen anderen Spielen hoffnungslos zurück liegt.....wieder voll im DX11 CPU limit....mit schlechten Frametimes usw.

Kurz....AMD hat einen Bug in Navi....Navi verspätet sich und stattdessen wurde Vega II in den Consumer Markt gebracht, obwohl die Idee eigentlich schon vor einer Weile wegen Sinnlosigkeit verworfen worden war.
Wieder eine compute GPU....auf compute optimiert, die als Lückenfüller notdürftig in den Gamer Markt gebracht wird......wenigstens senkt das die Kosten und Marge der Pro Karten.
 
  • Gefällt mir
Reaktionen: Nyxcherry
Ist die Radeon VII das neue Flagschiff ? Verstehe die Bezeichnung nicht so Recht, weil wie sollen dann die kleineren Ableger heißen ?
 
zombie schrieb:
Ist die Radeon VII das neue Flagschiff ? Verstehe die Bezeichnung nicht so Recht, weil wie sollen dann die kleineren Ableger heißen ?
Die bekommt vermutlich keine kleinen Ableger. Daher wird es da auch keine Probleme mit der Namensgebung geben. Darunter werden einfach die Vega 64 und 56 weiterverkauft.
 
@zombie
es ist die 2. Vega Generation -> Vega 2 -> VII -> steht für 7 als lateinische Zahl -> 7nm ist die Strukturbreite
 
  • Gefällt mir
Reaktionen: Bairok
cookie_dent schrieb:
Ich hatte ebenfalls schon in diese Richtung überlegt, allein um schon eine inneres Signal Kontra NVIDIA zu setzen.
Aber dafür muss die Karte auch ein gutes Gesamtpaket darstellen, incl. Stromverbrauch und da hab ich wenig Hoffnung.

Ich finde tatsächlich, dass das Thema "Stromverbrauch" vollkommen überbewertet wird. Ich bin inzwischen in einem Alter, in dem ich mir quasi jede Computer-Hardware leisten kann, die ich haben will. Gleichzeitig bin ich aber auch in einem Alter, in dem ich kaum noch spiele - und wenn, dann die "Good old Games" aus der Jugend. Aus Liebe und Begeisterung zur Hardware werde ich mir dennoch wieder einen High-End-PC (natürlich ohne Kiddie-Bling-Bling) leisten.

Was das nun mit Stromverbrauch zu tun hat? Naja, was interessieren mich 10 € Stromkostendifferenz pro Jahr? Das ist so gering, dass man es vollkommen vernachlässigen kann. Der Stromverbrauch eines Systems ist mir egal, da die Unterschiede sowieso nur gering sind. Die Lautstärke eines Systems ist mir viel wichtiger.
 
  • Gefällt mir
Reaktionen: iceshield und Bairok
cookie_dent schrieb:
Ich hatte ebenfalls schon in diese Richtung überlegt, allein um schon eine inneres Signal Kontra NVIDIA zu setzen.
Aber dafür muss die Karte auch ein gutes Gesamtpaket darstellen, incl. Stromverbrauch und da hab ich wenig Hoffnung.

Also ich bin ebenfalls am überlegen, allerdings nur weil ich einen 4k 60hz Freesync Monitor habe, der nicht mit dem neuen G-Sync-Freesync what ever kompatibel ist. Und die TDP der VII ist mit <300W angegeben. Meine 1080Ti hat eine TDP von 280W, wenn man OC will gehts sogar rauf bis 127% von 280W. Also vom Stromverbrauch her sollten die Karten sich nix schenken.
 
KodeX schrieb:
Ich bin generell sehr froh darüber, dass jemand seine Nvidia-Hardware gegen eine Alternative von AMD austauscht, weil Nvidia in meinen Augen einfach asozial ist und mal einen richtigen Denkzettel verpasst bekommen sollte. In deinem Fall kann ich das aber gar nicht nachvollziehen. Du besitzt eine GeForce GTX 1080 TI uns möchtest diese gegen eine gleichschnelle Grafikkarte austauschen?

Bei einem Neukauf würde ich klar die Radeon bevorzugen, aber so???

Das hat einen Grund: Ich möchte weg von Windows und dieses maximal noch in einer VM nutzen. Leider lässt sich Nvidia den GPU Passthrough mit Grid sehr gut bezahlen, die Alternative von AMD ist kostenfrei. Allein das reicht mir als Grund. Grund Nr. 2: Umstieg auf WaKü ist geplant, da will ich für meine Ti nicht noch einen neuen Block kaufen müssen.
 
Marcel55 schrieb:
Die Karte hat einfach zu wenig Rohleistung um die 16GB Speicher wirklich zu benötigen.
Zu wenig Rohleistung? Was für ein Unfug. Die kommt nur in den allermeisten Fällen nicht auf die Straße weil alles für die Grünen optimiert ist. Ich empfehle mal einen Blick auf die Vulkan-API.
@topic: Ich bin echt gespannt auf den Test hier auf CB.
 
  • Gefällt mir
Reaktionen: tunichgut und Bairok
Baal Netbeck schrieb:
[...] double precission und auch die ROPs sind beschnitten.....was Sinn ergibt, um die Pro Karten nicht zu kannibalisieren....aber ob man die ROPs nicht auch in Spielen gut hätte gebrauchen können? [...]
Die Radeon Instinct MI60/50 hat auch "nur" 64 ROPs. (Quelle: techpowerup.com)
 
JSXShadow schrieb:
Wenn man die Karte doch nur endlich vorbestellen könnte..xD

@CB BITTE BITTE BITTE BITTE BITTE Undervolting testen. UV ist viel wichtiger bei Vega als direktes OC über mehr Spannung. Klar, es ist ein wenig aufwändiger, aber ansonsten entsteht kein faires Bild zu übertakteten RTX2080-Karten. Die Architekturen skalieren halt komplett verschieden.

Ich gehe davon aus, dass die Karte wieder zu viel Spannung gesetzt bekommt @Stock. Da kann man definitiv was machen und dan klappt es auch mit 1.8 GHz in allen Spielen. ISt ja die gleiche Architektur wie die anderen Vegas, da klappt das auch :D
Auf deinen Kommentar habe ich mich am meisten gefreut...Der Undervolting King ! Der...der die Gesetze der Physik außer Kraft setzt, und die gesamte ( Fach )Presse blamiert, weil ER herausgefunden hat das Vega so Effizient wie Pascal sein kann. Man müsse nur wissen wie. Haben die erfahrenen Tester alle nicht geschafft.
 
  • Gefällt mir
Reaktionen: Vaidas, ChrisM und Baal Netbeck
Redirion schrieb:
steht im Artikel: Herstellergarantie

naja, da steht, dass sie sich darin unterscheiden.

ich wollte eigentlich wissen, warum AMD die karten nicht selbst verkauft? soweit ich weiß, ist das mit den "board"-partnern begrifflich eh überholt, denn auch das PCB kommt mittlerweile von AMD (bzw. AMD lässt es fertigen). ASUS, MSI etc. kleben nur noch nen kühler drauf und machen ne schicke verpackung drumrum, bezeichnen das produkt mit möglichst vielen "X" und "Gaming". da könnte amd sich dich auch sagen, wisst ihr was, die marge streichen wir auch noch selbst ein, wir verkaufen die karten jetzt ausschließlich selbst.

dass die garantie dafür der grund sein soll, geht aus dem artikel nicht hervor ;)
 
4 ROP's weniger machen den Kohl nicht fett. Ich vermute mal das es einfach die Die sind die für die Profikarten nicht taugen. Wenn der yield so gut ist wie vermutet könnten wir vielleicht auch noch einen Vollausbau serviert bekommen, lediglich der FP16 beschnitten.
 
Zuletzt bearbeitet:
Mickey Cohen schrieb:
ich wollte eigentlich wissen, warum AMD die karten nicht selbst verkauft?

gab eine Firma, die fand die Idee auch gut. Daran ging sie dann zugrunde. Google mal nach 3dfx ;)

AMD tut jedenfalls gut daran, es sich nicht mit ihren Boardpartnern zu verscherzen.
 
KodeX schrieb:
Ich finde tatsächlich, dass das Thema "Stromverbrauch" vollkommen überbewertet wird. Ich bin inzwischen in einem Alter, in dem ich mir quasi jede Computer-Hardware leisten kann, die ich haben will. Gleichzeitig bin ich aber auch in einem Alter, in dem ich kaum noch spiele - und wenn, dann die "Good old Games" aus der Jugend. Aus Liebe und Begeisterung zur Hardware werde ich mir dennoch wieder einen High-End-PC (natürlich ohne Kiddie-Bling-Bling) leisten.

Was das nun mit Stromverbrauch zu tun hat? Naja, was interessieren mich 10 € Stromkostendifferenz pro Jahr? Das ist so gering, dass man es vollkommen vernachlässigen kann. Der Stromverbrauch eines Systems ist mir egal, da die Unterschiede sowieso nur gering sind. Die Lautstärke eines Systems ist mir viel wichtiger.

naja ich zB. lese stromverbrauch immer so: mehr abwärme => lautere lüfter. die stromkosten sind mir dabei egal, da ich nich viel zocke und die hardware bei mir demnach nur selten in bereichen läuft, in denen der höhere verbrauch relevant wird.
aber laute lüfter stören mich sehr.
 
  • Gefällt mir
Reaktionen: Smartbomb, v_ossi und Baal Netbeck
pupsi11 schrieb:
2017 - und das nennst du echte handfeste fakten - klasse.:freak:

hast du bessere zahlen?

ursprünglich lag der preis von dem hbm2 speicher von vega etwa bei der hälfte + interposer. aber wie viel günstiger ist samsung b-die geworden? nicht viel.

also auch zum 2016/2017 "ram"schpreis hat war das memory system von vega relativ teuer. da kommt man etwa auf ich glaube es waren grob 70-90$ pro 8gb + 25$ interposer. gddr5 lag früher pro 8 gb bestückung etwa bei 50$, wenn ich mich nicht irre. wer hier ne quelle oder bessere zahlen hat, her damit. ich weiß die quelle nämlich nicht mehr. dürfte was richtung gamers nexus gewesen sein.

also auch wenn der hbm2 jetzt statt bei 150$ pro 8 gb wieder bei 110$ ist, kostet das memory system von der radeon 7 immernoch 220$+25$ (mindestens, das ist der interposer preis für 2 stacks) = ~245$.

dazu kommen noch ca 30$ fürs vrm, 50$ für den kühler, 40$ fürs restliche pcb.

den core können wir mal so schätzen:

ein 300mm² 16nm wafer bei tsmc kostete laut dieser quelle ~8000$.

https://medium.com/@jimmysong/just-how-profitable-is-bitmain-a9df82c761a

da wir sowas aber vielleicht nochmal absichern wollen, suchen wir uns noch ne andere quelle:

http://www.icinsights.com/news/bull...undry-Market-Forecast-To-Increase-72-In-2014/

https://www.icknowledge.com/news/Technology and Cost Trends at Advanced Nodes - Revised.pdf

hier haben wir den preis von 28nm wafern und eine skalierung der kosten für die fertigungsgrößen bis 7nm.

300mm² mit 28nm kosten hier 5850$ und kosten damit laut grafik etwa das 2,4 fache von 130nm mit der skalierung von 1.0. d.h. 5850$ / 2,4 = der theoretische preis von 300mm² in 130nm = 2438$.

300mm² mit 16nm kosten laut grafik ca 3,3 fache. 2438 * 3,3 = 8045$.

das deckt sich schonmal mit der anderen quelle - die methode scheint also irgendwie zu funktionieren. dann weiter mit 7nm:

300mm² mit 7nm kosten laut grafik ca das 5,3 fache. 2438 * 5,3 = 12921$

das ist ne menge holz.

der vega 20 die hat nach meinen messungen ein seitenverhältnis von 1,62, das gibt bei der fläche von 331mm² eine größe von 23,4 x 14,3 mm.

jetzt nehmen wir bei 7nm tsmc einfach mal die standard defektdichte von 0,1 pro cm² (sollte wahrscheinlich höher sein, da 7nm noch neu ist) und eine die größe von 23,4x14,3mm und hauen das hier rein:

https://caly-technologies.com/die-yield-calculator/

das ergibt einen yield von 72,23% mit der defektdichte von 0,1 pro cm² = 116 dies
und einen yield von 53% mit der defektdichte von 0,2 pro cm² = 86 dies

12921$ / 116 = 111,40$ pro die

12921$ / 86 = 150,24$ pro die


jetzt bekommt amd vielleicht ein rabatt auf den 7nm prozess von tsmc und die kosten pro 300mm² wafer reduzieren sich auf 11000:

11000 / 116 = 94,82$ pro die

11000 / 86 = 127,90$ pro die

die zahlen sind recht unterschiedlich - zur vereinfachung - weil wirs eh nicht genau wissen, nehme ich jetzt den durchschnitt dieser zahlen: 111,40 + 150,24 + 94,82 + 127,90 / 4 = 121,09$

ich bin in meinen sonstigen berechnungen bei vega 10 immer von 90-100$ beim die ausgegangen. wir sehen hier, dass man mit groben 100$ beim die nicht so weit daneben liegt.

der hohe preis und schlechtere yield von 7nm deuten hier aber eher 120$ an.

zusammenfassend:

radeon 7 grob geschätzte kosten:

core: 120$
hbm2: 220$
interposer: 25$
vrm: 30$
restliches board + komponenten: 40$
kühler: 50$ (komplett alu, kein plastik)

----------------------

~485$ reine materialkosten

dabei haben wir noch nicht berücksichtigt, dass das vega 20 package vergossen werden muss, um den interposer zu schützen und den hbm2 und den core auf eine ebene zu bringen - das erhöht hier eher nochmal die kosten - aber wir schätzen ja sowieso schon im rahmen von +/-50-100$ von daher isses auch wurst.

im vergleich dazu die fury aus anderer quelle:

9_RA7Z4nL0xK36ZCDOt7pAfF8vc6pVGmYf3VtRUmLkA.jpg


die fury x ist mit wakü für 650$ mrsp an den start gegangen.

gemessen an den kosten vs verkaufspreis ist die radeon 7 hier als schnäppchen zu betrachten.

wenn man aber anfängt so zu rechnen, ist vega 56 der absolute brüller. man nimmt hier die hälfte vom hbm2, nen core um 100$ und kommt bei 355$ raus.

jetzt muss man natürlich noch beachten, dass bei amd hier ja nicht nur die gaming karten produzieren lässt, sondern das ganze mit den instinct und pro karten verrechnet werden muss, weil sich die karten die dies teilen und die gaming karten vermutlich das schlechtere silizium bekommen - das ist bei amd ne mischkalkulation, die wir hier absolut nicht bewerten können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, v_ossi, Stuxi und 3 andere
ralf1848 schrieb:
Der...der die Gesetze der Physik außer Kraft setzt,
.....entweder übertreibt er maßlos....oder er unterscheidet nicht zwischen dem eingetragenen Takt und dem real anliegenden Takt....um so mehr man undervolted, um so niedriger sinkt auch der reale Takt.

Aber über 1700MHz stabil zu bekommen, müssen bei mir trotz Wasserkühlung um die 1,2V anliegen....und das ist dann auch nicht in allen Spielen stabil sondern ist eher was für Benchmarks.
ralf1848 schrieb:
Haben die erfahrenen Tester alle nicht geschafft
Da ist es leider wirklich so, dass sich viele Tester nicht die Mühe machen das ordentlich zu probieren.
Entweder verstehen sie die Vorgänge nicht und erzählen was falsches....oder sie präsentieren was super gutes, ohne ordentlich auf Stabilität geachtet zu haben....oder sie machen es nur halbherzig und zeigen nicht was wirklich für ein Potential da ist.
Ausnahmen bestätigen natürlich die Regel. ;)
 
  • Gefällt mir
Reaktionen: Acedia23
Mal so Off-Topic.....
Was ist eigentlich so besonderes an den AMD Treibern?? Irgendwie lese ich ja so oft, die wären so viel besser als die von Nvidia.

Hab mir ja neulich nen kleinen Cube PC fürs auf Full HD Beamer im Wohnzimmer zocken gebaut.
Da ist ne RX 580 8GB rein gekommen. Die Karte ist super, für 189 EUR Preis/Leistung genial.
Aber in den 3 Wochen jetzt, ist der Treiber auch schon drei mal abgeschmiert, mit ner Pop-Up Meldung von AMD.

Klar, die Settings sehen "moderner" als bei Nvidia aus...Aber was ist da jetzt besonderes im Gegensatz zum Treiber meiner RTX 2080 ?? Kann mir das mal einer erklären???
Ich meine, beide laufen. Die Settings im Treiber rühre ich so gut wie nie an.
 
Jenergy schrieb:
Die Radeon Instinct MI60/50 hat auch "nur" 64 ROPs. (Quelle: techpowerup.com)
Hmm...Auf der AMD Seite habe ich nichts dazu gefunden.....aber irgendwoher muss CB die Aussage ja haben, dass für die Radeon VII die ROPs von 128 auf 64 halbiert wurden.
....Aber das macht ja nur etwas für Anti Alisasing usw. aus......das kommt ja teils fast kostenlos dazu, weil die restliche GPU schon am nächsten Frame arbeiten kann.

der Unzensierte schrieb:
4 ROP's weniger machen den Kohl nicht fett. Ich vermute mal das es einfach die Die sind die für die Profikarten nicht taugen.
Ist natürlich die Resteverwertung......da ist erstmal nichts falsches dabei, aber das sind mehr als 6% Rohleistung, die da fehlt.
Das ist kein massiver Verlust, vor allem weil nicht alle Spiele auch die CUs auslasten, aber gerade jetzt, wo AMD angeblich die Auslastung verbessert hat und die Bandbreite riesig ist, könnten das 5% Leistung sein.

Ich denke es stört mich vor allem gefühlt....Wenn man bedenkt wo der Chip eigentlich her kommt.....von Fury X...Juni 2015 ....
4096 Stream Processoren und 4096 Bit Bus.....und jetzt sind es nur 3.840 Stream Processoren und der gleiche Bus.
Natürlich taktet jetzt die GPU mit angeblich 1,8GHz statt 1GHz...und der HBM2 schafft die doppelte Frequenz zu HBM.....aber der Verbrauch wird nochmal steigen(wenn die TDP von 300W stimmt)....das ist für 4 Jahre Weiterentwicklung irgendwie hart, da auch nur in einem Punkt 6% schlechter zu werden, "stört" mich halt irgendwie. ;)
 
Zurück
Oben