News Radeon VII: Preisspekulationen zu den genutzten Bauteilen

@Kostendiskussion: https://www.computerbase.de/forum/t...den-genutzten-bauteilen.1851953/post-22235239

Dort sind links zu den Kosten für die Prozesse pro Gate. Die Zahl der Gates skaliert ca. mit der Zahl der Transistoren.

7nm (=10nm@Intel Sprech)

Lange Rede, kurzer Sinn. Turing TU104 rein der Chip ist vermutlich teurer als VII...allein schon wegen der immensen "Größe" bei gleicher Transistoren Zahl.

D.h. nehmen wir die Angaben zu den Waferkosten, die genauso dieses Bild zeichnen, wie die Angaben von 3DC zu den Kosten/Gate/Prozess. Kommen wir auf ähnliche Kostenverhältnisse.

Die ganze HBM-Kosten Geschichte von Fudzilla passt auch überhaupt nicht zu den mir bekannten seriösen Quellen zu Kosten für HBM und Interposer.

=> Die ganze "Kostenkalkulation" von Fudzilla ist reiner FUD...nur Gewäsch ohne Inhalt.
Allein schon die Annahme dass die HBM-Kosten jetzt 2-3 Jahre nach Ramp up der HBM Produktion immer noch die gleichen sein sollen....ohne Angabe von Quellen hahnebüchen^3.

AMD bringt die VII zu 699$ raus weil sie damit ein Geschäft machen können...von wegen Draufzahlen pro Karte und sowas ....selten so gelacht.
 
  • Gefällt mir
Reaktionen: Transistor 22, USB-Kabeljau, Benji21 und eine weitere Person
easy-max schrieb:
was haben den alle mit "Zukunftssicher?!?!?" was soll den bitte bei Gaming zukunfssicher sein?
in 3-4 Jahren wird die VII zwar noch genügend Vram zur Verfügung haben aber viel zu langsam für die dann aktuellen AAA Titel sein.
dann muss man nämlich falls AMD bis dahin nicht gleichziehen kann eine aktuelle Lederjacke im Slot haben!

vielleicht werden die nicht immer "Zukunftssicher" und eher Spitz auf Kopf genäht, bringen aber die aktuell höchste verfügbare Leistung. (P/L mal ausgenommen)


hmmm, meine uhralte GT210 lief 6 jahre ca, wurde getauscht da nun definitiv zu langsam wurde aber vor allem der VRAM nicht reichte, für 1080p mit rund 30-50hz. meine vor jahren neu rausgekommene R9-290, ist immernoch schnell genug für 1080p bis 85Hz rum, je nach spiel. hab grad nicht im kopf wieviel jahre die genau alt ist seit release aber sie reicht auch deswegen, weil sie genug VRAM hat. auch habe ich nicht das gefühl unbedingt jetzt eine schnellere karte haben zu müssen, es limitiert ja nochnicht, bei 1080p. genauso wird da mit eine vega-VII sein, in ihrem segment, bei 16GB VRAM. mit eine 8GB-karte muss man dann evtl schon die texturen runter drehen.
 
  • Gefällt mir
Reaktionen: Transistor 22 und modena.ch
Wadenbeisser schrieb:
@v_ossi
Genau, die Kosten für die Produktion des Wafers aber alles was gelb ist kannst du gleich raus streichen weil es mit ziemlicher Sicherheit produktionsbedingt in die Tonne geht, siehe das Bild vom 300mm Wafer bei Wikipedia.
https://de.wikipedia.org/wiki/Halbleitertechnik#/media/File:Wafer_2_Zoll_bis_8_Zoll.jpg
Dann blieben beim Turing nur noch 90 und beim Vega 164 Die bei denen dann noch die Ausbeute abgezogen werden darf und wo sich auf den verbleibenden Rest die Produktionskosten aufteilen müssen.

Gut, aber genaue Aussagen kann man dann eben immer noch nicht treffen. Der 12nm Prozess ist ja im Endeffekt ein durchoptimierter 16/14nm Prozess, die Defektrate dürfte entsprechend niedrig sein, wohingegen der 7nm Prozess hier zum ersten Mal für Desktop Komponenten genutzt wird.

Da kann man wohl in beide Richtungen Schätzungen anstellen, es gibt einfach zu viele Variablen.
 
  • Gefällt mir
Reaktionen: Transistor 22 und Smartbomb
https://de.wikipedia.org/wiki/Ausbeute_(Halbleitertechnik)

Basierend auf diesen Angaben und den Aussagen von TSMC würde ich davon ausgehen dass ein Chip jedweder Art der für die "Mass Production" freigegeben ist eine Yield Rate nicht UNTER 50% hat.

Da AMD nicht nur die GPUs in 7nm fertigen will sondern auch anderes wie die CPUs und andere Hersteller bei TSMC schon 7nm Sachen ziehen würde ich mal vorsichtig davon ausgehen dass die Yield rate bei der VII MINDESTENS bei >70% liegt.

Ob Turing 90% oder evtl. mehr hat ist auch mehr als fraglich. Aber bei Turing würde ich schon von ggf. 90% ausgehen.

Man könnte ja die Rechnung von oben mal mit 90% für turing und 70% für VII machen...* Anzahl der Dies etc.
Ist mir aber grad zu mühselig die Zahlen zusammen zu suchen.
Mein Intuition sagt dass Turing auch mit 90 vs 70 nicht besser dasteht in den Kosten als VII.

Kleiner Die - Effekt erschlägt eben "komplexer großer Die in den Kosten fast immer.
Deswegen gab es ja in den letzten 30 Jahren ja auch das Wettrennnen der Fabs zu immer "kleineren" Chips...weil man effektiv die Kosten gesenkt hat damit.
 
  • Gefällt mir
Reaktionen: Smartbomb
Ehrlich gesagt finde ich die neue AMD Radeon VII für nur 699,00 Euro UVP (Straßenpreis wahrscheinlich noch 50,00 Euro niedriger) eher noch als extrem günstig angesetzt, als zu teuer.

Die Karte ist bei Release schon so schnell wie eine RTX 2080/GTX 1080 Ti, kommt mit modernsten, extrem schnellen und üppigen 16GB HBM2 VRAM daher und ist daher von der Speichergeschwindigkeit/Durchsatz "1GB/s" die schnellste Consumer Grafikkarte auf dem Markt rein auf den Speicher bezogen.

Da bei AMD die neuen Grafikkarten wie guter Wein auch noch von Jahr zu Jahr schneller werden durch Treiberupdates, wird die Karte in 2 Jahren nochmal bis zu 20% schneller werden und wegen dem extrem großen und sehr schnellen VRAM diesen Geschwindigkeitsboost auch voll auf die Straße bringen können. (Siehe Vorgängergenerationen, wo dies in den letzen 10 Jahren immer der Fall war)

Würde Nvidia eine RTX 2080 mit 16GB GDDR6 VRAM rausbringen, anstatt den üblichen 8GB, würden sie locker 1000,00 Euro UVP dafür haben wollen und die Leute würden das auch noch mit hoher Sicherheit kritiklos bezahlen, anstatt über den Preis zu meckern.

Da wundert es mich sehr, dass AMD nicht mehr Geld für die Karte haben will.

Die Radeon Vega VII ist für mich in absolut jeglicher Hinsicht ein rundum gelungenes Stück Hardware und auch der hochwertige Referenz Kühler macht einen guten Eindruck und dürfe nicht allzu laut ausfallen.
Einzig der Verbrauch dürfte höchstwahrscheinlich trotz modernster 7Nm Fertigung etwas höher ausfalen als bei der RTX 2080, aber damit kann man leben.

Werde mir die Grafikkarte sofort bei Release von Sapphire kaufen und damit nach 12 Jahren Nvidia wieder ins AMD Lager zurückkehren.
Auf Custom Versionen warten oder auf einen Preisverfall warten werde ich auf keinen Fall, da die Karte schon jetzt ihr Geld mehr als wert ist und wegen wohl auch extrem guter Mining Leistung sehr schnell wieder ausverkauft sein wird und der Preis dann eher noch hochgeht, anstatt zu fallen.
 
Zuletzt bearbeitet:
Makso schrieb:
Also meine Quelle sagt das die 16GB beabsichtige sind wegen MRT.
... Und deswegen hat AMD selbst nichts entwickelt (direkt), sonder mit MS in Koorperation MS RT entwickelt, auch wegen XBOX 2020.
Ach was. Gugge mal. Kann deine Quelle auch etwas weiter ausführen warum dem so sein soll?
Also wieso RT Speicher und keine Rechenpower benötigt?
Das würde mich jetzt echt interessieren.
Bzgl. neue Konsolen. Mein Post.
 
Zuletzt bearbeitet:
Ich würde mir die Karte gerne kaufen, nur um mal wieder AMD testen zu wollen. Aber irgendwie reizt mich dann NVIDIA mit RT doch mehr, gerade auch, weil Metro vor der Tür steht.
 
Ich bin vor Allem auf die ersten Usertests gespannt. Die meisten HW-reviewer haben es bei Vega 56/64 einfach nicht für nötig gehalten, die Karte mal so richtig zu tweaken.
 
  • Gefällt mir
Reaktionen: duskstalker und Sennox
@Unnu

Der Speicherverbrauch (VRAM) steigt, wenn man RTX Features aktiviert. Was ja auch logisch ist.
Zeigt ja schon der CB Test von BF V.
Auch darum ist die 2060 eigentlich schon tot und die 2070/2080 werden kein langes Leben haben.
 
@SKu Wen juckt denn RT? Zumindest heute. Wenn du da nen Unterscheid sehen kannst, Glückwunsch. Böse Zungen behaupten ja, NVIDIA hat RT nur eingeführt um eine Preiserhöhung rechtfertigen zu können ;)
 
  • Gefällt mir
Reaktionen: Sennox
Zealord schrieb:
Eventuell mit einer deutlich verbesserten Architecture und dann vielleicht 12gb und ich kann natürlich nicht sagen wie teuer oder wie gut diese Karte dann wäre, aber wie wir alle wissen ist Vega ja ziemlich schlecht (besonders für Gaming).
Könntest du das bitte erläutern? Ich habe seit einer Woche 'ne V56 im Einsatz und das Teil tut was es soll.
Braucht etwas mehr Strom als die 1070, bringt dafür aber auch etwa mehr Leistung und ist dabei sogar kaum zu hören.
Nur weil die Vega Karten nicht ihre komplette theoretische Leistung auf den Bildschirm gedrückt bekommen sind es noch lange keine schlechten Produkte!
Gerade seit die "Mining-Krise" vorbei ist sind sie obendrein auch wieder bezahlbar :D
 
Hat eig. Jemand über die 16GB der Vega Frontiers Edition gemeckert?

Die hat zwar eine Stange mehr Geld im vgl zu V64 gekostet, dennoch haben sich viele schon bereits bei der letzten Vega-Gen eingedeckt (die, die damit Kohle verdienen)

Wieso sollte AMD also einen Rückschritt machen wenn Vega 1 schon 16GB hatte?

Sie war noch klarer Positioniert als PROsumer
Dennoch....
 
  • Gefällt mir
Reaktionen: Benji21
RYZ3N schrieb:
Völlig absurd.

Die Radeon VII ist ein Hybrid aus Gaming- und Content Creation GPU, da sind die 16 GB HBM2 völlig angemessen.

Ich freue mich tierisch auf die Karte.

Wenn man in einer Diskussion das "habenwollen" irgendwie mit Argumenten aufplustern will sind plötzlich alle Content-Creators. Schon klar. ;)
 
easy-max schrieb:
in 3-4 Jahren wird die VII zwar noch genügend Vram zur Verfügung haben aber viel zu langsam für die dann aktuellen AAA Titel sein.
Wieso hält sich dieses Märchen eigentlich noch immer?
Die Zeiten wo man seine Grafikkarte alle 1-2 Jahre tauschen musste sind zum Glück vorbei!
Man kann z.B. noch immer mit einer 7970 am heutigen Tage zocken!
Natürlich nicht auf max. oder high aber man muss auch nicht auf "low" gehen.
Daher kann sich eine Radeon VII mit 16 GB HBM2 durchaus über 4-5 Jahre halten wenn kein bahnbrechender Umbruch kommt und man nicht immer alles auf "Ultra" spielen möchte ;)

@Wadenbeisser
Sehe jetzt erst, dass du das gleiche Beispiel angeführt hast, witzig :D
 
Jesterfox schrieb:
Einen extra Chip mit nur 3 Stacks zu bauen ist vermutlich zu teuer... da liegt möglicherweise gar kein Einsparpotential vor.
Nein. Da muss nur der Bestückungsautomat so programmiert werden, dass er einen HBM Chip weniger verbaut. Umstellen der Fertigung: 1 Minute bestenfalls.
Dann braucht man aber gesonderte Verpackung. Kostenpunkt: 0€
Weil die Verpackung ja sowieso schon bedruckt werden muss. Umstellen des Aufdrucks: 1 Minute bestenfalls.
 
  • Gefällt mir
Reaktionen: v_ossi
Sennox schrieb:
Wieso hält sich dieses Märchen eigentlich noch immer?
Die Zeiten wo man seine Grafikkarte alle 1-2 Jahre tauschen musste sind zum Glück vorbei!
Man kann z.B. noch immer mit einer 7970 am heutigen Tage zocken!
Natürlich nicht auf max. oder high aber man muss auch nicht auf "low" gehen.
Daher kann sich eine Radeon VII mit 16 GB HBM2 durchaus über 4-5 Jahre halten wenn kein bahnbrechender Umbruch kommt und man nicht immer alles auf "Ultra" spielen möchte ;)

Das ist ja das witzige: bei der VII wird gemeckert wenn sie 16GB HBM2 bekommt weil die Karte zu teuer wird, die RTX 2060 ist mit 5,5GB/6GB Auslastung bei aktiviertem RT in BF5 völlig ok für 369 Euro (die Customs schießen den Vogel noch mehr ab). :freak:

Bei der GTX 1160 wird da auch keiner meckern wenn die 6GB/3GB bekommt. Ich würde wetten dass Nvidia dafür gefeiert wird wenn die mit der nächsten Gen "zufällig" den Speicher auf 16GB/12GB/8GB erhöhen... :rolleyes:

Ist wie Bullshitbingo: Der (hier Komponente einsetzen: Chip/Speicher/whatever) ist zu (groß/langsam/teuer/von AMD).
Ergänzung ()

Raucherdackel! schrieb:
Nein. Da muss nur der Bestückungsautomat so programmiert werden, dass er einen HBM Chip weniger verbaut. Umstellen der Fertigung: 1 Minute bestenfalls.
Dann braucht man aber gesonderte Verpackung. Kostenpunkt: 0€
Weil die Verpackung ja sowieso schon bedruckt werden muss. Umstellen des Aufdrucks: 1 Minute bestenfalls.

Also wird die Mi50 dann um einen Stack beschnitten (weil die wird ja auch weiter produziert). Macht durchaus Sinn. Warum nicht einfach die Produktion (wie es ja scheinbar auch gemacht wird) einfach weiterlaufen und schlicht den anderen Kühler montieren und andere Umverpackung drucken lassen? ;)

Langsam wird es schlicht lächerlich...
 
  • Gefällt mir
Reaktionen: SVΞN und Sennox
Sennox schrieb:
Nur weil die Vega Karten nicht ihre komplette theoretische Leistung auf den Bildschirm gedrückt bekommen

Das ist halt irgendwo eine Fehlannahme, die leider hier im Forum recht weit verbreitet ist. Allein schauen auf die Anzahl der Shader und die Taktfrequenz bzw. parallel dazu die TFlops und nennen das dann Rohleistung und wundern sich, dass das Verhältnis Rohleistung/fps bei AMD so ungünstig ist.

Korrekt ist: Der Chip von AMD hat tatsächlich eine hohe Rohleistung und insbesondere Vega wurde fürs Computing entworfen (mit zusätzlich gewissen Aspekten fürs Gaming wie z. B. den Binning-Rasterizer und die (leider doch nicht funktionierende) Next-Geometrie-Engine). Das hat man ja deutlich beim Mining-Hype gesehen, wie sich alle auf AMD gestürzt hatten (und eben nicht auf Nvidia - erst, als AMD quasi ausverkauft war).

Aber zurück zur Grafikberechnung: Neben der Compute-Performance gehören auch so Sachen dazu wie Tesselation-Performance und insbesondere der Rasterizer. Und dann noch der Schnitt der Komponenten innerhalb des Chips, der bei Nvidia mit GPC und SM einfach besser gelöst ist.
 
  • Gefällt mir
Reaktionen: blöderidiot
milliardo schrieb:
Wenn man in einer Diskussion das "habenwollen" irgendwie mit Argumenten aufplustern will sind plötzlich alle Content-Creators. Schon klar. ;)

Also zum einen ist das „habenwollen“ [gerade bezogen auf Hardware] das normalste der Welt, sonst würden nicht unzählige Anwender ihre GPU und CPU teils mit jeder neuen Generation austauschen.

Es ist ein Hobby [dazu ein vergleichbar günstiges] und wer Spaß an neuer Hardware hat und es sich leisten kann, der tauscht dann halt seine RX Vega 56/64 gegen ein Radeon VII.

Zum anderen finde ich es wenig überraschend, dass Anwender die bereits seit längerem auf 8 GB VRAM setzen, scheinbar auf einen großen VRAM wertlegen, davon profitieren und sich jetzt über 16 GB VRAM freuen.

Dafür muss man nicht zwingend Content Creator sein.

Ich persönlich weiß ganz genau was ich mit 16 GB VRAM anstellen kann.

Ich weiß auch nicht wo jetzt schon wieder das Problem einiger Leute hier liegt.

Wer mit wenig VRAM glücklich ist, der kann doch bedenkenlos zur RTX 2060 greifen, [für mich] abseits des zu geringen VRAMs, eine super GPU.

Wer auf einen großen VRAM setzen möchte, greift zur Radeon VII.

Aber es ist mal wieder typisch für die heutige Diskussionskultur, dass die Kommentare zur RTX 2060 voll sind von „(...) zu wenig VRAM, Speicherkrüppel!“ und die der Radeon VII mit „(...) viel zu viel VRAM, 16 GB HBM2 sind zu teuer!“

Hauptsache meckern.

Es ist ja nicht so, dass es GPUs mit 2, 4, 6, 8, 11, 16 und 24 GB gibt. :rolleyes:

Faust2011 schrieb:
Das ist halt irgendwo eine Fehlannahme, die leider hier im Forum recht weit verbreitet ist.

Völlig richtig, wenn die Leute die das sagen auch verstehen würden, dass die RX Vega sehr auf Computingleistung ausgelegt ist, hätten wir nicht die immer gleichen Diskussionen hier.

Zumal sich das Blatt ja mehr und mehr wendet.

Wenn ich mir z.B. anschaue was meine RX Vega 56 OC in Forza Horizon so mit einer GTX 1080 anstellt, da kommt schon einiges an Leistung auf der Straße an. :D
 
  • Gefällt mir
Reaktionen: Transistor 22 und Sennox
Mir ist als Kunde auch egal wie gut die Vega ihre Rohleistung umsetzt.
Ich bekomme aktuell eine gute Custom V56 für unter 350€, da stimmt P/L meiner Meinung nach und auch wenn die 1070 rein von dem Verhältnis GFLOPs zu FPS effizienter arbeiten mag ändert das nichts am P/L der Vega 56

Ausnahmefälle wie Forza oder Wolfenstein sind dann das Sahnehäubchen ;)
 
  • Gefällt mir
Reaktionen: Benji21
Zurück
Oben