News Radeon VII: Preisspekulationen zu den genutzten Bauteilen

@modena.ch

1. Wo hast du die Wafer Preise her? Habe immer schon nach verlässlichen Infos gesucht, aber bei allem, was Google mir bisher ausgespuckt hat, waren das im Endeffekt nur Spekulationen.

2. Über die Yield Raten kann man momentan leider nur spekulieren.

Aber nehmen wir für die RTX 2080 mal 23mm x 24mm kommen wir auf 552mm² (statt realer 545mm²).
Und bei Vega 20 18mm x 18mm, also 324mm² (statt der realen 331mm²).

Das bringt auf 300mm Wafern 104 Turing Dies und 188 Vega Dies.

Mit deinen Werten wären das 86$ pro Turing Die und 66$ pro Vega Die. Jeweils komplett ohne Defekte berechnet.
Nvidia und AMD können des Weitern mit teildefekten Dies umgehen. Der komplette TU 104 hat ja als 5000er Quadro 192 TMUs im Vergleich zu den 184 der RTX und bei Vega 20 sind es 256 TMUs im Vollausbau im Vergleich zu den 240 der Radeon 7.

Im Endeffekt liegt es also daran, wie gut die Yield Raten sind, welcher Die günstiger ist.

Ich gebe zu, ich hätte erwartet, dass Turing günstiger ist. Andererseits gehe ich doch von deutlich schlechteren Yield Raten bei dem neuen Prozess aus, sodass Vega teurer als Turing ist. Das ist aber an diesem Punkt nur Spekulation meinerseits.

@Unnu Interessiert mich auch, aber eben genau so sehr, bis wann da ein Vorteil entsteht. Das HBM OC bei Vega gerne bis deutlich über 500GB/s geht ist klar, aber bringen 600, 700 oder 800 GB/s immer noch so viel? Ich bezweifle das, warte aber auf Tests.

PS.: Turing und Vega
turing.PNG
vega.PNG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran und Makso
projectneo schrieb:
Es sollte die gleiche Karte mit 8GB RAM geben für 100-150€ weniger. Das wäre ein echter Gewinn für den Markt.
Nö. Die Vegas brauchen Bandbreite. Die bekommst Du mit 8GB HBM nicht.
SO eine Karte wäre ein Rohrkrepierer.
12GB wären evtl ein guter Kompromiss (gewesen). Kommt ja vielleicht als kleine Vega VI. Wer weiß das schon. 16GB für das vorläufige Flaggschiff, das passt schon.
 
wenn ich die wahl zw. einer knapp 400€ teueren 2060 mit 6gb gddr6 und einer radeon 7 mit 16gb hbm2 für 700€ wählen müsste, so ist die letztere _mit_sichereit_ die bessere wahl wenn man die karte länger als nur einige monate halten will.
ja, es ist klar - 300€ preisdifferenz sind kein pappenstiel für die meisten, aber ich zweifle die zukunftstauglichkeit einer 6gb karte im jahr 2019 schon ernsthaft an - gerade weil dafür über 350€ verlangt wird!

betrachtet man das ganze (technisch) etwas genauer, so hat nvidia bei einem 192bit bus nicht wirklich die große wahl der speicherbestückung - packt man da 12gb vram drauf, so kannibalisiert man die 2070 zu sehr UND der preis der 2060 wird auch ein gutes stück höher...
(es erinnert mich zu sehr an die 2gb variante der gtx770!)

aber ich muss zugeben dass mich keine der aktuellen karten so wirklich überzeugt: nvidia war nicht mutig genug bei dem fertigungsprozess direkt auf 7nm (oder wenigstens auf 10nm) zu gehen - das hätte nochmals wesentlich geringere chipflächen zur folge, inklusive möglichkeit sparsamer zu sein und/oder höhere taktraten zu fahren. so muss man bei nvidia wohl bis 2020 warten.
für einen ersten schuss aus 7nm ist die radeon 7 zwar okay, aber eben nicht überragend - der preispunkt ist nicht gänzlich unschuldig daran.
interessant wird das ganze erst wenn amd auch die "größeren" 7nm navi in serie überführt; zum einen was man da performancetechnisch aber auch in sachen preisleistung rausholen kann. (navi wird in zwei varianten herauskommen, aber beide werden höchstwahrscheinlich nicht für die absolute performancekrone reichen..)
ich sehe zumindest die möglichkeit nvidia im unteren und mittleren preissegment ordentlich marktanteile abzuknabbern, was uns als kunden nur recht sein kann....
 
@Zealord
Ich denke bis wirim Desktop Markt 7nm Chips mit 500 oder gar 600mm² sehen werden werden noch gute 2 Jahre ins Land gehen. Dafür sind so große Chips in der Produktion zu anfällig für Fehler und entsprechend teuer zu produzieren.
Ich denke das nvidias nächste 7nm "Highend" GPUs eher wie so oft bei 300 - 400 mm² angesiedelt und nur etwas schneller als ihr aktuelles RTX Schlachtschiff aber dafür auch deutlich sparsamer beim Strombedarf sind. Die wirklichen Highend Modelle kommen dann 1 - 1,5 Jahre später.
 
Unnu schrieb:
12GB wären evtl ein guter Kompromiss (gewesen). Kommt ja vielleicht als kleine Vega VI. Wer weiß das schon. 16GB für das vorläufige Flaggschiff, das passt schon.
Einen extra Chip mit nur 3 Stacks zu bauen ist vermutlich zu teuer... da liegt möglicherweise gar kein Einsparpotential vor. Die Variante mit 4 Stacks bauen sie ja schon für die Instinct karten.
 
@v_ossi
Du hast einen sehr wichtigen Faktor unbeachtet gelassen, nämlich die Produktionskosten für den Wafer selbst.
Doppelt so viel raus zu bekommen hilft dir am Ende herzlich wenig wenn der Wafer in der Produktion doppelt so teuer ist denn die Kosten pro DIE wären dann die Gleichen. Ein Vorteil bleibt aber und man sollte ihn nicht unterschätzen. Man bekäme bei gleicher Waferzahl und gebuchter Produktionskapazität doppelt so viele DIE raus.
 
Wadenbeisser schrieb:
@v_ossi
Du hast einen sehr wichtigen Faktor unbeachtet gelassen, nämlich die Produktionskosten für den Wafer selbst.
[...]

Hä, hab doch die Werte von @modena.ch genommen. 12,5k für nen 7nm Wafer und 9k für nen 12nm Wafer.

Entsprechend 12,500$/188=66$ pro Vega Die und 9.000$/104=86$ pro Turing Die.

Oder welche Produktionskosten meinst du?
 
Ich habe für GTA 5 eine 980er gekauft (jetzt noch im System). Der Speicher von 4gb wurde aber mit GTA 5 bereits erreicht. Macht die 2080er nicht das Selbe Spiel mit BF5?

Wenn ich in die Vergangenheit schaue, war meistens der Speicher der Flaschenhals. Desshalb schaden 16gb sicher nicht.
 
Zuletzt bearbeitet:
@v_ossi
Genau, die Kosten für die Produktion des Wafers aber alles was gelb ist kannst du gleich raus streichen weil es mit ziemlicher Sicherheit produktionsbedingt in die Tonne geht, siehe das Bild vom 300mm Wafer bei Wikipedia.
https://de.wikipedia.org/wiki/Halbleitertechnik#/media/File:Wafer_2_Zoll_bis_8_Zoll.jpg
Dann blieben beim Turing nur noch 90 und beim Vega 164 Die bei denen dann noch die Ausbeute abgezogen werden darf und wo sich auf den verbleibenden Rest die Produktionskosten aufteilen müssen.
 
was haben den alle mit "Zukunftssicher?!?!?" was soll den bitte bei Gaming zukunfssicher sein?
in 3-4 Jahren wird die VII zwar noch genügend Vram zur Verfügung haben aber viel zu langsam für die dann aktuellen AAA Titel sein.
dann muss man nämlich falls AMD bis dahin nicht gleichziehen kann eine aktuelle Lederjacke im Slot haben!

vielleicht werden die nicht immer "Zukunftssicher" und eher Spitz auf Kopf genäht, bringen aber die aktuell höchste verfügbare Leistung. (P/L mal ausgenommen)
 
  • Gefällt mir
Reaktionen: v_ossi
@USB-Kabeljau

Definitiv bei Rise of the Tomb Raider @ UHD mit max. Texturen, bei dem sich bei der Vega64 mit Aktivierung von HBCC mit 16 GB virtuellen Gesammtspeicher eine deutliche Besserung einstellte. Bei Shadow of the Tomb Raider hatte es wiederum keinen sondelichen Effekt weil das Spiel es bereits mit 8 GB zufrieden war.
Hier beziehe ich mich aber vor primär auf die Benchmark Szenen weil man mit dem immer wieder gleichen Benchmark Ablauf ganz einfach besser vergleichen kann.
Viel mehr Vergleichsmöglichkeiten habe ich allerdings nicht weil für mich in den letzten Jahren kaum brauchbare Spiele rauskamen für die ich bereit bin sie zu kaufen.
Ergänzung ()

@ easy-max
Sorry aber hier hast du womöglich zu tief in nvidias Produktpalette mit ihren Speicher knauser Modellen eingetaucht.

Auflösung kosten Rechenleistung, Effekte ebenfalls aber der Leistungsbedarf hoch auflösender Texturen geht gegen 0. Deshalb kann man mit einer ollen HD7970 auch heute noch spielen wärend die GTX680 nahezu unbrauchbar wurde und das ist auch der Sinn der Speicher Knauserei. der Hersteller spart Kosten (offensichtlich ohne sie an den Kunden auch nur ansatzweise weiterzugeben) und die Kundschaft kauf schneller nach.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Sennox, Smartbomb und USB-Kabeljau
Wadenbeisser schrieb:
@v_ossi
Dann blieben beim Turing nur noch 90 und beim Vega 164 Die bei denen dann noch die Ausbeute abgezogen werden darf und wo sich auf den verbleibenden Rest die Produktionskosten aufteilen müssen.
genau an diesem Punkt wird es aber für mich am spannendsten. Wie gut oder schlecht ist ein "eingespielter" 12nm Prozess mit einem 545mm² Die im Vergleich zu einem neuen 7nm Prozess, dafür aber mit einem 331mm² Die deutlich kleiner. Irgendjemand mit qualifizierten Antworten anwesend? Oder zumindest polierter Glaskugel?

Rein aus dem Bauch heraus würde ich behaupten, ein Vega7 Die ist günstiger...einfach weil es so viele mehr sind, die Produktionskosten "nur" etwas höher (<50%) und der Chip aufgrund geringerer Größe weniger anfällig für defekte. Hochgerechnet "darf" ein 7nm Wafer mehr Defekte haben als eben jener mit 12nm...
 
Also meine Quelle sagt das die 16GB beabsichtige sind wegen MRT.
MRT braucht extrem viel speicher aber dafür weniger Shadereinheiten.
Was bei einer NV genau das Gegenteil ist. Und deswegen hat AMD selbst nichts entwickelt (direkt), sonder mit MS in Koorperation MS RT entwickelt, auch wegen XBOX 2020.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Die Quintessenz zu diesem Thema:

AMD = reifender Wein
Nvidia = Speicherkrüppel

The history repeating...
 
  • Gefällt mir
Reaktionen: Transistor 22, Sennox, Smartbomb und eine weitere Person
USB-Kabeljau schrieb:
Das hat nur irgendwie gar nichts mit meiner Bemerkung zu tun.

Hier gibt es ja viele, die behaupten, 16GB würden allein wegen der Menge Sinn machen.
Und ich bin mir zu 100% sicher, daß wenn AMD ne Karte mit 8GB gebracht hätte, kaum jemand hier auf die Idee kommen würde, daß das nicht reicht.

An der Menge allein liegt es natürlich nicht, dann müssten ja alle auf die RTX Titan abfahren und ihre Schlüpper auf die Bühne werfen. Es geht eher um die Kombination aus massig Speicher in der High-End Klasse und einer 1TB/s schaufelnden Anbindung.
Ergänzung ()

v_ossi schrieb:
Hier wird doch nur wild spekuliert.

Vega 56 und 64 skalieren nachweislich sehr gut mit mehr Speicherbandbreite.

Das zweifelt Niemand an.

Was hingegen durchaus angezweifelt werden darf: Vega skaliert ewig mit Speicherbandbreite. Wer sagt denn, dass die Karte mit 3 Stacks und 750GB/s Bandbreite langsamer wäre, als mit 4 Stacks und 1TB/s?

Nimmt man mal die Werte aus dem Artikel, so könnte man die Karte nur durch das Streichen von einem Stack zwischen 50 und 80 Dollar billiger anbieten und würde sogar prozentual den Gewinn an der Karte erhöhen.

Mit einer UVP von dann 649$/€ hätte man gegenüber der RTX 2080 einen Preisvorteil von 50$/€ und 4GB mehr VRAM, der gleichzeitig noch 2/3 schneller angebunden ist.

Das wäre mMn eben ein attraktiveres Produkt, als es die Radeon 7 jetzt ist.

Niemand sagt das, da das aber ne Mi50 mit nem anderen Kühler ist und vermutlich vom selben Band läuft erübrigt sich die Frage.

Umstellung der Produktion = höhere Kosten

https://www.amd.com/de/products/professional-graphics/instinct-mi50
 
Egal mal wie... man bekommt im Gegensatz zu Nvidia viel Hardwarepotenzial für sein Geld und muss keine dicke Gewinnmarge für die "Lederjacke" bezahlen. Leistung reicht auch locker aus.
 
  • Gefällt mir
Reaktionen: Sennox
Wadenbeisser schrieb:
@Zealord
Ich denke bis wirim Desktop Markt 7nm Chips mit 500 oder gar 600mm² sehen werden werden noch gute 2 Jahre ins Land gehen. Dafür sind so große Chips in der Produktion zu anfällig für Fehler und entsprechend teuer zu produzieren.
Ich denke das nvidias nächste 7nm "Highend" GPUs eher wie so oft bei 300 - 400 mm² angesiedelt und nur etwas schneller als ihr aktuelles RTX Schlachtschiff aber dafür auch deutlich sparsamer beim Strombedarf sind. Die wirklichen Highend Modelle kommen dann 1 - 1,5 Jahre später.

Du könntest recht haben. Nvidia kann wunder wirken mit guter Architektur und ich bin mir sicher ein 330mm² 7nm Chip von Nvidia mit Turing Architektur würde die VEGA VII komplett zerstören.
Aber mal schauen. Ich selber habe auch nicht vor eine 600mm² 1000€+ Karte zu kaufen, sondern suche eher nach einer sehr guten P/P Lösung um die 400-500€. Aber die Angebote zur Zeit (GTX 1080, RTX 2070) etc. sind mir zu schwach.
 
v_ossi schrieb:
aber eben genau so sehr, bis wann da ein Vorteil entsteht.
Stimmt. Das sehen wir ja bald. Und ich würde sagen: Eher nicht linear, denn sonst würde die V II ja alles wegputzen. Und das passiert ja nicht.
Allerdings wäre es schon cool, wenn man mal sehen kann, was eine voll ausgelastete Vega leisten kann. Da kann man bestimmt viele spannende Vergleiche ziehen. :)
Ergänzung ()

Jesterfox schrieb:
Einen extra Chip mit nur 3 Stacks zu bauen ist vermutlich zu teuer... da liegt möglicherweise gar kein Einsparpotential vor.
Ja, möglich. Wenn Sie das halt so machen könnten wie bei den CPUs wär‘s schon irgendwie cool.
Naja, die Zukunft wird’s zeigen.
 
  • Gefällt mir
Reaktionen: Schranz0815 und v_ossi
Zurück
Oben