News GPU-Gerüchte: AMDs Navi angeblich frühestens im Oktober 2019

Bärenmarke schrieb:
Und das weißt du woher? Du kannst mir jetzt genau sagen was ein Wafer kostet? Wie hoch die yield Rate ist? Wie groß ein einzelner DIE ist?

AMD gab auf einer ihrer Folien bei halber Die größe die gleichen Kosten eines Dies in 12nm an.
Das heißt ein halb so großer Chip ist in 12nm 4x günstiger zu fertigen.
Und ein doppelt so großer Chip in 12nm bei etwa den gleichen Fertigungskosten, rein auf das Silizium bezogen.

https://fuse.wikichip.org/news/523/iedm-2017-amds-grand-vision-for-the-future-of-hpc/3/

Bärenmarke schrieb:
Und wenn AMD da einen recht kleinen DIE kreiert mit einer hohen Yield-Rate, dann wird es für sie eben günstig in der Herstellung...

Du sprachst ja von einem günstigen 7nm Chip, der so günstig sei, dass Nvidia mit ihrem alten 12nm Chip Probleme bekommen solle.
Ich denke das kann man nahezu ausschließen. Selbst ein nur 200mm² großer Chip, würde in 12nm wohl preislich mit 400 mm² konkurrieren und dabei wäre die RTX 2070 mit ihren 450mm² schon fast 1 Jahr am Markt.

Bärenmarke schrieb:
Die Karte unmengen an Strom verbraucht, war heiß und schwer zu kühlen. Die einzige leise und brauchbare Karte war eine Zotac AMP! gewesen und günstig war die nicht...

In allen Belangen schlechter waren die Karten trotzdem nicht und das erklärt auch warum sie wie geschnitten Brot verkauft wurden, denn immerhin bot selbst die GTX 470 mehr V-ram als das AMD Pendant.
Die GTX 480 sogar 50% mehr V-ram, welcher der 5870 schon in Metro 2033 inkl. MSAA zum Verhängnis wurde.
 
Kausu schrieb:
...es wurde empfohlen dankbar zu sein. Wofür überhaupt? Dafür dass ich ein Produkt einer Firma kaufe. Ne danke. Ich bin auch dem Metzger um der Ecke nicht dankbar, wenn wir unsere Geschäft beendet haben.

Ich meine bist du dankbar für etwas was du dir gekauft hast? Warum. Der Händler hat sein geld gekriegt.
Vielleicht/hoffentlich wirst du in irgendeinem deiner nächsten Leben mal hinter das Geheimnis der "Dankbarkeit". 😋

Kleiner Tipp: Es könnte nicht nur das Leben anderer, sondern auch dein eigenes erhellen - und wo du schon den Metzger ansprichst, eben dieser oder auch der Bauer oder die Kuh deines Vertrauens könnte ein besonder Ort sein, wo es laut Gerüchten besonders einfach und auch angebracht sein sollte, Dankbarkeit zu üben... :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaTux
Ich würde eigentlich sehr gern mal wieder eine gute AMD Karte haben wollen.
Nur nützen mir Karten mit einer Leistung bis zu einer 1080 nix.
Die habe ich.
 
Che-Tah schrieb:
Reine Mutmaßung... aber das war auf den Navi bezogen...
Vega20 wird von TSMC in 7nm gefertigt...
Turing ebenfalls von TSMC halt in 12 nm....

Warum sollt TSMC nicht Turing in 7nm können? (außer kapazitätstechnisch)

Seit AMD nicht mehr bei Globalfoundries ist (=ehemalige AMD Fabriken) wirds fertigungstechnologisch kaum noch Unterschiede geben.

Für ein Shrink von 12nm auf 7nm ist eine menge Arbeit notwendig, Das gesamte Design muss angepasst werden.
Das ist nicht wie bei Photoshop einfach kleiner schieben.
 
Rockstar85 schrieb:
Das werden Harte Zeiten für uns alle.. Die Sprünge werden kleiner, die Produkte teurer.. Wenn eine Radeon 7 mit HBM schon auf ca 350$ geschätzt wird, dann werden diese billigen 3060 oder GTX 3060 oder wie sie heißen wird, auch die 300-350€ eher sehen, als drunter sein.[...]

Immer dieser Pessimismus...

Das bei der Radeon VII die 16GB HBM ein gewaltiger Kostentreiber sind, dürfte sich doch inzwischen herum gesprochen haben. Je nach Quelle stehen wir allein da schon bei 250-320€ für denn VRAM im Vergleich zu 70-100€ für 8GB GDDR6, je nach Taktung.
Und da GDDR im Vergleich zu HBM ein Massenprodukt ist, dürft der Preis dort tendenziell auch noch mehr fallen, bis Navi kommt.

Dann hat man wohl einen Die, der maximal 200mm² hat im Vergleich zu den 331mm² der Vega. Das dürfte in besseren Yield Raten resultieren und den Preis ebenfalls drücken.

Das PCB muss nur noch ~150 statt ~300 Watt wegstecken, da spart man also auch einige Bauteile (Spannungswandler etc.) ein.

Und zu gute Letzt kann man den Kühler kleiner dimensionieren.

Denke mal AMD wird allein aus psychologischen Gründen eine 2 als erste Ziffer der UVP setzen.
 
KlaraElfer schrieb:
AMD gab auf einer ihrer Folien bei halber Die größe die gleichen Kosten eines Dies in 12nm an.
Das heißt ein halb so großer Chip ist in 12nm 4x günstiger zu fertigen.
Und ein doppelt so großer Chip in 12nm bei etwa den gleichen Fertigungskosten, rein auf das Silizium bezogen.
Übersehe ich was, oder ist dann nicht ein halb so großer Chip in 12nm 2x günstiger und nicht 4x?

400mm² 12nm = 40€
200mm² 12nm = 20€
200mm² 7nm = 40€

Alles in Allem sehe ich aber auch hier dann nicht, warum die 7nm Navi Karten so viel teurer werden sollten.
Der Preis der reinen GPU macht ja gar nicht so viel am gesamten Verkaufspreis aus.
AdoredTV hatte mal bei einem Preis von 12.000$ pro 7nm Wafer und unter Berücksichtigung, dass teildefekte Chips in schwächeren Karten und sogar in den späteren APUs weiterverwendet werden können, die durchschnittlichen Kosten eines 140mm² Die(etwas mehr als die RX560) auf 28$ gerechnet.
Da die RX560 aber ja 14nm ist, würde der Chip hier eher 15$ kosten, die Karte hatte hier eine UVP von 120€

Eine Navi GPU mit 140mm² hätte zusammen mit den Architekturverbesserungen mehr Leistung als eine RX590(232mm²) und das mit der Die Size einer 120€ Karte, wo der Die dann eben ca 30$ statt 15$ kostet .

Das sind 15$ mehr und später bei uns dann eben der Unterschied zwischen sagen wir 200€(80€* mehr wegen 8GB GDDR6 statt 4GB GDDR5 der RX560) und 215€ für eine Karte zwischen RX590 und Vega56.
Hier hört es sich manchmal so an, als würden wir von 200€ gegen 300€ sprechen, wenn man 7nm statt 14nm nutzt, als würde der reine Die 50% des Handelspreises der kompletten Karte ausmachen.

Und selbst wenn man den Yield komplett negativ ansetzt, sagen wir 60% statt wie oben angenommen 95%, sprechen wir dann von 45$ zu 22,50$ statt 15$ zu 30$.

* wenn man diesen Daten glauben darf
https://www.reddit.com/r/hardware/comments/8y9iup/gddr6_memory_prices_compared_to_gddr5/
 
Zuletzt bearbeitet:
pipip schrieb:
Navi war immer als Mittelklasse gedacht und im Bereich 2070 wäre man sogar etwas oberhalb der aktuellen Mittelklasse des Konkurrenten GTX 2060.
War das so angekündigt? Dann brauche ich dieses Jahr nicht mehr zu AMD schauen

pipip schrieb:
die Karte ist eben auch laut AMD für Content Creation gedacht, wo sich 16GB HBM gegenüber 8GB GDDR6 vermutlich doch bemerkbar machen.
Was mir die Karten uninteressant macht, ist genau diese Richtung. Ich bin einfacher Spieler Consumer und will eine Karte haben, die nicht noch auf Computing optimiert ist. Ich habe kleine Gehäuse und will leise Systeme. Da sind Karten mit 300W TDP nicht geeignet und ich habe dann Potential für Features, die ich nicht nutze.
Ich will mehr Leistung für VR und Raytracing ist ein Feature, was mir beim Spielen eher was bringt.

Momentan tendiere ich dazu die 1080 lange zu behalten und einen RTX2080 Nachfolger in 2020/2021 zu kaufen.

AMD braucht eine skalierbare Architektur, die auch beschnittene Consumer Karten erlaubt und keinen Balast an Features mit schleppt, die >90% des Kundenkreises nicht nutzt.
 
Jedi123 schrieb:
Ganz ehrlich das catched mich alles nicht mehr... ich hatte auch ewig die Hoffnung, dass AMD mal was gebacken kriegt... aber wenn sie jetzt erst wieder mit Mainstream hinterhergetrabt kommen... hat NV die RTX3000 fertig wenn Navi an 2080 TI Niveau (wenn überhaupt) ran kommt....

Gähn...

Und? Wen scherts? Amd hat sich völlig zu recht aus diesem Wettrennen verabschiedet und beliefert den Mainstream, Fakt ist dass die 10 Mann die sich eine Karte >= 2080 holen den Kohl absolut nicht fett machen. Peanuts.
 
  • Gefällt mir
Reaktionen: katamaran3060
Meine Prognose:
AMD wird das High-End Feld zukünftig Nvidia überlassen. Sie tun sich keinen gefallen wie Matrox oder Voodoo zu enden. Der technische Abstand ist mittlerweile zu groß. TensorCores, Geschwindigkeit, Effizienz, Raytracing.

Ich könnte mir vorstellen, dass das auch Intels Management erkannt hat und sich daher vorbereitet in den Markt einzusteigen. Nicht nur, weil Nvidia eben auch Intel immer mehr bei den Superrechener verdrängt. Bei Vektorberechnungen sind Grafikkarten mittlerweile dort viel gefragter als CPUs.

Auch zieht Nvidia Intel Kunden im Serversegment ab. Intel kann hier gar nicht anders.

AMD schaut gerade, dass Sie mehr Marktanteile in Geschäften übernehmen, deren Plattform-Zukunft ohnehin nicht gesichert ist. x86 hat in Servern nicht mehr den selben Stellenwert wie noch vor 20 Jahren.

Und Konsolen....naja, da könnte nvidia auch schnell den Fuß in die Tür bekommen. Ich sehe da seitens AMD ein paar Managementfehler was die Grafikartensparte angeht. Ich glaube fast, dass es besser wäre, AMD würde diese Sparte als eigene Marke komplett ausgliedern. Eine neue Aktiengesellschaft mit neuen Investoren, damit Geld reinkommt und mehr für F&E verfügbar ist um den Rückstand aufzuholen. AMD könnte da ja immer noch mit 51% beteiligt bleiben um im günstigsten Fall etwas von den Gewinnen zu haben und eine Richtung vorzugeben bzw. sich einen starken Partner halten.
 
  • Gefällt mir
Reaktionen: LamaTux
SavageSkull schrieb:
War das so angekündigt? Dann brauche ich dieses Jahr nicht mehr zu AMD schauen
Das Problem ist, dass offiziell gar nichts angekündigt ist, außer, dass dieses Jahr Navi Karten erscheinen werden. Fast alles, was wir an sonstigen Informationen über Navi haben, stammt aus Leaks.

mambokurt schrieb:
Und? Wen scherts? Amd hat sich völlig zu recht aus diesem Wettrennen verabschiedet und beliefert den Mainstream, Fakt ist dass die 10 Mann die sich eine Karte >= 2080 holen den Kohl absolut nicht fett machen. Peanuts.
Also ich bin jetzt auch nicht DIE Grafikhure schlechthin, aber es stört mich schon, dass ich mit meinem 1440p Monitor quasi gezwungen bin, Nvidia zu kaufen, wenn ich aktuelle Spiele und wenn möglich auch die Spiele im nächsten Jahr auf Ultra mit stabilen 60fps spielen möchte .
Klar macht man im Mainstream Segment den meisten Gewinn, aber für mich ist dann halt aktuell keine AMD Karte kaufbar.
Ich wünsche mir von der nächsten High End Karte, wenn sie denn dann mal kommt, ähnliches, wie von
Maxwell->Pascal: ~60% Mehrleistung für etwa den Preis des Vorgängers. Also in meinem Fall, von der Vega aus kommend nächstes Jahr 2080Ti Leistung für 500€. Man wird ja noch träumen dürfen...


cat_helicopter schrieb:
Der technische Abstand ist mittlerweile zu groß. TensorCores, Geschwindigkeit, Effizienz, Raytracing.
Gerade was Geschwindigkeit und Effizienz angeht, kann sich das alles innerhalb einer einzigen Generation wieder stark verändern, Nvidia hatte auch mal höllisch ineffiziente und heiße Karten, die nächste Gen war dann wieder sehr viel besser. Und bei Geschwindigkeit verweise ich auch wieder auf Maxwell->Pascal, einen +60% Sprung von einer zur nächsten Gen gab es auch länger und auch jetzt von Pascal->Turing nicht.
Wer weiß, wie das mit der Generation nach Navi aussieht, die dann wohl endlich von GCN abkehrt. Da kann theoretisch das gleiche passieren, wie bei den CPUs der Sprung von Bulldozer auf Zen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkel-foehn
Volker schrieb:
Weniger auf Seiten wie wtftech, twerktown, adoretv usw hören. Lebt sich besser, vor allem weil man dann Fakten statt Fiction hat.

🤔
 
KlaraElfer schrieb:
In allen Belangen schlechter waren die Karten trotzdem nicht und das erklärt auch warum sie wie geschnitten Brot verkauft wurden, denn immerhin bot selbst die GTX 470 mehr V-ram als das AMD Pendant.
Die GTX 480 sogar 50% mehr V-ram, welcher der 5870 schon in Metro 2033 inkl. MSAA zum Verhängnis wurde.
Bedenke bitte das dies nur bedingt stimmt, denn schließlich kam dann auch noch eine HD5870 2GB Version, welche aber nur in wenigen Situationen etwas brachten.

Dazu muss man auch die zeitlichen Relationen sehen.
Die HD 5870 kam 09/2009
die GTX 480 03/2010 - ziemlich genau 6 Monate später und war auch erst ab 12.04 zu kaufen.
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/6/#abschnitt_nvidia_geforce_gtx_480

Knappe 4 Wochen später wurde bereits eine HD 5870 2GB getestet.
[URL="http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/1-vs-2-GB-RAM-745761/[/URL]"]www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/1-vs-2-GB-RAM-745761/[/URL]
 
Rock Lee schrieb:
Wird nicht passieren. Die RTX Chips sind in 7nm nicht machbar da zu teuer. Du brauchst 7nm mit EUV dafür und so weit ist Samsung noch nicht.

mag sein dass deren fertigung in7nm teuer wäre, aber diese chipflächen sind im jetzigen 12nm verfahren erst recht nicht billig!!
ich behaupte das gegenteil: ein refresh der turings von 12nm auf 7nm wäre ein echter jungbrunnen für diese chips! bis auf den hohen preis, sind die turings für den vergleichsweise kleinen sprung von 16nm auf 12nm, so schlecht ja nicht geworden - mit einem weiteren shrink auf 7nm ließe sich das ganze in jeder kategorie (performance/takt, verbrauch/kühlaufwand, herstellkosten) verbessern.

ist aber eine hypothetische betrachtung, den ich persönlich denke nicht dass nvidia dieses jahr noch was an den turings ändert; viel eher tippe ich auf eine stark an turing angelehnte architektur unter neuem codenamen in 7nm irgendwann 2020.
 
Naja Aktuell hab ich eine Vega64, sollte Navi wirklich nicht rankommen an die 2080 oder gar TI wird meine nächste Karte wohl wieder eine Nvidia werden.
Eine R7 wäre zwar ein Überlegung, aber bei den Preisen was die Händler da gerade verlangen.
 
Ghostshield schrieb:
Sehe jetzt schon das Navi flopt.... 150W 7nm und dann 2070 leitung.
Nvidia bringt dann eine 3070 mit 7nm 150W und 2080-2080ti leistung
ist ein bisschen früh für derartige unkenrufe. und vor allem arg viel der glaskugel...
 
  • Gefällt mir
Reaktionen: onkel-foehn
cat_helicopter schrieb:
Meine Prognose: AMD wird das High-End Feld zukünftig Nvidia überlassen.

Du hast noch nicht mitbekommen dass AMD (bezogen auf Spiele) das HE bereits seit mehr als zwei Jahren NV überlassen hat und sich mit der Radeon VII gerade erst wieder warm läuft um dieses Feld zurück zu holen?
Deswegen doch laufen die grünen Kobolde hier neuerdings jedem AMD-Thread Amok, die lieben Kleinen versuchen zu kompensieren dass sie eine Haidenangst davor haben dass AMD nun auch ihren imaginären Freund genauso pulverisiert wie vorher den imaginären Freund der armen kleinen blauen Schlümpfe.
 
ich glaube, dass amd die radeon 7 evtl nie herausgebracht hätte, wenn navi schneller fertig wäre.
das durchwachsene kühlsystem der radeon 7 und die treiberprobleme (video von der8auer) sprechen dafür, dass die karte überhastet auf den markt geworfen wurde, um nvidia nicht komplett das spielfeld zu überlassen.
mit der kaum lieferbaren und überteuerten radeon 7, navi-verzug und der weggefallenen freesnyc-exklusivität wird die luft leider immer dünner. dabei wäre konkurrenz zu nvidia sehr wüsnchenswert.
 
cypeak schrieb:
mag sein dass deren fertigung in7nm teuer wäre, aber diese chipflächen sind im jetzigen 12nm verfahren erst recht nicht billig!!
ich behaupte das gegenteil: ein refresh der turings von 12nm auf 7nm wäre ein echter jungbrunnen für diese chips!
Sorry, du liegst hier falsch. Ich empfehle Dir dich mehr mit den einzelnen Fertigungstechniken vertraut zu machen. Natürlich sind Shrinks generell besser. Aber in der heutigen Zeit werden sie auch teuer und Yield, also die Ausbeute spielt auch eine Rolle.
TSMCs 16/12nm ist technisch voll ausgereift. Nur so sind Monsterchips mit fast 755mm² wie der 2080ti möglich.
Im Besten Fall bekommst du bei nem 300mm Wafer 34 voll funktionisfähige TU102-Chips dabei raus.
Sagen wir mal von den 35 defekten kann man noch 16 Stk verwenden, weil die 2080ti ist ja kein Vollausbau.

tu102.PNG
Chipkosten für 12nm dürften so bei 8000USD liegen.
bulletin20140925Fig01.png
Da kostet dich das pro Chip schon 160USD. Das ist viel! Denn PCB, Speicher etc. sind da alles noch nicht drin.

Jetzt gehen wir mal auf 7nm und zwar ohne EUV. (EUV verbessert Yield durch einfach- statt vierfachbelichtung - nur so am Rande)
Wichtig ist bei 7nm nur zu wissen. Die Fertigungskosten pro Wafer sind quasi verdoppelt!
Und die vierfachbelichtung verschlechter Yield dramatisch.
Vega in 7nm ist von 495mm² (V10) auf 331mm€(V20) geschrumpft, (Faktor 0,66) hat aber statt 12Mrd Transistoren wegen der DP jetzt 13Mrd.
Rechnen wir wohlwollend 0,6 als Faktor. D.h. "TU202" als reiner Shrink wäre 452mm² groß.
tu202.PNG
Auf einmal bekommen wir wegen der schlechten Yield nur noch 19 voll funktionsfähige Chips, obwohl mehr Chips auf den Wafer passen. Gehen wir bei den teildefekten mal wohlwollend davon aus, dass noch 41 Stk. verwendet werden können und somit 60 Chips in eine 3080ti gepackt werden können, welche dann 30% mehr Takt haben wird. Ist ja eben nur ein Shrink.
Der Waferkosten liegen aber jetzt bei 15.000 USD.
D.h. der Chip kostet nun schon 250 EUR.
Und nein,d.h. heisst nicht, dass die 3080ti dann 90EUR mehr kostet, sondern dass sie unbezahlbar wird.

Das ist nur ein relativ vereinfachtes aber noch wohlwollend gerechnetes Beispiel, aber man sieht selbst Nvidia sind Grenzen gesetzt.
Was passiert, wenn man mit 7nm EUV die Yield halbiert(oder mehr), kann sich jeder selber ausrechnen.
https://caly-technologies.com/die-yield-calculator/
Solange beide Hersteller dann halbswegs wieder auf einer Höhe sind, rechne ich sogar nochmal kurz mit fallenden Grafikkartenpreisen. (ab 5nm und vor allem 3nm dann wieder stark steigend).

cypeak schrieb:
bis auf den hohen preis, sind die turings für den vergleichsweise kleinen sprung von 16nm auf 12nm, so schlecht ja nicht geworden -
Das ist kein "Sprung"! 16/12nm sind mehr oder weniger der gleiche Prozess.
Sind auf der Website auch zusammengefasst.
https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm
Die Mehrleistung von Turing kommt ausschließlich durch das Mehr an Shadern, was in größere Chips resultiert
(und ein kleines vernachlässiges bisschen IPC).
Zusätzlich wurden die Chips noch durch die Tensor- & RT-Cores aufgebläht.
 

Anhänge

  • 1549706192612.png
    1549706192612.png
    359,8 KB · Aufrufe: 406
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheBear1517, KlaraElfer, dalaidrama und 3 andere
Zurück
Oben