News GPU-Gerüchte: AMDs Navi angeblich frühestens im Oktober 2019

value schrieb:
Navi ist immer noch eine GPU, keine CPU.
Und der Unterschied, was "Design fertig" vs "Architektur komplett lauffähig optimiert" angeht liegt nun genau wo?
 
Sgt.Slaughter schrieb:
Ich vermute mal, das sie die GCN Bezeichnung dann aufgeben werden, weil man sich dann als langjähriger Käufer langsam veräppelt vor kommt.Ware Marketingtechnisch sicherlich geschickter.
Nun ja, Turing basiert ja auch noch auf G80.. Schau dir die Schaltbilder an. Soviel neues ist da auch nicht. Der Kernaufbau von GCN ist auch alles andere als Schlecht, es ist am Ende die Sklaierung die hier nicht hinhaut.
Namen sind Schall und Rauch.. GCN ist die Architektur, ähnlich Core oder Zen.. Vega ist die Marke und AMDs Vega GPUs sind im Sweetspot ja derzeit outstanding, wenn man sich die iGPU ansieht, wobei auch hier mehr GCN 4 drin steckt, als 5..
 
GTX 1080 performance ist genau das was man braucht 3 1/2 jahre nachdem die GTX 1080 rausgekommen ist.

Aber Spaß bei Seite für 150w und 249€ wäre das in Ordnung. Nicht genug für einen Freudentanz denn ich suche ja eigentlich schon nach einer 400-500€ GPU Lösung und würde mich mal interessieren ob AMD da überhaupt irgendwas hat dann. Die Vega 56 und 64 sind jetzt schon 300-380€ mit 3 spielen und bei dem Verbrauch will man die karten nicht haben. Die VEGA VII ist 730€ und stark begrenzt.

AMD soll mich mit einer 499€ Lösung überzeugen. Mir ist es egal ob Nvidia oder AMD in mein Rechner kommt. Ich nehme mir mein Budget und werde dies auch nicht sprengen. Es wird die beste Karte (in Gesamtheit betrachtet mit schwerpunkt auf preis/performance/verbrauch/lautstärke) die zwischen 400€ und 550€ irgendwo liegt. Es ist kein problem 549€ zu bezahlen wenn alles stimmt, aber zu 700-1300€ Karten lasse ich mich nicht verarschen.

Eine weitere Option wäre natürlich eine Navi Karte für 1-2 Jahre zu nehmen und den Fokus ein bisschen mehr auf CPU und RAM zu legen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
AMD verdient damit aber nix.. und das seit Hawaii
Also AMD scheint mit Vega alias Radeon Instinct ja Geld zu verdienen.. Warum soll AMD dann an Gamer wie uns die Karten geben, wenn wir eh sagen: AMD ist scheiße.
Wenn AMD 1080er Leistung zum Preis der RX580 bringt, dann bringt AMD den markt wieder vorran. Gekauft wird eh dann wieder die 2060, weil The Way meant to be played
 
  • Gefällt mir
Reaktionen: katamaran3060
Kalsarikännit schrieb:
Lieber keine Schnellschüsse und etwas mehr Liebe in das Kühlsystem und Feintuning investieren...

Ach du meinst so wie bei der Radeon VII wo die Reviewer nicht mal die Karten übertakten konnten :D hahahaha...
(siehe derb8auer Radeon VII Video, Gamers Nexus, Bitwit, pcgh usw.)
Schnellschuss kann AMD... bzw. unfertig liefern.
 
Radeon RX 3080? bitte kein Namensschema was der Konkurrenz soo ähnlich ist.. RX 680 würde für eine neue GCN Version absolut reichen..
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Ozmog schrieb:
Nur 12 Kerne wäre komisch, dann müssten sie gerade bei den Großen von vorn herein Teildefekte/-deaktivierte Chiplets rein nehmen.
Ja und? Haben sie am Anfang auch gemacht. Da gab es 3Kerner. PhenomIIX3 oder so.
Was sollte sie davon abhalten es wieder zu tun?
 
Zealord schrieb:
Die Vega 56 und 64 sind jetzt schon 300-380€ mit 3 spielen und bei dem Verbrauch will man die karten nicht haben.
Mit UV finde ich die Vega 56 relativ konkurrenzfähig.
Blade0479 schrieb:
Schnellschuss kann AMD... bzw. unfertig liefern.
Im Vergleich zu nVidia kann man Treiberprobleme patchen, fehlende Datenleitungen für die RAM-Anbindung sind halt nicht per SW-Update ersetzbar...
 
Blade0479 schrieb:
Ach du meinst so wie bei der Radeon VII wo die Reviewer nicht mal die Karten übertakten konnten :D hahahaha...
(siehe derb8auer Radeon VII Video, Gamers Nexus, Bitwit, pcgh usw.)
Schnellschuss kann AMD... bzw. unfertig liefern.
Belege unfertig liefern? Die Vega7 laufen ja. Übertakten ist eine andere Sache. Wird bei einem Nvidia-Launch ja auch nicht gemacht. Nvidia Fanboys wie du vergessen ja sehr schnell,daß Nvidia in der Vergangenheit auch schon Mist (Karten/Treiber) abgeliefert hat. Wobei die Vega7 eben kein Mist ist. Für mich aber zu teuer. Da bleibe ich wegen P/L Verhältnis in der Mittelklasse (RX580)
 
cypeak schrieb:
ich glaube ich bin da schon ganz gut informiert; man muss mir hier sicherlich kein frontunterricht geben und mir schon garnicht euv erklären... ;)
interessant wäre jedoch belastbare info zu tsmc's tatsächlichen yield rates - bis auf sehr wage annahmen findet man hier wenig konkretes.

grundsätzlich ist deine vorgehensweise über yieldraten auf die kosten pro chip zu rechnen absolut korrekt.
und dennoch liegst du daneben. :p
das sage ich nicht weil ich bösartige flamewars starten will, sondern weil der calculator das falsche yield model nutzt (murphy) und die angenommene process-complexity die du erwähnst, sich nicht über defect density abbilden lässt. das kann das murphy model schlicht nicht, weil in der zeit in der er das model entwarf (ende 60er, vorgestellt anfang 70er !!) die mehrfachbelichtung über projektionsverfahren noch zukunftsmusik war. g-line kam erst 1978 und duv erst ende 80er!!
ursprünglich stand hier eine relativ ausführliche antwort, aber irgendwann merkte ich dass dies ein wall of text wurde der so sachen wie defect density, yield-modellig (moore/murphy, seeds, expo, bose-einstein), process-complexity behandelte. bzw wann welches modelling wie hergeleitet wurde und wie die genauigkeiten in abhängigkeit der chipgröße sind.

kurz zusammengefasst: deine angenommenen defect density werte sind viel zu hoch angesetzt aber das murphy yield model viel zu gutmütig für heutige verfahren. selbst tsmc verwendet das bose-einstein yield modelling und da wird ersichtlich das defective density von ~0,5 1/cm² bei einem 450mm² chip weit entfernt von einer tauglichkeit für die risk production wäre.
taugliche werte für defect density bei bose-einstein sind so zw. 0,01 und 0,2 1/cm² - je nach process-complexity welche in der entsprechenden formel als potenz auftaucht.
leider rückt tsmc diese complexity-faktoren nicht ohne weiteres heraus, ansonsten könnte man recht gut über die anzahl der belichtungsschritte und die diesize rückschlüsse die yield rates konkreter produkte berechnen.
jedenfalls sähe die kostenrechnung pro chip bei entsprechender defect density und sog. clustering wesentlich besser aus.

tsmc selber hat lediglich eine demo-fertigung näher beschrieben: ein 256mbit sram chip wurde von 16nm auf first-shot-7nm geshrinkt. die größenreduktion faktor gab tsmc mit 0,34x an und die yield rate mit 76%. der chip selbst hat relativ kleine 42mm². das war ende 2016 und vorgestellt wurde es anfang 2017.
wäre interessant ob es inzwischen weitere konkrete angaben und beispiele zu tsmc 7nm und geplantem 7nm+ mit teil-euvl gibt.

ich bin da wirklich mehr an der technik interessiert als an einem streitgespräch hier.


ich schrieb was vom "vergleichsweise kleinem sprung" und nicht von einem wechsel des fertingungsprozess...

ps: und ja, euvl ist ein potentieller game changer, gerade weil es im niedrigeren process-complexity mündet, welche in den (geeigeneten) yield modellen meistens als potenz einbezogen wird...

Alles gut. Ist doch schön, wenn man ein wenig fachsimpeln kann. Hab es ja auch mal vereinfacht ausgedrückt. Einerseits aus Zeitgründen, andererseits weil man immer davon ausgehen muss auf uninformierte User zu treffen. Ist natürlich richtig, dass es noch mehrere Kostenfaktoren gibt und ich hatte ja auch gesagt, dass die Zahlen nicht 100% genau sind. Wie auch. Ich arbeite nicht bei TSMC ;)

Bezüglich den Kosten bei 7nm hab ich diese Grafik exemplarisch für ein 250mm² Die. (Ja ich weiss es ist eine Präsentationsfolie)
Steigende-Kosten-mit-jedem-neuen-Fertigungsverfahren.jpg
Bei einem größeren Die steigen die Kosten natürlich exponentiell.

Letzendlich habe ich nur auf deine Aussage mit einer Gegenaussage geantwortet.
2019 kommen keine Turing Shrinks von Nvidia. Und dabei bleib ich. :)
Samsung ist meiner Ansicht noch nicht soweit für 450mm² Dies.
 
Unnu schrieb:
Ja und? Haben sie am Anfang auch gemacht. Da gab es 3Kerner. PhenomIIX3 oder so.
Was sollte sie davon abhalten es wieder zu tun
Du verstehst nicht, was ich damit sagen will. Es geht nicht um Teildeaktivierte an sich, das ist auch bei den Ryzen 3 und 5 CPUs auch der Fall, sondern darum, dass man kaum den 12-Kerner als größtes Modell nehmen wird, wenn 16-Kerne machbar sind.

Ist jetzt natürlich die Frage, wie der 12-Kerner aussehen kann/soll. Wahrscheinlich zweimal 6 Kerne.
Also bei den 8-Kerner wird ein komplett aktiver Die verwendet und bei den "größten" sollen nur teildeaktivierte Chiplets verwendet werden, wenn auch 16 Kerne locker machbar wären? Denke ich nicht. Es wird dann wohl doch ein 16-Kerner geben und 12 Kerne bleiben nicht das Maximum...
 
@Ozmog
wobei der 16 Kerner wohl eine höhere TDP bekommen wird und vermutlich nur sinnvoll auf X570/B550 Boards eingesetzt werden dürfte oder High End OC Boards der alten Gen , persönlich denke ich nicht das wir den 16 Kerner gleich zusammen mit den anderen sehen werden . Ich schätze AMD wird damit warten bis der TR3 Launch gelaufen ist und den 16 Kerner dann nachschieben . Für die vollständigen 8C Chiplets wird zu Anfang eine hohe Nachfrage da sein , schließlich hat der 64C Epyc gleich acht davon ... , ob ein 48 Kerner nachgefragt sein wird ( 6* 8C chiplets oder wahrscheinlicher 8 * 6C Chiplets ) wird sich erst noch zeigen müssen
 
Taxxor schrieb:
980 und 970 kamen ziemlich genau ein Jahr nach der 290X.
Sie wurde aber schon einen Monat später durch die 780Ti als schnellste Karte abgelöst.
Aber es ging doch einfach darum, wann AMD zuletzt die schnellste Karte hatte, und das war nun mal Oktober 2013, wenn auch nur bis November 2013 und somit vor 5,5 Jahren, nicht 12 oder 13.

Die 290x war zu Release nicht die schnellste Karte, verstehe nicht wie man darauf kommt.
Man braucht doch nur 6 Jahre zurückgehen und den Test lesen.

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/9/

Auf dem Niveau einer Titan (nicht schneller!), aber dafür 94 Grad heiss, vom Verbrauch höher und im Übermodus mit enormer Lautstärke, auch die Lautstärke im Normalbetrieb war relativ laut.

Da hatte AMD wirklich 2 Wochen lang eine Karte auf dem Niveau der besten Nvidiakarte, aber mit Temperatur und Lautstärke, sowie Effizienzproblemen, dank Referenzdesign.

https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/

Dann nach nur 14 Tagen kam die 780 Ti auf den Markt, in wichtigen Auflösungen 15%/14% schneller.
Auch gleich mit leisen Customdesigns zum Launch und nicht wie AMD erst anfang nächsten Jahres, die dann nochmal 15% schneller arbeiteten als die 780 Ti Referenz.

https://www.computerbase.de/2013-11/geforce-gtx-780-ti-gigabyte-inno3d-test/2/

Zu sagen AMD hatte mit der 290x die schnellste Karte ist definitiv nicht akkurat, da spielt dir wohl deine Erinnerung einen Streich, schon ganz einfach deswegen nicht weil der ursprüngliche Kontext davon handelte, dass AMD einen Zeitraum schnellere Karten am Markt haben muss um von den Kunden wahrgenommen zu werden. Die 5870 wurde zwar verspätet durch die GTX 480 als schnellste GPU abgelöst, aber schon der Nachfolger 6970 überzeugte nicht mehr.
 
MK one schrieb:
wobei der 16 Kerner wohl eine höhere TDP bekommen wird und vermutlich nur sinnvoll auf X570/B550 Boards eingesetzt werden dürfte oder High End OC Boards der alten Gen

Muss ja nicht unbedingt so sein, Turbo auf einem Kern brauch ja nicht großartig mehr, bei 12 oder 16 Kernen, Basistakt liegt dann einfach niedriger. Der 8-Kern-Ryzen 2000er lässt sich ja auch ohne Probleme in ein 45W TDP-Korsett zwängen (siehe Ryzen 7 2700E auf der AMD-Homepage)
MK one schrieb:
persönlich denke ich nicht das wir den 16 Kerner gleich zusammen mit den anderen sehen werden .
Das ist gut möglich.
MK one schrieb:
Für die vollständigen 8C Chiplets wird zu Anfang eine hohe Nachfrage da sein , schließlich hat der 64C Epyc gleich acht davon ...
Dann gibt's wohl auch Probleme den 8-Kerner zu liefern, wenn dieser nur ein Chiplet erhält. Die Frage ist auch, ob nennenswerte Defekte im Chiplet vor dem Verbauen auf dem Package zuverlässig zu erkennen sind, oder erst nach dem Herstellen des Packages geprüft wird, welche Kerne voll funktionsfähig sind. Zum Bedienen des Marktes könnten natürlich auch einige voll funktionsfähige Chiplets trotzdem Teildeaktiviert sein, hat man bei Athlon 2 und Phenom 2 auch gemacht.
 
Zumal auch die 7970 nicht die schnellste Karte war. Da wird hier mal wieder die Ur-Titan vergessen, welche nochmal ein ordentliches Stück schneller war und zudem 6GB Vram hatte.

Die 7970 war ja vermutlich überhaupt der Grund, warum man sich bei Nvidia getraut hat, den 104er (oder 114er) Chip als "High End" zu verkaufen.

Für den Kunden mag die 7970 ne tolle Karte gewesen sein, für den Markt war sie aber eine Vollkatastrophe, da man sich bis zur 290X nur mit dem Mittelklassechip der Konkurrenz messen konnte.
Die Titan hätte die 680 sein müssen und 500€ gekostet, wenn AMD mehr Leistung geboten hätte.
 
Volkimann schrieb:
Warum? Weil ein (Quasi-)Monopol für Kunden nie gut ist. Du hast doch wohl gemerkt welche Situation wir im CPU Markt hatten.

Natürlich kann der Kunde es beeinflussen - einfach mit seiner Kaufentscheidung. Auch der Kunde hat eine Verantwortung.

Hast du auch gemerkt was die Situation im CPU Markt wieder geändert hat?

Haben die Kunden plötzlich so viele unterlegene Produkte gekauft, dass AMD gut dasteht?
Oder hat AMD neue, konkurrenzfähige Produkte gebracht, die die Leute kaufen wollen?

So, und nur so, wird es im GPU-Bereich auch funktionieren. GCN muss weg im Gamingbereich und etwas neues muss her. Und dieses Neue muss gut genug sein um gegen nVidias Chips etwa auf Augenhöhe dazustehen.

just_fre@kin schrieb:
Aber aus Unternehmenssicht wird die Kohle in der oberen Mittelklasse bis runter zur Einsteigerklasse gemacht. Und da sehe ich bei AMD die Chance, viel Boden gut zu machen, da sie in der aktuellen Grafikkartengeneration schon mit RX 560, 570, 580 und 590 sehr gut da stehen gegenüber dem Konkurrenten Nvidia - die nur GTX 1060 und GTX 1050 (TI) bieten. Bei der RTX 2060 bin ich mir schon gar nicht mehr sicher, ob man das noch als Mittelklasse bezeichnen darf, zumindest preislich ist das diskutabel, deswegen wird ja auch eine GTX 1660 TI kommen, weil man die Mittelklasse auch bei Nvidia braucht. Und dann natürlich das Thema APU/iGPU. Hat AMD u.a. mit dem Ryzen 2400G sehr gute Produkte auf dem Markt, die ich an deren Stelle ausbauen würde. Wenn der Markt eben derart hart umkämpft ist, muss man sich - da wo es Sinn macht - aus dem Wettrennen ausklinken und sich auf die Stärken fokussieren, die man hat.

Problem dabei: Es scheint so zu sein dass man in der Mittel- und Einsteigerklasse nicht viel verkaufen kann wenn man nicht auch ganz oben mitspielt. AMD verdient sich angeblich seit 10 Jahren ne goldene Nase in der Mittel- und Einsteigerklasse. Immer etwas schneller (über die Zeit), oft mehr RAM, so gut wie immer günstiger.
Davon sieht man komischerweise aber nie was in den Bilanzen.
Und die GTX 1060 kommt bei Steam auf über 14% Anteil, die RX 480 kommt auf 0,6%.
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
Die 290x war zu Release nicht die schnellste Karte, verstehe nicht wie man darauf kommt.
Man braucht doch nur 6 Jahre zurückgehen und den Test lesen.
Gut die Titan habe ich dabei ausgeblendet, weil das für mich nicht wirklich ne Mainstreamkarte war.

KlaraElfer schrieb:
weil der ursprüngliche Kontext davon handelte, dass AMD einen Zeitraum schnellere Karten am Markt haben muss um von den Kunden wahrgenommen zu werden. Die 5870 wurde zwar verspätet durch die GTX 480 als schnellste GPU abgelöst, aber schon der Nachfolger 6970 überzeugte nicht mehr.
Deshalb habe ich ja auch extra noch die 7970 GHz erwähnt, die dann wieder überzeugte.

Allerdings muss man auch sagen, man muss nicht unbedingt die schnellere Karte haben, um wahrgenommen zu werden.
Die 4890 war z.B. auch eine sehr gute Karte, die Nvidia beim Featureset auch wieder voraus war. Und sie war im Test unter Verwendung von 8xAA auch gleichauf oder besser als die GTX285, aber auch in dieser Zeit wurde überwiegend Nvidia gekauft.
 
  • Gefällt mir
Reaktionen: katamaran3060
Blade0479 schrieb:
Ach du meinst so wie bei der Radeon VII wo die Reviewer nicht mal die Karten übertakten konnten :D hahahaha...
(siehe derb8auer Radeon VII Video, Gamers Nexus, Bitwit, pcgh usw.)
Schnellschuss kann AMD... bzw. unfertig liefern.
Ja. Bin darüber aber eher traurig als belustigt. Fehlende Konkurrenz bringt nämlich keinem was, nicht mal den NVIDIA-Fans ;)
 
  • Gefällt mir
Reaktionen: katamaran3060 und Acedia23
Zurück
Oben