- Registriert
- Mai 2011
- Beiträge
- 20.994
Und der Unterschied, was "Design fertig" vs "Architektur komplett lauffähig optimiert" angeht liegt nun genau wo?value schrieb:Navi ist immer noch eine GPU, keine CPU.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Und der Unterschied, was "Design fertig" vs "Architektur komplett lauffähig optimiert" angeht liegt nun genau wo?value schrieb:Navi ist immer noch eine GPU, keine CPU.
Nun ja, Turing basiert ja auch noch auf G80.. Schau dir die Schaltbilder an. Soviel neues ist da auch nicht. Der Kernaufbau von GCN ist auch alles andere als Schlecht, es ist am Ende die Sklaierung die hier nicht hinhaut.Sgt.Slaughter schrieb:Ich vermute mal, das sie die GCN Bezeichnung dann aufgeben werden, weil man sich dann als langjähriger Käufer langsam veräppelt vor kommt.Ware Marketingtechnisch sicherlich geschickter.
Kalsarikännit schrieb:Lieber keine Schnellschüsse und etwas mehr Liebe in das Kühlsystem und Feintuning investieren...
Ja und? Haben sie am Anfang auch gemacht. Da gab es 3Kerner. PhenomIIX3 oder so.Ozmog schrieb:Nur 12 Kerne wäre komisch, dann müssten sie gerade bei den Großen von vorn herein Teildefekte/-deaktivierte Chiplets rein nehmen.
Mit UV finde ich die Vega 56 relativ konkurrenzfähig.Zealord schrieb:Die Vega 56 und 64 sind jetzt schon 300-380€ mit 3 spielen und bei dem Verbrauch will man die karten nicht haben.
Im Vergleich zu nVidia kann man Treiberprobleme patchen, fehlende Datenleitungen für die RAM-Anbindung sind halt nicht per SW-Update ersetzbar...Blade0479 schrieb:Schnellschuss kann AMD... bzw. unfertig liefern.
Belege unfertig liefern? Die Vega7 laufen ja. Übertakten ist eine andere Sache. Wird bei einem Nvidia-Launch ja auch nicht gemacht. Nvidia Fanboys wie du vergessen ja sehr schnell,daß Nvidia in der Vergangenheit auch schon Mist (Karten/Treiber) abgeliefert hat. Wobei die Vega7 eben kein Mist ist. Für mich aber zu teuer. Da bleibe ich wegen P/L Verhältnis in der Mittelklasse (RX580)Blade0479 schrieb:Ach du meinst so wie bei der Radeon VII wo die Reviewer nicht mal die Karten übertakten konnten hahahaha...
(siehe derb8auer Radeon VII Video, Gamers Nexus, Bitwit, pcgh usw.)
Schnellschuss kann AMD... bzw. unfertig liefern.
iamunknown schrieb:Im Vergleich zu nVidia kann man Treiberprobleme patchen
cypeak schrieb:ich glaube ich bin da schon ganz gut informiert; man muss mir hier sicherlich kein frontunterricht geben und mir schon garnicht euv erklären...
interessant wäre jedoch belastbare info zu tsmc's tatsächlichen yield rates - bis auf sehr wage annahmen findet man hier wenig konkretes.
grundsätzlich ist deine vorgehensweise über yieldraten auf die kosten pro chip zu rechnen absolut korrekt.
und dennoch liegst du daneben.
das sage ich nicht weil ich bösartige flamewars starten will, sondern weil der calculator das falsche yield model nutzt (murphy) und die angenommene process-complexity die du erwähnst, sich nicht über defect density abbilden lässt. das kann das murphy model schlicht nicht, weil in der zeit in der er das model entwarf (ende 60er, vorgestellt anfang 70er !!) die mehrfachbelichtung über projektionsverfahren noch zukunftsmusik war. g-line kam erst 1978 und duv erst ende 80er!!
ursprünglich stand hier eine relativ ausführliche antwort, aber irgendwann merkte ich dass dies ein wall of text wurde der so sachen wie defect density, yield-modellig (moore/murphy, seeds, expo, bose-einstein), process-complexity behandelte. bzw wann welches modelling wie hergeleitet wurde und wie die genauigkeiten in abhängigkeit der chipgröße sind.
kurz zusammengefasst: deine angenommenen defect density werte sind viel zu hoch angesetzt aber das murphy yield model viel zu gutmütig für heutige verfahren. selbst tsmc verwendet das bose-einstein yield modelling und da wird ersichtlich das defective density von ~0,5 1/cm² bei einem 450mm² chip weit entfernt von einer tauglichkeit für die risk production wäre.
taugliche werte für defect density bei bose-einstein sind so zw. 0,01 und 0,2 1/cm² - je nach process-complexity welche in der entsprechenden formel als potenz auftaucht.
leider rückt tsmc diese complexity-faktoren nicht ohne weiteres heraus, ansonsten könnte man recht gut über die anzahl der belichtungsschritte und die diesize rückschlüsse die yield rates konkreter produkte berechnen.
jedenfalls sähe die kostenrechnung pro chip bei entsprechender defect density und sog. clustering wesentlich besser aus.
tsmc selber hat lediglich eine demo-fertigung näher beschrieben: ein 256mbit sram chip wurde von 16nm auf first-shot-7nm geshrinkt. die größenreduktion faktor gab tsmc mit 0,34x an und die yield rate mit 76%. der chip selbst hat relativ kleine 42mm². das war ende 2016 und vorgestellt wurde es anfang 2017.
wäre interessant ob es inzwischen weitere konkrete angaben und beispiele zu tsmc 7nm und geplantem 7nm+ mit teil-euvl gibt.
ich bin da wirklich mehr an der technik interessiert als an einem streitgespräch hier.
ich schrieb was vom "vergleichsweise kleinem sprung" und nicht von einem wechsel des fertingungsprozess...
ps: und ja, euvl ist ein potentieller game changer, gerade weil es im niedrigeren process-complexity mündet, welche in den (geeigeneten) yield modellen meistens als potenz einbezogen wird...
Du verstehst nicht, was ich damit sagen will. Es geht nicht um Teildeaktivierte an sich, das ist auch bei den Ryzen 3 und 5 CPUs auch der Fall, sondern darum, dass man kaum den 12-Kerner als größtes Modell nehmen wird, wenn 16-Kerne machbar sind.Unnu schrieb:Ja und? Haben sie am Anfang auch gemacht. Da gab es 3Kerner. PhenomIIX3 oder so.
Was sollte sie davon abhalten es wieder zu tun
Taxxor schrieb:980 und 970 kamen ziemlich genau ein Jahr nach der 290X.
Sie wurde aber schon einen Monat später durch die 780Ti als schnellste Karte abgelöst.
Aber es ging doch einfach darum, wann AMD zuletzt die schnellste Karte hatte, und das war nun mal Oktober 2013, wenn auch nur bis November 2013 und somit vor 5,5 Jahren, nicht 12 oder 13.
MK one schrieb:wobei der 16 Kerner wohl eine höhere TDP bekommen wird und vermutlich nur sinnvoll auf X570/B550 Boards eingesetzt werden dürfte oder High End OC Boards der alten Gen
Das ist gut möglich.MK one schrieb:persönlich denke ich nicht das wir den 16 Kerner gleich zusammen mit den anderen sehen werden .
Dann gibt's wohl auch Probleme den 8-Kerner zu liefern, wenn dieser nur ein Chiplet erhält. Die Frage ist auch, ob nennenswerte Defekte im Chiplet vor dem Verbauen auf dem Package zuverlässig zu erkennen sind, oder erst nach dem Herstellen des Packages geprüft wird, welche Kerne voll funktionsfähig sind. Zum Bedienen des Marktes könnten natürlich auch einige voll funktionsfähige Chiplets trotzdem Teildeaktiviert sein, hat man bei Athlon 2 und Phenom 2 auch gemacht.MK one schrieb:Für die vollständigen 8C Chiplets wird zu Anfang eine hohe Nachfrage da sein , schließlich hat der 64C Epyc gleich acht davon ...
Volkimann schrieb:Warum? Weil ein (Quasi-)Monopol für Kunden nie gut ist. Du hast doch wohl gemerkt welche Situation wir im CPU Markt hatten.
Natürlich kann der Kunde es beeinflussen - einfach mit seiner Kaufentscheidung. Auch der Kunde hat eine Verantwortung.
just_fre@kin schrieb:Aber aus Unternehmenssicht wird die Kohle in der oberen Mittelklasse bis runter zur Einsteigerklasse gemacht. Und da sehe ich bei AMD die Chance, viel Boden gut zu machen, da sie in der aktuellen Grafikkartengeneration schon mit RX 560, 570, 580 und 590 sehr gut da stehen gegenüber dem Konkurrenten Nvidia - die nur GTX 1060 und GTX 1050 (TI) bieten. Bei der RTX 2060 bin ich mir schon gar nicht mehr sicher, ob man das noch als Mittelklasse bezeichnen darf, zumindest preislich ist das diskutabel, deswegen wird ja auch eine GTX 1660 TI kommen, weil man die Mittelklasse auch bei Nvidia braucht. Und dann natürlich das Thema APU/iGPU. Hat AMD u.a. mit dem Ryzen 2400G sehr gute Produkte auf dem Markt, die ich an deren Stelle ausbauen würde. Wenn der Markt eben derart hart umkämpft ist, muss man sich - da wo es Sinn macht - aus dem Wettrennen ausklinken und sich auf die Stärken fokussieren, die man hat.
Gut die Titan habe ich dabei ausgeblendet, weil das für mich nicht wirklich ne Mainstreamkarte war.KlaraElfer schrieb:Die 290x war zu Release nicht die schnellste Karte, verstehe nicht wie man darauf kommt.
Man braucht doch nur 6 Jahre zurückgehen und den Test lesen.
Deshalb habe ich ja auch extra noch die 7970 GHz erwähnt, die dann wieder überzeugte.KlaraElfer schrieb:weil der ursprüngliche Kontext davon handelte, dass AMD einen Zeitraum schnellere Karten am Markt haben muss um von den Kunden wahrgenommen zu werden. Die 5870 wurde zwar verspätet durch die GTX 480 als schnellste GPU abgelöst, aber schon der Nachfolger 6970 überzeugte nicht mehr.
Ja. Bin darüber aber eher traurig als belustigt. Fehlende Konkurrenz bringt nämlich keinem was, nicht mal den NVIDIA-FansBlade0479 schrieb:Ach du meinst so wie bei der Radeon VII wo die Reviewer nicht mal die Karten übertakten konnten hahahaha...
(siehe derb8auer Radeon VII Video, Gamers Nexus, Bitwit, pcgh usw.)
Schnellschuss kann AMD... bzw. unfertig liefern.