Herdware schrieb:
Letztlich musste AMD sogar seine Fabs aufgeben, um wieder wirtschaftlich zu werden.
"Real man have fabs."
Das ist der Grund, wieso AMD erst so spät seine Fabs verkauft hat, weil deren Mitgründer von AMD daran festgehalten hat. Auch hier gab es deutlich früher Stimmen, die Fabs zu verkaufen, man hat es aber soweit es ging versucht hinauszuzögern.
Man stelle sich mal die Frage, wie lang es bei AMD gedauert hat, bis die eigenen GPUs bei GF gefertigt wurde. Stimmt, Polaris und Vega. Davor und jetzt (wieder) bei TSMC. Nur die APUs werden weiterhin bei GF gefertigt, was aber jetzt bald auch ändert.
Man erinnert sich vllt auch daran, dass Athlon II (k10) damals bereits vor Lliano mit iGP hätte kommen sollen.
Am Ende kam dann Lliano, der nicht zufällig auf ein K10.5 CPU Cores statt Bulldozer aufbaute. Athlon II als Die selbst war gar nicht geplant, aber war durchaus ein sehr gefragte CPU. Im Notebooks hatte er dann eben den Nachteil, keine IGP zu besitzen.
Wieso AMD momentan auch so erfolgreich ist, liegt daran, dass man mittlerweile nicht mehr so eng an der Fertigung gebunden ist und sich seine Partner durchaus jetzt freier aussuchen kann. Heißt nicht, dass GF per se schlecht sei. Aber ihr Know How lag meist in Chipsets und CPU Fertigung und mittlerweile durch den FD-SOI Prozess auch in andere Bereiche.
Was kann man zusammenfassend daraus schließen. Intel hat ähnliche Probleme wie AMD damals. Man ist eben an eigener Fertigung gebunden und man hat fest gesteckte Ziele. Bei Intel war es eben ein sehr "fortschrittlicher" 10nm Prozess, der vermutlich lange Halbwertszeit haben soll, so wie es bei 14nm Prozess der Fall ist und die Margen noch weiter ausbauen sollte. Denn es ist nicht unwahrscheinlich, dass wir ohne AMD Konkurrenz jetzt 10nm Quadcore im Desktop hätten, von Intel.
Wenn man Hardwarelux glaubt, dürfte Intel Prozess weiterhin Probleme mit mehreren Cores haben. Somit zahlt sich vllt auch einfach ein 8-10 Core 10nm Prozessor nicht aus, weil der noch deutlich niedrigere Taktrate hätte, was bei den Quadcore Prozessor im Notebook bereits der Fall ist, was aber nach gefragter Effizienz und low Power dort weniger das Problem ist. Ebenso wie bei Server, wo man nicht unbedingt den höchsten Takt fahren muss. Deshalb wird es eben neben den 10nm Server Chips vermutlich weiterhin die 14nm Chips geben, die für Anwendungen, welche hohe Taktraten brauchen, weiterhin ein Produkt zu haben.
Somit nicht unwahrscheinlich, dass man an 10nm bis zum Ende festgehalten hat, weil es oben Entscheidungen gab. Vllt ist auch deshalb der ehemalige CEO gegangen, weil es seine Entscheidung war, trotz Risiko und Warnungen auf diesen Prozess zu bestehen. Was der Grund war, werden wir wenn überhaupt sowieso erst dann hören, wenn Intel wieder erfolgreich ist und das jetzt mehr oder weniger vergessen ist. Wenn überhaupt.
bensen schrieb:
Zu2: was hat Intel vor Skylake gemacht? Ringbus.
Bis zu 12 Kerne auf einen Ring, danach auf 2 Ringe.
Doppelter Bus würde aber auch mit Mehrverbrauch im Idle bedeuten und auch ein Doppelter Ringbus müsste mit Logik gesteuert werden. Es wäre auch für Desktop ein eigener Chip, den man nicht für Notebooks gebrauchen könnte. Vllt wäre aber so ein Ansatz ohne GPU gegen Ryzen durchaus ein guter Ansatz!
Würde aber gleich bedeuten, dass man ein Team benötigt, die den Chip fertigen und somit weniger Manpower, für einen neuen Chip 2020 mit neuer Arch. Die neuen 10nm Server CPUs werden vermutlich auf Mesh setzen, wenn man bedenkt, dass Intel neuerlich einen Atom mit Mesh vorgestellt hat.
Intel macht sicherlich gleiches wie AMD nach Release von Bulldozer. Man sieht, man ist in einer Sackgasse, macht das Nötigste und arbeitet Richtung "Reset". Man muss bedenken, AMD hat auch Jahre lang Bulldozer verkauft, trotz 32nm und keine weitere Anpassung mehr. Nur das Nötigste bei den APUs für Notebooks und OEMs und ihr Geld in Zen und Navi gesetzt.
Intel steht bei Welten besser da, als AMD damals mit Bulldozer. Somit wieso jetzt unnötig Ressourcen verschwenden um in den zwei Jahren nicht das Gesicht zu verlieren. Sobald Intel wieder was Neues am Start hat, ist die Vergangenheit sowieso wieder vergessen. Zeigt uns ja die Vergangenheit. Siehe Athlon 64 vs Pentium. Es kam Core-I und Pentium war vergessen.
Und was 10nm Prozess angeht. Vllt ist die Ausbeute bereits gut, aber sie skaliert vllt nicht so optimal mit mehr Cores. Damit Intel aber 10nm in den Desktop bringen kann, braucht man aktuell 8 Cores.
Aber was hat man dann gewonnen ? Vllt einen 10nm Chip mit äquivalenten Performance des 9900k bei vermutlich gleicher Effizienz, der nichts besser kann, aber ein Umrüsten der 14nm Fabs bedeutet und somit viel mehr Aufwand und höhere Kosten in der Fertigung ? Da ist klar dass Intel bei 14nm bleibt.
Ich könnte mir sehr gut vorstellen, dass man aus den Fehler der 10nm Fertigung lernt und der 7nm Prozess auf 14nm Prozess aufbaut und man dann wieder konservativer vorangeht, wie es TSMC gemacht hat. Lieber mehre kleinere Schritte und neue Technologie Schritt für Schritt umstellen/einführen. Intel hatte sich damals bereits mit der 14nm Fertigung fast verhoben. Ja er hat lange Halbwertszeit gehabt, aber am Ende konnte die Konkurrenz überholen, auch wenn es Jahre gedauert hatte.
So interpretiere ich das ganze zu mindestens. Zu mindestens aus dem, was ich die letzte Zeit so mitgelesen habe. Man lernt einfach aus der Vergangenheit. Wer diese ignoriert, wiederholt eben die Fehler. Ich glaube nicht, dass Intel das jetzt nicht tut und dann einfach mal weiterhin Geld verbrennt und wie AMD damals oder zu Pentium Zeiten die Reißleine zieht und lieber mal einen Schritt zurück geht um sich neu zu Positionieren.
https://www.computerbase.de/news/prozessoren/intel-memo-mitarbeiter-konkurrenzdruck-amd.68266/
Und wenn ich mich an das hier erinnere, war von Intel selbst die Aussage, AMD hat nicht so viele Bereich wie Intel und der Vorteil von AMD war es (und meiner Meinung auch der Grund wieso AMD aktuell so erfolgreich ist), sich auf den Kernbereich zu konzentrieren und eine Strategie entwickelt, wie man gegen Intel auch mit schlechtere Fertigung auf Augehöhe sein kann. Genau deshalb hat AMD auch den Ansatz des Chiplet-Design gewählt, da man mit Intels großen Monolith Chips nicht mehr mithalten konnte. Bereits bei Phenom Zeiten hat man zwei Chips als MCM verbunden oder versuchte den CMT Ansatz, um Die-Fläche zu sparen.