News Prozessorgerücht: Intel widerspricht Einstellung der 10-nm-Fertigung

Sparta8 schrieb:
Könnte wer für einen Laien erklären warum die 7nm Produktion einfacher als die 10nm ist?
Intel hat sich bei der Technik von Anfang an verrannt.
Man bräuchte EUV um Techniken wie Multi-Patterning mit brauchbaren Yields hinzubringen.
Intel meinte, sie schaffen das auch in der einfacheren Lithographie-Technik die man bisher benutzt hat.
Hätten sie es geschafft, wären sie den anderen Herstellern 4-5 Jahre voraus gewesen bei der Strukturgröße und hätten sich gemütlich auf EUV konzentrieren können.
Haben sie aber nicht. Und sie haben es 4 Jahre später wohl jetzt endlich geschnallt, dass sie ein totes Pferd reiten. 4 Jahre meint hier: 4 Jahre nach dem ursprünglich geplanten Einsatz. Wahrscheinlich 8 Jahre nach Entwicklungsstart.
Hier haben die Verantwortlichen schlicht gepennt oder ein zu stures festhalten an "wir haben es noch immer geschafft" praktiziert. Die Verantwortlichen wurden in den letzten Tagen und Monaten fast alle rausgeworfen und/oder entmachtet.
Es liegt also nicht an "10nm", sondern schlicht an Intels Unfähigkeit einen Fehler einzgestehen. Das konnte diese Firma noch nie
Ergänzung ()

Krautmaster schrieb:
zb auf einmal 50ghz macht wäre das uU sogar kompatibel.
ich glaube von der Einheit Hertz werden wir uns bei wirklich neuen bahnbrechenden Erfindungen verabschieden müssen.
 
  • Gefällt mir
Reaktionen: Smartcom5, VikingGe, Toprallog und 3 andere
so würde ich es nicht sehen , TSMC s 7 nm kommt auch ohne EUV und allein mit Multipatterning aus .
Intel wollte jedoch zuviel , experimentierte mit verschiedenen Materialien und wollte eine hohe Transistordichte , die Vorgaben waren zu hoch , jetzt hatte man sie gesenkt um den 10 nm endlich voranzubringen , womoglich waren dadurch die Leistungswerte so schlecht das man zumindest im Desktop und Servermarkt darauf verzichtet und direkt zu 7 nm mit EUV geht , falls das Gerücht wirklich stimmt .
Sicher ist jedoch das der 10 nm nicht sonderlich alt werden wird und relativ früh vom 7 nm mit EUV abgelöst werden wird .
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja, aber er war deutlich vor der Konkurrenz dran, Taktraten waren auch gut und auch die fetten Server Chips waren zeitnahe am Start. So ganz chronologisch im Kopf hab ichs nimmer aber gefühlt war die Sache recht smooth.

Kein Vergleich zu 10nm und so Ausgeburten wie ein i3 mit deaktiviert GPU in China als Einstand wie aktuell in 10nm.
Klar hatten sie damals noch ihren Fertigungsvorsprung und waren trotzdem sehr konkurrenzfähig, trotzdem war es die erste Fertigung, bei der man den selbst vorgegebenen Zeitplan nicht einhalten konnte.
Angekündigt war 14nm mal für 2013, 2014 kamen paar einzelne Core M, die zwei einzigen Desktop-Broadwell Chips kamen dann 2015 am Markt, der HCC dann erst 2016.

Damals konnte man es sich eben erlauben, nach einem Jahr Haswell einen Haswell-Refresh mit exakt 100mhz mehr Takt zu bringen. Wäre Intel damals schon so unter Druck gestanden, wären die Probleme mit der 14nm Fertigung viel mehr breitgetreten worden.

Das Pendant zum jetzigen Krüppel-i3 ist eben der damalige mini-Core M, den man dort aber noch als große Errungenschaft verkaufen konnte.
 
Zuletzt bearbeitet: (typo)
Krautmaster schrieb:
Nutzten eig bei Euv alle die ASLM Dinger oder macht auch jemand sein eigenes Ding?

Alle... Und aslm hat die Laser aus Ditzingen bei dir ums Eck
 
MK one schrieb:
so würde ich es nicht sehen , TSMC s 7 nm kommt auch ohne EUV und allein mit Multipatterning aus .
TSMC hat bereits Tape-Outs für 7nm mit (teilweisem) EUV.
Multipatterning war vll etwas vage ausgedrückt. Intel nutzt bei 10nm SAQP, was offensichtlich eben nicht ohne EUV mit brauchbaren Yields möglich ist. Sonst hätten sie diese Probleme ja nicht ;)
Kobalt ist wieder eine andere Baustelle, die sicherlich auch ihren Anteil an den enormen (*hust*) Fortschritten in der 10nm-Fertigung von Intel hat. Da bin ich ganz bei dir.
Es waren sicherlich mehrere Designfehler die da bei der Planung schon eingeflossen sind. Aber, dass man da nicht früher die Reissleine gezogen hat, war sicherlich einzig und allein dem unerschütterlichen Glauben an die eigene Unfehlbarkeit und mangelnde Konkurrenz zu verdanken.

Aber egal: Den Markt freut es. Intel ist ins Hintertreffen geraten, ohne mittelfristige Chancen, die Konkurrenten wieder zu überholen. Dadurch ist endlich wieder die Konkurrenz erstarkt.
Ich hoffe, dass grundsätzlich jeder mittlerweile die Wichtigkeit verstanden hat, die so ein Wettbewerb mitsich bringt.
Wir hatten 6 Jahre keinen brauchbaren Konkurrenten mehr und haben gesehen, zu welche absurd langsamen Entwicklungszyklen und welch geringem Fortschritt so etwas führt. Das ganze natürlich garniert mit hohen Preisen und rießigen Margen. Hoffentlich können wir den aktuellen Status Quo mindestens beibehalten, also, dass beide Hersteller Gewinne schreiben und dennoch die Preise auf einem anständigen Niveau bleiben
Ergänzung ()

Krautmaster schrieb:
Nutzten eig bei Euv alle die ASLM Dinger oder macht auch jemand sein eigenes Ding?
Gibt nur einen Hersteller.
Aber die liefern grundsätzlich erstmal nur die Maschinen zur Belichtung. Die Fertigung an sich hat hunderte Schritte, die jeder Hersteller anders macht. Dadurch auch der große Unterschied in den Fertigungen und der resultierenden Leistungsfähigkeit.
Es gibt quasi für jede Art von Chips eine eigene Fertigungstechnik. Ein Chip im Auto hat ja auch ganz andere Belastungen und Anforderungen als ein Chip in deinem Heimcomputer.
Es werden auch heute noch viele 8 Zoll Wafer (und kleiner) belichtet. Schlicht, weil sich die Fertigung in 12 Zoll bei kleinen Mengen nicht lohnen würde. 18 Zoll dagegen haben sich auch 20 Jahre später noch nicht durchgesetzt.
Ebenso gibt es auch noch massenhaft Chips die zB in 130nm gefertigt werden.
 
Zuletzt bearbeitet:
scryed schrieb:
Alles klar ne inoffizielle news dann von einem der eh sich immer kritisch gegen intel ist und alle springen schön drauf an, mit solchen Krawall erzeugenden news lässt sich sicher gut Geld drucken

Dazu wird ein Dementi noch ins läcjerliche gezogen... Intel bashen ist nunmal hip

Ob Intel nun "10nm" bringt oder nicht sei mal dahingestellt das hier passt wieder schön in die Kategorie Krawall news einzig und allein um Klicks zu generieren und alle springen drauf... Alle beschweren sich über fake news aber wenn da so ein semi prominenter was rausplautzt der rein zufällig eine eigene news seite hat betreibt ohne jegliche Beweise ist das ok


Jaja ich nutze Intel aber muss man dann gegen eine andere firma Krawall machen und auf jedes internet geblubber anspringen?

Was ist wenn nun irgend ein anderer möchtegern news Guru gegen AMD schießt..... Das Internet beginn dann wieder sein Eigenleben und gegebenfals verliert AMD Aktien an Wert.... Schnell paar Aktien kaufen AMD kommt mit was neuem und man ist ein gemachter man

Es ist aber schon so, dass es Intel ist, die dem ganzen Markt seit mittlerweile vier Jahre verspricht es kommen neue Chips in 10nm und nicht liefert, oder?
Das hat mit bashen wenig zu tun. Intel hat in früheren Jahren AMD das Leben ordentlich erschwert. Und ja, in den letzten ca. 10 Jahren hat es AMD Intel auch leicht gemacht.
Ein wichtiger Erfolgsfaktor für Intel war bisher, sie waren AMD in der Fertigung voraus.
Das scheint nun zu kippen und fördert nun einen fairen Wettbewerb. Was allen gut tut, außer Intel, die nun etwas vom Kuchen abgeben müssen.

Also, bashen ist das nicht, vielleicht ein bisschen Schadenfreude ....... :D
 
  • Gefällt mir
Reaktionen: Dai6oro und Inxession
rg88 schrieb:
Intel hat schlicht keine leistungsstarken GPUs mit hoher Packdichte wie AMD oder Nvidia. Die waren von Anfang an für die eigene CPU-Fertigung ausgelegt. Es war auch niemals der Anspruch da, wirklich Leistung zu bringen über Office hinaus

Intel hat schon mal eine GPU entwickelt und wegen Misserfolg eingestellt. Kurioserweise geht es da ja um dedizierte, nicht ein ganzes SoC. Sollten wir hier auch nicht vermischen.
Dein letzter Satz stimmt in Bezug auf Intel jedenfalls nicht, die wollten extrem viel, sind auch oft gescheitert. Genauso im mobilen Sektor.
Jetzt entwickeln sie schon wieder und angeblich sollen 2020 dedizierte Grafikkarten auf den Markt kommen...
 
sorry, ich redete von "modernen Zeiten" ;) Dass sie mal ein GPU-Experiment gemacht hatte, ist mir bekannt.
Richtig verfolgt wurde das aber damals nicht. Man hatte die Entwicklung einfach wieder eingestellt, als der schnelle Erfolg nicht zu sehen war.
Dann noch der Versuch mit Larrabee zig Jahre später, was wieder kolossal gescheitert ist.
Ich glaub auch nicht, dass selbst ein Jim Keller dort die GPU-Sparte in der kurzen Zeit mit einem modernen Architekturentwurfs auszustatten kann.
2020 halte ich für sehr unwahrscheinlich. Die Zeitspanne ist zu kurz für ein marktreifes Produkt und die Baustellen, die Intel offen hat, sind weitaus wichtiger als GPUs
 
vielleicht belichtet man ja auch irgendwann gar nicht mehr sondern findet ein anderes Verfahren um die Transistoren und Layer so wie man sie braucht aufs Silizium zu bekommen.
 
rg88 schrieb:
...
Hier haben die Verantwortlichen schlicht gepennt oder ein zu stures festhalten an "wir haben es noch immer geschafft" praktiziert. Die Verantwortlichen wurden in den letzten Tagen und Monaten fast alle rausgeworfen und/oder entmachtet.
Es liegt also nicht an "10nm", sondern schlicht an Intels Unfähigkeit einen Fehler einzgestehen. Das konnte diese Firma noch nie
...

Mit Größe kommt Trägheit in die Firmen. Kann man sehr gut bei Siemens beobachten.
 
Wie auch immer es am Ende ist, Intel hat ein Problem. Aus der 14nm Fertigung können sie (wahrscheinlich) nichts bis kaum noch was rausholen (zudem laufen die Kapazitäten offenbar auf Anschlag), 10nm weiß aktuell nur Intel selber wie es wirklich drum bestellt ist. Und ein (vorgezogener) 7nm (evtl. mit EUV) Node... nun wer weiß wie lange der brauchen würde?
Sollte das Gerücht so wie im Artikel genannt stimmen, könnte es seitens Intel nächstes Jahr max. einen weiteren Refresh geben, aber kaum wirklich neues. Und das wäre schon richtig bitter wenn AMD mit einem kompletten 7nm Portfolio aufwarten kann (RyZen(Martisse), Epyc(Rome), Picasso(APU)) Das wäre dann für AMD die ganz große Chance richtig zu punkten. Ich wünsche AMD auf jeden Fall ein glückliches Händchen für 2019. :)

MfG Christian
 
rg88 schrieb:
sorry, ich redete von "modernen Zeiten" ;) Dass sie mal ein GPU-Experiment gemacht hatte, ist mir bekannt.
Richtig verfolgt wurde das aber damals nicht. Man hatte die Entwicklung einfach wieder eingestellt, als der schnelle Erfolg nicht zu sehen war.
Dann noch der Versuch mit Larrabee zig Jahre später, was wieder kolossal gescheitert ist.
...

Intel was hoping to use the i740 to popularize the AGP port, while most graphics vendors were still using PCI. - engl. Wiki

Beim ersten ging es eher um den AGP Port.
Larrabee war sicherlich auch einfach zu früh am Markt.
 
Semiaccurate (Charlie Demerjian) hat mittlerweile mit dem folgenden Statement auf Intels Dementie über Twitter reagiert.
SemiAccurate stands by its reporting.
Charlie's Recherchen und Aussagen über die vergangenen Jahre, er geht in seinem Artikel selbst darauf ein, beschreiben das was, in Bezug auf Intels 10nm Fertigung, bis heute die Realität darstellt.

Da sich Intels 10nm Dilemma nun schon über 4 Jahre hinzieht, kann man daraus folgern, dass Partner und natürlich auch Kunden vorsätzlich getäuscht wurden.

Aus meiner Sicht ein immenser Vertrauensverlust für Intel!
 
ChrFr schrieb:
Wie auch immer es am Ende ist, Intel hat ein Problem. Aus der 14nm Fertigung können sie (wahrscheinlich) nichts bis kaum noch was rausholen
Sag das nicht- 14nm ist beim Intel Design leistungstechnisch nicht ausgereizt.

Da ginge schon noch was und zwar sogar mit Mitteln, die in den Layouts der Prozessoren nur geringe Änderung benötigen. Es ist nur die Frage unter welchen Bedingungen Intel bereit wäre vielleicht unter Verlusten bei der netto- Marge/ unter Inkaufnahme einer geringeren Yield- Rate die 14nm Designs aufzupumpen.

Sie könnten auf der Stelle den Memory Controller auf 3400MHz aufbohren, den Ringbus auf 4,4-4,6GHz takten, die Cache- Größen verdoppeln (den Größen der Ryzen Prozessoren angleichen), die Turbo- Sensorik bzw. Gütebestimmung der Cores verbessern und in letzter Instanz vielleicht sogar einen L4 Cache anflanschen.

Das gibt nochmal zwischen 20% und 40% mehr Leistung (je nach Anwendung).
Das aber auf Kosten der Die- Fläche und damit der Marge.

Am "Ende" und das letzte Quäntchen rausgepresst sieht für mich anders aus, solange man noch solch verhältnismäßig einfache Mittel nicht herangezogen hat.

Interessant ist diebezüglich, dass man offenbar stark taktiert, auch um sich bezüglich Xeons bzw. Skylake-X Prozessoren nicht selbst zu kannibalisieren. Das eigens geschaffene preisliche Ökosystem ist bei Intel derzeit sehr fragil. Das verträgt meines Erachtens keinen weiteren hausinternen "Schlag" gegen die HEDT- Sparte (z.B. I9 untersützt jetzt 128GB RAM).

Und ich bin gespannt, wann AMD mit dem Taktieren anfängt.
Die dürfen nämlich auch ihr Pulver jeweils nicht immer komplett verschiessen, um eine langfristige, kontinuierliche Weiterentwicklung in Aussicht stellen zu können. Denn genau das will der Markt/die Investoren sehen.


Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
SirSilent schrieb:
[...] CPUs sind mittlerweile schnell genug. Man kann es ruhig mal bei der momentanen Technologie belassen.
"Schnell genug" ...wofür?
Stoppt den fortschritt?
 
  • Gefällt mir
Reaktionen: rg88 und v_ossi
rg88 schrieb:
Diese Zeit der Selbstfertigung ist endgültig vorbei.

Früher oder später könnte es so weit sein, dass Intel eben auch für dritte fertigt. Erste Schritte wären ja schon da. ChipEntwicklung, Fertigung und supplaychain haben jeweils einen eigenen Kopf bekommen. Davor war es scheinbar ein Mann der die Zügeln in der Hand hatte.

Somit wer weiß. Vllt liest man eines tages etwas von AMD Prozessoren die bei Intel gefertigt werden oder Intel Prozessoren die teils bei samsung und co gefertigt werden. Auch möglich, dass Intel ma GPUs wo anders fertigen lässt.

Oder Intel versucht wie AMD alles aus einer hand und das ähnlich Konzeot custom design IP und fertigt das dann für dritte.

Man darf gespannt sein.
Ergänzung ()

ZeroZerp schrieb:
Es ist nur die Frage unter welchen Bedingungen Intel bereit wäre vielleicht unter Verlusten bei der netto- Marge/ unter Inkaufnahme einer geringeren Yield- Rate die 14nm Designs aufzupumpen.

Ja oder wieso nicht wieder Sicherheitskritische Punkte missachten um paar Prozent mehr IPC rauskitzeln zu können :D
 
  • Gefällt mir
Reaktionen: rg88
Zurück
Oben