News Cannon Lake: Die erste 10-nm-CPU wird für Intel zum Albtraum

Diese Schlagzeile, bitte nicht zu ComputerBILD werden. Also ein Alptraum wird 10nm für Intel mit Sicherheit nicht. Es mag Schwierigkeiten geben, aber die gab es schon immer. Jede kleinere Fertigungsstufe wird außerdem ein wenig (haha) schwieriger, als die letzte. Möchte gar nicht wissen, was da für brilliante Köpfe dran arbeiten!
 
Doch, das wird ein kleiner Albtraum, selbst die 14++ Generation ist kaum lieferbar. Wir reden hier von 6 Monaten nach Veröffentlichung.
ARM und grade Samsung ist hier schon deutlich weiter, hier sind wir im 10nm Bereich angekommen, Intel noch lange nicht, hier werden wir, ähnlich wie beim jetzigen 8700k sehen, das vor Ende 2018 keine CPUs nennenswert lieferbar sind.
Macht euch da keine Hoffnungen, Intel ist da noch nicht soweit. Intel ist immer bei den Server CPUs voran gegangen, da ist nix in Aussicht und da wird auch nix für uns kleine Gamer/Anwender in 10nm kurzfristig kommen.

Ich denke, das da AMD den Erstschlag einleiten wird, wird von den Taktraten nicht an die Intel 14++ heranreichen aber eine deutliche Verbesserung bringen. Ich hoffe, dass das auch von den Anwendern gesehen und unterstützt wird.
Die zusätzliche "verarsche" bezüglich des Intel Chipsatzes ist einfach nur traurig und wird hoffentlich von den Käufern abgestraft.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
TSMCs 10nm sind ja eigentlich schon lange in Betrieb, Smartphone SOC werfen halt wohl mehr ab als Desktop GPU / CPU.

Anteil an TSMCs Umsatz: Apple 20%, Qualcomm 10%, MediaTeck und Nvidia je 5%, irgendwo dahinter HiSilicon.
Es ist nicht so, daß Nvidia für TSMC uninteressant ist (man hat ihnen ja extra einen eigenen 12FF-Prozeß gebastelt), aber SoC-Hersteller haben ganz deutlich Priorität und Apple alleine treibt TSMCs Entwicklungspläne.

andr_gin schrieb:
Es stagniert der Smartphonemarkt genauso wie der Notebook/Tabletmarkt. Der Unterschied ist nur dass Smartphones auch so hin werden und mit diversen Tricks die Leute zum Kauf von neuem Zeugs überredet werden.
Der Tabletmarkt ist sowieso tot.

Der Smartphonemarkt ist aus den dicken Wachstumsjahren raus, ja. Aber er stagniert nicht und die innere Dynamik ist ungebrochen. Der Durchschnittspreis für ein Smartphone ist sogar erstmals wieder gestiegen - selbst wenn man Apple rausrechnet.
Und Apples Tabletmarkt ist 20 Mrd.$ schwer, man konnte da zuletzt auch wieder zulegen. MS hat sich anscheinend von der Surface-RT-Pleite erholt. Etwas leblos wirkt nur der Markt der Android-Tablets.
Der Notebookmarkt stagniert nicht, er schrumpft - nur etwas langsamer als Desktopmarkt.

modena.ch schrieb:
Naja TSMC erster 10NM Wurf dürfte eine ähnliche Gategrösse und Dichte wie Intels 14NM++ haben.

Sun_set_1 schrieb:
Der Apple A11 läuft doch bei TSMC bereits in Massen als 10nm FinFET vom Band. Hier gabs zwar Gerüchte zu vergleichsweiser niedriger Ausbeute, trotzdem läuft hier schon die Massenfertigung.
Und da Apple, abgesehen vom Display des X, wohl keine größeren Lieferschwierigkeiten hat, würde ich die Aussage „Alle haben Probleme“ erstmal relativ sehen..

TSMCs 10FF ist ein Stück dichter (15%–20%) als Intels 14++, aber beide sind eh für verschiedene Anforderungen ausgelegt.
Es gab keine Probleme mit demA11 in 10FF, es waren die optischen Rezeptoren des iPhone X, die einige Zeit lang nicht in ausreichender Stückzahl geliefert werden konnten.

Wadenbeisser schrieb:
Weil die Chips nicht so komplex und damit weniger Fehleranfällig sind. Je größer und komplexer die Teile sind desto höher ist die Warscheinlichkeit das ein Defekt an einer kritischen Stelle den Chip killt.

Der HiSilicon Kirin 970 hat 5,5 Mrd. Transistoren, also soviel wie Intels neuester 18-Kerner. Dabei ist er aber viel dichter gepackt, da er auf Produktionseffizienz ausgelegt ist und nicht auf höchstmögliche Leistung. Das macht ihn aber kein Bißchen weniger komplex. Tatsächlich enthält er sehr viel mehr Logic-Schaltungen als das Intel-Teil mit seinen riesigen Caches.

Wadenbeisser schrieb:
Das mags ein aber das war schließlich auch nicht meine Aussage.
Meine Aussage war das die ARM Prozessoren durch die Software besser genutzt werden.
Die Aussage ist in ihrer Pauschalität falsch. ARM selbst mußte erst lernen, wie die Hardware effizienter mit dem Code umgeht. Das kann man in der Entwicklung vom Cortex A-57 über den Cortex-A72 zum Cortex-A73 sehr schön sehen. Dabei hatten sie den Luxus mit ARMv8 einen richtigen Neustart hinlegen zu können...

Wadenbeisser schrieb:
Der Superposition Benchmark ist von 2017 und SSE2 hat inzwischen gute 17 Jahre auf dem Buckel.
Sun_set_1 schrieb:
Die Diskussion hatte ich letztens auch in einem anderen Thread. Es wurde argumentiert, SSE2 sei schließlich nicht SSE1 und muss daher immer mit geschleppt werden. Das man meiner Meinung nach auch jede Operation die in SSE1 funktioniert auch unter zu Hilfe nahme von SSEII lösen könnte (usw usf) wurde nicht viel entgegnet.
SSE2 ist eine Ergänzung zu SSE und erweitert die in SSE vorhandenen Befehle inbesondere dahingehend, daß sie mit 64bit-FP umgehen können und daß die MMX-Befehle auf die XMM-Register wirken. SSE2 ist in keinster Weise ein Ersatz für SSE, ebenso wie SSE3 kein Ersatz für SSE und/oder SSE2 ist, sondern eine weitere Ergänzung.

Sun_set_1 schrieb:
Dann baut man noch einen halbwegs guten SoC und das Ergebnis ist eine SC Leistung, die der Konkurrenz seit Jahren um ca. 2 Jahre voraus ist.
Die SC-Leistung ist der Konkurrenz um Jahre voraus, weil Apple nicht eine halbwegs gute sondern eine geradezu brutal überlegene CPU baut.

zak1976 schrieb:
ARM und grade Samsung ist hier schon deutlich weiter, hier sind wir im 10nm Bereich angekommen, Intel noch lange nicht
Gerade Samsungs 10LPE hatte massive Probleme und auch mit dem 10LPP kommen sie ganz deutlich nicht an Intels 14++ heran. Aber auch hier: Die beiden Prozesse sind für verschiedene Anforderungen ausgelegt und somit schwer vergleichbar. Das wird mit GloFos 7LP anders sein; der ist direkt für AMDs Anforderungen ausgelegt!
 
Zuletzt bearbeitet von einem Moderator:
Die Befehlsereiterungen haben nicht umsonst diese Bezeichnung da sie die Befehlssätze schließlich "nur" weiter erweitern.
Selbst vom bei AMD gestrichenen 3Dnow! sind Spuren noch weiterhin in den Prozessoren enthalten. Waren das nicht Teile der Sprungvorhersage?
 
@smalM

Ja da habe ich mich etwas unglücklich ausgedrückt. Was ich damit sagen wollte, geht dakor mit Wadenbeisser. Wir sind langsam wirklich an dem Punkt an dem es mal Zeit wäre nicht X-Erweiterungen in den Decoder zu platzieren sondern einmal von Grund auf neu und mit Modernen und effizienten Sätzen versehen, anstatt Funktionen weiter "drann zu bauen". Eine Art "SSE 2.0" welche alle neuen Instruktionen klar, einfach und effizient vereint, alte unnötige dafür rauswirft.

Wie schon ausgiebig auf den Vorderseiten besprochen, wird das aber wohl auf absehbare Zeit nicht passieren. Das Problem ist ja, dass Intel seinerzeit mit Ithanium schon grandios gescheitert ist. Der erste (und einzig mir bekannte) Versuch diese Problematik mal anzugehen. Ist auch nicht zuletzt AMD zu verdanken, die ja damals die schöne Abwärtskompatibilität angeboten haben.

Beim Rest stimme ich Dir zu, ich habe nicht "brutal bessere" CPU geschrieben, da ich hier keinen Apple-Android flamewar lostreten wollte. Ist ja schließlich noch ein "Intel-Thread"

Habs daher mal diplomatisch versucht ;)
 
Zuletzt bearbeitet:
@ Sun_set_1
Das Problem an der Sache ist nur das sichd er tatsächliche Platz Gewinn wohl sehr in Grenzen halten würde und wie man bei dem Problem mit einzelnen DX9 Spielen beim Adrenalin Treiber Paket sieht ist das Geschrei sofort groß wenn dann etwas nicht mehr läuft.
 
Kann ich wirklich nicht beurteilen. Ich kann mir aber durchaus vorstellen, dass sich da über die letzten 30 Jahre viel Mist angesammelt hat.
Muss den Artikel, glaube es war anandtech oder chipinsider, nochmal raussuchen. Man ging davon aus, dass mit einem aufgeräumten decoder und "richtigem" x64 instruction set ca. 40-60% des (Strom-)Verbrauches des decoders reduziert werden könnte.

Ich such heut Abend mal danach, war etwas älter - aber das Problem ist ja leider weiterhin aktuell.
 
@ Sun_set_1
Der größte Vorteil der x86er Plattform ist letztendlich bei sowas auch das größte Problem, die Abwärtskompatibilität.
Willst du Befehlssätze aus der Hardware entfernen brauch die Software einen entsprechenden Fallback, das Problem an der Geschichte ist nur das diese mit der Zeit aber auch Mindestvoraussetzungen wie z.B. SSE2 mitbringen. Kegelst du dann den Befehlssatz raus der zur Mindestvoraussetzung gehört ist die Nummer gelaufen denn die entsprechenden Programme funktionieren nicht mehr.
Gleichzeitig sollte man sich beim Thema Platzbedarf aber auch vor Augen von wann die Erweiterungen stammten und mit welcher Strukturgröße seinerzeit gearbeitet wurde.
Überträgt man das auf heutige Strukturgrößen wäre der Gewinn nur minimal, das Potential für Probleme aber unverhältnismäßig hoch.
 
@Sun_set_1:
Nun, der Witz ist: Die Prozessoren sind ja schon modular aufgebaut. Prominente Beispiele sind AVX und Core Parking. Auch wenn beide nicht sonderlich gut funktionieren, verdeutlichen sie in erster Linie eines: Befehle, die nicht ausgeführt werden, haben auch keinen Einfluss auf Leistung oder Verbrauch des Chips, nur auf die Größe.

Ich würde wetten, dass Befehle, die wegen ihrer Veraltung nicht mehr, oder nur noch sehr selten genutzt werden auch weiter Abseits auf dem Die liegen und wichtige Instruktionen zum einen Optimiert wurden, zum anderen auch kritisch nah an den zugehörigen anderen Elementen positioniert sind. Und Befehle "optimieren" kann man auch auf heutigen Designs noch. Ein Befehl zeichnet sich durch definierte Inputs und Outputs aus, was dazwischen passiert, kann jeder Prozessorhersteller nach belieben anpassen. Der "ältere" Artikel würde mich enorm interessieren, aber ich vermute, dass die Informationen darin nicht mehr zeitgemäß sind. Die IPC heutiger Prozessoren liegt WEIT über der eines P4, der ebenfalls SSE2 beherrschte, bei zeitgleich sogar geringerer Leistungsaufnahme. Und das kommt nicht nur von neuen Befehlssätzen und höherem Takt, da wurde bereits fleißig aufgeräumt.

Durch das Entfernen von alten, selten bis nie genutzten Instruktionen und einen kompletten Neustart passieren in erster Linie 2 Dinge: Die Produktion wird ERHEBLICH teurer, weil dann bequem 3-6 Jahre in den von Grund auf neuen Chip gesteckt werden müssten und es gäbe zudem nicht einmal Abnehmer, weil kaum jemand bereit ist, einen Prozessor zu verwenden, auf dem nur 4-5 Programme laufen. Ein derartiges Vorhaben wäre selbst mit breiter Unterstützung nahezu aller betroffenen Entwickler-Studios und groß angelegter Emulation für alte Software ein Vorhaben, welches im Optimalfall 4 Jahre rote Zahlen schreibt. Und dann stellt sich eben die Frage: Ist der potentielle Gewinn an Fläche diesen finanziellen Aufwand wert? Und spätestens bei dieser Frage fürchte ich, wird der gesamte Gedanke erschlagen.
 
knoxxi schrieb:
Was der Künstler uns sagen möchte nennt sich d'ac*cord. Einer Meinung sein.

Danke - ich wollte eigentlich den Künstler zu Wort kommen lassen ;-)
 
knoxxi schrieb:
Was der Künstler uns sagen möchte nennt sich d'accord. Einer Meinung sein.

Der Künstler meinte natürlich d'accord, hat aber vom Handy aus geschrieben und war an der Stelle etwas schreibfaul. Ich bitte den Rechtschreibfehler bzw das Schreiben der Umgangssprache zu entschuldigen..

Ich möchte mir nicht selbst auf die Schulter klopfen, denke aber, es gibt Kandidaten im Forum bei denen (welchen?) eine rechtschreib-regulatorische Aufsicht mehr Sinn macht ;)

BTT @ SoDaTierchen
Ich werde nach der Arbeit mal suchen. Es ging im Prinzip im Großen um den Vergleich ARM zu x86-64. Und was denn eigentlich genau dafür sorgt, dass x86-64 immer, auch im mobilen Bereich, stromhungriger bleibt als ARM. Im Zuge dessen wurde dann halt dezidiert auf RISC / CISC und im zweiten Zusammenhang auf die jeweiligen Decoder eingegangen.

Salvo errore
 
Zuletzt bearbeitet:
Ich wollte gar nicht den "Rechtschreib-Nazi" geben ;-) Ich bin der letzte der irgendjemandem orthografisches Fehlverhalten vorwerfen darf. :-) Also weiter machen :)
 
Alles gut, habe es auch nicht so aufgenommen ;)

Mal großes Dank an alle über die letzten Seiten. Mal wirklich eine gute, konstruktive Diskussion ohne persönliche Diffamierungen, Love-Hate Geschichten, rumgetrolle etc.

So sollte es sein! :)
 
Vielen Dank für den Link, falls es andere auch interessiert: http://www.agner.org/optimize/blog/read.php?i=25 ist der Beitrag, den Sun_set_1 meinte.

Liest man sich den Inhalt durch, lassen sich leider konkrete Zahlen vermissen, dafür aber ein ziemlich genauer Eindruck erkennen, warum ein derartiges Aufräumen wohl nie stattfinden wird. Faktisch wird x86 sich also so lange additiv weiterentwickeln, bis entweder die Prozessoren mit den Altlasten nicht mehr produzierbar sind (Ich schiele mal auf Intels 7nm-Prozess, beim 10er erwägen sie sowas noch nicht), oder bis x86 eine ernsthafte Konkurrenz bekommt.

Und bevor es wieder jemand sagen möchte: ARM ist KEINE Konkurrenz zu x86, ARM-Instruktionen bedienen ein gänzlich anderes Einsatzgebiet. Konkurrenz kann ohnehin nur entstehen, wenn Softwareentwickler bereit sind, derartige Konkurrenz zu unterstützen.
 
Zurück
Oben