News Intel-Roadmaps: Bis 2022 ist keine 10‑nm‑CPU für Desktop in Sicht

kisser schrieb:
...

Intel hat Ende 2014 die ersten 14 nm CPU ausgeliefert, da wird man wohl kaum für 2015 schon 10 nm vorgesehen haben.

Hatte sich der 14nm nicht auch verzögert?
 
Ned Flanders schrieb:
...Ein Fan ist halt ein Fan.......

Spätestens jetzt trennt sich die Spreu vom Weizen was ich als eigentlich stiller mitleser sehr belustigend finde...
 
  • Gefällt mir
Reaktionen: Einfallslos^99, Hayda Ministral und Rockstar85
blackiwid schrieb:
Ich denke die News konzentriert sich ein wenig zu sehr auf den Desktop interessanter ist das es im Mobile Bereich nur maximal 4 Kern ende 2021 mit 10nm geben wird. Der Markt ist viel Grösser als der Desktopmarkt und der Desktopmarkt schrumpft ständig.

2022 werden hier nach doppelt so viele Notebooks wie desktops verkauft:
https://www.statista.com/statistics...forecast-for-tablets-laptops-and-desktop-pcs/

frag mich allerdings ob da selbst zusammenbauten auch bei sind. Und natürlich lässt sich da auf Server spekulieren die dann auch nicht da sein werden aber der klassische "desktop" selbst ist schon recht nebensächlich.
Selbst zusammenbauen oder auch nur konfigurieren ist denke ich ein sehr geringer Prozentsatz. Ich finde keine Daten zu dem Thema. Vermutlich geht es in dem Bereich aber eher ums Prestige.

Viele Freuen sich eben auf mehr Konkurrenz und die wird AMD primär am Desktop bieten. Auch ist die Fachpresse sehr Desktop lastig auch wenn die Verkaufszahlen eher für Notebooks sprechen. Notebooks sind eben relativ langweilig.
Anderorts soll von einem neuen Dell XPS die Rede sein, wenn die Roadmap stimmt wird das kein 10nm XPS. Denn alle 4 core fehlen noch und die 2c sind ja auch nur limited.
Trotzdem sollte man auch nicht vergessen, dass AMD auch die mobilen 7nm Ryzen noch nicht so bald auf dem Plan hat.

Am meisten wird AMD aber EPYC bringen. Dort verdienen sie am meisten und AWS hat schon die aktuellen EPYC im Portfolio. Also ist es kein großer Schritt mehr wenn sie dann noch deutlich mehr von den 7nm kaufen.
 
@divabremer

Ich hab nichts gegen Fans... Ich hab's nur gerne mit zumindest ner Hypothese untermauert weil die Diskussion sonst langweilig ist.

Ob das Fake ist oder nicht kann ja keiner mit Bestimmtheit sagen.
 
  • Gefällt mir
Reaktionen: SVΞN
Heinzelwaffel schrieb:
Du missverstehst mich komplett.
Ich sage doch ganz genau, dass man daraus nichts (auch keine Leistung) ablesen/abschätzen kann, und genau das ist mein Problem, weil durch die falsche Verwendung einer "Größe" nach dem metrischen Maß absichtlich falsch ein definierter quantitativer Vergleich gemacht wird.

Und der Vergleich ist letztendlich doch unbedeutend.
Egal wieviel oder ob überhaupt in der angegebenen Größe gefertigt wird oder ob die Fertigung einer Theoretischen Fertigung in Größe X gleicht... ist doch letztendlich egal.

Es ist eine Zahl von vielen und auch wenn es irreführend ist, es ist absolut kein Wert von dem eine Kaufentscheidung abhängig gemacht werden sollte.

Nach welchem Maß sollen sich die Fertiger überhaupt richten?
Bei tatsächlichen Größen hätte man wohl elend lange Bezeichnungen für einen Prozess oder es kommt sowas wie bei Intel 14nm++++ raus. Da verliert doch jeder den Überblick.
Oder sollen die sich an der Fertigung eines Konkurrenten orientieren, wie es als bspw AMD mit ihren Athlon 3200+ gemacht hat?
Dann gibt es Probleme bei der Einordnung wenn das Maß stehen bleibt und zurück fällt.

So wie die Benennung jetzt ist, lässt es sich grob mit der Konkurrenz vergleichen und wird relativ simpel gehalten.

Ich verstehe nicht ganz wie man sich daran auftreiben kann.
 
TheUngrateful schrieb:
Und der Vergleich ist letztendlich doch unbedeutend.

Ich mache ihn nicht, weil ich es besser weiß.
Hersteller machen das gezielt um eine gemessene Differenz vorzutäuschen. Das ist mein Punkt. Ich habe ehrlich gesagt keine Lust mich da weiter zu wiederholen.

Ich verstehe nicht was man daran missverstehen kann. Ob ich mich daran aufregen würde oder nicht, ist für den Sachverhalt egal.

Mir gefällt das nicht, und ich sage wieso.

TheUngrateful schrieb:
Nach welchem Maß sollen sich die Fertiger überhaupt richten?

Gute Frage. Ich beziehe mich jetzt auf die Zahl für die Pressemitteilungen. Daher für mich nach keinem. Wenn Hersteller das Bedürfnis haben, weil sie damit einen messbaren Unterschied zeigen wollen, dann muss diese Messung korrekt sein, oder zumindest transparent. Das ist hier nicht gegeben.
Ich brauche da keine Angabe. Was ich brauche, als möglicher Konsument, ist Transparenz und ein gewisses Gefühl von Vertrauen. Ich weiß, dass die Angabe Schwachsinn ist, das ist aber nicht klar ersichtlich. Es ist vergleichbar mit den ausgesuchten Zahlen für den "dynamischen Kontrast" bei Displays. Niemand gewinnt durch die Angabe Informationen, aber sie ist da um den Anschein zu wecken informativ zu sein.

TheUngrateful schrieb:
So wie die Benennung jetzt ist, lässt es sich grob mit der Konkurrenz vergleichen

Okay, das sehe ich ganz klar nicht so. Für mich ist hier der Casus Cnacsus: Welche Abweichung (wovon?) in % würdest du da jetzt an einem konkreten Beispiel nehmen, um es als "grob" und "vergleichbar" zu bezeichnen?
 
Iceberg87 schrieb:
Was mir bei der ganzen Geschichte immer noch nicht einleuchtet ist folgendes:

Intel ist ja "angeblich" mit dem 7nm-Prozess voll im Plan.

https://www.heise.de/newsticker/meldung/Intel-sieht-sich-bei-7-nm-Chips-im-Plan-4244480.html

OK, die Meldung ist vom Dezember 2018, aber was neueres hab ich grad nicht gefunden. Hier steht eben u. a., daß Intels 7nm-Prozess voll im Plan ist und ab 2022 auch liefern wird.

Weil das vollkommen unterschiedliche Fertigungsprozesse sind. Natürlich baut das auch auf einen gewissen graf aufeinander auf. Aber das war doch in der Vergangeheit auch schon einmal das ein Shrink nach nichtmal einem Jahr durch den neuen ersetzt wurde. Die entwicklungen finden parrael statt und bauen nicht aufeinander. Du brauchst ja neue Maschinen, bzw aufgerüstete, neue Fotolacke..... und daurauf wird die ganze Chipentwicklung abgestimmt. Und das war ja auch das Problem das die 10nm nicht so lukrativ liefen wie man vorgestellt hat und man die Fabs die schon auf 10nm aufgerüstet wurden, zurückrüsten musste um genügend kapaziäten für 14nm haben.

Iceberg87 schrieb:
Aber wenn dem so ist, warum dann überhaupt noch 10nm-Desktop-Chips in 2022? Das ergibt doch absolut keinen Sinn. Außerdem dürften TSMC und Samsung zu diesem Zeitpunkt bereits bei 5nm angelangt sein.

Woher wollen sie das wissen? Der ursprünglich von Intel angestrebte 10nm Prozess sollte angeblich eine 20% höhere Transistorenpackdichte pro mm2 haben als der 7nm von TSMC. Sie wissen also nicht ob TSMC in Zukunft vielleicht die ähnlihcen oder gar die gleichen Probleme haben wird wie Intel. Sie wissen auch nicht wie die Ausbeute bei 7nm ist. Wie hoch die kosten sind. Wo hoch die lieferkapazitäten sind. Wer noch in 7nm Produzieren lässt. TSMC ist Fremdfertiger. Es wird schon einen grund haben warum man bei Martisse auf ein Chipletdesign gewechselt ist.

Nur weil Intel nicht nur in 10nm Produziert, heißt es ja nicht das sie es nicht könnten. Aber scheint noch lukrativ genug zu sein, bzw man schafft es nicht die Menge an Chips zu produzieren die der Markt braucht und deshalb ist man gezwungen auch noch weiter in 14nm zu Produzieren. Die sind ja von 10nm weg, weil sie dadurch lieferenpässe in 14nm hatte. Es ist ja nicht so das keiner die 14nm kauft.... und es gibt halt sicher auch Verträge.

Beispiel Radion7, 7 nm, geile Karte kein frage. Geschenkt würde ich sie nehmen. Aber kaufen? Ist sie schneller als eine 2080? Zieht sie deultich weniger Strom als eine 2080? Ist sie billiger als eine 2080? Hat sie Hardwarebeschleunigung für Raytracing? Das soll jetzt kein AMD bashing werden. Aber warum ist nicht der Marktführer im GPU Markt der erste der seine GPUs in 7nm fertigen lässt?

Vielleicht wird Martisse Mega geil und lässt 9900k wirklich an allen Seiten schlecht aussehen. Aber wissen es noch nicht. Vielleicht nur ein Szenario wo Martisse so gut performt und so teuer das sich kaum etwas zur 9900k nimmt....
Und selbst wen, AMD wird nicht einfach plötzlich Millionen Chips produzieren .... Sie sind abhängig von TSMC, ihren lieferkapazitäten, ihren yield und ihren Preisen.... Es hat nicht nur vorteile wen man nicht selber fertigt.

Gibt gerade nen schönen passenden Artikel von Heise. Und nochmal, ich möchte gegen AMD bashen. Auch nicht gegen TSMC. Ein gesunder Wettbewerb ist für uns alle zum Vorteil.

 
Zuletzt bearbeitet:
Wenn man die Stellungsnahme verweigert, dann kann man davon ausgehen das sie stimmen.

Alleine um den Schein zu wahren, hätte man sie dementieren müssen, auch um Aktionäre zu beruhigen.
 
Zumindest hatten sie kein Problem damit die Gerüchte von SemiAccurate zu dementieren, dass der 10nm Prozess gecancelt worden sei.

1556204118534.png
 
ja und nein. Wenn man jeden Scheiß im Internet kommentieren und dementieren müsste, hätte man viel zu tun. Das halbe Internet besteht doch nur aus Fakenews und Spekulationen. So manches Geschäftsmodell bzw. Strategie zielt darauf ab, ins Blaue zu schießen, um so mehr Informationen "herauszukitzeln". Wenn ich Intel wäre, würde ich auch sagen, "it's done, when it's done" und Intel wird der Erste mit dem größten Interesse sein, die Infos dann auch zu verbreiten. Nur weil manche es mal wieder nicht abwarten können und rumspekulieren müssen? Warum sollte das Intel in irgendeiner Form interessieren?
 
  • Gefällt mir
Reaktionen: kisser und .Sentinel.
lynx007 schrieb:
Woher wollen sie das wissen? Der ursprünglich von Intel angestrebte 10nm Prozess sollte angeblich eine 20% höhere Packdichte haben als der 7nm von TSMC haben. Sie wissen also nicht ob TSMC vielleicht die ähnlihcen oder gleichen Probleme haben wird wie Intel. Sie wissen auch nicht wie die Ausbeute ist. Wie hoch die kosten sind. Wo hoch die lieferkapazitäten sind. Wer noch in 7nm Produzieren lässt. TSMC ist Fremdfertiger.

Doch das ist schon alles bekannt!
Die Ausbeute von AMDs Chiplets in 7nm liegt bei 70% voll funktionsfähiger Chiplets, die 7nm Produktion läuft schon 1 Jahr, die 7nm+ (EUV) Massenfertigung hat gerade begonnen und 5nm (EUV) Risk Produktion ebenso!
Das wissen wir schon alles.

lynx007 schrieb:
Beispiel Radion7, 7 nm, geile Karte kein frage. Geschenkt würde ich sie nehmen. Aber ist sie schneller als eine 2080? Zieht sie deultich weniger Strom als eine 2080? Ist sie billiger als eine 2080? Das soll jetzt kein AMD bashing werden.
Was soll beim Fertigungsprozess dieser Schwachsinnsvergleich mit einer 2080 von Nvidia.
Die VII ist ein 7nm Shrink der Vega64 und erreicht exakt genau die Leistung, die AMD zum 7nm Prozess gemacht hat, 25% Mehrleistung bei gleichem Verbrauch.
 
@Heinzelwaffel Wenn's danach ginge, dann sollten sie auch die Taktfrequenzen aus den Datenblättern entfernen, oder deutlich(!) detailreicher gestalten.
Die Taktfrequenz sagt nichts über die reale Leistung aus. Je nach Umsetzung der CPU Instruktionen, kann ich eine 10GHz CPU bauen, die 100 Taktschritte für eine Operation braucht und keinerlei Pipelining hat. Oder auch eine 1GHz CPU, die pro Taktschritt 50 Operationen parallel durchführen kann.
Selbes Spiel mit den Cache Größen. Der Größte Cache der Welt ist nutzlos, wenn er nicht effizient genutzt wird.
IPC anyone? Lässt sich auch nicht sinnvoll messen. Aber selbst wenn. Die höchste IPC der Welt für einen bunten Mix aus Instruktionen? So eine Zahl bringt mir auch nichts, wenn dann gerade meine Applikation mit einer anderen CPU deutlich besser performt.
Mit TDP und Strukturgröße muss man da gar nicht erst anfangen.

Deshalb halte ich auch nichts von: "Nimm den Ryzen! Der hat doppelt so viele logische Kerne durch SMT. Das ist besser für die Zukunft". (Nichts gegen Ryzen. Das sind super Produkte. Mir geht's hier nur um's Prinzip!)
Takt, Kerne, HT/SMT, Cache hat alles keinerlei Bedeutung. Wichtig ist, was hinten raus kommt. Vielleicht kommt schon morgen die Meldung, dass der neue Chinesische x86 Hersteller eine "2 Core" CPU mit "500MHz" gebaut hat, die alles dagewesene gegen die Wand klatscht. Möglich ist es.
(Als Negativbeispiele seien hier u.a. der Pentium 4 und AMDs Bulldozer genannt. Schöne Zahlen auf dem Papier, aber mehr war's halt auch nicht. Als Positivbeispiel wäre da z.B. der Athlon XP, der mit deutlich weniger Takt die Pentiums platt gemacht hat.)

Ich sage: Alles Augenwischerei. :D Aber irgendwie muss man dem Endkunden sein Produkt ja schmackhaft machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Max12102 und SaschaHa
heisst wird wohl bei max 10 kernen bei desktop dann bleiben bei intel, alles andere würde sämtliche TDP werte sprengen... grund genug für AMD den 16 kerner zu bringen, somit hat man dann 3 jahre lang 6 kerne mehr als intel in konsumer plattformen :D
 
benneque schrieb:
@Heinzelwaffel Wenn's danach ginge, dann sollten sie auch die Taktfrequenzen aus den Datenblättern entfernen, oder deutlich(!) detailreicher gestalten.

Die Taktfrequenz gibt den Takt an. Und nicht wie viele Takte für eine Operation gebraucht werden. Das siehst du doch auch. Und nichts anderes. Was der Kunde/die Zielgruppe daraus macht, ist seine Aufgabe.
Der Rest ist (ebenso) eine reductio ad absurdum.
Die hier angegebene Strukturbreite ist eine komplett erfundene Zahl. Sie ist weder quantitativ mit den Angaben eines Herstellers vorheriger und folgender Größen vergleichbar, noch quer mit den Fertigungs"maßen" anderer Hersteller.
https://www.golem.de/news/fertigungstechnik-das-nanometer-marketing-1709-129983.html
 
  • Gefällt mir
Reaktionen: Rockstar85
Heinzelwaffel schrieb:
Okay, das sehe ich ganz klar nicht so. Für mich ist hier der Casus Cnacsus: Welche Abweichung (wovon?) in % würdest du da jetzt an einem konkreten Beispiel nehmen, um es als "grob" und "vergleichbar" zu bezeichnen?

Da lässt sich keine Zahl nennen. Hängt schließlich davon ab, was mit was verglichen wird.
Aber man kann davon ausgehen, dass Intels 14nm nicht so modern wie TSMCs 7nm ist und vermutlich auch "schlechter" ist.
Samsungs 7nm ist anders wie TSMCs 7nm oder auch Intels 7nm, aber man kann so davon ausgehen, dass alle irgendwie auf einem ähnlichen Stand sind.

Ist genauso ersichtlich wie eine 65w CPU welche vermutlich weniger als eine 95w CPU verbraucht.
Das da ganz andere Verbauchswerte anliegen ist fast allen klar, trotzdem lässt es sich so einordnen, selbst wenn die Zahlen irreführend sind.
 
@Heinzelwaffel Ich sagte, dass die Taktfrequenz nichts über die reale Leistung aussagt. Nicht mehr, nicht weniger.
Insgesamt wollte ich damit lediglich ausdrücken, dass mir die Strukturbreite vollkommen egal ist, genau so wie der Takt, die Kerne und alles andere was in den Datenblättern steht. Weil nichts davon in irgendeiner Form relevant ist. Denn es ist nur wichtig, was hinten raus kommt.
Es kann einem am Allerwertesten vorbei gehen, ob da jetzt 7nm drauf steht, aber 32nm drin steckt. Oder ob Intel noch 10 weitere 14nm Generationen rausbringt. Meinetwegen sollen sie es wie Apple machen und es jedes Jahr auf's Neue wieder "Die neue Fertigungstechnik" nennen. Solang das Endergebnis zufriedenstellend ist, gibt's doch keinen Grund zu hinterfragen, ob sie das nun mit einer Verbesserung der aktuellen Fertigung gemacht haben, oder mit einer neuen Architektur, oder mit Alientechnologie aus Area51.
Problematisch wird's nur - wie bei Intel gerade - wenn gar nichts passiert.
 
  • Gefällt mir
Reaktionen: v_ossi und .Sentinel.
TheUngrateful schrieb:
Da lässt sich keine Zahl nennen. Hängt schließlich davon ab, was mit was verglichen wird.

Such dir ein Beispiel raus.

TheUngrateful schrieb:
Aber man kann davon ausgehen

Man kann alles.

TheUngrateful schrieb:
Ist genauso ersichtlich wie eine 65w CPU welche vermutlich weniger als eine 95w CPU verbraucht.

Du verwuschtelst hier "Maß"einheiten weil du sie nicht genau benennst.
Verbraucht ein Verbraucher eine Leistung von 65W, sind das weniger als die 95W eines anderen Verbrauchers.
Du redest hier aber von TDP (wie du weißt). Die jeder Hersteller offen definiert, im Gegensatz zu den "nm".
https://www.computerbase.de/2018-08...nitt_tdp_und_basistakt_sind_die_untere_grenze
 
andi_sco schrieb:
Hatte sich der 14nm nicht auch verzögert?
Ich zitiere noch mal Kisser:
kisser schrieb:

Und wenn man dann unter diesen Link geht und die Kommentare durchliest, liest man was von 14nm und dessen Probleme und der damaligen bereits existierenden Skepsis. Ich erinnere mich nur, dass Intel damals meinte, man habe aus den Problemen der 14nm Fertigung gelernt und
ich meine selbes neulich selbes auch über den 7nm Prozess gelesen zu haben. Der 14nm Prozess war dann doch länger da, als damals "gemeint".

Eigentlich müsste man nur Broadwell News lesen und man erkennt Parallelen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und Hayda Ministral
Zurück
Oben