News Intel-Roadmaps: Bis 2022 ist keine 10‑nm‑CPU für Desktop in Sicht

@Aldaric87

Sorry hab leider die Überschrift nicht mit kopiert.

„Und täglich grüßt das Intel Murmeltier“
 
  • Gefällt mir
Reaktionen: SVΞN, Hayda Ministral und cm87
Ozmog schrieb:
@Zotac2012
Zen2 wird nicht im N7+ sondern in N7 also ohne EUV gefertigt. Erst Zen3 kommt dann in 7nm mit EUV.
Ja, das habe ich verwechselt Ryzen 3000 und Zen3! Aber irgendwie könnte man den Eindruck gewinnen, das AMD was Innovationen betrifft [mal auf EUV bezogen], deutlich weiter ist als Intel und schneller voranschreitet, zumindest im Moment! [Wer hätte das noch vor zwei oder drei Jahren gedacht!]

Ozmog schrieb:
Wenn man natürlich eine CPU mit geringeren Takt nimmt, als die Top Modelle, ja dann hat man mehr Übertaktungsspielraum. Immerhin hat ein 8600K das selbe Die wie ein 8700K.
Noch sind die Grenzen nicht erreicht, wird aber nach und nach dichter kommen, gerade bei den Spitzenmodellen.
Irgenwann ist aber auch mal das Ende der Optimierung erreicht, gerade was den Intel 14Nm betrifft!

Ozmog schrieb:
Und Kurzzeitig müssen die Turbo auch nicht zwangsläufig sein. Zumindest im Desktop ist das häufig der Fall, dass Turbo Taktraten lange gehalten werden, wenn die Kühlung passt. Nicht umsonst macht eine 95W - CPU ungezügelt 170W und mehr, auch dauerhaft.
Zumal ja meist nur ein Kern für kurze Zeit auf den Turbo-Boost bei Bedarf taktet, was sich in der Leistung jetzt auch nicht sonderlich hervorhebt. Ich denke die TDP ist mittlerweile nur noch ein Richtwert in der Liste der Spezifikationen, zumindest bei Intel, bei den AMD Ryzen weiß ich jetzt nicht ganz genau wie es sich da verhält. Mein letzter AMD CPU war ein FX 6300. :D

Ozmog schrieb:
In Zukunft werden die Taktraten eben weiter ans Limit getrieben, nur bei den "kleineren" Modellen wird man eben meist noch mehr Luft zum Übertakten haben. Gerade bei Taktraten nahe der 5 GHz erkauft man sich ein wenig OC mit einer Menge Abwärme, sollte ja bekannt sein, und ganz viel geht eben nicht. In vielen Situationen benötigt man auch nicht unbedingt auf allen Kernen den maximalen Takt, gerade bei vielen Spielen beispielsweise.
Oder man muss halt neue Wege gehen, was die Prozessor-Architektur betrifft, indem man andere Materialien nimmt, wie z.B. Kristalle mit Lichtwellen oder so was Ähnliches. Aber da mache ich mir keine Sorgen, irgendetwas wird den Ingenieuren schon einfallen! :daumen:
 
yummycandy schrieb:
Zuallererst ist der Prozess maßgeblich für die maximale Taktfrequenz. Denn aus diesem ergibt sich die maximale Schaltgeschwindigkeit der Transistoren. Danach entscheidet das Design und dann erst die Chipgüte.

Nein, das Schaltungsdesign und die CPU-Architektur sind die wesentlichen "Parameter" für hohe Frequenzen, der Prozess spielt keine so große Rolle. Auch mit 90 nm kam der Pentium 4 schon fast an 4 GHz.
 
Zotac2012 schrieb:
Kristalle mit Lichtwellen oder so was
Sind wir hier bei den Goa'uld? :D
Zotac2012 schrieb:
Zumal ja meist nur ein Kern für kurze Zeit auf den Turbo-Boost bei Bedarf taktet, was sich in der Leistung jetzt auch nicht sonderlich hervorhebt

Eben nicht nur kurzzeitig, vielleicht der Maximal-Turbo, aber zumindest bei Ryzen sehe ich quasi nie den Basistakt, damit ist er immer im Turbo. In meinem Fall mit nen 1700 sind die Turbostufen noch sehr Grob, aber bei den 2000ern sieht es schon ganz anders aus. Unter Volllast selbst beim Rendern und auch unter Prime liege ich immer im Allcore-Turbo, dauerhaft.

Mit den immer besser werdenden Turbo und bei AMD noch XFR und Overboost, reizen sie den möglichen Taktspielraum schon recht weit aus. Die Luft für OC wird dadurch immer dünner, was an sich ja eigentlich auch nicht schlimm ist, steht out-of-the-Box mehr Leistung zur Verfügung. Eine Leistungssteigerung alleine durch einen besseren Kühler ohne weitere Einstellungen und Feinjustierungen sind damit möglich. Doof ist es höchstens für den Hobbyübertakter, der immer weniger zu tun bekommt. Aber noch gibt es genug Stellschrauben und Spielraum.
 
  • Gefällt mir
Reaktionen: Drölfzehn und Strikerking
Was ist da los bei Intel??

  • Fertigungstechnologieführerschaft verloren und baldiges hinterherhinken
  • keine wirklichen Fortschritte im CPU Bereich in den letzten Jahren
  • Scheiß uralte iGPU
  • Modems verkackt
  • Smartphone/Tablet CPU Markt verkackt
und das trotz gigantischer Gewinne ..

AMD wohl mit der 3000-er Serie beim Gaming auf gleicher Höhe (mit besseren Preisen und mehr Anwendungsperformance) … Aufziehende Probleme bei Cashcow Server durch Zen2 …
Dann noch ARM Konkurrenz ... Apple die Intel in den nächsten 2-4 Jahren aus ihren Notebooks werfen werden .. Die kommende auf Zen2 basierenden Notebook CPUs (und damit hoffentlich endlich Durchbruch im Notebook Markt)
Die Desktop APUs 3400G und 3200G könnten durchaus auch interessant werden ohne Gegenstück von Intel.


Gibt es denn noch positives zu berichten bei Intel für die Zukunft?

Edith:
Laut dem Bericht von bitsandchips.it belaufe sich der Anteil der voll funktionsfähigen Zen 2-Dies auf etwa 70 Prozent.
Das hört sich doch schonmal sehr gut an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Zotac2012 schrieb:
Aber irgendwie könnte man den Eindruck gewinnen, das AMD was Innovationen betrifft [mal auf EUV bezogen], deutlich weiter ist als Intel

AMD ist da gar nicht weiter als Intel, sondern TSMC

Zotac2012 schrieb:
Wer hätte das noch vor zwei oder drei Jahren gedacht!

Wenn man die sich steigernden Verzögerungen beim Wechsel zu neuen Fertigungsprozessen bei Intel verfolgt hat, überrascht es nicht.
 
  • Gefällt mir
Reaktionen: Hayda Ministral und Mcr-King
Das die IGPU für Games nicht ausreicht ist uninteressant solage sie für Büro Rechner ausreicht und noch sind AMDs 7 nm CPUs nicht auf dem Markt , noch hat Intel einen Taktvorteil , noch verbauen die OEM fast ausschließlich Intel , noch ....
Die Vorteile die AMDs 7 nm CPU s bieten werden sind jedoch so ausgeprägt das sich das im Laufe der nächsten 1-2 Jahre ändern wird , AMD dürfte Intel kräftig Marktanteile abnehmen , jedoch nicht über Nacht ...
Die Zeiten der Mega Gewinne für Intel sind vorbei , spätestens wenn sie anfangen die Kosten für 10 nm abzuschreiben ....
 
  • Gefällt mir
Reaktionen: Mcr-King
MK one schrieb:
Beim 7 nm ist das jetzt anders , zu dem normalen 7 nm gibt es noch die 7 nm HPC Variante , diese soll 13 % mehr Takt bringen = 450 - 500 Mhz und das hat nichts mit dem Design der CPU zu tun .
Das Design hat sehr wohl einen Einfluss auf die maximale Taktfrequenz. Informiere dich doch mal warum der P4 so hoch takten konnte und Intel sehr lange benötigte um mit den Core (2)-CPUs daran wieder anzuknüpfen. Ich spreche hier nicht von Instruktionen/Takt sondern der reinen Taktfrequenz.
Mr.Baba schrieb:
Scheiß uralte iGPU
Bei der Zielgruppe reicht es: Der Windows-Dekstop wird sauber dargestellt, Stromverbrauch ist gering und die wichtigsten Video-Formate werden auch unterstützt.
MK one schrieb:
Die Vorteile die AMDs 7 nm CPU s bieten werden sind jedoch so ausgeprägt das sich das im Laufe der nächsten 1-2 Jahre ändern wird , AMD dürfte Intel kräftig Marktanteile abnehmen , jedoch nicht über Nacht ...
Wird sich zeigen - wäre jedoch gut für alle wenn AMD endlich einen größeren Kuchen vom Markt ab bekommt.
 
  • Gefällt mir
Reaktionen: Mcr-King
lynx007 schrieb:
Beispiel Radion7, 7 nm, geile Karte kein frage. Geschenkt würde ich sie nehmen. Aber kaufen? Ist sie schneller als eine 2080? Zieht sie deultich weniger Strom als eine 2080? Ist sie billiger als eine 2080? Hat sie Hardwarebeschleunigung für Raytracing? Das soll jetzt kein AMD bashing werden. Aber warum ist nicht der Marktführer im GPU Markt der erste der seine GPUs in 7nm fertigen lässt?

Vielleicht wird Martisse Mega geil und lässt 9900k wirklich an allen Seiten schlecht aussehen. Aber wissen es noch nicht. Vielleicht nur ein Szenario wo Martisse so gut performt und so teuer das sich kaum etwas zur 9900k nimmt....
Und selbst wen, AMD wird nicht einfach plötzlich Millionen Chips produzieren .... Sie sind abhängig von TSMC, ihren lieferkapazitäten, ihren yield und ihren Preisen.... Es hat nicht nur vorteile wen man nicht selber fertigt.

Die Radeon 7 ist der erste grössere High Performance Chip in 7NM Grossserie.
Bei der Radeon 7 scheint der Chip oder die Fertigung etwas zu streuen, es ist also noch nicht
ultimativ perfekt mit der Fertigung. Aber das Potential mit UV zum Teil zeigt wo die Reise hin geht.
80% Performance mit 120W sind zum teilw. drin.
Da ist jeder NV Chip Meilenweit weg.
Den Doppelten Speicher mit massivem Durchsatz wollen wir dabei auch nicht vergessen.


Wieso NV nicht 7NM fertigt? Weil ihre Monster Chips ab TU104 eine lausige Ausbeute hätten
bei der Grösse, selbst nach dem Shrink.

Mit den kleinen 7NM Chiplets und dem IO Die in der eingefahrenen 12NM Fertigung würd ich bezweifeln, dass Matisse teuer zu fertigen ist. Was er ziemlich sicher ist, ist massiv effizienter und leichter zu kühlen als der 9900k.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
iamunknown schrieb:
...
Bei der Zielgruppe reicht es: Der Windows-Dekstop wird sauber dargestellt, Stromverbrauch ist gering und die wichtigsten Video-Formate werden auch unterstützt.
...

Mit einer aktuell "neuen" CPU kann nativ per HDMI nochimmer kein 4k ausgegeben werden! Im Jahr 2019! Wo bitte reicht das!! So ein Geschäftsnotebook soll ja dann auch wieder 3-5Jahre benutzt werden, evtl. auch an einem 4k oder gar 8k Beamer/Monitor.
https://www.intel.de/content/www/de/de/products/processors/core/core-vpro/i7-8665u.html

Für 4k kann man aber natürlich einen usb-c adapter erwerben.. Ansonsten können glaube ich aktuell 2*4k Monitore angeschloßen werden per thunderbolt 3 (usb-c). Wie gut und flüssig das dann läuft weiß ich nicht, und hängt sicher viel an der CPU.

Es wäre daher durchaus angebracht, dass Intel direkt auf HDMI 2.1 und 60hz 8k unterstützt und schon reicht die iGPU nicht mehr.
Vielleicht passiert das ja Q2 2020.. Dann wurde HDMI 1.4 lange genug unterstützt.
 
Zuletzt bearbeitet:
Sorry, bin jetzt kein Micro Technologie...
Aber der Prozess ist entscheidend für das Taktverhalten der Transistoren, nicht wie die Transistoren verschaltet sind. Was passiert denn bei den Arbeitsschritten im Prozess? Die Transistoren und die Leiterbahnen werden aufgebaut. Je nach Material und Dimensionierung der Transistoren erreichen diese unterschiedliche Taktraten. Die Prozessgröße ist dabei nicht zwangsweise entscheidend (siehe P4 und nachfolgend Core), aber eben diverse Parameter im Prozess selbst. Kleinere Prozesse müssen damit nicht zwangsläufig mehr Takt erreichen, deshalb kann Intel auch schlecht ihre Skylake-(Refresh-Refresh-Refresh-) Architektur einfach auf 10nm bringen und erreicht damit gleich mindestens die Taktraten vom Vorgänger. Der 14nm++ ist nämlich dafür verantwortlich, dass die Intels so hoch takten, die Architektur hat sich seit Skylake nicht wirklich geändert.

Gleiches sieht man auch bei GloFo, 14nm und 12nm: 12nm bietet mehr Takt, an der Architektur wurde quasi gar nichts geändert, selbst die Die-Größe ist exakt gleich geblieben. Auf die Möglichkeit, mit 12nm auch eine höhere Packdichte zu nutzen, wurde bewusst verzichtet.

Kurz mal nachgedacht: Wieso gibt es verschiedene Prozesse mit unterschiedlichen Ergebnissen beim Taktverhalten in gleicher bzw ähnlicher Größe?
 
Mr.Baba schrieb:
Mit einer aktuell "neuen" CPU kann nativ per HDMI nochimmer kein 4k ausgegeben werden! Im Jahr 2019! Wo bitte reicht das!! So ein Geschäftsnotebook soll ja dann auch wieder 3-5Jahre benutzt werden, evtl. auch an einem 4k oder gar 8k Beamer/Monitor.
Das könnte daran liegen, dass sich im Business-Umfeld DisplayPort gegenüber dem Consumer-Port HDMI durchgesetzt hat.
8k steht mit einem Notebook aktuell eher nicht zur Debatte - wobei hier auch die Kosten für (nicht verfügbare native 8k-Geräte?) Beamer abschrecken dürften...
 
kisser schrieb:
Nein, das Schaltungsdesign und die CPU-Architektur sind die wesentlichen "Parameter" für hohe Frequenzen, der Prozess spielt keine so große Rolle. Auch mit 90 nm kam der Pentium 4 schon fast an 4 GHz.
Da gebe ich dir teilweise Recht. Jedoch sind Fertigungsprozess und Schaltungsdesign nicht immer direkt voneinander zu trennen, da das Verhältnis von Gate-Größe, Pitch, etc. ja vom Herstellungsprozess "diktiert" wird und das Schaltungsdesign daher daran angepasst werden muss, da die Transistoren eben je nach Herstellungsprozess leicht unterschiedliche Formen haben, was eben auch das Takt-Verhalten beeinflusst.

Diesbezüglich ist Intel bei ihrem 14 nm+++ gut aufgestellt, deren Transistor-Design erlaubt hohe Taktraten. Da ist TSMC bisher etwas hinterher.
 
  • Gefällt mir
Reaktionen: Rockstar85
Mr.Baba schrieb:
  • Fertigungstechnologieführerschaft verloren und baldiges hinterherhinken
  • keine wirklichen Fortschritte im CPU Bereich in den letzten Jahren
  • Scheiß uralte iGPU
  • Modems verkackt
  • Smartphone/Tablet CPU Markt verkackt

@ Mr.Baba

Abgeshen von den derzeitigen Problemen bei Intel. Sind ein paar berechtigte Punkte auf die du hier eingehst. Möchte bei einem von dir angemerkten Punkte noch ein bissel explizieter darauf eingehen ;):

"Smartphone/Tablet CPU Markt verkackt"

Diesen Markt halte ich für den zukunftsträchtigsten überhaupt ;). Ich hatte es bereits gestern gesagt. Die Jugendlichen von heute haben meistens gar kein so großes Interesse mehr an Desktop-PC`s. Die sagen sich nämlich: Warum noch so olle Kiste unterm Tisch haben , wenn ich mit nem Tab oder Handy das ganze viel platzsparender haben kann - so hat`s meine (14jährige Nichte) letztens ziemlich unverblümt ausgedrückt :D. OK, Spieler holen sich noch einen Desktop-PC. Aber auch was das angeht geht der Trend (für mich gefühlt) immer mehr zu den Spielekonsolen.

In den meisten Haushalten die ich kenne, steht auf X86-Basis nur noch ein einziges Notebook (seltener ein Desktop-PC) rum. Um einfach mit Word- Excel - und Powerpoint arbeiten zu können. Das braucht man eben für die Arbeitswelt. Demgegenüber stehen jedoch bereits jetzt etliche Tablets und Smartphones pro Haushalt zur Verfügung. Meistens auf Apple- und Android-Basis - sprich also ARM. Leistungsmaßig ist die ARM-Archtitektur derzeit keine ernsthafte Alternative zu X86. Aber die wenigsten - so wie ich - schneiden überhaupt noch Videos, streamen oder machen Raytracing usw. So gesehen fühle ich mich mit meinen 32 Lenzen schon beinahe als Dinosaurier :D. Der große Vorteil von X86 ist m. M.n. nicht die Leistungsfähigkeit ansichts, die steht bei ernsthaften Anwengungen sowieso außer Frage. Nein, der größte Vorteil besteht darin, daß die meisten Menschen arbeitstechnisch noch auf MS-Produkte angewiesen sind. Von daher braucht man momentan immer noch wenigstens zumindest ein (X86-)Notebook im Haushalt ;).

Noch! Denn wenn im laufe der nächsten Jahre der klassische X86-PC (bzw. Notebook) immer weiter zurückgedrängt wird (danach sieht es derzeit aus) könnte in ein paar Jahren ein Tipping-Point erreicht werden wo das Pendel schlagartig zugunsten ARM umschlägt. In den Entwicklungsländern - und den damit den am stärksten wachsenden Märkten - ist diese Entwicklung schon weitaus fortgeschrittener als bei uns in den hochindustrialisierten Staaten.

Um aber noch einmal auf Intel einzugehen: Ja, Intel hatte vor einem paar Jahren mal versucht mit einem Smartphone in diesem Markt angzugreifen. Ich glaube, es war ein Motorola-Smartphone mit Intel CPU. Der Versuch ist aber kläglich gescheitert - trotz Intel inside auf der Schachtel.
Genauso hat Microsoft versucht mit Windowphone ein neues Betriebssystem auf dem Smartphone-Markt zu etablieren. Hatte selbst mal eines - war irgendein Nokia-Windowphone. Ich mochte es, hat sich aber auch nicht durchgesetzt. Der mobile Markt wurde sogar damals schon von Apple und Android dominiert (ARM-Basis).

All das sind Entwicklungen, die sowohl Intel- als auch AMD zu denken geben sollten ;).
 
  • Gefällt mir
Reaktionen: Mcr-King
@Iceberg87

das sehe ich anders
ich bin mir zu 100% sicher das früher oder später alles über die cloud läuft und dementsprechend im server segment die meiste kohle gemacht wird
weil die tablet, smartphones usw einfach alles nur noch "streaminggeräte" sein werden die fast keine leistung benötigen
 
Mr.Baba schrieb:
Mit einer aktuell "neuen" CPU kann nativ per HDMI nochimmer kein 4k ausgegeben werden! Im Jahr 2019! Wo bitte reicht das!! So ein Geschäftsnotebook soll ja dann auch wieder 3-5Jahre benutzt werden, evtl. auch an einem 4k oder gar 8k Beamer/Monitor.
https://www.intel.de/content/www/de/de/products/processors/core/core-vpro/i7-8665u.html

Es wäre daher durchaus angebracht, dass Intel direkt auf HDMI 2.1 und 60hz 8k unterstützt und schon reicht die iGPU nicht mehr.

Damit du bei 8K den Unterschied zu 4K siehst, kannst dich ca. 50cm vor eine 80 Zoll++ Glotze hinsetzen.
Sprich reiner Marketingschwachfung und für Monitore völlig, total uninteressant.

Ändert natürlich nix daran, dass bei Intel Nativ HDMI 2+ mal ankommen sollte.
 
Ozmog schrieb:
Die Transistoren und die Leiterbahnen werden aufgebaut. Je nach Material und Dimensionierung der Transistoren erreichen diese unterschiedliche Taktraten.

Material? Das ist immer Silizium.
Das Layout ist ganz entscheidend, denn Leiterbahnen stellen Kapazitäten da und somit Tiefpassfilter.
Die Dimensionierung des Transistors ist kaum von Belang.
 
knacker3 schrieb:
früher oder später alles über die cloud läuft
In Deutschland wohl eher später :D Dafür bräuchte man ja flächendeckendes Breitband Internet.
Selbst in unserem alten Büro mitten(!) in Berlin gab's vor 2 Jahren max. 16Mbit/s. An anderen Ecken bekommt man natürlich auch seine 250Mbit VDSL. Aber solang es nicht überall im Land stabiles und schnelles Breitband Internetz gibt, wird das nix. Von der Mobilfunkabdeckung müssen wir da wohl gar nicht erst anfangen zu reden. :D Vielleicht wird's ja mit 5G endlich besser.
 
  • Gefällt mir
Reaktionen: Rockstar85
SaschaHa schrieb:
da das Verhältnis von Gate-Größe, Pitch, etc. ja vom Herstellungsprozess "diktiert" wird und das Schaltungsdesign daher daran angepasst werden muss,

Das ist richtig, aber man kann ja für einen Prozess verschiedene Transistor-Designs entwerfen.
Dass muss man sogar tun, weil es ja auch Transitoren gibt, die nicht so hoch takten, dafür aber größere Ströme liefern müssen (Ausgangsstufen des Speichercontrollers z.B.).
 
benneque schrieb:
In Deutschland wohl eher später :D Dafür bräuchte man ja flächendeckendes Breitband Internet.
Selbst in unserem alten Büro mitten(!) in Berlin gab's vor 2 Jahren max. 16Mbit/s. An anderen Ecken bekommt man natürlich auch seine 250Mbit VDSL. Aber solang es nicht überall im Land stabiles und schnelles Breitband Internetz gibt, wird das nix. Von der Mobilfunkabdeckung müssen wir da wohl gar nicht erst anfangen zu reden. :D Vielleicht wird's ja mit 5G endlich besser.

zum glück hängt diese entwicklung nicht von ein paar deutschen haushalten usw ab^^
 
Zurück
Oben