Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Chipfertigung: Intel startet 7 nm mit GPU statt CPU im Jahr 2021
- Ersteller MichaG
- Erstellt am
- Zur News: Chipfertigung: Intel startet 7 nm mit GPU statt CPU im Jahr 2021
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
@Ozmog
Ich zitiere dazu einfach mal Anandtech:
MMn ist das eh der viel interessantere Bereich, als das Rennen um immer mehr Kerne und Takt am Desktop.
Ich könnte aktuell privat schon keinen 8 Kern Prozessor @4GHz auslasten, was will ich da mit 10, 12 oder 16 Kernen @4,5-5GHz im Mainstream?
Soll natürlich nicht heißen, dass ich mir in den Bereich keinen Fortschritt wünsche, aber ein Großteil hier im Forum kauft doch nur, weil er/sie es kann und nicht, weil er/sie es braucht.
Wie eben bei jedem Hobby; also an dieser Stelle auch gar nicht wertend gemeint.
Geiler finde ich persönlich aber den Gedanken in einem Surface Pro (oder vergleichbaren Konkurrenten) genug Leistung für alle Szenarien zu haben und trotzdem bei Bedarf mobil zu sein. Und sei es nur, um bei gutem Wetter in den Garten oder auf den Balkon gehen zu können.
Ich zitiere dazu einfach mal Anandtech:
One might by cynical and state that Intel is already using both EMIB and Foveros in graphics today: Kaby G uses EMIB, and Lakefield has an integrated Gen11 graphics on Foveros. However these are two separate products, and our takeaway from the conversation was that both of these technologies might be on a singular product in the future.
This could take many different forms. A central control chip connected by EMIB to compute chips, using Foveros to increase the amount of onboard cache each of the control chips has. Compute chips could be daisy chained by EMIB. The control chip could need a central DRAM repository, either by Foveros or via EMIB. These technologies are like Lego – go build a spaceship, or a ferris wheel, or a GPU.
MMn ist das eh der viel interessantere Bereich, als das Rennen um immer mehr Kerne und Takt am Desktop.
Ich könnte aktuell privat schon keinen 8 Kern Prozessor @4GHz auslasten, was will ich da mit 10, 12 oder 16 Kernen @4,5-5GHz im Mainstream?
Soll natürlich nicht heißen, dass ich mir in den Bereich keinen Fortschritt wünsche, aber ein Großteil hier im Forum kauft doch nur, weil er/sie es kann und nicht, weil er/sie es braucht.
Wie eben bei jedem Hobby; also an dieser Stelle auch gar nicht wertend gemeint.
Geiler finde ich persönlich aber den Gedanken in einem Surface Pro (oder vergleichbaren Konkurrenten) genug Leistung für alle Szenarien zu haben und trotzdem bei Bedarf mobil zu sein. Und sei es nur, um bei gutem Wetter in den Garten oder auf den Balkon gehen zu können.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
v_ossi schrieb:für alle Szenarien zu haben und trotzdem bei Bedarf mobil zu sein.
irgend wo sind es alles nur glühbirnen....wenn das licht ausreicht, um meinen raum zu erhellen, sollte es den user doch zufrieden stellen.
kein mensch rühmt sich damit, eine 400watt birne zu haben, die er nicht direkt anschauen kann (seine sensorik ist dafür nicht gebaut) und diese dann auch noch speziell kühlen zu müssen
die 7nm von intel werden sehr viel effizienz frei setzen und wir/sie werden damit sehr schöne dinge bauen können.
die smartphone user dürfen das ja schon länger bewundern, vergeuden mMn aber die leistung zu sehr durch "spiele".
abwarten, was die pc user damit veranstalten werden....mehr leistung, mehr effizenz, höher weiter oder eher gleiches mit weniger aufwand...wir werden sehen....am ende wird gebaut, was sich verkauft.
mfg
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.988
@easy-max hierbei handelt es sich allerdings nur um Ice Lake-U. Im Desktop ist von Ice Lake-S und 10-nm-Produkten aber noch weit und breit nichts zu sehen.
Es hat schon seine Gründe weshalb man mit Comet Lake in 14-nm erneut ein Skylake Refresh auflegen wird.
Ich bin dennoch gespannt, was Ice Lake-U in Ultrabooks zu leisten im Stande ist und ob man an die Taktraten [vor allem aber an den Turbo] aktueller U-CPUs herankommt.
Es hat schon seine Gründe weshalb man mit Comet Lake in 14-nm erneut ein Skylake Refresh auflegen wird.
Ich bin dennoch gespannt, was Ice Lake-U in Ultrabooks zu leisten im Stande ist und ob man an die Taktraten [vor allem aber an den Turbo] aktueller U-CPUs herankommt.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.618
Bis 2021 ist es ja noch ein Weilchen, also von "Schubladen"-Handeln keine Spur, denke ich 'mal .
Dass die 10nm nicht nur eine sehr teure aber im Vergleich (nicht nur zu 14nm) auch eine relativ kurze Fertigungsnode fuer Intel sein wuerden, darauf hatte ich ja schon vor etlichen Wochen spekuliert und dieser Roadmap nach sein das wohl auch so zu kommen, wenn man den 7nm Process bei Intel so wie geplant in den Griff bekommt.
Noch eine fast "unendliche Geschichte" wie bei der 14nm Fertigung kann sich selbst Intel ohne bittere/schmerzhafte Einbussen zumindest in naher Zukunft nicht leisten, denn dann verliert man bei A.I. (IoT, Autonomous Mobility, usw.) wohl leistungstechnsch den Anschluss und nicht nur im Mainstream-PC-Geschaeft, welches zwar Intels Basis ist, aber zunehmend durch andere Bereiche bzgl. der Unternehmensnertraege abgeloest werden duerfte in Zukunft.
Die Konkurrenz im GPU-Bereich durch Intel ist zumindest aus aktueller Perspektive nach wie vor mit Sicherheit zu begruessen, egal ob beim HPC oder bei (semi-)professionellen und Gaming Konsumenten-Grafikkarten.
Dass die 10nm nicht nur eine sehr teure aber im Vergleich (nicht nur zu 14nm) auch eine relativ kurze Fertigungsnode fuer Intel sein wuerden, darauf hatte ich ja schon vor etlichen Wochen spekuliert und dieser Roadmap nach sein das wohl auch so zu kommen, wenn man den 7nm Process bei Intel so wie geplant in den Griff bekommt.
Noch eine fast "unendliche Geschichte" wie bei der 14nm Fertigung kann sich selbst Intel ohne bittere/schmerzhafte Einbussen zumindest in naher Zukunft nicht leisten, denn dann verliert man bei A.I. (IoT, Autonomous Mobility, usw.) wohl leistungstechnsch den Anschluss und nicht nur im Mainstream-PC-Geschaeft, welches zwar Intels Basis ist, aber zunehmend durch andere Bereiche bzgl. der Unternehmensnertraege abgeloest werden duerfte in Zukunft.
Die Konkurrenz im GPU-Bereich durch Intel ist zumindest aus aktueller Perspektive nach wie vor mit Sicherheit zu begruessen, egal ob beim HPC oder bei (semi-)professionellen und Gaming Konsumenten-Grafikkarten.
Ozmog
Rear Admiral
- Registriert
- März 2015
- Beiträge
- 5.581
@v_ossi
Sagte ich ja, dass es gerade auch im Mobile interessant wird, übereinander zu stapeln.
Im Mobile brauche ich lange nicht mehr als 4 Kerne, eigentlich hatte ich auch schon überlegt, mein Convertible mit der kleinen 2300U-APU mit nur zwei Kernen zu nehmen, hätte es wohl auch getan. In meinen HTPCs benötige ich genauso wenig ein Core-Rennen. Im großen Desktop trifft dein Satz auch bestens zu, mehr Kerne weil ich das kann und nicht wirklich, weil ich es unbedingt bräuchte. Obwohl bei geplanten Anwendungen mit Renderaufgaben ich immerhin zwischendurch die Kerne auch voll auslasten kann, aber anders dauert es dann eben nur etwas länger, bei Hobbyanwendungen nicht wirklich von belangen.
Im Server sieht das Stacking aber auch wieder anders aus. Immerhin ist AMDs SP3 verflucht Riesig, mehr als zwei Sockel ist kaum machbar für ein System. Mit kleineren Sockeln bekommt man auch unter Umständen mehr Sockel unter, ohne dabei auf Kerne der einzelnen CPU zu verzichten, weil der Uncore-Part sich unter den Cores befindet. Viele Cores auf geringerer Grundfläche.
Verflixt, ich höre mich heute viel zu positiv gegenüber Intel an... Das muss aufhören
Sagte ich ja, dass es gerade auch im Mobile interessant wird, übereinander zu stapeln.
Im Mobile brauche ich lange nicht mehr als 4 Kerne, eigentlich hatte ich auch schon überlegt, mein Convertible mit der kleinen 2300U-APU mit nur zwei Kernen zu nehmen, hätte es wohl auch getan. In meinen HTPCs benötige ich genauso wenig ein Core-Rennen. Im großen Desktop trifft dein Satz auch bestens zu, mehr Kerne weil ich das kann und nicht wirklich, weil ich es unbedingt bräuchte. Obwohl bei geplanten Anwendungen mit Renderaufgaben ich immerhin zwischendurch die Kerne auch voll auslasten kann, aber anders dauert es dann eben nur etwas länger, bei Hobbyanwendungen nicht wirklich von belangen.
Im Server sieht das Stacking aber auch wieder anders aus. Immerhin ist AMDs SP3 verflucht Riesig, mehr als zwei Sockel ist kaum machbar für ein System. Mit kleineren Sockeln bekommt man auch unter Umständen mehr Sockel unter, ohne dabei auf Kerne der einzelnen CPU zu verzichten, weil der Uncore-Part sich unter den Cores befindet. Viele Cores auf geringerer Grundfläche.
Verflixt, ich höre mich heute viel zu positiv gegenüber Intel an... Das muss aufhören
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.988
mkdr schrieb:Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also auch völlig uninteressant.
Ich bin mal so frei und korrigiere:
„Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also [für mich] auch völlig uninteressant.“
Das passt schon besser.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
mkdr schrieb:Datacenter GPUs oder?
ich glaube immer noch nicht, dass es in irgend einer art sinnvoll ist, für jeden hinz und kunz 50+ tera flops in 2025 unter den schreibtisch zu stellen.
lieber internet und verteiltes rechnen.
wie dann die "gpu" heißt und von welchem hersteller sie kommt, die mein bild (gerne auch mit brille in 3d) berechnet ist doch egal.
dort hin geht die reise. intel will/muss dort mitspielen und warum sollte man seine jahrzehnte lange erfahrung nicht auch hier testen.
chips können sie immer noch sehr gut bauen. egal in welcher größe.
mfg
usb2_2 schrieb:Schon klar. Man hatte das aber früher anfangen sollen um im H1 2020 fertig zu werden. Die anderen bereiten sich ja für 2020 vor. 7nm mit EUV läuft ja schon so halbwegs.
"So halbwegs" läuft auch der 10nm Prozess bei Intel seit letztem Jahr. Entscheidend ist was bei den fertigen Produkten wirklich dabei herumkommt. Derzeit ist fast alles reine Spekulation und erst im Herbst werden wird vermutlich mehr über 10nm/7nm wissen.
Ozmog schrieb:Zu ihrer Hochstapeltechnik (): Was wird man denn übereinander stapeln können? I/O unten, dazwischen vielleicht noch DRAM und oben müssen schon die PUs hin, also sowohl die CPU-Kerne als auch die GPU, sonst ist es thermisch kaum zu bändigen.
Hat Intel eigentlich ziemlich genau gezeigt.
mkdr schrieb:Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also auch völlig uninteressant.
Nö! Intel Xe soll alle Märkte ansprechen, aber ab 2021 will man damit in 7nm in die Datenzentren. Dort dürfte genauso wie bei den Server-CPUs der Stromverbrauch eine wichtigere Rolle spielen, als im Clientbereich.
Zuletzt bearbeitet:
Nein. Wenn ich sage Datacener GPUs dann heisst das, das sind nur "GPUs" für ganz bestimmte Rechen Zwecke, mit denen du zu 100% nichts zu tun hast, und auch niemand sonst hier. Die sollen ja die Xeon PHIs ablösen. Das sind also keine GPUs für Desktop. Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.RYZ3N schrieb:Ich bin mal so frei und korrigiere:
„Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also [für mich] auch völlig uninteressant.“
Das passt schon besser.
S
smalM
Gast
L3 wird auf dem CPU-Die sein, was anderes ist wegen der Zugriffszeiten eher ausgeschlossen.v_ossi schrieb:Da kann ich mir auch einen Chip mit I/O in 14nm unten, 1GB HBM darüber (als L4 Cache und für die IGPU), einer Lage reinem L3 Cache und erst oben drauf 4+2 asymmetrische CPU Kerne (in 10nm) und iGPU daneben vorstellen.
Ob's sinnvoll oder technisch umsetzbar wäre, steht auf einem anderen Blatt.
L4 ist da ein System-Cache (Anbindung über den I/O-Chip) und entlastet die CPU von konkurrierenden RAM-Zugriffen.
Nicht die technische, die wirtschaftliche Umsetzung ist entscheidend. Und da halte ich Deine Lösung für nicht realisierbar, da zu teuer, auch wenn ich's rein aus Neugierde gerne realisiert sähe – Nerd-Wunsch halt
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.988
mkdr schrieb:Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.
Ich muss ein Produkt doch nicht selbst nutzen, um es technisch interessant zu finden.
mkdr schrieb:Wenn ich sage Datacener GPUs dann heisst das, das sind nur "GPUs" für ganz bestimmte Rechen Zwecke, mit denen du zu 100% nichts zu tun hast, und auch niemand sonst hier.
Das „nur“ trifft dann wohl eher auf die von uns verwendeten GPUs zu, denn die werden in der Regel „nur“ dazu genutzt um ein Bild auszugeben und ein paar Spiele zu beschleunigen.
Zudem gibt’s hier im Forum eine nicht geringe Anzahl von Systemintegratoren, Admins und ganz einfach Technikinteressierte, die sich auch für solche Produkte interessieren.
Mich langweilt es vielmehr, dass der Großteil der News sämtlicher Webseiten mittlerweile auf Gaming ausgerichtet ist.
Ozmog
Rear Admiral
- Registriert
- März 2015
- Beiträge
- 5.581
mkdr schrieb:Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.
Punkt eins: Hier laufen glaube ich nicht nur Spieler und Privatanwender rum
Punkt zwei: Wir profitieren dann aus zweiter Hand davon, auch wenn es für den Ottonormal unsichtbar bleibt.
Aber gerade die Rechnennetzwerke von cloudbasierten Diensten, beispielsweise von Google und Amazon kommen auch solche HPC-Karten zum Einsatz. Ein Wettbewerb und auch neue Innovationen und Leistungssteigerungen im HPC wirken sich in unserem Leben ebenfalls aus. Nur merken die meisten eben nicht, was da hinter steckt.
Edit: Da bin ich wieder mal zu langsam... @RYZ3N
Nein und nein. Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich.Ozmog schrieb:Punkt eins: Hier laufen glaube ich nicht nur Spieler und Privatanwender rum
Punkt zwei: Wir profitieren dann aus zweiter Hand davon, auch wenn es für den Ottonormal unsichtbar bleibt.
Ozmog
Rear Admiral
- Registriert
- März 2015
- Beiträge
- 5.581
Wenn man dazu die Vega 7nm sieht, die auch eigentlich eher für Compute gedacht war aber dann doch noch die Radeon 7 bei abgefallen ist. Entwicklungen aus den Pro-Bereich können sich durchaus auf den Konsumer-Bereich auswirken
Ergänzung ()
Dann erleuchte mich mal....mkdr schrieb:Nein und nein. Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich.
Suteki
Lt. Junior Grade
- Registriert
- Juli 2016
- Beiträge
- 509
Bei "relentless innovation continues" musste ich doch sehr lachen.
Die Jungs und Mädels bei Intel haben sich wohl zu sehr von Parties und OEM Bestechungen ablenken lassen (Fingerzeig auf die andere News), dass sie die letzten Jahre glatt vergessen haben, die Fertigung in den Griff zu bekommen. Ich hoffe Zen2 schlägt richtig ein, damit diese Arroganz und das illegale Handeln abgestraft werden.
@xexex
Bezüglich 10nm hat man von Intel bisher letztendlich immer Lügen aufgetischt bekommen, daher ist für viele die Wahrscheinlichkeit höher, dass da dieses Jahr nichts dolles zu erwarten ist. Würde sich auch mit der anderen News mit dem Notebookprogramm decken. Wenn Intel sich genötigt sieht, so ein öffentliches Programm zu starten, muss Zen2's Überzeugungskraft ziemlich erdrückend sein. Die spielen da ja auch mit dem Feuer. Man stelle sich vor, es würde eine erneute Korruptionskampagne bewiesen. Als Wiederholungstäter sieht es dann nicht so rosig aus. Aber das war jetzt nur Spekulations meinerseits anhand der Anhaltspunkte .
Die Jungs und Mädels bei Intel haben sich wohl zu sehr von Parties und OEM Bestechungen ablenken lassen (Fingerzeig auf die andere News), dass sie die letzten Jahre glatt vergessen haben, die Fertigung in den Griff zu bekommen. Ich hoffe Zen2 schlägt richtig ein, damit diese Arroganz und das illegale Handeln abgestraft werden.
@xexex
Bezüglich 10nm hat man von Intel bisher letztendlich immer Lügen aufgetischt bekommen, daher ist für viele die Wahrscheinlichkeit höher, dass da dieses Jahr nichts dolles zu erwarten ist. Würde sich auch mit der anderen News mit dem Notebookprogramm decken. Wenn Intel sich genötigt sieht, so ein öffentliches Programm zu starten, muss Zen2's Überzeugungskraft ziemlich erdrückend sein. Die spielen da ja auch mit dem Feuer. Man stelle sich vor, es würde eine erneute Korruptionskampagne bewiesen. Als Wiederholungstäter sieht es dann nicht so rosig aus. Aber das war jetzt nur Spekulations meinerseits anhand der Anhaltspunkte .
Ozmog
Rear Admiral
- Registriert
- März 2015
- Beiträge
- 5.581
Davon sprach ich ja gar nicht, aber rate mal, was beispielsweise bei Spracherkennung und Suchmaschinen beispielsweise passiert...mkdr schrieb:Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich
Daher sprach ich von zweiter Hand profitieren, was nicht zwangsläufig in kaufbaren Produkten für den Konsumenten münden muss.
Suteki schrieb:Bezüglich 10nm hat man von Intel bisher letztendlich immer Lügen aufgetischt bekommen, daher ist für viele die Wahrscheinlichkeit höher, dass da dieses Jahr nichts dolles zu erwarten ist.
Das kann man zwar gut nachvollziehen, aber den Start gibt Intel nun mit Juni in diesem Jahr an. Zwei Monate vor Release die Investoren zu belügen, würde auch Intel nicht gut bekommen.
Ähnliche Themen
- Antworten
- 303
- Aufrufe
- 48.117