News Chipfertigung: Intel startet 7 nm mit GPU statt CPU im Jahr 2021

780243


Quelle
 
@Ozmog

Ich zitiere dazu einfach mal Anandtech:

One might by cynical and state that Intel is already using both EMIB and Foveros in graphics today: Kaby G uses EMIB, and Lakefield has an integrated Gen11 graphics on Foveros. However these are two separate products, and our takeaway from the conversation was that both of these technologies might be on a singular product in the future.

This could take many different forms. A central control chip connected by EMIB to compute chips, using Foveros to increase the amount of onboard cache each of the control chips has. Compute chips could be daisy chained by EMIB. The control chip could need a central DRAM repository, either by Foveros or via EMIB. These technologies are like Lego – go build a spaceship, or a ferris wheel, or a GPU.

MMn ist das eh der viel interessantere Bereich, als das Rennen um immer mehr Kerne und Takt am Desktop.

Ich könnte aktuell privat schon keinen 8 Kern Prozessor @4GHz auslasten, was will ich da mit 10, 12 oder 16 Kernen @4,5-5GHz im Mainstream?

Soll natürlich nicht heißen, dass ich mir in den Bereich keinen Fortschritt wünsche, aber ein Großteil hier im Forum kauft doch nur, weil er/sie es kann und nicht, weil er/sie es braucht.
Wie eben bei jedem Hobby; also an dieser Stelle auch gar nicht wertend gemeint.

Geiler finde ich persönlich aber den Gedanken in einem Surface Pro (oder vergleichbaren Konkurrenten) genug Leistung für alle Szenarien zu haben und trotzdem bei Bedarf mobil zu sein. Und sei es nur, um bei gutem Wetter in den Garten oder auf den Balkon gehen zu können.
 
  • Gefällt mir
Reaktionen: Hayda Ministral, gaelic, Iceberg87 und 2 andere
v_ossi schrieb:
für alle Szenarien zu haben und trotzdem bei Bedarf mobil zu sein.


irgend wo sind es alles nur glühbirnen....wenn das licht ausreicht, um meinen raum zu erhellen, sollte es den user doch zufrieden stellen.

kein mensch rühmt sich damit, eine 400watt birne zu haben, die er nicht direkt anschauen kann (seine sensorik ist dafür nicht gebaut) und diese dann auch noch speziell kühlen zu müssen :evillol:

die 7nm von intel werden sehr viel effizienz frei setzen und wir/sie werden damit sehr schöne dinge bauen können.

die smartphone user dürfen das ja schon länger bewundern, vergeuden mMn aber die leistung zu sehr durch "spiele".

abwarten, was die pc user damit veranstalten werden....mehr leistung, mehr effizenz, höher weiter oder eher gleiches mit weniger aufwand...wir werden sehen....am ende wird gebaut, was sich verkauft.

mfg
 
  • Gefällt mir
Reaktionen: v_ossi
@easy-max hierbei handelt es sich allerdings nur um Ice Lake-U. Im Desktop ist von Ice Lake-S und 10-nm-Produkten aber noch weit und breit nichts zu sehen.

Es hat schon seine Gründe weshalb man mit Comet Lake in 14-nm erneut ein Skylake Refresh auflegen wird.

Ich bin dennoch gespannt, was Ice Lake-U in Ultrabooks zu leisten im Stande ist und ob man an die Taktraten [vor allem aber an den Turbo] aktueller U-CPUs herankommt.
 
  • Gefällt mir
Reaktionen: Iceberg87
Bis 2021 ist es ja noch ein Weilchen, also von "Schubladen"-Handeln keine Spur, denke ich 'mal ;).

Dass die 10nm nicht nur eine sehr teure aber im Vergleich (nicht nur zu 14nm) auch eine relativ kurze Fertigungsnode fuer Intel sein wuerden, darauf hatte ich ja schon vor etlichen Wochen spekuliert und dieser Roadmap nach sein das wohl auch so zu kommen, wenn man den 7nm Process bei Intel so wie geplant in den Griff bekommt.

Noch eine fast "unendliche Geschichte" wie bei der 14nm Fertigung kann sich selbst Intel ohne bittere/schmerzhafte Einbussen zumindest in naher Zukunft nicht leisten, denn dann verliert man bei A.I. (IoT, Autonomous Mobility, usw.) wohl leistungstechnsch den Anschluss und nicht nur im Mainstream-PC-Geschaeft, welches zwar Intels Basis ist, aber zunehmend durch andere Bereiche bzgl. der Unternehmensnertraege abgeloest werden duerfte in Zukunft.

Die Konkurrenz im GPU-Bereich durch Intel ist zumindest aus aktueller Perspektive nach wie vor mit Sicherheit zu begruessen, egal ob beim HPC oder bei (semi-)professionellen und Gaming Konsumenten-Grafikkarten.
 
Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also auch völlig uninteressant.
 
@v_ossi
Sagte ich ja, dass es gerade auch im Mobile interessant wird, übereinander zu stapeln.

Im Mobile brauche ich lange nicht mehr als 4 Kerne, eigentlich hatte ich auch schon überlegt, mein Convertible mit der kleinen 2300U-APU mit nur zwei Kernen zu nehmen, hätte es wohl auch getan. In meinen HTPCs benötige ich genauso wenig ein Core-Rennen. Im großen Desktop trifft dein Satz auch bestens zu, mehr Kerne weil ich das kann und nicht wirklich, weil ich es unbedingt bräuchte. Obwohl bei geplanten Anwendungen mit Renderaufgaben ich immerhin zwischendurch die Kerne auch voll auslasten kann, aber anders dauert es dann eben nur etwas länger, bei Hobbyanwendungen nicht wirklich von belangen.

Im Server sieht das Stacking aber auch wieder anders aus. Immerhin ist AMDs SP3 verflucht Riesig, mehr als zwei Sockel ist kaum machbar für ein System. Mit kleineren Sockeln bekommt man auch unter Umständen mehr Sockel unter, ohne dabei auf Kerne der einzelnen CPU zu verzichten, weil der Uncore-Part sich unter den Cores befindet. Viele Cores auf geringerer Grundfläche.

Verflixt, ich höre mich heute viel zu positiv gegenüber Intel an... Das muss aufhören :freak:
 
  • Gefällt mir
Reaktionen: Iceberg87 und v_ossi
mkdr schrieb:
Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also auch völlig uninteressant.

Ich bin mal so frei und korrigiere:

„Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also [für mich] auch völlig uninteressant.“

Das passt schon besser. ;)
 
  • Gefällt mir
Reaktionen: Smartbomb und [wege]mini
mkdr schrieb:
Datacenter GPUs oder?


ich glaube immer noch nicht, dass es in irgend einer art sinnvoll ist, für jeden hinz und kunz 50+ tera flops in 2025 unter den schreibtisch zu stellen.

lieber internet und verteiltes rechnen.

wie dann die "gpu" heißt und von welchem hersteller sie kommt, die mein bild (gerne auch mit brille in 3d) berechnet ist doch egal.

dort hin geht die reise. intel will/muss dort mitspielen und warum sollte man seine jahrzehnte lange erfahrung nicht auch hier testen.

chips können sie immer noch sehr gut bauen. egal in welcher größe.

mfg
 
usb2_2 schrieb:
Schon klar. Man hatte das aber früher anfangen sollen um im H1 2020 fertig zu werden. Die anderen bereiten sich ja für 2020 vor. 7nm mit EUV läuft ja schon so halbwegs.

"So halbwegs" läuft auch der 10nm Prozess bei Intel seit letztem Jahr. Entscheidend ist was bei den fertigen Produkten wirklich dabei herumkommt. Derzeit ist fast alles reine Spekulation und erst im Herbst werden wird vermutlich mehr über 10nm/7nm wissen.

Ozmog schrieb:
Zu ihrer Hochstapeltechnik (;)): Was wird man denn übereinander stapeln können? I/O unten, dazwischen vielleicht noch DRAM und oben müssen schon die PUs hin, also sowohl die CPU-Kerne als auch die GPU, sonst ist es thermisch kaum zu bändigen.

Hat Intel eigentlich ziemlich genau gezeigt.
780255


mkdr schrieb:
Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also auch völlig uninteressant.

Nö! Intel Xe soll alle Märkte ansprechen, aber ab 2021 will man damit in 7nm in die Datenzentren. Dort dürfte genauso wie bei den Server-CPUs der Stromverbrauch eine wichtigere Rolle spielen, als im Clientbereich.
780259
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini und v_ossi
RYZ3N schrieb:
Ich bin mal so frei und korrigiere:

„Das sind doch nur Datacenter GPUs oder? Keine Desktop GPUs. Also [für mich] auch völlig uninteressant.“

Das passt schon besser. ;)
Nein. Wenn ich sage Datacener GPUs dann heisst das, das sind nur "GPUs" für ganz bestimmte Rechen Zwecke, mit denen du zu 100% nichts zu tun hast, und auch niemand sonst hier. Die sollen ja die Xeon PHIs ablösen. Das sind also keine GPUs für Desktop. Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.
 
v_ossi schrieb:
Da kann ich mir auch einen Chip mit I/O in 14nm unten, 1GB HBM darüber (als L4 Cache und für die IGPU), einer Lage reinem L3 Cache und erst oben drauf 4+2 asymmetrische CPU Kerne (in 10nm) und iGPU daneben vorstellen.
Ob's sinnvoll oder technisch umsetzbar wäre, steht auf einem anderen Blatt.
L3 wird auf dem CPU-Die sein, was anderes ist wegen der Zugriffszeiten eher ausgeschlossen.
L4 ist da ein System-Cache (Anbindung über den I/O-Chip) und entlastet die CPU von konkurrierenden RAM-Zugriffen.
Nicht die technische, die wirtschaftliche Umsetzung ist entscheidend. Und da halte ich Deine Lösung für nicht realisierbar, da zu teuer, auch wenn ich's rein aus Neugierde gerne realisiert sähe – Nerd-Wunsch halt :D
 
mkdr schrieb:
Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.

Ich muss ein Produkt doch nicht selbst nutzen, um es technisch interessant zu finden.

mkdr schrieb:
Wenn ich sage Datacener GPUs dann heisst das, das sind nur "GPUs" für ganz bestimmte Rechen Zwecke, mit denen du zu 100% nichts zu tun hast, und auch niemand sonst hier.

Das „nur“ trifft dann wohl eher auf die von uns verwendeten GPUs zu, denn die werden in der Regel „nur“ dazu genutzt um ein Bild auszugeben und ein paar Spiele zu beschleunigen.

Zudem gibt’s hier im Forum eine nicht geringe Anzahl von Systemintegratoren, Admins und ganz einfach Technikinteressierte, die sich auch für solche Produkte interessieren.

Mich langweilt es vielmehr, dass der Großteil der News sämtlicher Webseiten mittlerweile auf Gaming ausgerichtet ist.
 
  • Gefällt mir
Reaktionen: Hayda Ministral und Ozmog
mkdr schrieb:
Jetzt bin ich mal gespannt, wo du einen Nutzen oder auch nur anssatzweise davon angesprochen wirst.

Punkt eins: Hier laufen glaube ich nicht nur Spieler und Privatanwender rum
Punkt zwei: Wir profitieren dann aus zweiter Hand davon, auch wenn es für den Ottonormal unsichtbar bleibt.
Aber gerade die Rechnennetzwerke von cloudbasierten Diensten, beispielsweise von Google und Amazon kommen auch solche HPC-Karten zum Einsatz. Ein Wettbewerb und auch neue Innovationen und Leistungssteigerungen im HPC wirken sich in unserem Leben ebenfalls aus. Nur merken die meisten eben nicht, was da hinter steckt.

Edit: Da bin ich wieder mal zu langsam... @RYZ3N
 
Ozmog schrieb:
Punkt eins: Hier laufen glaube ich nicht nur Spieler und Privatanwender rum
Punkt zwei: Wir profitieren dann aus zweiter Hand davon, auch wenn es für den Ottonormal unsichtbar bleibt.
Nein und nein. Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich.
 
Sorry ich bin nicht so auf dem laufenden.
Wird Intel 2021 ( sofern sie es einhalten können ) Grafikkarten auf für Gamer anbieten?
 
Wenn man dazu die Vega 7nm sieht, die auch eigentlich eher für Compute gedacht war aber dann doch noch die Radeon 7 bei abgefallen ist. Entwicklungen aus den Pro-Bereich können sich durchaus auf den Konsumer-Bereich auswirken
Ergänzung ()

mkdr schrieb:
Nein und nein. Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich.
Dann erleuchte mich mal....
 
Bei "relentless innovation continues" musste ich doch sehr lachen.

Die Jungs und Mädels bei Intel haben sich wohl zu sehr von Parties und OEM Bestechungen ablenken lassen (Fingerzeig auf die andere News), dass sie die letzten Jahre glatt vergessen haben, die Fertigung in den Griff zu bekommen. Ich hoffe Zen2 schlägt richtig ein, damit diese Arroganz und das illegale Handeln abgestraft werden.

@xexex
Bezüglich 10nm hat man von Intel bisher letztendlich immer Lügen aufgetischt bekommen, daher ist für viele die Wahrscheinlichkeit höher, dass da dieses Jahr nichts dolles zu erwarten ist. Würde sich auch mit der anderen News mit dem Notebookprogramm decken. Wenn Intel sich genötigt sieht, so ein öffentliches Programm zu starten, muss Zen2's Überzeugungskraft ziemlich erdrückend sein. Die spielen da ja auch mit dem Feuer. Man stelle sich vor, es würde eine erneute Korruptionskampagne bewiesen. Als Wiederholungstäter sieht es dann nicht so rosig aus. Aber das war jetzt nur Spekulations meinerseits anhand der Anhaltspunkte :).
 
mkdr schrieb:
Ein Xeon Phi hatte auch niemals einen Nutzen für den Desktop Bereich
Davon sprach ich ja gar nicht, aber rate mal, was beispielsweise bei Spracherkennung und Suchmaschinen beispielsweise passiert...
Daher sprach ich von zweiter Hand profitieren, was nicht zwangsläufig in kaufbaren Produkten für den Konsumenten münden muss.
 
Suteki schrieb:
Bezüglich 10nm hat man von Intel bisher letztendlich immer Lügen aufgetischt bekommen, daher ist für viele die Wahrscheinlichkeit höher, dass da dieses Jahr nichts dolles zu erwarten ist.

Das kann man zwar gut nachvollziehen, aber den Start gibt Intel nun mit Juni in diesem Jahr an. Zwei Monate vor Release die Investoren zu belügen, würde auch Intel nicht gut bekommen.
780265
 
Zurück
Oben