News Fertigungstechnologie: Intel 3 macht großen Sprung gegenüber Intel 4

TenDance schrieb:
Da sind wir von AMD vs nVidia jahrelang schlimmeres gewöhnt gewesen. Ich weiß, nicht dasselbe Produkt, aber sagen wir so...

Ich verstehe diese Aussage nicht. NV und AMD haben Jahrelang die selben Prozesse von TMSC genutzt. Und AMD war rein von der Rohleistung gar besser... NV war vom Verbrauch her dank weniger VRAM gerne vorne... Und hin und wieder setzte AMD die Brechstange an ( was den Verbrauch angeht)...
Also bezogen auf Prozesse passt deine Aussage nicht...

Intel will jetzt endlich GAA bringen...
Ja dann schauen wir mal ob was wird...
 
syfsyn schrieb:
da dies auf feveros design ist ist der teil mit den cpu in intel 3 gefertigt vs meteor lake wo intel4 genutzt wird.
Die CPU Tile bei Arrow Lake ist nicht Intel 3, Punkt. Entweder Intel 20A oder TSMC N3B.
 
  • Gefällt mir
Reaktionen: RogueSix
Maxminator schrieb:
Vergisst bitte den Intels eigenen Interposer nicht!
Welchen Interposer meinst du denn? Meinst du den EMIB? Nennt sich bei TSMC LSI und wird scheinbar auch schon genutzt.
Novasun schrieb:
NV war vom Verbrauch her dank weniger VRAM gerne vorne...
Stimmt so nicht. Nvidia war eigentlich bei VRAM relativ "normal" bis Ampere. Ja, die RX 4x0-Serie war mit 8 GB gegenüber den 6 GB "spendabler". Am Ende war AMD bei Vega aber auch nicht so "spendabel" und bei RDNA 1.

Nvidias "Effizientsprung" fing mit Kepler an, wobei AMD mit GCN Anfangs noch gut mit halten konnte, auch gegen Maxwell. Hier teilen sich alle Grafikkarten auch die Menge des VRAMs und Co.

Das "Effizienzwunder" war Pascal, was in heute Rückblickend aber durchaus mit Unterschieden zwischen TSMC und GF bei der Fertigung, gerade auch was Vega angeht, erklärt werden könnte.
 
raPid-81 schrieb:
Mit echten Nanometern haben die Prozessbezeichnungen seit Jahren nichts mehr zu tun. Bei keiner Foundry.
Ach nee, das ist mir klar. Drum steht da suggerieren. Meine Kritik richtet sich dahingehen, dass jetzt nicht nur mit falschen Zahlen geworben wird, sondern sogar zusätzlich noch zu größe Sprünge gemacht werden. Was den Technologiefortschritt nicht repräsentiert. Es gab Schritte, wo dass zumindest noch angenähert gestimmt hat
 
DevPandi schrieb:
Nvidias "Effizientsprung" fing mit Kepler an, wobei AMD mit GCN Anfangs noch gut mit halten konnte, auch gegen Maxwell. Hier teilen sich alle Grafikkarten auch die Menge des VRAMs und Co.

Das "Effizienzwunder" war Pascal, was in heute Rückblickend aber durchaus mit Unterschieden zwischen TSMC und GF bei der Fertigung, gerade auch was Vega angeht, erklärt werden könnte.
Das Effizienzwunder war Maxwell, hier konnte Nvidia trotz unverändertem Prozess etwa 100% Effizienz drauflegen. Daran hatte Hawaii zu knabbern und auf Seiten von AMD gab es im gesamten Portfolio genau eine Karte, die mithalten konnte: Die Nano, mit konsequenter HBM-Nutzung und Auslegung der Karte darauf.

Pascal war dann, nach dem Effizienzsprung von Maxwell, eine (die erste) Enttäuschung, weil hier bei neuem Prozess und neuer Architektur nicht der Sprung wiederholt werden konnte.
Da nach Pascal aber jede Generation wieder von den Effizienzsprüngen her nicht der Brüller war, wird Pascal im Rückblick etwas verklärt. Dazu kommt natürlich, dass die Radeons nichts entgegenzusetzen hatten. Der direkte Nachfolger der Nano blieb aus, Polaris als Billo-Lösung konnte nur die Effizienz der Nano jetzt auch breiteren Massen bieten.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Wenn das so gut läuft, warum machen sie nicht alle Tiles für Arrow Lake selber?
 
  • Gefällt mir
Reaktionen: RogueSix
Lee Monade schrieb:
Intel immer mit Ihren großen Ankündigungen, am Ende wird wieder nichts daraus.
Also die in Intel 3 gefertigten Sierra Forest Cpu's gibt es bereits und im Q3 folgt Granite Rapids.

Reviews gibt's auch schon.
One Xeon 6766E was also about 5% faster than a single Xeon Platinum 8592+ while the Sierra Forest CPU was consuming just 55% the power of the prior Emerald Rapids flagship.
https://www.phoronix.com/review/intel-xeon-6780e-6766e
 
"Intels eigene Prognose hat ab Intel 18A im kommenden Jahr ein ungefähres Gleichgewicht zu TSMC im Blick, traditionell ist es für den Herausforderer aber nötig, besser zu sein als der Platzhirsch, wenn man Kunden gewinnen will."

-> Das ist mMn in diesem Zusammenhang so nicht richtig.
Denn A) gibt es keinen "Platzhirsch" in dem Zusammenhang. Ja, TSMC mag stand heute die vielleicht Besten Prozesse liefern können. ABER, das läuft nicht nach dem Motto, "one fits all" -> es gibt genug Anforderungen, die dafür sorgen können, dass man eben nicht diesen Prozess von TSMC nimmt, sondern eben einen anderen. NV hat mit Samsung für ihre 3000er GPUs gezeigt, dass das schlicht auch mit anderen Mitteln geht.
Und B) man MUSS nicht zwingend besser sein. Sondern man muss etwas liefern, was Anklang findet, und sei es nur durch den Preis. -> sozusagen den AMD move mit den 1st/2nd Gen. Ryzen CPUs. Einfach solide für günstig als Türöffner.
Bei der Fertigung ist es nicht unbedingt notwendig (anders als bspw. bei CPUs - Stichwort homogene Infrastruktur), wo einmal TSMC drin ist, quasi immer TSMC zu nutzen. Die wechseln schnell, wenn es Möglichkeiten gibt. Nur gibt es diese stand jetzt nur bedingt. Samsung kann wohl noch halbwegs mitspielen. GloFo ist abgeschlagen. YMTC ist China - auch wieder problematisch, ... Da kommt Intel sicher ganz gelegen, wenn es so aufgeht, wie gedacht.

TenDance schrieb:
Ja, die Dichte kann nicht mithalten, aber dafür dass Intel 7 früher mal als Intel 14nm++++++++ durchgegangen ist, ist das schon ordentlich.
Das stimmt so nicht. Intel 7 ist 10nm. Intel 10 ist 14 irgendwas...
TenDance schrieb:
Definitiv ist man dann nahe genug dran dass TSMC nicht frei die Preise diktieren kann - denn der Wettbewerb ist gar nicht so schlecht.
Natürlich wird TSMC weiterhin die Preise gestalten. Das ist aber auch gar nicht das Problem. Vor allem wo die Entscheidungen für Prozesse in aller Regel doch Jahre vorher schon getroffen werden. Da rennt also nicht heute einer zu Intel, weil TSMC zu teuer ist. Sondern das ist eher ein Ding für die mittel- bis längerfristige Planung.
Novasun schrieb:
Ich verstehe diese Aussage nicht. NV und AMD haben Jahrelang die selben Prozesse von TMSC genutzt. Und AMD war rein von der Rohleistung gar besser... NV war vom Verbrauch her dank weniger VRAM gerne vorne... Und hin und wieder setzte AMD die Brechstange an ( was den Verbrauch angeht)...
Am VRAM lag das nicht. Sondern eher, dass AMD zumindest am Anfang ihre GCN Technik nicht im Griff hatte, sodass man mit Rohleistung auf ein Problem geschissen hat, was natürlich am Ende vergleichsweise hohe Verbrauchswerte bedeutete.
Im Vergleich - die 7970GHz hat ~40% mehr Rohleistung in den Shadereinheiten zu einer 0815 680er GK104 von NV. Anfangs haben diese 40% nicht gereicht um die 680er überhaupt zu schlagen.

DevPandi schrieb:
Nvidias "Effizientsprung" fing mit Kepler an, wobei AMD mit GCN Anfangs noch gut mit halten konnte, auch gegen Maxwell. Hier teilen sich alle Grafikkarten auch die Menge des VRAMs und Co.

Das "Effizienzwunder" war Pascal, was in heute Rückblickend aber durchaus mit Unterschieden zwischen TSMC und GF bei der Fertigung, gerade auch was Vega angeht, erklärt werden könnte.
Zum ersten - definiere Anfangs? Der 7970 Release ggü. Fermi war OK, aber mit Kepler 3 Monate später war es schon wieder ernüchternd. Sprich Anfangs war das ein massives Problem.
siehe https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/4/
AMD hat die Rohleistung bei eigentlich allen GCN GPUs nicht auf die Straße bekommen. Anders als NV mit Kepler, Maxwell und Pascal. Erst RDNA1/2 löste hier viele Knoten bei AMD. Ein recht großer Anteil daran ist auch dem IF Cache zuzuschreiben. Das bringt halt Effizienz, wenn man das Speicherinterface hinten nicht übel breit bauen muss, damit die Karte nicht an der Bandbreite verhungert. Und Bandbreitenbedarf war eben hoch, weil man mit Rohleistung drauf geschmissen hat.

Was Pascal angeht - das wirklich ein Effizienzwunder ist das jetzt nicht. Das war eher Maxwell 2, denn dort hat man im gleichen Prozess wie Kepler sehr viel mehr Performance rausgeholt.
CDLABSRadonP... schrieb:
Das Effizienzwunder war Maxwell, hier konnte Nvidia trotz unverändertem Prozess etwa 100% Effizienz drauflegen. Daran hatte Hawaii zu knabbern und auf Seiten von AMD gab es im gesamten Portfolio genau eine Karte, die mithalten konnte: Die Nano, mit konsequenter HBM-Nutzung und Auslegung der Karte darauf.
Wobei die Nano von der Leistung her schon abgeschlagen war ggü. einer 980TI. Im reinen effizienzvergleich war das eher 970 vs. Nano. Respektive 980 vs. Nano - mit mehr Leistung für die Nano.
Die 980TI als Custom Version lag locker flockig 30, 40% drüber. Das ist leicht mehr wie heute 4080 zu 4090. Dafür zahlen Leute aktuell teils 70% Aufschlag!
 
  • Gefällt mir
Reaktionen: //differentRob
Egal ob man Intel mag oder nicht, es wäre gut für uns alle, wenn das Monopol in der High-End Halbleiterfertigung von TSMC gebrochen werden könnte.
Davon sind wir aber leider noch weit entfernt. Hoffe sehr dass Intel, aber auch Samsung, da bald mal was auf die Kette kriegen.
 
fdsonne schrieb:
Zum ersten - definiere Anfangs? Der 7970 Release ggü. Fermi war OK, aber mit Kepler 3 Monate später war es schon wieder ernüchternd. Sprich Anfangs war das ein massives Problem.
siehe https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/4/
AMD hat die Rohleistung bei eigentlich allen GCN GPUs nicht auf die Straße bekommen. Anders als NV mit Kepler, Maxwell und Pascal. Erst RDNA1/2 löste hier viele Knoten bei AMD. Ein recht großer Anteil daran ist auch dem IF Cache zuzuschreiben. Das bringt halt Effizienz, wenn man das Speicherinterface hinten nicht übel breit bauen muss, damit die Karte nicht an der Bandbreite verhungert. Und Bandbreitenbedarf war eben hoch, weil man mit Rohleistung drauf geschmissen hat.

Was Pascal angeht - das wirklich ein Effizienzwunder ist das jetzt nicht. Das war eher Maxwell 2, denn dort hat man im gleichen Prozess wie Kepler sehr viel mehr Performance rausgeholt.
Gehe ich fast vollkommen mit --- angemerkt werden sollte bloß, dass Pitcairn eigentlich dem GK106 leicht überlegen war, AMD das nur nicht ausschlachten konnte. Dass Tahiti gegenüber GK110 und sogar schon dem GK104 gegenüber den Kürzeren zog, trübte das Bild.
fdsonne schrieb:
Wobei die Nano von der Leistung her schon abgeschlagen war ggü. einer 980TI. Im reinen effizienzvergleich war das eher 970 vs. Nano. Respektive 980 vs. Nano - mit mehr Leistung für die Nano.
Die 980TI als Custom Version lag locker flockig 30, 40% drüber. Das ist leicht mehr wie heute 4080 zu 4090. Dafür zahlen Leute aktuell teils 70% Aufschlag!
Deshalb meinte ich eben auch: Nur eine Karte, nur ein SKU der Gen war konkurrenzfähig. Das ist zu wenig.
 
KlaasKersting schrieb:
Bei Arrow Lake sollte man Intel 20A und TSMC N3(B?) recht gut vergleichen können, da es SKUs mit beiden Varianten geben soll.

Es wird vor allem sehr interessant werden wie sich die P-/E-Cores jeweils unterschiedlich takten lassen.
Lunar Lake kommt +/- mit den selben Cores wie Arrow Lake. Der eine in TSMC n3 der andere in Intel 20A.

Persönlich gehe ich davon aus, dass Lunar Lake wegen des TSMC Prozesses klar den Fokus auf Effizienz hat. Arrow Lake wird traditionsgemäss höher takten und vermutlich die Performance/Watt Kurve anders darstellen.

Aber das ist alles kein Problem, @fdsonne hat das bereits erklärt. Je nach Einsatzzweck gibt es den richten Prozess. Worauf man sich aber freuen kann ist, dass Intel den tatsächlichen Leistungshunger zähmen kann.

Spätestens mit 18A erwarte ich, dass Intel sich vom klassischen HighPower Node verabschiedet und einen Node anbietet der sehr viel dynamischer ist (kurz 5W-125W wie es Meteor Lake hätte sein sollen). Dann wird die Foundry auch interessant.
 
Novasun schrieb:
Ich verstehe diese Aussage nicht. NV und AMD haben Jahrelang die selben Prozesse von TMSC genutzt.
Nein. Nur um nicht zu weit zurück zu gehen in der Geschichte: Ampere wurde in Samsungs "8nm" Prozess gefertigt. Das war die Zeit als wafer-Platz knapp wurde und TSMC die Preise anzog.
Ergänzung ()

BAR86 schrieb:
was bei einer verdoppelung der Transistoren aber bedeutet, dass du 160% Verbrauch hast
Welchen Du thermisch abführen musst... das Problem hatte IBM mal und seitdem lustige Patente auf Flüssigkeitskühlung on die. Auch wenn es nie in Serie ging.
 
CDLABSRadonP... schrieb:
Gehe ich fast vollkommen mit --- angemerkt werden sollte bloß, dass Pitcairn eigentlich dem GK106 leicht überlegen war, AMD das nur nicht ausschlachten konnte. Dass Tahiti gegenüber GK110 und sogar schon dem GK104 gegenüber den Kürzeren zog, trübte das Bild.
Pitcairn war etwas ausgewogener vom Verhältnis Frontend <> Backend. Sprich das breitere Backend bei Tahiti hat halt nicht so viel gebracht. GK106 war aber auch recht schmal, sprich das war ggü. Pitcairn dann schon eher eine bessere Situation. Das sind 50% mehr Shader beim GK104. Tahiti hat fast doppelt so viel ggü. Pitcairn, konnte das aber lange nicht auf die Straße bringen.
CDLABSRadonP... schrieb:
Deshalb meinte ich eben auch: Nur eine Karte, nur ein SKU der Gen war konkurrenzfähig. Das ist zu wenig.
Man hat sich halt ne Nische gesucht, wo die Nano rein passte. Ich würde soweit gehen, dass das nur bedingt konkurrenzfähig war. Denn AMD hat für das Ding halt einen hohen Preis gezahlt. Großer Chip, Effizienz durch teuren Speicher, unflexibel in der Menge mit hartem 4GB Limit. Teuer in der Fertigung, ...
NV hat ein rundes Linieup geliefert und damit eigentlich gar nicht die Notwendigkeit gehabt, die Nano wirklich zu kontern. Wenn sie gewollt hätten, hätten sie das auch hin bekommen, denn die Formel, großer Chip, niedriger Takt, ausreichen VRAM hätten sie auch gekonnt. Aber das wäre dann eben eine langsamere Karte zu den gezeigten geworden, teurer in der Fertigung und am Ende nur für die Nano? Wozu?
Ergänzung ()

TenDance schrieb:
Nein. Nur um nicht zu weit zurück zu gehen in der Geschichte: Ampere wurde in Samsungs "8nm" Prozess gefertigt. Das war die Zeit als wafer-Platz knapp wurde und TSMC die Preise anzog.
Sehr gut, du hast dann eine der wenigen Ausnahmen gefunden... Ändert doch aber an der Aussage im generellen nix?
 
CDLABSRadonP... schrieb:
Pascal war dann, nach dem Effizienzsprung von Maxwell, eine (die erste) Enttäuschung,
Ich habe von noch niemanden gelesen, Pascal sei in irgendeiner weise eine Enttäuschung.
Pascal war ein Bringer auf allen Ebenen, hat AMD komplett aus den Bahnen geworfen.
OC Potential, Effizient, gute VRAM Ausstattung durch die Bank, "gute" Preise (nach Release und vor Mining Boom)
Maxwell war abgesehen von der Effizenz uninteressant. Die haben kaum was drauf gelegt in Performance, Preis war ganz OK aber die Beste Karte aus der Serie hat sich als Mogelpackung und Defekt herausgestellt (3,5+0,5 GB VRAM ;))
 
franzerich schrieb:
Wenn das so gut läuft, warum machen sie nicht alle Tiles für Arrow Lake selber?

Für ARL-U machen sie es ja, der wird in Intel 3 gefertigt. Allerdings ist das mehr oder weniger MTL-U in Intel 3. Bei Panther Lake wird das 4 Xe GPU Tile in Intel 3 gefertigt. Intel lagert nach und nach ein paar Client Tiles auf Intel 3 aus.
 
Auch wenn ich jetzt einige Generationen bei AMD war, wenn Intel abreißt könnte ich mir den Wechsel vorstellen. Konkurrenz belebt das Geschäft, hoffentlich ist auch viel hinter der großen Klappe.
 
Vulture schrieb:
Egal ob man Intel mag oder nicht, es wäre gut für uns alle, wenn das Monopol in der High-End Halbleiterfertigung von TSMC gebrochen werden könnte.
Davon sind wir aber leider noch weit entfernt. Hoffe sehr dass Intel, aber auch Samsung, da bald mal was auf die Kette kriegen.
Sind wir mal ehrlich das wird niemals funktionieren.
Das Problem ist wie INTEL Strukturiert ist sie sind nicht nur Halbleiter Hersteller sondern eben auch Entwickler der eigene Produkte auf dem Markt vertreibt.
Keiner der großen sagen wir mal NVIDIA, AMD, Qualcomm oder Apple würde jemals bei Intel fertigen lassen aus Angst vor Spionage!
Wo sollen also die Aufträge her kommen u. ohne Aufträge hat man wenig Geld. Ohne Geld spart man an Investitionen. Ohne Investitionen keine Konkurrenzfähigkeit usw.

Da wird es auch nichts helfen wenn die US-Regierung Milliarden an Fördergelder darin versenkt.
So lange Intel kein "Neutraler" Fertiger wird werden all die Bemühungen nicht fruchten.
 
TenDance schrieb:
Nein. Nur um nicht zu weit zurück zu gehen in der Geschichte: Ampere wurde in Samsungs "8nm" Prozess gefertigt. Das war die Zeit als wafer-Platz knapp wurde und TSMC die Preise anzog...

Ja und. AMDs Gegenstück bei TSMC war aber nicht in 4nm... Und war es bei NV nicht so das gar nicht alle Chips von Samsung kamen. Da gab es doch meine ich auch Chips von TSMC - wobei als Endprodukt waren das eventuell Super Ableger oder TI what ever...

Bei CPUs hingegen war Prozess technisch meine ich TSMC schon mal 1,5 bis 2 Gens voraus.

Für die Zukunft finde ich eines übel.
Ab 5nm sind wir jetzt im Bereich wo jeder Schritt 20% und mehr bedeutet.
Von 5nm auf 4nm - wenn es ein echter Fullshrink (bezogen auf alle Bestandteile) wäre, wäre der gleiche geshrinkte Chip 20% kleiner.. Von 4nm auf 3nm 25% von 3nm auf 2 nm 33%
und der letzte Schritt von 2nm auf 1nm 50%.
An sich völlig absurd. Das bedeutet aber auch das man in Zukunft am Ball bleiben muss. Produkte die 2 Gens hinten dran sind wird man nur über den Preis fahren können - denn Leistungs- technisch wird es oben nicht mitspielen können.
 
Novasun schrieb:
Ab 5nm sind wir jetzt im Bereich wo jeder Schritt 20% und mehr bedeutet.
Von 5nm auf 4nm - wenn es ein echter Fullshrink (bezogen auf alle Bestandteile) wäre, wäre der gleiche geshrinkte Chip 20% kleiner.. Von 4nm auf 3nm 25% von 3nm auf 2 nm 33%
und der letzte Schritt von 2nm auf 1nm 50%.
Das ist in der Form aber auch nicht richtig.
Ein Fullnode war ursprunglich "alt" /sqrt(2) = "neu" und dabei ~100% area scaling weil Ein- auf Zweidimensional
Beispielsweise: 32/sqrt(2)=22,6
32^2 = 1024
22,6^2 = 510
 
Zurück
Oben