News CPU-Fertigung mit EUV: Intel schließt die meisten 10-nm-Probleme für 7 nm aus

OC interessiert mich nicht, darum ging es nicht!

In der Realität sind es halt keine 500Mhz.
 
@Whiskey Lake
In der Realität haben wir einen Singlecore Boost von 4,7Ghz für den 8700K gegen 4,2Ghz für den 2600X(500Mhz)

Bei Allcore sind es dann 4,3Ghz für den 8700K und 4Ghz für den 2600X(300Mhz)

Deswegen schrieb ich "bis zu", eben ja nach Anwendung

Wenn wir die Werte von Computerbase nehmen, braucht der 2600X bei Last auf allen Kernen sogar 18% mehr als der 8700K bei besagten 300Mhz weniger Takt und damit auch insgesamt weniger Leistung.
Auch bei Last auf nur einem Kern benötigt der 2600X 7% mehr, dann bei 500Mhz weniger.

Somit steht für volle Singlecore Last
2600X 4200Mhz/78W = 53,8Mhz pro W
8700K 4700Mhz/73W = 64,4Mhz pro W
--> 20% effizienter

Und bei voller Allcore Last
2600X 4000Mhz/164W = 25,6Mhz pro W
8700K 4300Mhz/139W = 30,9Mhz pro W
--> 21% effizienter
 
Zuletzt bearbeitet:
Tomshardware benutzen eben ein Board, welches die TDP begrenzt, Computerbase nicht.
Das muss der Ottonormalkäufer erst mal wissen.
 
Zuletzt bearbeitet:
@ taxxor

Das ist aber auch nur bei dem einen Asus Mainboard was hier getestet wurde. Alle anderen Boards zeigen das Ergebnis von tomshardware.
 
Volker schrieb:
Auf dem Papier ist die 14-nm-Fertigung schon noch vorn. Der Schritt von 14 zu 12 nm bei GF war extrem gering un nur eine Optimierung, an Intels dritte Ausbaustufe von 14 nm kommen sie nicht heran - das Bild zeigt die erste Stufe jeweils, Intels letzte 14-nm-Lösung soll 70 Prozent besser sein als der Ursprung, GF sprach von zehn bis 15 Prozent Vorteil von 12 gegenüber 14 nm. Der Patt kommt eben erst bei der nächsten Stufe.

Also erst einmal ein Lob dafür, daß Du versucht hast Prozeß-Technik zurück in die Diskussion zu bringen, Beiträge zum Artikel passend sind ja anscheinend eher nicht so beliebt...

Schade, daß es gerade diese Abbildung war, denn die hat ein paar Stolperstellen...

Es fehlt die Angabe der Tracks
Ohne zu wissen, mit wie vielen Tracks die Libraries arbeiten, wie soll man da die Transistor-Zellgröße vergleichen?
Alleine für die hier abgebildeten Prozesse reicht die Bandbreite von 6 - 9.

Die Größenangaben sind z.T. fraglich
TSMC 16nm - das ist der 16FF, der es nie in die Massenproduktion schaffte; 16FFC hat 78nm x 64 nm
Intel 14nm - das sind die ursprünglichen Größen; bei 14nm++ auf 84nm x 52nm zurückgenommen
Intel 10nm / beide Foundries 7nm - reine Papierwerte, die noch keiner in der Realität nachgemessen hat

Es fehlt der korrekte zeitliche Ablauf
Wann wurde von wem welcher Prozeß eingeführt. Und welcher Zeitpunkt soll gelten? Eintritt in die Risk-Production oder in die Massenproduktion?

Es fehlen die ganzen Entwicklungsstufen
Intel 14nm, 14nm+, 14nm++, 10nm
TSMC 16FF, 16FF+, 16FFC, 12FFC, 10FF, 7FF
GloFo 14LPE, 14LPP, 12LP, 7LP (der ist aber noch nicht einmal in der Risk-Production)

Es fehlt in der Betrachtung Samsung Foundry (außer man denkt sich die bei GloFos 14nm dazu ;) )
Im Einsatz sind 14LPP und 10LPP, der 7LPP (mit EUV) soll nächsten Monat in die Risk-Production gehen

Zum Artikel selbst:
Intel redet um den heißen Brei herum.
Wird man wie bei 14nm++ den Interconnect Pitch für die Massenfertigung in 10nm+ deutlich zurücknehmen müssen? Wird man die Transistorzelle vergrößern? Oder auf so Nettigkeiten wie Contact-over-active-gate verzichten müssen?

Volker schrieb:
10 nm von Intel entsprechen so ziemlich den 7 nm in der Marketing-Sprache der Foundrys TSMC, Samsung und Globalfoundries

10 nm in Intels Marketing-Sprache entsprechen so ziemlich den 7 nm in der Marketing-Sprache der Foundrys TSMC, Samsung und Globalfoundries
TFTFY
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Raucherdackel! und Hayda Ministral
smalM schrieb:
10 nm in Intels Marketing-Sprache entsprechen so ziemlich den 7 nm in der Marketing-Sprache der Foundrys TSMC, Samsung und Globalfoundries

Die Aussage von Volker ist schon korrekt, wenn du dir den Sprung von 14nm Prozess auf den "7nm" Prozess anschaust. Intel hat sich hier halbwegs richtig verhalten, der Rest wollte natürlich einen "besseren" Prozess haben und hat ihn "7nm" genannt.

Es gibt zwar bei beiden Prozessen zwar keine Bezugsgrösse mehr zu dem angegebenen Wert, eine Verkleinerung von 14nm auf 7nm hätte aber eine um 75% verkleinerte Fläche ergeben müssen. In Wirklichkeit hat man aber die Fläche bestenfalls um 50% reduziert und spricht trotzdem von einer halbierten Länge.
 
Zuletzt bearbeitet:
Taxxor schrieb:
@Whiskey Lake
In der Realität haben wir einen Singlecore Boost von 4,7Ghz für den 8700K gegen 4,2Ghz für den 2600X(500Mhz)

Bei Allcore sind es dann 4,3Ghz für den 8700K und 4Ghz für den 2600X(300Mhz)

Deswegen schrieb ich "bis zu", eben ja nach Anwendung

Wenn wir die Werte von Computerbase nehmen, braucht der 2600X bei Last auf allen Kernen sogar 18% mehr als der 8700K bei besagten 300Mhz weniger Takt und damit auch insgesamt weniger Leistung.
Auch bei Last auf nur einem Kern benötigt der 2600X 7% mehr, dann bei 500Mhz weniger.

Somit steht für volle Singlecore Last
2600X 4200Mhz/78W = 53,8Mhz pro W
8700K 4700Mhz/73W = 64,4Mhz pro W
--> 20% effizienter

Und bei voller Allcore Last
2600X 4000Mhz/164W = 25,6Mhz pro W
8700K 4300Mhz/139W = 30,9Mhz pro W
--> 21% effizienter
Der Vergleich hat null Aussagekraft. Was du komplett außen vor lässt ist der Performance Vergleich im Bezug auf Stromverbrauch. Selbst wenn AMD 100% mehr verbraucht dafür aber im Schnitt 105% mehr Leistung bringt als Intel , ist die reine MHz Zahl unrelevant.
 
  • Gefällt mir
Reaktionen: Thraker
Thraker schrieb:
@ taxxor

Das ist aber auch nur bei dem einen Asus Mainboard was hier getestet wurde. Alle anderen Boards zeigen das Ergebnis von tomshardware.
Mal so auf die Schnelle

Mit einem MSI Board
https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/16.html

Mit einem Gigabyte Board
https://www.gamersnexus.net/hwrevie...eview-stream-benchmarks-gaming-blender/page-3

Mit einem unbekannten Board
http://www.guru3d.com/articles-pages/amd-ryzen-5-2600x-review,7.html

Überall verbraucht der 2600X mehr als der 8700K
 
xexex schrieb:
Thunderbolt geht mit AMD derzeit gar nicht, auch wenn es nicht weiter tragisch ist und auch usb-c wirst du nur zur datenübertragung aber nicht als grafikvariante nachrüsten können.

Keine Ahnung was mich Grafik über Thunderbolt oder USB 3.1 Gen2 C-Stecker interessieren sollte an einem PC der ne Graka hat, ggf noch ne APU oder merhere Grakas.
Zieh dir nicht alles an den Haaren herbei. Datenübertragung mit USB31Gen2 und Thunderbolt funzt mit Zusatzkarten. Auch Geräte wie externe Audiodevices können tadellos angeschlossen werden.
Ergänzung ()

xexex schrieb:
Die Bedeutung nachträglich eine neue Cpu Generation auf ein altes Mainboard packen zu können ist eben bei weitem nicht so wichtig wie es manche hier im Forum immer wieder versuchen zu behaupten. Die aktuelle Intel Generation ist genauso wenig tot wie es die Amd generation ist und mit ddr5 und pcie4 werden beide bald zu niedrigen Preisen in der Bucht landen.

Was du von dir gibts ist einfach nur lächerlich. Troll weiter.
 
  • Gefällt mir
Reaktionen: Hill Ridge, Thraker und thepusher90
Gortha schrieb:
Keine Ahnung was mich Grafik über Thunderbolt oder USB 3.1 Gen2 C-Stecker interessieren sollte

Es soll Monitore mit Thunderbolt und/oder USB-C geben.
https://geizhals.de/?cat=monlcd19wide&xf=11967_USB-C+mit+DisplayPort
https://geizhals.de/?cat=monlcd19wide&xf=11967_Thunderbolt
Wenn du keine Ahnung hast einfach mal die..... Wenn du schon so schlau bist, kannst du mir gerne einen auf AMD Mainboards funktionsfähigen Thunderbolt Adapter zeigen und bevor du weiter andere als "Trolle" beschimpfst, solltest du aufhören nur Sachen zu erzählen, von denen du anscheinend keine Ahnung hast.

EDIT: Bevor du gleich anfängst ein paar Thunderbolt Karten vom Geizhals zu verlinken. Die funktionieren nur mit dem dafür vorgesehenem Mainboard.
https://www.asus.com/uk/Motherboard-Accessory/ThunderboltEX-3/
 
Whiskey Lake schrieb:
12LPP gibt es nicht, GF nennt den Prozess 12LP
Bei TSMC hast du 12FFN vergessen.
Danke, in 12LP geändert. Wenigsten haben die Finger nicht auch noch von alleine 7LPP getippt...
Zum einen ist 12FFN ausschließlich für Nvidia gemacht, zum anderen gibt es dazu fast Nichts außer der Information seiner schieren Existenz. Oder hast Du da was?

xexex schrieb:
Die Aussage von Volker ist schon korrekt, wenn du dir den Sprung von 14nm Prozess auf den "7nm" Prozess anschaust.
Intels 10nm ist genauso falsch wie alle anderen dieser Angaben seit vielen Jahren. Zuletzt bei 250nm/180nm war damit tatsächlich die Gatelänge gemeint. Und insbesondere seit dem Wechsel auf FinFET und erst recht zukünftig bei GaaFET sind Namen und Realität von einander völlig entkoppelt, da die Gatelänge eh nur für planare Transistoren galt.
Ob der eine nun etwas dreister ähm sagen wir seine Angaben schönt als der andere, das halte ich für ziemlich bedeutungslos. Gewöhne Dir einfach an, das nur für Namen für den jeweiligen Node zu nehmen mit genauso viel Bedeutung wie Hugo oder Otto...
 
Taxxor schrieb:

Also bei gamersnexus ist der 2600x immer sparsamer.

Bei Guru3d mal so mal so. Ka was du da siehst.

Ist auch realtiv wurst ob mal 10 W mehr oder weniger. Also mir persönlich ist das egal...
 
  • Gefällt mir
Reaktionen: thepusher90 und Thraker
@ taxxor
Findest du es nicht ein bissel seltsam das der 2700x bei gamersnexus soviel verbraucht wie ein Ryzen 1950 TR oder teilweise sogar mehr? Oder die großen Differenzen beim Verbrauch? Bei einem verbraucht er fast 20Watt mehr als bei dem anderen. Mich würde so was stutzig machen. Da vertraue ich den Werten von tomshardware mehr
 
  • Gefällt mir
Reaktionen: thepusher90 und Gortha
Gortha schrieb:
Also bei gamersnexus ist der 2600x immer sparsamer.

Bei Guru3d mal so mal so. Ka was du da siehst.
Gamernexus Total Warhammer CPU Power Consumtion
8700K Stock - 51.66
2600X Stock - 68.88

Bei Guru3D verbraucht der 2600X außer im Singlethread und beim Gaming im GPU Limit mehr


@Thraker
Da er beim Gaming nicht mitgetestet wurde:

Cinebench NT CPU Power Consumtion
2700X Stock - 145.14
TR 1950 Stock - 151.29

Sieht für mich normal aus, der 1950X hat zwar doppelt so viele Kerne, dafür taktet er aber auch bei Multicore Last nur mit 3,6Ghz, während der 2700X auf 4,1Ghz läuft.

Kann man auch gut beim Cinebench 1T sehen.
1950X - 22.14
2700X - 36.9
Das ist der Unterschied von 4Ghz SC Boost zu 4,3Ghz SC Boost.
300MHz bei denen der 2700X 66% mehr verbracht.

Im NT Test sind es dann bis zu 500Mhz die der 2700X mehr leistet, dementsprechend auch fast 100% mehr pro Kern verbraucht, was die halbierte Kernzahl fast vollständig aufhebt.
 
Zuletzt bearbeitet:
xexex schrieb:
Es soll Monitore mit Thunderbolt und/oder USB-C geben.
https://geizhals.de/?cat=monlcd19wide&xf=11967_USB-C+mit+DisplayPort
https://geizhals.de/?cat=monlcd19wide&xf=11967_Thunderbolt
Wenn du keine Ahnung hast einfach mal die..... Wenn du schon so schlau bist, kannst du mir gerne einen auf AMD Mainboards funktionsfähigen Thunderbolt Adapter zeigen und bevor du weiter andere als "Trolle" beschimpfst, solltest du aufhören nur Sachen zu erzählen, von denen du anscheinend keine Ahnung hast.

EDIT: Bevor du gleich anfängst ein paar Thunderbolt Karten vom Geizhals zu verlinken. Die funktionieren nur mit dem dafür vorgesehenem Mainboard.
https://www.asus.com/uk/Motherboard-Accessory/ThunderboltEX-3/

Warum ist Herrgottsnamen sollte ich einen Monitor über Thunderbolt oder USB-C bespeisen wollen wenn man z.B. an seinem PC 9 Ausgänge hat(DP-Port-HDMI, DVI)? 3 am Mainboard und 5 an der Graka...?

Du saugst dir die abenteuerlichsten Argumente aus den Fingern. Es wird lanfgsam echt lächerlich.

KA ob Tunderbolt Probleme mit AMD macht. Es intressiert mich auch nicht. Es ging um die allgemeine Erweiterbarkeit von PCs durch Karten.
Dass Thunderbolt ein Nischenprodukt (Mac/Intel) ist, ist kein Geheimnis und wer Daten schnell übertragen will der braucht USB 3.1gen1/gen2 und gut ist.

Wie gesagt, das ist ein Feature, dass vielleicht interessant ist für eGPUs die man an einen Notebook anschließt,
sonst sehe ich keinen Vorteil von Thunderbolt, wenn man USB 3.1 Gen2 am PC hat.
Ergänzung ()

Taxxor schrieb:
Gamernexus Total Warhammer CPU Power Consumtion
8700K Stock - 51.66
2600X Stock - 68.88

Bei Guru3D verbraucht der2600X außer im Singlethread und beim Gaming im GPU Limit mehr

Also bei EINEM Test von 10+ bei GN braucht der 2600x Stock mal mehr, sonst immer anders herum. Zumal dort anscheinend was besonderes am 8700k ist, da steht was mit GBT Ultra, weiter unten ist er dann wieder mit dem Maximus unterwegs und braucht mal als dern 2600x Stock.
 
Zuletzt bearbeitet:
Gortha schrieb:
Also bei EINEM Test von 10+ bei GN braucht der 2600x Stock mal mehr, sonst immer anders herum..
Wo sind denn 10+ Tests vom 2600X auf GN?
Du kannst auch den Prime95 Test nehmen
2600X Stock@Gigabyte - 120.54W
8700K Stock@Gigabyte - 93.48W

Gortha schrieb:
Zumal dort anscheinend was besonderes am 8700k ist, da steht was mit GBT Ultra, weiter unten ist er dann wieder mit dem Maximus unterwegs und braucht mal als dern 2600x Stock
GBT Ultra ist das Gigabyte Board, Maximus ist das Asus Board.

Beim 2600X ist es ein Gigabyte Board.

Die Aussage war ja, dass der 2600X nur mehr als der 8700K braucht, wenn man ihn auf einem einzigen Asus Board hat.

Er verbraucht zwar weniger, wenn man ihn auf einem Gigabyte Board hat, aber wenn man für den 8700K ebenfalls KEIN Asus Board nimmt, benötigt er weiterhin weniger als der 2600X.

Der 8700K steht hier einmal mit Gigabyte und einmal mit Asus in der Liste, der 2600X allerdings nur mit dem Gigabyte. Wäre der 2600X auch mit einem Asus Board dort drin, würde er auch über dem 8700K@Asus stehen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Wo sind denn 10+ Tests vom 2600X auf GN?
Du kannst auch den Prime95 Test nehmen
2600X Stock@Gigabyte - 120.54W
8700K Stock@Gigabyte - 93.48W


GBT Ultra ist das Gigabyte Board, Maximus ist das Asus Board.

Beim 2600X ist es ein Gigabyte Board.

Die Aussage war ja, dass der 2600X nur mehr als der 8700K braucht, wenn man ihn auf einem einzigen Asus Board hat.

Er verbraucht zwar weniger, wenn man ihn auf einem Gigabyte Board hat, aber wenn man für den 8700K ebenfalls KEIN Asus Board nimmt, benötigt er weiterhin weniger als der 2600X.

Der 8700K steht hier einmal mit Gigabyte und einmal mit Asus in der Liste, der 2600X allerdings nur mit dem Gigabyte. Wäre der 2600X auch mit einem Asus Board dort drin, würde er auch über dem 8700K@Asus stehen.

Nee, da stimmt hinten und vorne etwas nicht. Wenn bei AUTO-Spannungen bei einem 8700k zwischen zwei Boards mal eben 40 Watt Differenz ist. Nur wenn bei zwei, drei tests dann beim i7 8700k das Gigabyte Board eingesetzt wird, ist er sparsamer als der 2600x... sonst nicht.

Was ist denn jetzt, wenn beim 2600x das Gigabyte Board auch so nen Schlucker ist....

Also nee, wenn muss man wirklich mal einen Durschnitt von 10+ Stromverbrauchs-Tests mitteln,
ich glaube dann kann man etwas sagen. Da scheinen sonst zu viele Dinge mit reinzuspiuelen.
 
Gortha schrieb:
Warum ist Herrgottsnamen sollte ich einen Monitor über Thunderbolt oder USB-C bespeisen wollen wenn man z.B. an seinem PC 9 Ausgänge hat(DP-Port-HDMI, DVI)? 3 am Mainboard und 5 an der Graka...?

Das ist für den Fall irrelevant. Ich habe nur gesagt, dass man für manche Schnittstellen ein anderes Mainboards benötigt und diese Schnittstellen nicht mit einer Karte einfach so nachrüsten kann. Du drehst die ganze Zeit am Rad und behauptest fälschlicherweise das Gegenteil.
 
Zurück
Oben