Recht wenig Leistungssteigerung und Energieeffizienz bei 14nm / 12nm -> 5nm / 4nm / 3nm

Martyn

Ensign
Registriert
Nov. 2024
Beiträge
196
Irgendwie klingen die Fortschritte von 14nm und 12nm Fertigungsprozessen über die Zwichenschritte 10nm / 9nm / 7nm / 6nm auf die heute üblichen 5nm / 4nm / 3nm nach sehr viel, was bedeuten würde das man sich etweder eine grosse Leistungssteigerung oder aber eine deutlich verbesserte Energieeffizienz erhofen könnte. Aber wenn ich mir dann das Resultat anschaue bin ich doch ziemlich enttäuscht.

Unter 14nm fielen ja z.B bei Intel:
  • Core i5-8600K (Coffee Lake) für Gaming-PC
  • Core i5-8500B (Coffee Lake) für Gaming-Notebooks
  • Core i5-8265U (Whiskey Lake) für Subnotebooks
  • Atom x5-Z8500 (Cherry Trail) für Mini-PC
Unter 12nm fielen z.B. bei AMD:
  • Ryzen 5 2600X (Zen+) für Gaming-PC
  • Ryzen 5 3580U (Zen+) für Crossover-Notebooks
  • Ryzen 5 PRO 3350GE (Zen+) für Mini PC
Unter 12nm fielen bei Nvidia:
- sämtliche GPUs der Reihen GeForce 16 und GeForce 20

Aber wenn man sich heute z.B. einen Intel Core Ultra 5 235 oder AMD Ryzen 5 9600X für Gaming-PC, Intel Core Ultra i7-13650HX für ein Gaming-Notebook oder AMD Ryzen 5 8640U für ein Crossover-Notebook, eine GeForce RTX 4060 Ti Grafikkarte oder ein GeForce RTX 4070 Mobile Grafikmodul anschaut, dann hat sich da der Leistungszuwachs in überschaubaren Grenzen gehalten.

Vorallem wenn man bedenkt das es dazwischen auch noch sonstige Architekturverbesserungen gab.

Viel mehr Leistung gibt es zwar heute bei einem Intel Core Ultra 9 285K oder AMD Ryzen 7 9800X3D und einer GeForce RTX 4080 Super oder GeForce RTX 4090 aber deren Strombedarf ging dann auch entsprechend durch die Decke. Und vorallem bei den Nvidia Grafikchips auch der Preis.

Ich glaub wenn China auf Basis von 14nm und 12nm Fertigungsprozessen vorallem über den Preis den Markt aufrollen würden, hätten sie relativ gute Chancen gegegen die aktuellen 5nm / 4 nm / 3nm Prozesse von Intel, AMD, Nvidia, etc.
 
  • Gefällt mir
Reaktionen: Chocobo und usernamehere
Wenn man die Entwicklung von 14nm zu 3nm betrachtet, klingt das erst einmal nach einem riesigen Sprung, der entsprechend massive Leistungssteigerungen oder Effizienzgewinne erwarten ließe. Und wenn man dann die tatsächlichen Produkte betrachtet, mag es auf den ersten Blick so wirken, als ob der Fortschritt doch eher überschaubar geblieben ist.

Allerdings muss man hier, wie du ja auch schon selbst andeutest, ein paar wichtige Punkte berücksichtigen, insbesondere die Vergleichbarkeit der Fertigungsprozesse. Es ist nämlich so, dass die "nm"-Angaben, die wir von Intel, AMD, TSMC oder Samsung hören, nicht direkt miteinander vergleichbar sind. Das habe ich schlussendlich auch erst durch Studiumswissen gelernt. Was Intel als 14nm bezeichnet hat, ist technologisch etwas völlig anderes als das, was TSMC oder Samsung heute unter 5nm, 4nm oder 3nm anbieten. Die "nm"-Zahl ist eher zu einer Art Marketing-Begriff geworden und spiegelt nicht mehr unbedingt eine einheitliche, physikalische Größe wider, vor allem wenn man Hersteller und Generationen übergreifend vergleicht.

Es handelt sich also nicht um einen linearen Fortschritt, bei dem jede "nm"-Reduktion automatisch die gleiche prozentuale Leistungssteigerung oder Effizienzverbesserung mit sich bringt. Die technologischen Sprünge zwischen den verschiedenen "nm"-Klassen sind unterschiedlich groß und basieren auf verschiedenen Innovationen und Kompromissen. Hier mal ein Verweis auf Samsungs 7nm Fertigung der RTX 3000er Serie, die nicht gerade als Effizienzmonster bekannt sind.

Zusätzlich zu den Fortschritten im Fertigungsprozess dürfen wir die Architekturverbesserungen nicht vergessen, die in den letzten Jahren von allen Herstellern kontinuierlich vorangetrieben wurden. Diese architektonischen Neuerungen tragen maßgeblich zur Performance und Effizienz bei und sind oft genauso wichtig, wenn nicht sogar wichtiger als die reine Verkleinerung der Strukturgröße. Die von dir genannten Beispiele, wie die Core Ultra oder Ryzen 9000er Serie, profitieren eben nicht nur von neueren Fertigungsprozessen, sondern auch von komplett überarbeiteten Chip-Designs.

Wenn man deine Beispiele von Gaming-PCs und Notebooks ansieht, ist es richtig, dass der direkte Performance-Gewinn im Gaming-Bereich vielleicht nicht immer so überwältigend erscheint, wenn man nur die "nm"-Zahlen betrachtet. Aber man sollte hier die Gesamteffizienz mit einbeziehen. Die neueren Generationen bieten in vielen Fällen eine deutlich bessere Energieeffizienz, was sich gerade im mobilen Bereich und bei der Wärmeentwicklung positiv bemerkbar macht. Ich kann mit meinem Dell G15 ein Lied davon singen. Auch wenn die FPS-Zahlen im Spiel vielleicht nicht exponentiell gestiegen sind, so ist die Leistung pro Watt doch oft signifikant besser geworden.

Auch bei den High-End-Komponenten, die du ansprichst, ist der höhere Stromverbrauch natürlich ein Thema. Diese Chips sind aber primär auf maximale Performance ausgelegt, und in diesem Bereich ist der Energieverbrauch oft zweitrangig. Dennoch ist auch hier die Performance im Vergleich zu älteren High-End-Generationen deutlich gestiegen, auch wenn dies eben mit einem erhöhten Energiebedarf einhergeht. Mein Lieblingsbeispiel ist hier meine RTX 3090 gegen die RTX 4090.

Zum Thema China und 14nm/12nm: Es ist richtig, dass diese älteren Prozesse etabliert und kostengünstiger sind. Für bestimmte Anwendungsbereiche, wo es nicht auf absolute Spitzenleistung ankommt, sondern eher auf ein gutes Preis-Leistungs-Verhältnis, könnten Chips auf Basis von 14nm/12nm durchaus eine Rolle spielen. Ob sie aber im High-Performance-Bereich mit den aktuellen 5nm, 4nm oder 3nm Prozessen konkurrieren könnten, ist fraglich, da die neuesten Prozesse eben doch erhebliche Vorteile in Bezug auf Transistordichte, Energieeffizienz und Performance bieten, die für anspruchsvolle Anwendungen entscheidend sind.
 
  • Gefällt mir
Reaktionen: Martyn, xexex, Baal Netbeck und 3 andere
also allein wenn ich mir 3580u vs 8640u anschau...

ich find da ist schon ein gewaltiger unterschied zu erkennen.
ja der 8640u verbraucht mehr aber hat auch 50% mehr kerne (2 halt). taktet höher und boostet höher, hat ne bessere igpu. cache ist größer.

das macht sich in passmark mit einer 3fachen leistung bemerkbar, 3dmark ebenfalls 3 fache leistung. für notebook chips eigentlich ordentlich oder? oder was erwartest du? jede generation 100% mehr leistung?

ähnliche bild bei 1660 vs 4060. overall 70% mehr leistung bei sogar gesunkenen verbrauch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jacek Pavlovski
Also jetzt nur mal ein Vergleich:
  • RTX 2080: TSMC 12 nm, 13,6 Mrd. Transistoren @ 545 mm² -> 24,95 Mio. Transistoren/mm²
  • RTX 4070: TSMC 5 nm, 35,8 Mrd. Transistoren @ 295 mm² -> 121,36 Mio. Transistoren/mm²
Das ist effektiv eine Steigerung der Transistordichte um den Faktor 4,86. Das ist nicht gerade wenig.
 
  • Gefällt mir
Reaktionen: Piktogramm, Rickmer, JustAnotherTux und 3 andere
usernamehere schrieb:
Zusätzlich zu den Fortschritten im Fertigungsprozess dürfen wir die Architekturverbesserungen nicht vergessen, die in den letzten Jahren von allen Herstellern kontinuierlich vorangetrieben wurden. Diese architektonischen Neuerungen tragen maßgeblich zur Performance und Effizienz bei und sind oft genauso wichtig, wenn nicht sogar wichtiger als die reine Verkleinerung der Strukturgröße. Die von dir genannten Beispiele, wie die Core Ultra oder Ryzen 9000er Serie, profitieren eben nicht nur von neueren Fertigungsprozessen, sondern auch von komplett überarbeiteten Chip-Designs.
Ohne kleinere Transen gäbe es quasi keine Architekturverbesserungen.
Cache bzw. SRAM wird erst mit CFETs wieder kleiner werden.
 
  • Gefällt mir
Reaktionen: Piktogramm
außerdem kämpft die Miniaturisierung schon seit einiger Zeit gegen die grundlagen der Physik an, irgendwann geht es halt nicht mehr weiter. Bei 12nm ist es soweit ich weis noch ein Messbarer Wert gewesen der tatsächlich ca 12nm groß war, alles was kleiner ist ist soweit ich weis einfach nur noch Marketing Sprech, um die Nodes unterscheiden zu können.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
SaschaHa schrieb:
  • RTX 2080: TSMC 12 nm, 13,6 Mrd. Transistoren @ 545 mm² -> 24,95 Mio. Transistoren/mm²
  • RTX 4070: TSMC 5 nm, 35,8 Mrd. Transistoren @ 295 mm² -> 121,36 Mio. Transistoren/mm²
nur ist weder die 4070 dreimal so schnell wie eine 2080 noch sind die spiele dreimal schöner geworden. ich glaube, die entwicklung läuft da langsam gegen eine wand.
 
  • Gefällt mir
Reaktionen: Martyn
0x8100 schrieb:
nur ist weder die 4070 dreimal so schnell wie eine 2080 noch sind die spiele dreimal schöner geworden.
In nahezu roher Computer Leistung z.b unter Blender ist die 4070 2.5 mal schneller als die 2080 und die 4080 4 mal schneller (https://opendata.blender.org/benchmarks/query/?group_by=device_name&blender_version=4.3.0)

Aber du hast Recht, dreimal schöner sind sie nicht geworden und dreimal schneller sind Spiele auch nicht geworden, aber da spielen noch weit mehr Faktoren eine Rolle als die reine Rechenleistung der Karten.
 
  • Gefällt mir
Reaktionen: SaschaHa
@0x8100 nicht jeder Transistor ist für lineare Leistungssteigerung da ..

Nur weil 4,x mehr da sind ist das nicht 4,x mehr Rohleistung... Mehr KI Leistung... Mehr Shaderleistung... Mehr Cache... All das muss nicht in direkte Leistungssteigerung umgewandelt werden.

Und Energieeffizienz wird selten getestet sondern nur bei Default Einstellungen und gib ihn ..

Real müsste man bei gleicher Leistungsaufnahme testen wie viel mehr Leistung möglich ist... Und das am Sweet Spot und nicht bei 253Watt beim 14xxx z.b.

Oder bei gleicher Rechenleistung schauen wie viel Verbrauch nötig ist...

Am Ende Puschen GPU und CPU Hersteller ihre Chips schon bis zu einem gewissen Limit ohne auf wirkliche Effizienz zu schauen.
 
  • Gefällt mir
Reaktionen: Martyn und SaschaHa
Allgemein gehen schon seit der 130nm-Generation (Athlon 64 Clawhammer bis 2600MHz 2004, Pentium 4 Northwood bis 3.4GHz 2004) mit neueren Prozessen nur mehr geringe Taktfrequenzsteigerungen einher (bei AMD ein Faktor 2.2 in diesen 20 Jahren). Und Mikroarchitekturverbesserungen zur IPC-Steigerung bringen auch nur relativ kleine Verbesserungen, die sich ueber viele Jahre verteilen; ein paar Daten ueber IPC-Steigerungen ueber Generationen von Intel P-Cores findest Du in dieser Grafik. Die Frage ist natuerlich auch, was Du fuer Verbesserungen erwartest. Was dabei schon passiert ist, vor allem weil eben IPC-Steigerungen durch mehr Transistoren bescheiden sind: Mehr Kerne: Der Clawhammer hatte einen, heute bekommst Du auf einem high-end-Intel-Prozessor 24 Kerne (davon 16 E-Kerne, die aber immer noch mit den P-Kernen von 10 Jahren davor mithalten koennen und die von vor 20 Jahren deutlich schlagen); und mehr SIMD: Clawhammer hat 64 bit breite Einheiten, die dann SSE-Befehle in zwei Teilen abarbeiten muss, Zen5 (z.B. Ryzen 9950X) hat 512 bit breite SIMD-Einheiten; wobei Intel da in letzter Zeit wieder Rueckschritte macht und AVX512 im Desktop und sogar im small-Server-Bereich nicht mehr zur Verfuegung stellt.

Was Effizienz angeht: Ein Grund, warum nach der 130nm-Generation die Taktfrequenzfortschritte nicht so rasant weitergingen wie zuvor, war, dass die Spannungen aufhoerten, zu fallen (zumindest bei den hoeheren Taktraten). So hat schon der Clawhammer (ab 2003) eine Spannung von 1,5V, ein Wert, den aktuelle Prozessoren bei hohen Taktfrequenzen auch erreichen. Mit der Spannung faellt der Verbrauch quadratisch ab, und durch das Ende der Spannungsreduzierungen stieg die Verlustleistungsdichte (und damit der Gesamtverbrauch pro Flaeche), wenn man nichts dagegen macht.

Was dann passierte: Variable Spannungen, die heute zwischen ungefaehr 0.7V (niedriger geht's mit Silizium nicht) und ca. 1,5V schwanken koennen, bei hoeheren Spannungen fuer hoehere Frequenzen (U vs. K-Prozessoren bei Intel, Boost-Modi); so haben heute die Prozessoren ein Verbrauchslimit und regeln bei Bedarf die Spannung hinauf, bis das Limit erreicht ist. Weiters werden diverse Bereiche der Hardware abgeschaltet, wenn sie nicht gebraucht werden: diverse C-Zustaende in Prozessoren, Abschaltungen von Kernen, aber auch in noch kleineren Teilen der Hardware, z.B. wird die obere Haelfte der AVX-Einheiten des Skylake nicht mit Strom versorgt, ausser wenn in letzter Zeit ein AVX-256-Befehl ausgefuehrt wurde. Das ermoeglicht es, den Verbrauch dieser Teile zu reduzieren, damit mehr von Verbrauchslimit fuer den Rest uebrigbleibt (oder, wenn die Last gering ist, der Verbrauch niedriger).

Um auf Dein Posting zurueckzukommen: Ja, die Fortschritte sind in den letzten 20 Jahren viel kleiner als in den 90er-Jahren (33MHz 486 1990, 2000MHz Pentium 4 2000), aber es gibt schon welche. Sieh's positiv: Du kannst Hardware jetzt viel laenger nutzen, bevor sie veraltet (ausser Du bist einer, der immer das Neueste haben muss); so habe ich 2015 einen Skylake (Core i5-6700K) gekauft, und 2024 auf einen Phoenix (Ryzen 8700G) aufgeruestet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, Martyn, SaschaHa und eine weitere Person
Okay, aber was ist jetzt hier die news um nen Thread aufzumachen? Das 3nm Prozess nichts mit 3nm zu tun hat, ist lange bekannt..

Warum es keine Terahertz CPU gibt liegt an der scheiß lahmen Lichtgeschwindigkeit...
 
Martyn schrieb:
Irgendwie klingen die Fortschritte von 14nm und 12nm Fertigungsprozessen über die Zwichenschritte 10nm / 9nm / 7nm / 6nm auf die heute üblichen 5nm / 4nm / 3nm nach sehr viel, was bedeuten würde das man sich etweder eine grosse

Ist dir bewusst dass das nur noch ein Marketingname ist? die Angaben haben inzwischen nicht mehr viel mit der tatsächlichen Sturkturgröße zu tun! Früher war es die gesamte Struktur inzwischen der kleinste Punkt den man herstellen kann.
Der letzte echte große Fortschritt in der Chipfertigung, war der Umstieg von Alu auf Kupfer. Man konnte lange Zeit kein Kupfer auf Silizium auftragen.
 
Zuletzt bearbeitet:
Pyrukar schrieb:
außerdem kämpft die Miniaturisierung schon seit einiger Zeit gegen die grundlagen der Physik an, irgendwann geht es halt nicht mehr weiter. Bei 12nm ist es soweit ich weis noch ein Messbarer Wert gewesen der tatsächlich ca 12nm groß war, alles was kleiner ist ist soweit ich weis einfach nur noch Marketing Sprech, um die Nodes unterscheiden zu können.
Nicht ganz, das bezieht sich auf einen hypothetischen planaren Prozess.
 
Die Miniaturisierung schafft andere Probleme wie zb. die Wärmeabgabe. Hier sollen dieses Jahr wesentlich bessere Wärmeleitpasten und -pads erscheinen.
 
Willi-Fi schrieb:
Hier sollen dieses Jahr wesentlich bessere Wärmeleitpasten und -pads erscheinen.
Glaubst du?
Die "hochwertigen" Pads wie von honeywell (siehe Igors Tests) sind jetzt auch schon ein paar Jahre alt, das gleiche gilt für entsprechende Pasten. Der ganze Rest der so rauskommt im Consumer/Prosumer Bereich sind ja eh alles nur Mixturen von den Profipasten oder Marketingunfug.
 
mae schrieb:
Was dann passierte: Variable Spannungen, die heute zwischen ungefaehr 0.7V (niedriger geht's mit Silizium nicht)
Die Zeiten bipolarer Transen in Computer sind lange vorbei.
Ergänzung ()

Piak schrieb:
Warum es keine Terahertz CPU gibt liegt an der scheiß lahmen Lichtgeschwindigkeit...
Nein.
 
Piak schrieb:
Warum es keine Terahertz CPU gibt liegt an der scheiß lahmen Lichtgeschwindigkeit...

Tatsaechlich ist ein weiterer Grund, warum seit der 130nm-Generation wenig weitergeht der, dass die Schaltzeiten der Transistoren zwar kleiner werden, die Uebertragungszeiten aber nicht. Und mit immer kleineren Strukturen werden die Uebertragungsgeschwindigkeiten immer geringer, vor allem aufgrund von kapazitativen Effekten. Da ist man weit von der Lichtgeschwindigkeit entfernt; je kleiner die Struktur, desto weiter. Das wird zwar dadurch ausgeglichen, dass mit kleineren Strukturen die gleichen Schaltkreise kleiner werden und dadurch tendentiell die Distanzen geringer werden, aber wenn man mehr Transistoren fuer IPC-steigernde Dinge verwenden will, und dadurch z.B. pro Kern aehnlich viel Flaeche verbraucht wie mit dem alten Prozess, dann hat man erst wieder Distanzen, die gleich gross sind, und muss damit irgendwie umgehen.
 
  • Gefällt mir
Reaktionen: Martyn
Pyrukar schrieb:
Bei 12nm ist es soweit ich weis noch ein Messbarer Wert gewesen der tatsächlich ca 12nm groß war,
Der letzte Wert der tatsächlich messbar war, lag bei 90nm, danach wurde nur "geflunkert". Die TSMC 12nm Fertigung war sowieso keine, es war eine leicht verbesserte 16nm Fertigung.

1737965212497.png

https://en.wikipedia.org/wiki/14_nm_process

Die einzigen Sprünge die es danach gab, war die 7nm Fertigung und nun mit Hilfe von EUV, die 5nm Fertigung und alles was davon abgeleitet ist. Was die Effizienz angeht geht es rückwärts, die Transistordichte steigt überproportional zur möglichen Energieersparnis.
1737965387440.png

https://www.anandtech.com/show/1602...technology-details-full-node-scaling-for-2h22

Schritte wie wir sie "damals" erlebt haben, wo man mit einem neuen Prozess die Transistordichte vervierfachen konnte und die Effizient mindestens halbiert hatte, gehören lange zur Geschichte.

1737965753222.png

https://en.wikipedia.org/wiki/International_Technology_Roadmap_for_Semiconductors
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mae
Tornhoof schrieb:
Glaubst du?
Die "hochwertigen" Pads wie von honeywell (siehe Igors Tests) sind jetzt auch schon ein paar Jahre alt, das gleiche gilt für entsprechende Pasten. Der ganze Rest der so rauskommt im Consumer/Prosumer Bereich sind ja eh alles nur Mixturen von den Profipasten oder Marketingunfug.

Es gibt gute Lösungen, aber jeder Cent muss gespart werden. Das hat Igor auch vor Jahren schon gesagt. Selbst bei neuster Hardware wird nur das Notwendigste verbaut. Im Heimbereich hat die Mehrheit irgendwas von Noctua, Arctic, Cooler Master, Grizzly, ... zum Teil alles nutzlos im Dauereinsatz.
 
Zurück
Oben