Fertigungsprozess und Energiebedarf

kingd0x

Lt. Junior Grade
Registriert
Apr. 2015
Beiträge
258
Hallo,
worin besteht der Zusammenhang zwischen einem kleineren Fertigungsprozess und weniger Energieverbrauch?
Je kleiner der Fertigungsprozess, desto mehr Transistoren können aneinander gepackt werden. Und je kleiner die Transistoren, desto weniger Energie braucht man, um diese zu schalten. Richtig?

Aber wenn man nun x-Faches mehr an Transistoren im vergleich zu einer älteren Generation hat müsste theoretisch der Energieverbrauch doch wieder steigen oder?
 
Joah, soin etwa. Sparsamer sind Prozessoren seit dem Pentium 4 nicht geworden, dafür aber ein bisschen schneller
 
  • Gefällt mir
Reaktionen: kingd0x
Im Grunde ist es genau so. Deswegen gibt es heute noch CPUs mit hohen TDPs und noch höheren realen Verbrauch. Eben weil die extra Transistoren die Ersparnis pro Transistor aufwiegen oder gar übertreffen.
Aber dafür gibt am anderen Ende auch CPUs, z.B. in kleinen Notebooks und anderen Mobilgeräten, die eine erstaunliches Verhältnis zwischen Verbrauch und Leistung haben, eben weil man die Ersparnis durch das kleinere/bessere Fertigungsverfahren mit (deutlich) mehr Transistoren wieder zunichte macht,
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Candy_Cloud und kingd0x
Dann habe ich das ganze doch richtig verstanden.
Ich danke euch :)
 
kingd0x schrieb:
er wenn man nun x-Faches mehr an Transistoren im vergleich zu einer älteren Generation hat müsste theoretisch der Energieverbrauch doch wieder steigen oder?
Tut er theoretisch auch. Aber mehr Transistoren bedeutet nicht zwangsläufig, dass die auch alle gleichzeitig am schalten sind. Zumal nicht nur Transistoren Energie verbrauchen, Speicherzugriffe sind auch ziemlich Energiehungrig. Gutes Datenmanagement und kurze Pipelines könn also eine Menge Energie einsparen.

Ein Shrink macht jedenfalls möglich:
  • Mehr Transistoren auf derselben Fläche unterzubringen
  • denselben Prozessor bei derselben Frequenz energiesparender zu machen oder
  • denselben Prozessor mit einer höheren Frequenz laufen zu lassen, weil man durch den geringeren Verbrauch mehr thermischen Spielraum und kürzere Laufzeiten innerhalb des Prozessors hat
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Transistor 22 und kingd0x
Wir haben das mal in Halbleiter Quantenoptik abgeschätzt. Herleiten könnte ich es nicht mehr, aber das Ergebnis war ,dass der Energieverbrauch beim Schalten in gleichem Maße abnimmt wie die Fläche pro Bauteil. Das heißt, wenn du es halb so groß machst, hast du halb so viel Verbrauch, aber kannst doppelt so viele Transistoren auf die gleiche Fläche packen. Also bleibt der Verbrauch in etwa konstant wenn man sonst nix ändert.

Ich weiß leider auch nicht mehr was man alles genau betrachtet hat und welche Annahmen gemacht wurden. Es gibt ja nicht nur die "eine" Längenskala, manche Teile sind wesentlich größer als die nm, nach denen der Prozess benannt ist.
 
  • Gefällt mir
Reaktionen: kingd0x
Ein kleinerer Fertigungsprozess bedeutet auch nicht das die Transistoren oder die anderen Komponenten in einem CPU/GPU-Die wirklich so klein sind oder sein müssen.
Das heißt am Ende nur das die Auflösung immer feiner wird, man also immer feinere Strukturen bauen kann. Man kann aus diesen kleineren Strukturen aber natürlich auch größere "Objekte" bauen.
Ein 14mn Prozess bedeutet halt das 14nm die kleinstmögliche Strukturbreite ist, aber nicht das alle Strukturen in einer CPU auch tatsächlich so klein sind.

Dann wächst die Anzahl an Transistoren von Generation zu Generation und damit der Energiebedarf.
Man muss sich vor Augen führen das die x86 Architektur seit Jahrzehnten quasi unverändert besteht und bis heute Grundlage der CPUs ist.
Lediglich umfangreiche Erweiterungen kamen immer wieder hinzu.

Erweiterungen für 64Bit Unterstützung (hat Intel damals von AMD übernommen), mehr interner Speicher/Cache, mehr Vernetzung untereinander, viele Instruktion-Sets, die früher vom allgemeinen Teil der CPU berechnet werden mussten, laufen heute über spezielle, eigene und damit auch schnellere Schaltungen. Controller für Schnittstellen wie den Arbeitsspeicher, den PCIe-Bus usw. Eine umfangreiche Out-of-Order Technik, mit der - grob gesprochen - möglicht exakt erraten werden soll welche Aufgaben wohl als nächstes zu erledigen sind. Eine immer größer werdende Parallelisierung, Hyper-Threading, mehr Rechenwerke, eine Funktion zur Überwachung der Temperatur und Stromaufnahme, um den Prozessor dynamisch unter-/übertakten zu können, eine integrierte Grafikfunktion, die auch immer leistungssärker wird uvm.

All das sorgt dafür das eine CPU immer größer wird und damit auch immer mehr Energie benötigt. Das versucht man durch Miniaturisierung zu kompensieren.
Es stimmt übrigens nicht das eine kleinere Strukturbreite immer in weniger Energiebedarf resultiert. Die Architektur muss an eine kleinere Fertigungsgröße angepast werden, es gibt mehr Leckströme, ein Übersprechen auf Nachbar-Leiterbahnen wird zum Problem usw.

Dann sollen die CPUs natürlich auch schneller werden und alleine durch eine höhere Taktfrequenz ergibt sich schon ein Mehrbedarf an Energie.
Mobile-CPUs sind einfach anders ausgelegt, manche Funktionen sind nicht vorhanden, die CPUs takten weiter herunter als Desktop-Modelle usw.

Was hat Intel gemacht als damals die erste Atom-CPU für Netbooks raus kam? Man hat einfach eine aktuelle Mobile-CPU genommen, die komplette Out-of-Order Funktion rausgeworfen und als Ersatz Hyper-Threading verbaut. Raus kam eine CPU mit einer für damalige Verhältnisse grandios niedrigen TDP. Aber das Ding hat dann halt auch nichts vom Teller gezogen.

Eine größerer Die ist auch schwieriger herzustellen. Die Ausbeute an voll funktionsfähigen Chips ist geringer.
AMD versucht das z.B. mit der Zen2 Architektur zu umgehen, indem ein Chiplet-Design genutzt wird, wo die Rechenwerke und der I/O-Teil getrennte Chips darstellen, die jeweils für sich einfacher und kostengünstiger zu produzieren sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Candy_Cloud, kingd0x und Baal Netbeck
Mal kurz etwas aus der Halbeitertechnik-Kiste.

Also die Fertigungstechnologie sagt einem die totale Auflösung an. Das heißt bei 14nm kann ich in der Lithographie eben Strukturen von 14nm Kantenlänge noch scharf abbilden. Es steht und fällt mit der Wellenlänge des Lichtes denn die Wellenlänge beeinflusst dann die CD (Critical Dimension) und den DoF (Depht of Focus). Nur was ich sauber in den Lack belichte, kann ich im Anschluss auch mit anderen Verfahren ätzen oder z.B. implantieren.

Es ist allerdings so, dass es parasitäre Effekte gibt die mit jeder Verkleinerung weiter zunehmen. Z.B. parasitäre Kapazitäten zwischen den Leiterbahnen durch die Isolatoren drumherum. Das wiederum schränkt dann die Taktbarkeit ein. Auch verwendet man bei der Metallisierung sicherlich immer noch deutlich größere Strukturen. Denn hier muss man beachten, dass man nicht beliebig in jedes Profil die Metallisierung aufbringen kann mittels Sputtern.
Auch muss die Elektromigration genau simuliert werden. Ist ein großes Problem mit zunehmender Betriebstemperatur und Stromstärke.

Zuletzt diffundieren auch die Dotierstoffe bei höheren Temperaturen schneller aus ihren Zonen in andere Schichten ein.


Es gibt viele Faktoren die in der Entwicklung berücksichtigt werden müssen. Darum zögert Intel gerade auch so lange. Denn es ist nicht so einfach das zu realisieren. In Fachkreisen gilt Intel immer noch als Primus da Intels 14nm wirklich 14nm sind. Bei Samsung und TSMC wird es teilweise schöngerechnet.

Am Ende kann es keiner von uns nachweisen, da man gekaufte Chips brechen müsste um sie mit dem Rasterelektronenmikroskop betrachten zu können.

Die Leistung kann mit einer kleineren Struktur sinken. Allerdings ist es üblich diesen Gewinn durch höhere Rechenleistung zu kompensieren. Denn die ganzen Hersteller sind an die üblichen Klassen mit 45-65-95W gewöhnt und bauen Kühler und Mainboards dafür.

Auf der anderen Seite, schaut man sich Intels U-Serie an mit 15W TDP. Die knallen heute locker einen 125W Prozessor von vor 10 Jahren weg. Das ermöglicht leistungsfähige Kleingeräte mit leiser Kühlung. Für Büroaufgaben alle male ausreichend.
 
  • Gefällt mir
Reaktionen: Music Clef und kingd0x
Und damit ich meinen Senf auch noch dazugeben kann, noch dieser Punkt: Wenn eine CPU durch einen Shrink schneller wird und die gleiche Energie benötigt, wie die vorherige, wird trotzdem Energie gespart, da die neue CPU schneller sein sollte wie die alte und die Aufgabe damit schneller brechnet ist und damit wieder schneller in den Energiesparmodus fallen kann und damit unterm Strich Energie spart.
 
  • Gefällt mir
Reaktionen: Music Clef und kingd0x
Gandalf2210 schrieb:
Sparsamer sind Prozessoren seit dem Pentium 4 nicht geworden, dafür aber ein bisschen schneller
Kann man das wirklich so stehen lassen?

Ein i3-8300 nimmt sich im CineBench circa 85W (das gesamte System), aus der Steckdose. Ein Q6600-System nimmt da "vermutlich" mehr als 85W im IDLE. Single-threaded (SuperPi) nimmt sich das i3-8300 System unter 60W. Da verbraucht ein P4-System "vermutlich" auch schon mehr im IDLE.

Die letzten Generationen hat sich da sicherlich nicht viel getan. Aber zu P4, Core 2 Duo, Core 2 Quad doch schon einiges. Wenn so ein i3-8300 System unter Volllast weniger verbraucht, als ein P4-System (oder Core 2 Quad System) im IDLE, dann ist das schon ein deutlicher Sprung.

Und selbst wenn man mal so vergleicht, Prime95 (gesamtes System):

Core i5-2500K, 4C/4T Sandy-Bridge, 32 nm, 3.3 GHz = 148W
Core i3-8300, 4C/4T, Coffee Lake-S, 14 nm, 3.7 GHz = 92W

Da liegt die Differenz bei 56W und der i3 (hat 400MHz pro Core mehr Takt) ist auch noch schneller.
 
Zuletzt bearbeitet:
Zurück
Oben