Warum braucht Intel soviel mehr Strom?

Registriert
Aug. 2022
Beiträge
386
Die gängigen Spiele CPUs, wie ein 13700 oder 13900 brauchen ja deutlich mehr Strom, als ein vergleichbarer AMD.

Liegt das grundsätzlich noch an der größeren Fertigung?

Laut der Roadmap von Intel soll 2024 die 15.000er Reihe mit 3 nm Fertigung kommen.
Kann man dann davon ausgehen, dass dann auch Intel wieder deutlich effizienter werden wird?
Von aktuell 7 nm auf 3nm ist ja ein rießengroßer Sprung, wenn man das in 2 Dimensionen sieht.

2023-06-27_180539.jpg
 
na ja intel holt halt mit der brechstange alles aus ihrer Hardware Raus, koste es was es wolle ... und optimiert derzeit ihre CPUs auf leistung und nicht auf Leistung pro Watt ... AMD ist derzeit einfach massiv besser was Leistung pro Watt angeht, aber was jetzt besser ist, ist letztlich Geschmacksache und das kann sich auch in der Nächsten Generation wieder komplett drehen ... auch AMD hat früher mal die Leistungs Brechstange ausgepackt, und endlos strom gefressen.

Vermutlich kommts letztlich darauf an was du möchtest, denn viel verbrauch bedeutet ja am schluss nicht nur höhere Stromrechnung sondern auch mehr Abwärme im System ... ob es das dann wegen etwas mehr leistung wert ist, muss jeder selbst entscheiden.


Das mit den Prozessbezeichnungen ist inzwischen auch nichtmehr so eindeutig wie es früher einmal war ... Da gibt gerade jeder ein bisschen das an, was sich auf dem Marketingpapier gut anhört ... wie viel Plus durch den neuen Fertigungsprozess wirklich ergibt wird dir hier sicherlich niemand sagen können (das weis wenn dann nur die Entwicklungsabteilung von Intel)

gruß

Pyrukar
 
  • Gefällt mir
Reaktionen: Blau&Gruen, GTrash81, Kristatos und eine weitere Person
@Pyrukar Wobei das jetzt streng genommen die Frage nach dem "warum" kein Stück beantwortet ;)

Andere Randnotiz: Das 13700K und 13900K als "gängige Spiele-CPUs" wahrgenommen werden, ist eigentlich schon der Witz, wenn ein 13600K viel mehr Sinn macht.
 
  • Gefällt mir
Reaktionen: Intruder und Nero FX
bitte auch nicht TDP und Realverbrauch verwechseln .... denn die Angaben zu den Prozessoren sind immer TDP angaben.
Außerdem auch immer dran denken an den Turbo Verbrauch und CPU Takt auseinanderzuhalten.
 
  • Gefällt mir
Reaktionen: mrdeephouse
MichaelaRegena schrieb:
Von aktuell 7 nm auf 3nm ist ja ein rießengroßer Sprung,
gleichzeitig erhöht sich aber die Anzahl der Transistoren stark, zB von 1 Mrd. auf 1,8 Mrd Transistoren.
 
  • Gefällt mir
Reaktionen: Blau&Gruen
MichaelaRegena schrieb:
Von aktuell 7 nm auf 3nm
Beide Angaben sind reine Marketing-Angaben, die nichts mit irgendeiner physikalischen Länge/Breite/Größe im fertigen Produkt gemein haben.
Intel schreibt ja auch nichts mehr von 7nm, sondern nennt sie nur noch Intel 7, 4, 3, 20, 18A...

Die technischen Hintergründe, warum Intel mehr Strom braucht wirst du schon tief in der Architektur suchen müssen: die hardwaremäßige Verarbeitung der Befehlssätze (zb. AVX), Infinity Fabric oder nicht, Chiplet-Aufbau, Sprungvorhersage, ... da wird viel mit reinspielen, vielleicht hat Igor da genaueren Einblick.
 
HorstSan schrieb:
@Pyrukar Wobei das jetzt streng genommen die Frage nach dem "warum" kein Stück beantwortet ;)

Andere Randnotiz: Das 13700K und 13900K als "gängige Spiele-CPUs" wahrgenommen werden, ist eigentlich schon der Witz, wenn ein 13600K viel mehr Sinn macht.
Pyrukar schrieb:
und optimiert derzeit ihre CPUs auf leistung und nicht auf Leistung pro Watt ... AMD ist derzeit einfach massiv besser was Leistung pro Watt angeht,
wenn du eine Bessere Erklärung hast, dann immer her damit ... aber für mich ist die Antwort auf das Warum eigentlich recht eindeutig die Prioritäten und optimierungen der Entwickungsabteilungen der entsprechenden Firmen.
 
  • Gefällt mir
Reaktionen: Legalev
Ich will gar nicht wissen, wie viel Ausschuss Intel hat um ihre 13900KS CPUs zu bauen.
Intel geht es tatsächlich nur um den längeren Balkan, ob im Stromverbrauch oder in der Leistung, egal!

AMD sind die Guten, die versuchen Watt und Leistung (FPS) in Einklang zu bringen.
https://www.pcgameshardware.de/CPU-...r-Effizienz-Index-fuer-Prozessoren-1341682/2/
Wobei das bei den aktuellen Grafikkarten nicht immer stimmt.

Trotzdem bleibt AMD natürlich bei den Guten.
 
@Pyrukar Naja, aber dass ist ja nur die maximal oberflächlichste Erklärung, die überhaupt möglich ist. Zudem ist sie nur teilweise logisch, warum sollte man denn als Entwicklungsabteilung mit Absicht hingehen und sagen: "ok, wenn wir das so bauen zieht das Ding übelst Strom, aber wir scheiß drauf solange wir trotzdem halbwegs mit dem Mitbewerber mithalten können"? Das macht man nicht freiwillig, das macht man, weil man es nicht besser kann, bzw. in der Vergangenheit suboptimale Entscheidungen getroffen wurden.

Gründe sind für mich ganz konkrete physikalische Gründe, monolithischer vs. Chiplet-Aufbau z.B., natürlich die Fertigung, Architektur die auf viel Cache setzt oder wenig schnellen Speicher usw. usf., wie @frazzlerunning auch schon genannt hat.

Abgesehen von der 2 Nodes größeren Fertigung sehe ich das Hauptproblem tatsächlich im monolithischen Aufbau der Chips. Man kann einen monolithischen Chip eben nur so groß bauen, ohne dass die Ausbeute abkackt bzw. der Preis durch die Decke geht.
Deshalb hat Intel erstmal relativ wenig Kerne bzw. die einfacheren E-Cores. Damit sie in den Multicore-Benchmarks mithalten können, müssen sie die CPU also aufblasen, weil sie nicht wie AMD mal eben 16 echte Cores an den Start bringen.
Dieses Aufblasen hat aber zumindest den Nebeneffekt, dass man im Gaming wichtigeren Single-Core ganz gut dasteht.
 
MichaelaRegena schrieb:
wie ein 13700 oder 13900 brauchen ja deutlich mehr Strom
Das liegt auch an den Mainboards, die oft viel zu viel Spannung auf die CPU geben.

Mein 13700K braucht mit 96mV Undervolting (=1,16V unter Volllast) nur noch 200W im Cinebench23.
Stock (ohne UV) läuft er ins Default Powerlimit von 253/241W.
 
  • Gefällt mir
Reaktionen: Blau&Gruen
MichaelaRegena schrieb:
Die gängigen Spiele CPUs, wie ein 13700 oder 13900 brauchen ja deutlich mehr Strom,

so und nun nochmal etwas ausführlich, hatte vorhin nicht soviel Zeit.

bitte vergleiche bei beiden Herstellern NUR wenn

  • gleicher fester Takt der CPU
  • ungefähr gleichen Verbrauch von Mainboard + RAM
  • gleicher fester Takt vom RAM
  • eine fest definierte Aufgabe, die es zu verarbeiten gilt, mit einen festen Ergebnis.

Nur dabei kannst du einen echten Vergleich ziehen wenn du messen kannst, wieviel das System über die Zeit für die Berechnung der Aufgabe verbraucht hat.
Und dort wirst du überraschende Ergebnisse erhalten.

Für einen echten Vergleich benötigst du einen komplett genormten Test.

Alle anderen Angaben wie Benchmarks etc oder Angaben wie TDP usw kannst du getrost als Vergleich zwischen den beiden Herstellern oder Strukturgrößen einfach mal in große runde Tonne kloppen. Denn das ist nichts als wie schon erwähnt Augenwischerei.
 
  • Gefällt mir
Reaktionen: Intruder
Joa Intel ist derzeit 3 Jahre im Rückstand was die Fertigungsprozesse angeht. Die sind immer noch bei 10nm, haben es aber Intel 7 genannt, obwohl es nicht 7nm sind :) Die Prozessoren sind maßlos hochgetaktet, damit man in den Benchmarks vorne ist, PL2 auf +250 Watt :-)
 
Sebbi schrieb:
so und nun nochmal etwas ausführlich, hatte vorhin nicht soviel Zeit.

bitte vergleiche bei beiden Herstellern NUR wenn

  • gleicher fester Takt der CPU
Dann würde man nur einen rein theoretischen Wert genau für diesen Versuchsaufbau bekommen und kann keine Rückschlüsse auf die regulären Verkaufsmodelle mit ihren entsprechenden Taktraten ziehen.

Und warum gleicher Takt, aber nicht auch die Kerne auf die gleiche Anzahl normieren?
 
Es sind mehrere Faktoren, die die Intels derzeit ineffizient machen im Vergleich zu AMD.
  • Architektur
  • Fertigung
  • Takt und Spannung ueber Sweetspot

Wobei der letzte Punkt am schwersten wiegt.
Halbleiter Verhalten such so, dass sie in einem bestimmten Bereich von Spannung und Taktfrequenz ideal ausbalanciert sind. Ist die CPU in diesem Bereich aber zu langsam im Vergleich zum Wettbewerber AMD, dann kann man die Performance erhöhen indem Spannung und Takt erhöht werden. Dann verlässt die CPU den idealen Bereich und wird ineffizient. Sprich sie wandelt mehr Strom in Wärme um. Der Effekt ist progressiv, d.h. explodiert förmlich, wenn bestimmte Bereiche überschritten werden.

Darum saugen Intel bis zu über 300 Watt während AMD X3D bei 100 Watt liegen
 
N0Thing schrieb:
Und warum gleicher Takt, aber nicht auch die Kerne auf die gleiche Anzahl normieren?

weil die Stromaufnahme meines Wissens nach ungeleich dem Takt steigt. z.B. doppelter Takt, 4fache Stromaufnahme

Die Anzahl der hingegen kann dagegen bei der Effizenz helfen, jenachdem wie die Aufgabe aufgebaut ist. Wobei das aber auch den Verbrauch negativ beeinflussen kann im Bezug auf die Effizenz, wenn Kerne nicht genutzt werden aber dennoch "rumidlen" aber aktiv sind.

Aber dennoch, in gewisser Weise hast du schon recht mit dem limitieren der Kerne, doch da könnte man natürlich auch als zusätzlichen Test mit angeben.


N0Thing schrieb:
Dann würde man nur einen rein theoretischen Wert genau für diesen Versuchsaufbau bekommen und kann keine Rückschlüsse auf die regulären Verkaufsmodelle mit ihren entsprechenden Taktraten ziehen.

Das fragte der TE ja auch nicht, sondern "warum die Intel CPUs mehr verbrauchen als die AMD CPUs". Dies kann man ansonsten so nicht klären, sondern benötigt tatsächlich so einen Test um zu prüfen, ob diese Aussage tatsächlich korrekt ist.

Denn wenn das Ergebniss dieses Testes eben nicht diese Aussage bestätigt, dann müsste man die Aussage ändern in z.B. "Intel CPUs verbrauchen zwar mehr Energie in unseren Benchmark Tests, sind aber dennoch vom Grund her effizenter als AMD CPUs. Es ist somit immer situationsabhängig, wie effizient die CPUs der jeweiligen Hersteller sind."


LencoX2 schrieb:
Wobei der letzte Punkt am schwersten wiegt.

du vergisst etwas - den Punkt Optimierung.
Wenn ein Programm auf einen AMD X3D System programmiert, optimiert und kompiliert wurde, kann es durchaus sein, das es auf einen ähnlichen System wesentlich weniger Watt benötigt, als das auf der Intelplattform der Fall wäre.
 
Sebbi schrieb:
du vergisst etwas - den Punkt Optimierung.
Wenn ein Programm auf einen AMD X3D System programmiert, optimiert und kompiliert wurde, kann es durchaus sein, das es auf einen ähnlichen System wesentlich weniger Watt benötigt, als das auf der Intelplattform der Fall wäre.

Optimierung kann die Effizienz in diesem einen Workload beeinflussen.

Aber in PC Gaming halte ich es fuer extrem selten, das auf einzelne CPUs optimiert wird. Schon gar nicht speziell auf X3D. Der Aufwand ist extrem zu groß fuer die Nutzerbasis.
Zudem wird wohl 99,99% der Microsoft Compiler verwendet. Ob der besser fuer Intel oder AMD optimiert kann nur Microsoft sagen. Aber zumindest ist dies Bedingung gleich fuer beide. Ich Koennte mir vorstellen, dass CPU Hersteller Ideen oder Vorschläge einbringen könnten.

Hingegen spielt es keine Rolle auf welcher CPU programmiert oder kompiliert wurde. Der Output ist stets derselbe, egal ob auf Intel oder AMD programmiert oder kompiliert wird.

Kurz, im Gaming ist manuelle Optimierung nicht wesentlich fuer CPU Effizienz verantwortlich.
 
Zurück
Oben