Stromverbrauchsentwicklung GPU CPU

Rubinek

Newbie
Registriert
Aug. 2012
Beiträge
4
Hallo

Ich hätte ein paar Fragen an die fachkundige Runde.

Wieso sinkt seit geraumer Zeit der Stromverbrauch von CPUs und der von GPUs steigt signifikant ?
Wenn man Bspw. eine aktuelle CPU hernimmt wie den "Intel Core i5-3570K, 4x 3.40GHz" kommt man auf 77Watt Verbrauch bei 215 EUR. (Wobei es auch IvyBridge mit 35Watt gibt)

Eine aktuelle GPU um den selben Preis wie bspw. "Club 3D GeForce GTX 560 Green Edition" braucht 150 Watt also das doppelte.

Im hochpreisigen Segment (1000 EUR) ist der Unterschied ebenfalls 1:2

Intel Core i7-3960X, 6x 3.30GHz: 130 Watt
Gainward GeForce GTX 690, 2x 2GB GDDR5: 300 Watt

Wieso brauchen GPUs mindestens doppelt so viel Strom wie CPUs ?

Haben GPUs überhaupt eine Zukunft im Mainstream Bereich (auch Spieler die mit Standard Einstellung zufrieden sind) wenn sich die CPUs mit integriertem Grafikkern weiterentwickeln ?

Also wieso schafft es Intel Jahr für Jahr Leistung zu ehöhen und den Stromverbrauch zu reduzieren und nVidia/AMD nicht ?
Die bringen regelmässig Chips raus welche dann von den Grafikkartenherstellern mit riesigen Kühlern und 2-3 Lüftern ausgestattet werden (müssen).

Danke für eure konstruktiven Antworten
 
<-- neue GPU frisst fast 200W weniger als die alte, und ist teilweise deutlich leistungsfähiger, sagt jedenfalls mein Energiemessgerät und die OSD-Anzeige vom Afterburner.
Ich würde sagen das ist auch Rückläufig.

(2xGTX580 auf GTX690)

Und Grafikkarten werden noch in deutlich größeren Strukturen gefertigt als CPUs, daher auch ein höherer Stromverbrauch.
 
Zuletzt bearbeitet:
sie nehmen doch eh ab...ne alte GTX 570 zieht 219 Watt und ne GTX 670 zieht nur noch 170 Watt (; also wenn du schon nen vergleich machst dann nimm aktuelle grakas (;

genauso auch GTX 690 300 Watt und GTX 590 365 Watt (; also die leistung steigt schon signifikant und der verbrauch sinkt (;
 
Intel steigert die Leistung um 5% und reduziert die TDP um 20%. Nvidia/AMD steigern die Leistung um 30% und verringern die Leistungsaufnahme auch um einige %. So what?

Abgesehen davon hinkt ein Vergleich zwischen GPU und CPU
 
hast du dir mal die leistungssteigerungen angesehen?

bei intel ist in den letzten 3 generationen die leistung um gerade einmal 15-20% gestiegen, bzw zwischen der letzten und der vorletzten generation gab es absolut keine steigerung(man hat einfach merh als genug cpu-leistung und geht deswegen auf optimierung).
bei den gpus wird diese mit jeder generation mal eben um 60-100% gesteigert, was fast nur über steigerung der leistungsaufnahme geht. Durch neue fertigungsverfahren und optimierungen er architektur wird dem entgegengewirk, aber bei derartigen steigerungen kann man nur über die aufnahme nach oben gehen.
 
Ähm... du weisst schon was die iGPU´s leisten? Da kannste ned mit ner Graka vergleichen die genausoviel kostet wie die gesamte CPU.
Das was die iGPU´s leisten kriegste nämlich auch mit ner Graka bis 50€.

Deine Grakas gegen die jeweilige CPU brauchen deshalb mehr, weil sie auch deutlichst mehr leisten als die Grafikchips die bei den jeweiligen Prozessoren mit dabei sind.

Höchstleistung mit Lowend vergleichen und sich dann wundern warum die Höchstleistung mehr Watt verbraucht :freak:
 
HisN schrieb:
Und Grafikkarten werden noch in deutlich größeren Strukturen gefertigt als CPUs, daher auch ein höherer Stromverbrauch.

Naja 28nm deiner 690er im Vergleich zu 32nm deines SB-E?;)
Klar ein Ivy-Bridge hat 22nm aber so viel geben die sich nicht
 
CPUs haben nicht so viele Transistoren, wie GPUs, das sollte sich in der Leistungsaufnahme auch bemerkbar machen.

Speziell beim Zocken, wird die GPU meistens voll ausgelastet, während die CPU eigentlich nicht voll ausgelastet wird.


EDIT:
Die neusten GPUS haben ca. 4Mrd, Transistoren. CPUs haben in etwa die Hälfte bis Zweidrittel davon.
 
Zuletzt bearbeitet:
Eine interessante Frage ...

Ich habe vor wenigen Wochen mal interessehalber und soweit möglich die TDP-Werte meiner bisherigen Grafikkarten (GeForce2 GTS, GeForce4 Ti 4200, GeForce 6800 Ultra, Radeon X1900 XT, Radeon HD 3870, Radeon HD 5770) verglichen, weil ich eigentlich der Meinung war, dass die Leistungsaufnahme von Karte zu Karte gesunken wäre, zumindest aber die GeForce 6800 Ultra eine regelrechte "Stromschleuder" war, aber dem ist gar nicht so! Zwar steigt von Generation zu Generation die Leistung pro Watt, aber geht man von den (sicherlich irgendwo künstlichen und weniger tatsächlichen) TDP-Werten aus, stellt sich heraus, dass heutige (High-End-)Karten wesentlich höhere Angaben haben als frühere Modelle.
Ich plane momentan den Umstieg von einer Radeon HD 5770 auf eine HD 7870 (beide aus der Performance-Kategorie!) und allein hier steigt der TDP-Wert von 108 auf 175 W, eine GeForce 6800 Ultra war damals offenbar mit 70-90 W angegeben!
Ich habe das wie geschrieben rein aus Interesse verglichen und bin mir im Klaren, dass die Angaben nicht den tatsächlichen Verbrauchswerten entsprechen müssen, laut Tests nimmt z. B. eine HD 7870 unter eher künstlichen (Benchmark-)Bedingungen maximal rund 155 und nicht 175 W auf, während eine GTX 670 offenbar den von NVIDIA angegebenen ("geschönten"?) Maximalwert ein wenig übertrumpft (i. d. R. wohl TDP > MGCP).
 
Casi030 schrieb:
Die Rechenleistung die deine Intel CPU hat für 200EU,schaft jede Aktuelle Graka für max 75-100EU.:p

Das ist so, als wenn man einen Zehnkämpfer mit einem 100m Läufer vergleicht.

Ich sehe nicht, das der Stromverbrauch bei den GPUs deutlich steigt, eher im Gegenteil.
Außerdem ist bei den CPUs derzeit kaum eine Performancesteigerung festzustellen, daher konzentriert man sich eher an einer Verkleinerung, und spart dadurch einige Watt.
i7-2700k --> i7-3770k.

Sowas ist bei GPUs nicht möglich, da muß das Top Modell deutlich schneller sein als der Vorgänger.


Gruß Uwe
 
Uwe F. schrieb:
Das ist so, als wenn man einen Zehnkämpfer mit einem 100m Läufer vergleicht.


Sowas ist bei GPUs nicht möglich, da muß das Top Modell deutlich schneller sein als der Vorgänger.


Gruß Uwe

Der Vergleich mit dem Zehnkämpfer ist gut.
Aber vergleich mal die GTX 580 mit der GTX 680, dann wirst du Feststellen, dass die 680 nicht nur schneller, sondern auch sparsamer ist.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-680-test.1733/seite-11
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-680-test.1733/seite-17
 
Der Vergleich ist zwar nicht wirklich brauchbar, er ist jedoch auch nicht komplett von der Hand zu weisen. Ich halte den Vergleich von Leistungsaufnahmen der jeweiligen Systeme d.h. Prozessor vs. Grafikkarte in einem zeitlichen Verlauf für durchaus geeignet. In den letzten Jahren hat die Leistungsaufnahme der GPUs enorme Werte erreicht, während sie bei Prozessoren seit 10 Jahren stagniert bzw. langsam wieder abnehmen. Man muss nur aufpassen, die Werte in einem zeitlichen Rahmen zu sehen und High End und Low End Modelle entsprechend gegenüber zus tellen. Dies hat der TE IMHO getan.

Das ganze ist womöglich ein evolutionärer Prozess. Man entwickelt stetig bessere Chips um mehr Leistung zu erhalten. Das geht häufig auf die Energieaufnahme. Irgendwann wird entweder die Aufnahme der elektrischen Energie oder die Leistung so groß, dass man sich um die Senkung der Leistungsaufnahme kümmern kann bzw. muss.

Die aktuellen Generationen von GPUs (Nvidia 600er, AMD 7000er) senken ihre aktuelle Leistungsaufnahme gegenüber den vorangegangenen Generationen. Bei den Prozessoren war einer der Hochpunkte beim Intel Pentium 4 erreicht. Damals erkannte Intel den Fehler in der Leistungsfähigkeit zur NetBurst Mikroarchitektur und sind seit dem auf andere Architektur gewechselt.

Man kann natürlich nicht argumentieren, eine Grafikkarte benötigt mehr elektrische Leistung als ein Prozessor und ist deshalb schlechter. Das wurde auch nicht getan. Dieser Vergleich ist so nicht möglich, da man die Leistungsaufnahme in Korrelation zur Rechenleistung setzen muss (Flops/Wh). In diesem Vergleich hat eine GPU durchaus sehr gute Werte, es gibt aber auch "langsame" Prozessoren die da gute Werte erreichen.

Insgesamt lassen sich die beiden Arten von Prozessortechniken nicht vergleichen, da sie komplett andere Anforderungen befriedigen. Eine Grafikkarte ist konzipiert um auf möglichst vielen Prozessoren parallel zu arbeiten, während ein Prozessor die General Purpose arbeiten übernimmt (d.h. irgendwie alles berechnen können soll) dafür eher sequenziell arbeitet, da Software auf hunderte oder tausende Prozesse aufzuteilen sehr schwer bis teilweise "unmöglich" ist. Die GPU kann man aufgrund ihrer Architektur aber nicht als General Purpose Prozessor einsetzen, da wäre sie viel zu langsam.
 
es ist letztendlich auch eine Sache der Nachfrage.
Der klassische Gamer braucht nicht wirklich CPU Leistung, da reicht ein i5 mit 70 Watt TDP.
Da zählt nur die Grafikkarte, je größer, desto besser, desto mehr Verbrauch.
Schau dir mal den Server markt an. Da zählt reine CPU Leistung, und seit Jahren fressen die 130 oder sogar 150 Watt.
 
Die Rechenleistung einer GPU liegt deutlich über der einer CPU, deswegen ist der Verbrauch grundsätzlich höher. Bei Grafikkarten ist jede FLOP/s gefragt, deswegen holt man auch das raus, was irgendwie geht. Bei CPUs ist kaum Bedarf nach großen Leistungssteigerungen da, zumindest nicht so sehr wie bei Grafikbeschleunigern, weswegen sich Intel dazu entschlossen hat, die TDP zu senken. Ich persönlich halte das aber nach wie vor lediglich für einen Marketing-Gag.
 
Biggunkief schrieb:
Naja 28nm deiner 690er im Vergleich zu 32nm deines SB-E?;)
Klar ein Ivy-Bridge hat 22nm aber so viel geben die sich nicht

Ich bezog mich da tatsächlich auf den 3570K, den der TE erwähnt :-)
 
Zurück
Oben