maximale Leistungsaufnahme Pc

DarkInquisitor schrieb:
Mal ne Referenz:
Prime95 + Furmark BurninTest bei mir 272 Watt

kurze Sysangaben zum Vergleich:
3750K @4Ghz
7870 @1200/1300MHz
HDD + SSD
Soundkarte
5 Lüfter
Enermax Platimax 500W
Wenn man aber nun das Gegenteil auslotet, also nicht optimale Leistung sondern optimale Energieeffizienz, dann wird man den Prozessor auf 3GHz laufen lassen und die Karte auf ihrem Standardtakt oder 5-10% darunter und sich jeweils bei der Spannung an das untere Limit heran tasten.
Verlieren wird man dabei eventuell 20% Leistung/Frames, was wiederum stark vom Spiel abhängt.

Der Verbrauch wird sich dann jedoch mit Sicherheit nicht mehr auf 270w belaufen, sondern auf schätzungsweise knapp 200w. Im übrigen ist das für gewöhnlich der Weg, den ich einschlage. Es sei denn eine einzelne Anwendung giert wirklich nach dieser (Mehr-)Leistung.

Das ließe sich sogar messen, wenn du Bock drauf hast ... ;)

SheldonCooper schrieb:
Erklär doch bitte mal was denn bei mir schiefgelaufen ist als die 550 Watt gemessen hab.
Nichts. Die GTX570 ist höllisch ineffizient.
 
Matzegr schrieb:
Deine CPU@Stock braucht 82W. Bei deiner Taktrate und Spannung sind es ~120W
Deine GPU@Stock braucht 247W (Furmark). Bei deiner Taktrate und Spannung sind es ~400W

Macht bei CPU+GPU unter Last rund 520W, der Rest vom System noch mal 30W und schon biste bei 550W

Wie rechnest du das denn? Klingt für mich nicht richtig. Die 550 Watt waren primärseitig. Das Netzteil hat irgendwas um die 80%. Du rechnest jetzt aus, dass ich schon sekundärseitig 550W gebraucht hätte? Ich denke mal, dass die 400W für die GraKa deutlich zu hoch sind. Warum rechnest du das restliche System mit 30W? Ich würde mal eher von 120W oder mehr ausgehen.
 
SheldonCooper schrieb:
Wie rechnest du das denn? ... Ich würde mal eher von 120W oder mehr ausgehen.

Wie willst du auf 120W kommen? Wenn man sich so die Test im Netz anschaut dann kommt man im Idle mit 8GB RAM + SSD auf <40W an der Steckdose.
Wenn man bei dir noch die Soundkarte und 8 GB RAM dazurechnet und CPU und GPU abzieht ist man bei ~50Watt (an der Steckdose)

Die 400W für die GPU waren ganz grob gerunden

Wie gesagt deine GPU brauch im Standardtakt und Standardspannung von 1V laut ht4u schon 247Watt bei Furmark, bei Spielen knapp 200Watt. Du hast schonmal 15% mehr Spannung, dass macht ~30% mehr Verbrauch. Dann läuft deine GPU auch noch mit 30% mehr Takt -> ~15% mehr Verbrauch. -> Statt 247W im Furmark dürfte man nun bei 370W sein bzw. bei Spielen bei ~300W

CPU sind 13% mehr Spannung -> ~25% mehr Verbrauch plus das mehr an Takt wirst du von 82W auf ~110W kommen

Nehmen wir die 300W beim Spielen für die GPU und 100W für die CPU sind wir bei 400W, mit Netzteileffizienz von 80% -> 500W plus Rest vom System 50W und schon biste bei 550W an der Steckdose.

Bei was haste denn die 550W gemessen?
 
Ich hab so gerechnet:
8 Lüfter a ca 3W -> 24W
4 HDD a ca 9W -> 36W
2 SSD a ca 5 W
Sound ca 7W
DVD-ROM ca 6 W
DVD-RW ca 6 W
Board ca 10
Maus + Tasta ca 1W
gibt etwa 100 W sekundärseitig was bei 80% Wirkungsgrad etwa 125 Watt primärseitig ergibt.

Ich bin mir nicht mehr ganz sicher womit ich den Rechner ausgelastet hab, für die CPU wars Pime, GPU entweder Furmark oder 3D Mark. Ich werde das wohl am WE nochmal testen. Deine Rechnung hört sich vernünftig an. Vielleicht irre ich mich ja auch und hatte nur die SSD drin und keine Laufwerke.
 
Matzegr schrieb:
Deine GPU@Stock braucht 247W (Furmark). Bei deiner Taktrate und Spannung sind es ~400W

Absoluter Quatsch... Sry einfach iwas daher brabbeln, ohne Wissen ist einfach schwach...

Rechne mir mal bitte vor wie du auf 400W Strombrauch nur durch die Graka kommen willst? Vom Kühler ganz zu schweigen. Nix grob gerundet, Unwissen!

Matzegr schrieb:
Du hast schonmal 15% mehr Spannung, dass macht ~30% mehr Verbrauch. Dann läuft deine GPU auch noch mit 30% mehr Takt -> ~15% mehr Verbrauch. -> Statt 247W im Furmark dürfte man nun bei 370W sein bzw. bei Spielen bei ~300W

Mal ganz ehrlich, du greifst hier Sachen einfach wild aus der Luft, wahrscheinlich weil du mal von ijemandem iwas gehört hast, der es wiederum von jemand Drittem falsch verstanden hat. Nur so ist erklärbar warum du ohne Fakten iwas daherrechnest.

Wieviel CPU / GPU letztendlich durch Spannungserhöhung mehr verbrauchen ist typabhängig und fertigungsgütespezifisch. Man kann daher nicht einfach iwas verallgemeinern. Lies dich bitte demnächst mal was ein und verbreite hier keinen Unfug.


Zwirbelkatz schrieb:
Wenn man aber nun das Gegenteil auslotet, also nicht optimale Leistung sondern optimale Energieeffizienz, dann wird man den Prozessor auf 3GHz laufen lassen und die Karte auf ihrem Standardtakt oder 5-10% darunter und sich jeweils bei der Spannung an das untere Limit heran tasten.
Verlieren wird man dabei eventuell 20% Leistung/Frames, was wiederum stark vom Spiel abhängt.

Es gibt genug Seiten, die für viele CPU / GPU Anhaltspunkte zum Spromverbrauch geben Idle / Last / OC.
Daran solltest du dich halten und bisschen addieren.

Spieleverbrauch ist gamespezifisch.

Einige Anhaltspunkte für dich (Mein System):
VSync / Frames Limitiert auf max 80 (zB BF 3)
Starcraft 2 ~130W
Battlefield 3 ~ 165W (150-185)
Anno 2070 ~145W
 
Zuletzt bearbeitet:
DarkInquisitor schrieb:
Mal ganz ehrlich, du greifst hier Sachen einfach wild aus der Luft, wahrscheinlich weil du mal von ijemandem iwas gehört hast, der es wiederum von jemand Drittem falsch verstanden hat. Nur so ist erklärbar warum du ohne Fakten iwas daherrechnest.

Wieviel CPU / GPU letztendlich durch Spannungserhöhung mehr verbrauchen ist typabhängig und fertigungsgütespezifisch. Man kann daher nicht einfach iwas verallgemeinern. Lies dich bitte demnächst mal was ein und verbreite hier keinen Unfug.

Hättest ja so nett sein können und ein paar Links posten.

Ich fang mal an, wie ich auf die Werte kommen.

GPU:
570 verbraucht @Stock (1V und 732MHz) bei Furmark 247W
Wie man auch sieht kommt man mit einer moderaten übertaktung von 7% bei gleicher Spannung nun bei Furmark auf einen Verbrauch von 262W, ein Plus von 6%.

Stromverbrauch bei Vcore Erhöhung: Zwar etwas älter aber ein Anhaltspunkt.

Wie wir sehen führt eine Erhöhung der Vcore zu einer quadratischen Erhöhung des Verbrauchs

Nun überlegen wir mal was wird wohl die 570 verbrauchen wenn man mal eben die Spannung um 15% anhebt?
Und was wird passieren wenn man gleichzeitig noch den Takt um 26% erhöht und der Verbrauch @Stock schon 247W (nur GPU!) beträgt?

Jetzt checken wir die ganze Rechnung noch gegen indem wir das Gebiet der GPUs verlassen und kurz zu den CPUs wechseln.

Nehmen wir einen x-beliebigen CB Test: z.B. Ivy-Bridge


Ein i5 3570 @Stock braucht 67W bei 1,2V und 3,4GHz
Bei den Grafikkarten haben wir gesehen Vcore Erhöhung geht quadratisch ein und Takterhöhung fast linear
Der i5 3570 braucht bei 1,3V und 4,5 GHz jetzt 97W, das ist eine Erhöhung um 45%
Vcore ist 8% höher, Takt ist 32% höher

Versuchen wir es mal mit 67*(1,08)^2*1,32 = 103W, es ist mehr als gemessen. Schauen wir uns nochmal kurz die Werte von der 570 an. Da sehen wir 7% mehr Takt führt zu 6 % mehr Verbrauch. Also ein Faktor von 0,85.
Zurück zur CPU: Nehmen wir an 32% mehr Takt führt zu 32%*0,85 höheren Verbrauch (=27%).
Rechnen wir nun nochmal: 67*(1,08)^2*1,27 = 99W.

99W kommen verdammt nah an die von CB gemessenen 97W ran, oder?

Somit passt interessanterweise meine Verallgemeinerung die ich aus einem Test von 2009 und 2010 bei GPUs genommen habe und auf ne CPU von 2012 übertragen habe doch verblüffent genau, oder?
 
Zuletzt bearbeitet:
Zurück
Oben