Wieviel Watt verbraucht die Graka ?

Völlig Sinnlos die Aktion.
 
@dazerrot:
nja ich hab ja auch nichts anderes gesagt
falls du genau liest wirst du es merken^^

außerdem musst du den wirkungsgrad vom nt abziehen 425*80% sind 340watt
mit 425w ist nicht die netzteilleistung sondern der verbrauch an der steckdose gemeint, wenn du es wie gesagt ordentlich gelesen hättest^^

@emeraldmine
Manchen geht es halt nur ums zocken, ich auch mal, bei mehr Zeit, aber treibe ich mich in Foren rum, da kann ich nicht gleichzeitig zocken.

mir gings darum dass du nicht sagst welche grafikkarte du hast^^

und das mit dem zocken hab ich auch nie gesagt^^
 
er hat zwei Grakas eine 460 als Primär denke ich und eine 8600GT bzw. demnächst GT440.

@Darzerrot: dedavid95 hat genauso gerechnet wie du -.-



@OP: Du hast genug Reserven, dass passt locker ;)
Über den PCIe Slot können eh nur 75 Watt gezogen werden.
 
Zuletzt bearbeitet:
Er hat ein NT mit:

450W

bei einen Wirkungsgrad von:

80%

Das Messgerät an der Steckdose sollte max. folgendes Anzeigen:

562,5W

3 Satz:

450W = 80%
5,625W = 1%
562,5W = 100%

Heißt, wenn er Komponenten hat, die genau 450W ziehen und der das Messgerät an die Steckdose steckt, zeigt das Messgerät 562,5W an.

112,5W wäre Wärme und anderes. Aber keine Leistung, die CPU, Board, GPU usw. zur Verfügung steht.

Man sollte aber nicht umbedingt die absolute Grenze fahren, okay, dass Netzteil kann +- paar Watt haben.

@dedavid95

Möchte dir nix böses, aber entweder bin ich zu kaputt, aber deine Rechnung verstehe ich net.

@SB94

KA, bin eventuell zu kaputt. ^^
 
@darzerrot

mit den 510 watt ist nicht die leistung von dem netzteil gemeint, sondern der verbrauch, der auf dem messgerät steht

lesekompetenz :P
 
@Darzerrot:

Ich versuch dir mal seine Rechnung zu erklären.

Das Netzteil kann 450 Watt leisten und hat einen Wirkungsgrad von 80%. Das entspricht wie du schon geschrieben hast einer Eingangsleistung von 562,5 Watt.

Rechnung: 562,5 W * 0,8 = 450 W

Jetzt misst er aber eine Eingangsleistung von 425 Watt.

Rechnung: 425 W * 0,8 = 340 Watt

Also hat er eine Ausgangsleistung von 340 Watt wobei das Netzteil allerdings 450 Watt leisten kann.

Rechnung: 450 Watt - 340 Watt = 110 Watt

Somit kann der OP noch Komponenten einbauen, welche zusammen maximal 110 Watt verbrauchen.
Wie er bei 80% Wirkungsgrad auf 510 Watt kommt bzw. auf 80 Watt Spiel nach oben weiß ich allerdings auch nicht. ;)
 
Zuletzt bearbeitet:
@sb94

ich hab nur nenn wert genommen der nen stück unter 100% auslastung ist
->das netzteil sollte selbst ununter volllast des rechners keine 100% auslastung besitzen...
 
@SB94

Ahhh.... okay, bin darauf heute irgendwie nicht gekommen. :D

@dedavid95

Müssen wir nicht ausdiskutieren, SB94 hat es ja sehr gut erklärt.

Aber die 510W waren irgendwie komisch.

100%? Eher bissle mehr als 90%

---------------------------------

Aber mehr als SB94 muss man gar nicht sagen. Aber: ;)

max. 562.5W am Messgerät
am besten bissle weniger, bei 550W muss er sich keine Gedanken machen. :)

Genau 100% schaft man eh nicht, Game A verbraucht eventuell nur 90% und Game B benötigt eventuell sogar 110% und dann wunder man sich, dass es bei Game B ausgeht, also der PC. ^^

Deswegen sollte man schon bissle mehr Luft lassen. Weil Game C, Cryis 3 aufeinmal 120% haben möchte.
 
Zuletzt bearbeitet:
@Darzerrot:

Diese Aussage stimmt nur bei Komponenten welche nicht am Limit laufen, sondern durch Framelimiter oder VSync nicht voll ausgelastet werden. Denn der Stromverbrauch hängt nicht vom Game ab, sondern von der Auslastung der Komponenten. Prinzipiell limitiert meistens eine Komponente, entweder die CPU oder die GPU. Wenn die Einstellungen und die Programierung des Games optimal sind werden beide Komponenten genau gleich Ausgelastet. Also gehen wir mal von diesem idealen Fall aus. In dem Fall würde ohne Framelimiter jedes Game gleichviel Leistung ziehen. CounterStrike ähnliche Games würden mit 1000+ Bildern pro Sekunde laufen, während Spiele wie Crysis bei 50 Bilden pro Sekunde laufen. Aber der Stromverbrauch währe gleich hoch, nämlich maximal.

Ein Netzteil sollte optimaler Weise so dimensioniert sein, dass es diese Minimalbelastung, auch auf Dauer aushält. Simulieren kann man dies durch Programme wie CoreDamage und dem Furmark indem man sie parallel laufen lässt, am besten auch über einen längeren Zeitraum, da Leiter bei Kälte besser Leiten, Halbleitern aber bei Hitze.


Aber der OP muss sich da, wie schon gesagt, keinerlei Sorgen machen.
 
Zuletzt bearbeitet:
Hallo, funktioniert, die beiden GPUS laufen jetzt gleichzeitig. Ich konnte das nicht über den Client lösen, ich musste schon die Grafikkarte austauschen.

Bild anbei. Pmax = 320 Watt , leider waren vorher noch andere Geräte mit angeschlossen , die hab ich verschwitzt. ;(
 
@SB94

Jep, dass meinte ich auch, auch wenn du es besser erklärt hast. ;)

Aber meistens ist es ja, dass bei neusten Games irgendwann die GPU immer mehr limitiert. Wo der quad CPU noch locker könnte. :)
 
OMG ich habe mal wieder die CPU kräftig übertaktet.

Ergebnis ist , dass Pmax = 385 Watt !!! erhöht hat. Die CPU verbrennt die ganze Leistung hab ich jetzt festgestellt. :eek:
 
Jep, z.B. ein extrem Beispiel:

Der 1090T von AMD @ 4GHz, verbraucht mal locker fast das doppelte. Glaub das waren dann knapp 200W?!?!

Und oc von relativen Highend CPU's bringt in Games kaum noch etwas, nur bei Anwendungen und da sollte man sich fragen, braucht man sowas wirklich?

Bin mit mein Standardtakt des 1090T mehr als Zufrieden, es gibt kein Game auf den Markt der gute quad CPU's ans limit bringt. Am Ende limitiert immer noch die GPU, okay außer man hat eventuell 3 GPU's drin usw.
 
Zurück
Oben