Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Lukü Ne Wakü kann ich mir nicht leisten.
Im Idle rund 40 Grad und unter Last an die 90
Aber das absolute max. liegt bei 91 Grad.
Selbst nach 2 Stunden Furmark steigt es nicht mehr.
Aber naja - mein i7 rennt auch seit Jahren mit 1,45V und mehr.
Da wird die Graka 1.375 locker mitmachen.
Zumal ich ja Garantie drauf habe.
Ist eine von Asus, und das Voltage Tweak Tool wird ja mitgeliefert!
doch doch wird noch gemacht, ich sagte ja nach möglichkeit sonntags, den letzten sonntag musste ich jedoch arbeiten, deswegen dauerts dieses mal länger.
1. was erwartest du bei 1.125V ? 900 Ghz bei einer 5850?
meine 4890 lief ein jahr lang bei 1,5V - absolut problemlos ...
und das hätte sie auch weitere 5 jahre getan
die hersteller lassen schon ordentlich luft nach oben - so schnell sterben chips durch erhöhte spannung nicht
schon klar das gpu nicht gleich cpu ist
aber der unterschied zwischen 45nm und 40nm ist auch nicht alzu groß
wenn man nicht unbedingt plant, eine graffikarte 10 jahre lang zu benutzen, was relativ unwahrscheinlich ist, ist das alles halb so wild
Er wird wohl die Leistungsaufnahme vom gesamten Rechner meinen.
Also wäre die rechnung 200W : 1,2V nicht korrekt.Denn 166 Ampere wird das NT bestimmt nicht liefern
Mit der 5870 @ 1125 / 1320 komme ich bei 1,32V auf 320W. (Der gesamte Rechner im Crysisbench)
Ich frag mich nur, wie ihr den Verbrauch von der Grafikkarte alleine messt? Also soweit ich des weis, ist das doch total umständlich.
EDIT: Aber 212W @load kommt mir fürn gesamtes System ehrlich gesagt weng wenig vor... Mein System braucht ja @load schon 200W (Prime+ATI Stresstest) und da is noch nix übertaktet...
Den Verbrauch der Grafikkarte alleine zu messen wird nur mit einem Multimeter möglich sein.
Gesamtaufnahme geht mit einem Energiemessgerät.Da gibt es einige,die schon recht zuverlässige Werte anzeigen.(Voltcraft Energy Check 3000)
Edit: In Spielen komme ich auf 260W.Unter Volllast auf 330W.
Joa ich kenne den Aufbau, glaub HT4U misst immer den Verbrauch der Grafikkarte alleine. Da hab ich auch mal ein Bild davon gesehn und das sieht sehr abenteuerlich, den Stromverbrauch von einzelnen Komponeten alleine zu messen (obwohl Grafikkarte im Vergleich zur CPU noch recht einfach ist). Deswegen hab ich ja gesagt, ich frag mich wie ihr das so genau machen könnt. Mit nem einfachen Strommessgerät hab hab ichs bei mir auch gemessen.
Aber irgendeine Komponente im PC müsste ja die 166A liefern und wenn nicht des Netzteil, welche denn dann? Ich weis jetzt nicht wieviel die einzelnen Komponenten im PC zu leisten im Stande sind, aber 166A is jetzt nicht gerade wenig.
Wie auch immer,166Ampere werden in dem PC nirgends anliegen.Da würde ich gerne wissen welches NT das schafft.Ein 1200W Netzteil schafft so ca. 100A auf 12V.Das würde bedeuten,er müßte mindestens ein 1500W Netzteil für eine 5850 haben,wenn das überhaupt reicht (eher nicht) und ich mit meiner 5870 @ 1125 / 1320 bei dicken 1,32V bräuchte dann wohl ein 2 KW Netzteil ??? Ich hab nur ein 500W Netzteil,daß auf 12V maximal 36 Ampere liefern kann.Demnach dürfte mein PC gar nicht hochfahren
Eine Grafikkarte alleine darf maximal 300W aufnehmen. 75W über 6-Pin Stecker + 75W über PCIe-Slot + 150W über 8-Pin-Stecker.
@0815-TYP
Das Zauberwort heißt ohmsches Gesetz (Ohm=Spannung/Strom) du hast ja auch am Netzstecker nur 16A (da wäre schon deine Rechnung mit den Netzteilen nicht möglich, weil dein Haus vermutlich mit einer normalen 63A abgesichert ist und die Steckdosen mit nur 16A), aber bei geringer Spannung kannst du dafür einen hören Strom haben.
Du hast ja ich nimm mal einfach eine Runde zahl z.B. 200Watt Leistung, die kann man auf unterschiedliche Wege erreichen z.B. mit 200V und 1A oder mit 1V und dafür 200A das wäre das Beispiel deiner Grafikkarte.