News Stromsparen mit der Radeon HD 4770

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.926
Die Radeon HD 4770 ist die erste Grafikkarte, dessen GPU im 40-nm-Prozess hergestellt wird. Dementsprechend hatten wir die Hoffnung, dass die Leistungsaufnahme unter Windows geringer als bei vergleichbaren Modellen ausfallen könnte, was aber leider nicht der Fall ist – ganz im Gegenteil sogar.

Zur News: Stromsparen mit der Radeon HD 4770
 
OMG OMG OMG! 7Watt gespart, das sind ja schon fast 5€ im Jahr! Gigantisch, so retten wir Zocker unseren Planeten vor der Thermonuklearen Grakastromverbrauch Katastrophe...
 
Naja dürfte auch kühler bleiben und warum klein Vieh macht auch mist ;) Dann brauchste bei ner 48xx auch nich 20 Watt sparen:evillol:
 
@Bully|Ossi

Wenn jeder Besitzer einer Grafikkarte auf diesem Planeten sich Gedanken machen würde über den Verbrauch und ihn minimieren würde, dann könnte man das eine oder andere Kraftwerk abschalten. Aber sowas versteht ein Kleingeist, dessen Welt nach der Zimmertür endet, leider nicht ;)

@CB

Mit dem Rivatuner sollte man doch deutlich niedriger kommen, oder unterstützt der die Karte noch nicht?
 
Der Aufwand und Nutzen für einen Normaluser sind leider wirklich zu gering.

Wer wirklich Stromsparen will, der muss schon von vorneherein alle Komponenten darauf auslegen (kosten unter umständen etwas mehr).

Komme bei mir im Idle-/Normalbetrieb auf knapp 100 Watt.
Komponenten: E8500 mit Asus P5Q Deluxe Mainboard, evga nVidia 260 superclocked, 4 GB Ram, SSD-Laufwerk und 1x 1.000 HDD Samsung, Leadtek TV-Karte, x-fi Soundkarte und hochwertiges 80+ Netzteil. Das Asus-Board spart dank 16 Phase Power und EPU natürlich ein paar Watt ein, kostet aber auch etwas mehr.

Unter Last sinds natürlich 300 Watt ;-)

Ich glaub man spart mehr, wenn man einen mechanischen Stromschalter vor den Rechner baut, der im ausgeschalteten Zustand definiv 0 Watt zieht^^
 
@Bully|Ossi
Kombiniere diese Meldung einfach mal mit der von gestern: Grafikmarkt: Intel und Nvidia bauen Anteile aus, wonach allein im ersten Quartal diesen Jahres fast 75 Mio Grafikchips über die Ladentheke gingen. Wenn jeder Besitzer welches Chips und welcher Grafiklösung auch immer diese dazu bringt im Leerlauf 7W weniger zu verbrauchen, dann ist das in der Summe auf ein Jahr hoch gerechnet extrem viel. Durch einfache 7W könnte man letztendlich zahllose Kraftwerke vom Netz nehmen.
 
@derschlambi

Dir ist schon bewusst das ein Kraftwerk eine Leistung von mehreren Megawatt/Gigawatt produziert?

Siehe : Klick

So selbst wenn jetzt 10millionen mal 7 Watt weniger verbraucht werden, was total schwachsinn ist, wäre das netma 1 Turbine die abgeschaltet werden kann...

Soviel zum Thema Kleingeist....

Echt schlimm, sobald irgendwo ÖKO steht drehen alle am Rad, das es ökologischer Unsinn ist, wegen derart winzigen Erparnissen neue Produkte zu kaufen, scheint niemanden Bewusst zu sein... Schon alleine am Portmonai sollte das der normale Bürger spüren, dass es kontraproduktiv ist...

@Cpat

Achso, weißt du ich hab bei Infineon/Qimonda geargbeitet, eine Fab verbraucht alleine soviel Strom wie ne Stadt mit 40000 Einwohnern, dabei werden dort nur die Chips hergestellt. Da fehlt noch das PCB die Verpackung, Software, Transport usw.

Das verbraucht auch alles Strom und andere Energie, da ist es Klüger ein, in den Augen der Umweltfreaks verschwenderisches High End Modell zu kaufen, anstatt 5 neuer Lowend Karten im gleichen Zeitraum....
 
Zuletzt bearbeitet:
flappes schrieb:
Ich glaub man spart mehr, wenn man einen mechanischen Stromschalter vor den Rechner baut, der im ausgeschalteten Zustand definiv 0 Watt zieht^^

Definitiv, bei meiner Büroumstellung hab ich da mal nach geschaut und sofort gut erreichbar für jedes System ne 3er Steckdose mit Schalter dran gemacht. :rolleyes:
Die Watts fürs "nichts-tun" kann man sich definitiv sparen! ;)


@topic
Also die Ersparnis ist eh naja....
 
Ich finde jedes Watt Einsparung ist es wert, dafür Zeit zu investieren. Mein Rechner verbraucht knapp über 110 Watt idle und das mit Wasserkühlung. Beim Zocken verbrauche ich weniger als 250 Watt. Bei meiner CPU ist die Spannung gesenkt und die Grafikkarte wird während idle auch aufs Minimum runtergetaktet. Daran habe ich mittlerweile mehr Freude als meine CPU bis ans Limit zu übertakten und für 400 MHz takt mehr 40 Watt mehr zu verbraten.
 
Alles richtig Leutz, aber 7 Watt ist für den Endverbraucher in Verbindung mit dem einhergehenden Zeitaufwand für die manuelle Umstellung wenig atraktiv. Zusätzlich kommen noch Informationsasymetrien, die dafür sorgen das eben nur IT-Interessierte (vielleicht 5-10%) in der Lage sind das überhaupt zu machen. Nochmals deutlich weniger, wenn ich mir überlege, das diese Karte eigentlich eher für Leute die den PC nur ab und zu nutzen interessant ist.

Nein, der Schuldige sind sicher nicht die Endverbraucher, sondern der Hersteller, der seine Produkte nicht im Griff hat. Der Verbraucher kann nur eins tun: So einen Stromfresser nicht kaufen und damit noch mehr Stromsparen;)

Edit: @ Bully|Ossi

Danke, gibt doch noch Leute mit Hirn am rechten Platz.:schluck:
 
Zuletzt bearbeitet:
Flappes: ich glaub mein Rechner zieht noch ne Ecke weniger...

Phenom2 x4 940 im idle 800Mhz bei 0,9V (alle cool&quiet-werte um 0,1V gesenkt - also 3ghz bei 1,25V)
Asrock AOD790GX/128M
(noch) keine Graka (nur onboard)

warte auf ne vernünftige 4770 mit großem 4870er Kühler ^^ (z.b. asus eah4770top, bei der man die Spannung mitregeln kann)
auf jeden fall wird das bios der karte dann gemoddet.
 
also da kann man die hoffnungen auf einen treiber-fix wohl auch begraben. defacto bringt es ati mehr, die leute im glauben zu lassen, dass da noch was kommen könnte, als viel geld zu investieren um die leute dann mit mageren 7 watt (wenn sie überhaupt so weit runtergehn würden) abzuspeisen.
 
Bully|Ossi schrieb:
So selbst wenn jetzt 10millionen mal 7 Watt weniger verbraucht werden, was total schwachsinn ist, wäre das netma 1 Turbine die abgeschaltet werden kann...

Soviel zum Thema Kleingeist....
Hehe aber genau das ist der Fehler. 10 Mio sind nun mal Kleingeist. Weltweite Ausmaße wären wohl Dimensionen von über 1000 oder gar 2000 Mio Grafiklösungen im Einsatz. Möglicherweise sogar weitaus höhere Zahlen.
Aber es muss ja nicht zwanghaft eine Grafikkarte sein. Es kann letztendlich jedes Gerät sein, dass man dazu bringt 7W zu sparen. Es ging ja darum, dass dir 7W gleichgültig waren und du dich über eine solche Ersparnis lustig gemacht hast.

7W an sich sind nicht wild aber 7W auf alles mögliche bezogen, wo man diese problemlos ohne Nachteile einsparen könnte, machen, wie derschlambi auch schon erwähnte, diverse Kraftwerke komplett überflüssig.

Ich erwähnte es ja auch schon in einem anderen Thread: Beim Thema Ladegeräte für Mobiltelefone geht es im Sparmaßnahmen bei den Nachkommastellen. Aber durch die Milliarden von betroffenen Geräten ergibt sich wieder eine mächtige Summe an Sparpotential.
 
Lies dir mal bitte durch, was ich an dich addressiert habe, dann nochma kurz Nachdenken, und dein Posting lesen... dann kommst du eventuell auf ein Ergebnis was der Realität entspricht...

Was ich beschrieben habe, is nicht nur bei der Elektronik ein Problem was niemand bedenkt, sondern fast in jeder Branche...
 
Gorby schrieb:
.....

Nein, der Schuldige sind sicher nicht die Endverbraucher, sondern der Hersteller, der seine Produkte nicht im Griff hat. Der Verbraucher kann nur eins tun: So einen Stromfresser nicht kaufen und damit noch mehr Stromsparen;)
...
Sagt derjenige mit einem 1000W Netzteil dessen Effizienz nicht mal annährend erreicht wird und so sinnlos Energie verpulvert wird, ebenso schiele ich mal auf die restlichen Komponenten ;) Kauf dir ein vernünftiges NT, welches nicht überdemensioniert ist und du wirst mehr als 7W sparen.
 
@CB
Mich würde da schon eher interessieren, wie man bei x-bit labs auf 17,4 W im Idle kommt, wenn praktisch alle anderen mind. 30 W ermitteln. Den Lastverbrauch kann man nicht direkt vergleichen, wenn die nur mit dem 3dmark testen, wirkt aber auch ziemlich niedrig.

Solange die keinen extremen Stuss verbaut haben, wundern mich diese Werte.
 
Eigentlich enttäuschend, dass die im neuen Verfahren so viel Strom ziehen... da muss sich wirklich noch einiges ändern. So eine Verschwendung! :( Schade dass sie bei halbem Takt nicht auch halb so viel verbraucht (wär doch eig logisch oder?)

edit: ok, verstanden. Mir will nur nicht eingehen ob Hersteller das einfach in Kauf nehmen oder nicht ausreichend testen ( siehe JMicron SSD Controller)
 
Zuletzt bearbeitet:
Deinorius

ja das würde mich auch interessieren, für mich ist das absolut kaufentscheident, da xbitlabs aber eher alleine da stehen wird werd ich wohl entweder warten oder die hd 4670 kaufen. ne hd 4770 würde mein athlon x2 3800 wohl eh ausbremsen. Wenn sie schon paar mal die alte hd 3870 ausgebremst hat.

mit warten mein ich dann entweder auf die dx11 gpus wobei ich da keine hoffnung hab das die highendmodelle sparsamer als ne hd 4770 sind aber eher noch auf die hd 4750. Dann wird auch mal nochmal klar obs wirklich am speicher liegt oder am chip. Ich meine ne hd 4850 hat ja auch gddr3 verbaut und ist trotzdem nicht sonderlich sparsam.
 
Zuletzt bearbeitet:
Zurück
Oben