News Stromsparen mit der Radeon HD 4770

herrje wie oft kommt denn dieses argument noch?
seite um seite liest man hier das sich solche geringen ersparnisse nicht amortisieren und die produktionskosten die ersparnis der karte bei weitem übersteigen.

dem kann man im prinzip nicht wiedersprechen,
aaaaber ich stelle einfach mal dagegen das eine stinknormale karte wie z.b. eine 8800 Ultra einen ganz genauso verschwenderischen produktionsprozess hinter sich hat wie eine HD4770.

die karten werden so oder so neu gekauft, hunderte millionen mal pro jahr.
jedes watt was hierbei eingespart wird spart am ende ein paar hundert megawatt ein, denkt mal darüber nach.


wobei bei grafikkarten gespart wird in dem man qualitativ bessere bauteile nimmt und dafür weniger davon, z.b. weniger spannungswandler, es werden geringere spannungen angelegt und das größte potential wird am ende über software und treiber geregelt.
ich gehe sogar soweit zu behaupten das allgemein auf sparsam getrimmte karten weniger energie in der produktion verbrauchen als normale "0815 karten".

d.h. wenn schon eine neue karte, dann doch lieber mal auf den stromverbrauch achten und nicht ob man jetzt vielleicht 200 statt 100 fps bei CS:S schafft :freak:
 
Wenn schon Umwelt, dann gar keine neue Karte, und wenn schon jedes Jahr eine neue Karte (natürlich möglichst die Sparsamste für seine Bedürfnisse), dann nicht den Kauf mit der Umwelt begründen.

Gruß
Raubwanze
 
traurig das der neue chip der so als strom spar chance zu amd gesehen wurde so floppt beim energieverbrauch...

typisch amd

aso und noch was...

den rechner einfach weniger laufen zu lassen spart am meisten ihr dummschwätzer dann braucht der nämlich am wenigsten... also bevor hier irgend nen neunmalklug genie meint er müsse hier diverse rechenthesen hervorbringen um zu versuchen die potenzielle ersparnis aus zu klügeln... einfach mal nachrechnen wie lange man ne graka mit 7 W mehr verbrauch laufen lassen könnte in der zeit wo der text verfasst wurde...


nen rechner der lange laufen muss würde keine von solchen komponenten von mir verpasst bekommen und mein zockerstübchen läuft nicht solange oder so oft... bekommen die hersteller das eben nicht besser hin dann ist das nunmal so auch wenns schade ist... der verbraucher will die power und die bekommt er punkt
 
Zuletzt bearbeitet:
sirphoenix hasts schon ganz richtig erkannt. es geht nicht um diese eine karte und es macht auch keinen sinn, seine jetzige karte in die tonne zu kloppen, um sich eine sparsamere zu kaufen. es geht um den trend. der geht beim idleverbrauch mit dieser neuen karte, die großes sparpotential hat, leider wieder in die falsche richtung. und hier ist es imho sinnvoll und wichtig, öffentlich darüber zu sprechen und die hersteller darauf aufmerksam zu machen, dass man sich sehr wohl auch um den idleverbrauch schert und die nächsten karten besser wieder sparsamer sein sollten. das heist nicht, dass jetzt jeder seine karte wechseln soll. das bringt wie schon gesagt wurde, durch den verbrauch bei der produktion nichts, wenn nicht ohne hin in absehbarer zeit ne neue karte fällig geworden wäre.
 
Tombstone schrieb:
traurig das der neue chip der so als strom spar chance zu amd gesehen wurde so floppt beim energieverbrauch...

typisch amd

aso und noch was...

ganz schön dämlich so ein freches dummgeschwafel von sich zu geben,
wo genau in diesem thread auf den du antwortest mehrere postings erklären das nicht der 40nm RV740 chip hier der stromfresser ist, sondern der bereits aus älteren ati-karten bekannte GDDR5-speichercontroller.

den rechner einfach weniger laufen zu lassen spart am meisten ihr dummschwätzer dann braucht der nämlich am wenigsten... also bevor hier irgend nen neunmalklug genie meint er müsse hier diverse rechenthesen hervorbringen um zu versuchen die potenzielle ersparnis aus zu klügeln... einfach mal nachrechnen wie lange man ne graka mit 7 W mehr verbrauch laufen lassen könnte in der zeit wo der text verfasst wurde...

da ja lesen, denken und argumentieren nicht zu deinen stärken gehören scheint werde ich auch erst gar keine rechnung oder erklärung aufführen die es in diesem thread übrigens zu genüge gibt.

versuche es einfach mal ein paar postings weiter drüber und schalte dein hirn ein bevor du postest :rolleyes:
 
Überlegt einfach mal wieviel Energie für die Entwicklung und Produktion draufgeht... das rechnet sich nie...


Schade das AMD/ATI es noch nicht geschafft hat einen ordentlichen Stromsparmodus zu implementieren!
 
Nichtsdestotrotz ne tolle Karte die in großem und ganzen nen annehmbahren Verbrauch hat, finde ich im Vergleich zu anderen Karten.
Ne 8800gt verbraucht mehr und ist langsamer.
Ne HD4830 verbraucht im Schnitt gleich viel und ist langsamer und bei weitem nicht sogut übertaktbar.
Die HD4770 ist sehr gut übertaktbar.
Die HD4750 wirds schon richten mitm stromverbrauch =)
 
karamba schrieb:
Die einfach Aussage "ich finde den Strombedarf der 4770 im Idle zu hoch" verreißt weder die Karte ansich, noch sagt es etwas über nVidia. Ist das bei euch eigentlich Paranoia?

Ich zitier dir einfach mal den Post eine Seite weiter, so oder so ähnlich kann man das auch im Fred zum 4770 Test lesen:

Tombstone schrieb:
traurig das der neue chip der so als strom spar chance zu amd gesehen wurde so floppt beim energieverbrauch...

Mit Paranoia hat das nix zu tun, und mit NVIDIA auch nicht ;) Gegen eine Aussage wie du sie formulierst, hätte ich nicht das Geringste einzuwenden! Aber Aussagen wie oben werden der 4770 einfach ungerecht. Das geht mir aufn Keks.

Wenn nämlich ne Graka, die mit der Performance (grob) der 4850 daherkommt, unter Last DEUTLICH weniger verbraucht UND auch im idle sparsamer ist als diese UND dann noch ne 30$ geringere UVP hat, dann frag ich mich halt echt...

Kannst es dir hoffentlich selber denken ;)

Ich habe nix dagegen, wenn jemand hingehen will und 7W einsparen will oder sonst überall schaut, das er Strom spart. Mach ich doch selber.

Aber ich habe was gegen Leute, die ihr Hirn nicht wenigstens teilweise auch dazu benutzen, wozu es da ist.

Das die 4770 mehr verbraucht als die 3870 z.B., ist natürlich schade und einige haben sich hier offensichtlich mehr (zu viel?) erwartet. Man muss aber die Kirche auch mal im Dorf lassen. Die 4770 ist trotzdem schon ziemlich sparsam und ich glaube nicht, das es an einem nicht funktionierenden PP2 liegt, wie einige hier behaupten.

Die 4770 hat 25% mehr Transistoren, die wollen nunmal gefüttert werden. Dazu kommt wie gesagt der DDR5, der aus bekannten Gründen nicht von AMD heruntergetaktet wird (Bildflackern)

Meiner Meinung nach ist die 4770 (evtl. als 1GB Version) einfach momentan die Karte der Wahl bis 22" und werde sie jedem wärmstens ans Herz legen.

Ob hier einige zuviel Verbrauch sehen oder nicht.
 
Zuletzt bearbeitet:
Überlegt einfach mal wieviel Energie für die Entwicklung und Produktion draufgeht... das rechnet sich nie...

Schade das AMD/ATI es noch nicht geschafft hat einen ordentlichen Stromsparmodus zu implementieren!

Energiesparmodus. Wie kann man es in einem Satz richtig schreiben und im nächsten falsch?

Daher wäre es nett @ CB, wenn ihr das mal ändern könntet in der Überschrift.
 
Zurück
Oben