Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon HD 4770 im Test: ATis erste 40-nm-Grafikkarte überzeugt durchweg
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Radeon HD 4770 im Test: ATis erste 40-nm-Grafikkarte überzeugt durchweg
Und worauf willst du hinaus? Dass es eine gewisse Serienstreuung gibt, sollte klar sein. Ausserdem sind deine Aussagen falsch. CB selbst hat ja eine geringere Leistungsaufnahme gegenüber der 4830 gemessen. Wie praktisch jede Seite, die ich bisher gesehen habe. Einen grundsätzlichen Fehler sehe ich bei xbitlabs jedenfalls erstmal nicht.aspro schrieb:Naja xbitlabs haben es auch als so ziemlich einzige Seite geschafft bei der 4890 weniger zu messen als bei der 4870. Ebenso allein stehen sie derzeit mit der Auffassung, dass die 4770 weniger verbrauchen soll als die 4830. Also da würd ich eher den Fehler bei xbitlabs suchen.
@yeeh: trotzdem sind das dann Belastungswete im Bereich um 20% beim Netzteil. Darunter nimmt die Effizeinz sehr deutlich ab.
Außerdem fällt bei so kleinen Werten der höhere Widerstand auf Grund der Betriebstemperatur im Vergleich zu kleinen netzteilen stärker auf.
Und was ist jetzt bitte so schlimm an der Karte? Der Stromverbrauch sei zu hoch. Wenn man von 10 Stunden pro Tag aus geht und 20cent/kWh kommt man in einem Jahr (mit 360 Tagen gerechnet, da man sicher mal 5 Tage im Urlaub ist^^) auf sage und schreibe 8,64€ (12W unterschied beim CB Test zwischen der sparsamsten Nvidia Karte und der 4770 im IDLE). Und wer von euch ist mit seinem Computer 360 Tage im Jahr 10 Stunden lang im Idle und betreibt so ein System mit einem Netzteil, dass für 5 dieser Systeme reichen würde (850W), sodass die Effizizienz unter aller Sau ist (auch wenn diese bei 80% Auslastung 86% betrüge)? Daher wären die realen Unterschiede vielleicht bei 7€ bei gleicher Verwendung pro Jahr und das nur, sofern die Messung von CB stimmt. Da scheint es ja große Streuungen im Vergleich zu anderen tests zu geben.
Außerdem fällt bei so kleinen Werten der höhere Widerstand auf Grund der Betriebstemperatur im Vergleich zu kleinen netzteilen stärker auf.
Und was ist jetzt bitte so schlimm an der Karte? Der Stromverbrauch sei zu hoch. Wenn man von 10 Stunden pro Tag aus geht und 20cent/kWh kommt man in einem Jahr (mit 360 Tagen gerechnet, da man sicher mal 5 Tage im Urlaub ist^^) auf sage und schreibe 8,64€ (12W unterschied beim CB Test zwischen der sparsamsten Nvidia Karte und der 4770 im IDLE). Und wer von euch ist mit seinem Computer 360 Tage im Jahr 10 Stunden lang im Idle und betreibt so ein System mit einem Netzteil, dass für 5 dieser Systeme reichen würde (850W), sodass die Effizizienz unter aller Sau ist (auch wenn diese bei 80% Auslastung 86% betrüge)? Daher wären die realen Unterschiede vielleicht bei 7€ bei gleicher Verwendung pro Jahr und das nur, sofern die Messung von CB stimmt. Da scheint es ja große Streuungen im Vergleich zu anderen tests zu geben.
Zuletzt bearbeitet:
aspro
Captain
- Registriert
- Mai 2004
- Beiträge
- 3.368
Es geht hier um idle, ich dachte das wäre klar...gruffi schrieb:Und worauf willst du hinaus? Dass es eine gewisse Serienstreuung gibt, sollte klar sein. Ausserdem sind deine Aussagen falsch. CB selbst hat ja eine geringere Leistungsaufnahme gegenüber der 4830 gemessen. Wie praktisch jede Seite, die ich bisher gesehen habe. Einen grundsätzlichen Fehler sehe ich bei xbitlabs jedenfalls erstmal nicht.
Mit Serienstreuung hat das wenig zu tun, wenn beim Vergleich 4770 vs. 4830 xbit 15W (idle) weniger misst und alle anderen Seiten (teils deutlich) mehr.
Außerdem:
Serienstreuung hängt eben genau mit dem Fertigungsprozess zusammen, also kann die nach deiner eigenen Aussage nicht ausschlaggebend sein.gruffi schrieb:Die Leistungsaufnahme im Idle hat auch weniger etwas mit dem Fertigungsprozess zu tun.
Zuletzt bearbeitet:
GreatEvil
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.200
y33H@ schrieb:Das ist Sache von CB, wie sie die Leistungsaufnahme messen.
Ich kann auch die Groesse von Elektronen mit nem normalen Lineal messen und dann die Werte veroeffentlichen ....
habe langsam einen anderen verdacht, die 4 testseiten die ja so stark abweichen selbst in der reihenfolge bzw halt im stromverbrauch sind alles englischsprachige seiten, weiß jetzt nicht von allen aber die meisten werden in amerika sein. Kann es sein das wir europäer nur den abfall kriegen also die wo man nicht gescheit runtervolten kann?
Was halt auffällt ist das auf diesen seiten alle ein ganz anderer lüfter verbaut ist auf den bildern, also ein großer radiallüfter der die luft nach außer blässt. Ist also vielleicht gar nicht cb schuld sondern kriegen wir in europa halt nur einfach den abfall, denk da grad an mein samsung nc10 wo in der deutschen version auch z.B. kein blutooth verbaut hat oder die eeepcs wleche es nur teurer teilweise nur mit festplatten und nur windows statt linux hier verkauft wurde.
fühl mich langsam verarscht, weiß nur noch nicht so genau von wem.
UPDATE:
OK seh grad das pcgh auch solch einen lüfter verbaut hat, dann hat ausschließlich das modell von cb so einen kleinen lüfter verbaut.
UPDATE2: ieks sorry cbs modell hat ja auch den selben lüfter, hatte die von den preisvergleichen im kopf.
Was halt auffällt ist das auf diesen seiten alle ein ganz anderer lüfter verbaut ist auf den bildern, also ein großer radiallüfter der die luft nach außer blässt. Ist also vielleicht gar nicht cb schuld sondern kriegen wir in europa halt nur einfach den abfall, denk da grad an mein samsung nc10 wo in der deutschen version auch z.B. kein blutooth verbaut hat oder die eeepcs wleche es nur teurer teilweise nur mit festplatten und nur windows statt linux hier verkauft wurde.
fühl mich langsam verarscht, weiß nur noch nicht so genau von wem.
UPDATE:
OK seh grad das pcgh auch solch einen lüfter verbaut hat, dann hat ausschließlich das modell von cb so einen kleinen lüfter verbaut.
UPDATE2: ieks sorry cbs modell hat ja auch den selben lüfter, hatte die von den preisvergleichen im kopf.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.670
Sag das CB, nicht mir.Ich kann auch die Groesse von Elektronen mit nem normalen Lineal messen und dann die Werte veroeffentlichen
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
IlDuce88 schrieb:Ja der IDLE Verbrauch ist wirklich sehr schlecht.
Da zeigt Nvidia einfach seine Stärken.
Haha - okay stimmt ja... nur die GTX285 würde dann nur 39W aufnehmen. Und die ist auch etwas schneller als die 4770 UND ist in 55nm.
Vonwegen dem Wahn verfallen.
UAAAAAHHHH Der Stromverbauch ist so schlecht, ich glaub da brauch ich mein eigenes Atomkraftwerk!
[IRONIE AUS]
Der Idleverbrauch hat zudem nix mit der absoluten Leistung zu tun und mit der Fertigung schon gar nichts. Ein 200PS GTI verbraucht im Leerlauf auch genauso wenig wie ein 80PS Golf.
Und NVIDIA hats auch erst seit der letzten Serie hinbekommen, den Idle-Verbrauch mal zu senken, da kannst du dich grad bei AMD bedanken.
IlDuce88 schrieb:Okay aber DDR5 hin oder her.. ATI brauch den DDR5 um diese Leistung zu bekommen. Nvidia kriegt sie OHNE DDR5 und hat weniger Watt im Idle mit ner besseren Karte.[...]
Mir gehts darum, dass meine Karte im Idle ordentlich Strom "sparen" soll. Das Ding wird ja quasi nicht gebraucht, wenn man im Betriebssystem ist.
Und wenn ich spiele kann das Ding schon lieber etwas mehr ziehen. Hauptsache es bringt DANN die Leistung die ich benötige.
1. Braucht NVIDIA dazu aber ein größeres Speicherinterface. Von der Die-Größe ganz zu schweigen
2. Wenn du mehr surfst als zockst, leg dir n Netbook zu, da kannst du Strom sparen. Mein 15" NB brauch genauso viel Strom, wie die Graka im idle, nur das es natürlich nicht annähernd so viel leisten kann wie diese (zusammen mit einem ordentlichen PC).
Immer diese Rummflennerei wegen der paar W. Kauf dir ne LED-Glühbirne fürs Klo, das bringt mehr.
Zudem kommt ganz einfache Serienstreuung dazu. Leute, das ist Elektronik, da kommen schnell mal ein paar Leckströme mehr hier und da zusammen. Plus, jeder Hersteller verbaut irgendwann eigene Designs, oder billigere Teile oder sonstwas, selbst der Kühler kann zu einigen Watt mehr Verbrauch beitragen.
Von verschiedenen Messmethoden und Testsystemen will ich da gar nicht erst anfangen.
Computerbase (oder jede andere Seite) könnte vermutlich 10 "gleiche" Grafikkarten testen und hätte am Ende 10 verschiedene Werte beim Stromverbauch.
Die gemessene Leistungsaufnahme kann immer nur eine grobe Richtungsangabe sein, sie ist nicht in Stein gemeißelt!
Ich sags nochmal, die 4770 ist in der Summe der Eigenschaften die beste Graka, die man derzeit kaufen kann. Da gibt es rein gar nichts zu diskutieren.
Als die 4850 rauskam, war die UVP mit 200$ genau doppelt so hoch wie bei der 4770, jetzt gitbts die gleiche Lesitung für 100$, mehr gibts dazu nicht zu sagen.
EDIT:
aspro schrieb:Serienstreuung hängt eben genau mit dem Fertigungsprozess zusammen, also kann die nach deiner eigenen Aussage nicht ausschlaggebend sein.
Der Fertigungsprozess hat da sicher wenig zu sagen, ob das Ding mit 55nm nix leistet, oder mit 40nm, dürfte eiegntlich egal sein. Da die Spannung eh gesenkt wird und die Taktung auch noch.
Aber Serienstreuung hast du trotzdem, wenn das Ding (also der Die) vom Rand des Wafers kommt. Da kannst du Pech haben und es verbraucht mehr, weil die Leckströme halt größer sind, auch im idle. Ist jetzt aber bloß meine Meinung, beweisen kann ichs dir nicht
Zuletzt bearbeitet:
GreatEvil
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.200
y33H@ schrieb:Sag das CB, nicht mir.
Sorry, ging nicht gegen dich. Mich aergert bloss, wenn schon solche grundlegenden Sachen nicht beachtet werden.
Diese 3W im Idle sind bei den Dimensionen, über die man hier spricht aber ganz schnell mal 10%.dorndi schrieb:dass das netzteil überdimensioniert ist, macht vl einen unterschied von höchstens 3w im idle
mfg
Mal so zum Vergleich:
Eine GTS250 statt einer 4770 kaufen bringt pro Jahr bei 10 Stunden Laufzeit, 20cent/kWh im IDLE: 8,67€
die 60W Glühlampe aus dem Badezimmer gegen eine 5W LED Lampe (gibt es auch schon mit knapp über 1W) austauschen bringt bei 2 Stunden Laufzeit/Tag und 20cent/kWh im Jahr: 8,15€
Die GTS kostet grob 20€ mehr als die 4770
Die LED Lampe kostet grob 2€ mehr als die normale.
Eine Grafikkarte wird von den meisten hier alle 2 Jahre ausgetauscht.
Eine LED Lampe hält gut und gerne 5 Jahre.
Zuletzt bearbeitet:
- Registriert
- Aug. 2005
- Beiträge
- 7.002
@ KAOZNAKE
Das einzige, was die 4770 gut macht, ist das Preis/Rechenleistungsverhältnis.
Es gibt aber noch Menschen, die noch weitere Anforderungen an eine Grafikkarte haben. Wenn ich sie nicht brauche, dann will ich von ihr nichts hören und sie hat nicht meine anderen Komponenten aufzuheizen und fürs Nichts-tun, Kosten zu verursachen.
Wenn du die Karte toll findest, dann ist das ja schön und gut. Für Leute, die mehr Ansprüche haben, ist sie nicht unbedingt das Wahre...
Das einzige, was die 4770 gut macht, ist das Preis/Rechenleistungsverhältnis.
Es gibt aber noch Menschen, die noch weitere Anforderungen an eine Grafikkarte haben. Wenn ich sie nicht brauche, dann will ich von ihr nichts hören und sie hat nicht meine anderen Komponenten aufzuheizen und fürs Nichts-tun, Kosten zu verursachen.
Wenn du die Karte toll findest, dann ist das ja schön und gut. Für Leute, die mehr Ansprüche haben, ist sie nicht unbedingt das Wahre...
aspro
Captain
- Registriert
- Mai 2004
- Beiträge
- 3.368
@ y33H@ & H€553
Ist doch komplett egal. Die Messung hat doch gar nicht den Anspruch quantitativ korrekt zu sein. Es geht um eine Tendenz und die lässt sich auch mit dem ineffizientesten NT ausmachen, denn an der Reihenfolge wird sich nichts ändern.
Ist doch komplett egal. Die Messung hat doch gar nicht den Anspruch quantitativ korrekt zu sein. Es geht um eine Tendenz und die lässt sich auch mit dem ineffizientesten NT ausmachen, denn an der Reihenfolge wird sich nichts ändern.
dorni: das kann ich nicht so unterschreiben bei 130W wären 5-10% was da schnell der unterschied sein kann zwischen 7-13W aber das erklärt dann noch nciht die abweichungen speziel die unterschiedlichen reihenvolgen also das karte A mehr braucht als B und auf der nächsten seite wieder umgekehrt.
Aber gut kann damit leben das die angaben fürn arsch sind. Werde diese ab jetzt überhaupt nicht mehr beachten immer selber bestellen und mit meinem strommessgerät messen. Die verteilungen sehen ja fast aus wie wären sie von einer random-methode erzeugt worden.
Aber gut kann damit leben das die angaben fürn arsch sind. Werde diese ab jetzt überhaupt nicht mehr beachten immer selber bestellen und mit meinem strommessgerät messen. Die verteilungen sehen ja fast aus wie wären sie von einer random-methode erzeugt worden.
- Registriert
- Okt. 2008
- Beiträge
- 2.097
@Seppuku
Der Lüfter wird durch die Chiptemperatur gesteuert und nicht durch die Speichertemperatur. Und da der Chip schön runtergetaktet (und hoffentlich auch untervoltet wird) dreht auch der Lüfter langsam. So heiß läuft der RAM auch nicht, vorallem nicht so dass deine anderen Komponenten in Mitleidenschaft gezogen werden
Und über Lautstärke und Temperatur entscheidet in aller erste Linie der Kühler, also warte erstmal auf die IceQ4 Versionen etc oder auf Alternativkühler a la Accelero
Dass der Idle Verbrauch absolut akzeptabel steht für mich ausser Frage.
Mal was Anderes: Warum sollte AMD sich große Mühe haben jedes Watt im Idle einzusparen, wenn es wichtigere Sachen zu beheben gibt?
Wie ein Vorposter bereits geschrieben hat, wird der Idle Stromverbrauch keine nennenswerten Mehrkosten verursachen, es wird sicher eine Möglichkeit zum selbst-Hand-anlegen geben (RT, ATT usw) und von Umweltfreundlichkeit brauchen wir mal gar nicht zu reden.
Der Lüfter wird durch die Chiptemperatur gesteuert und nicht durch die Speichertemperatur. Und da der Chip schön runtergetaktet (und hoffentlich auch untervoltet wird) dreht auch der Lüfter langsam. So heiß läuft der RAM auch nicht, vorallem nicht so dass deine anderen Komponenten in Mitleidenschaft gezogen werden
Und über Lautstärke und Temperatur entscheidet in aller erste Linie der Kühler, also warte erstmal auf die IceQ4 Versionen etc oder auf Alternativkühler a la Accelero
Dass der Idle Verbrauch absolut akzeptabel steht für mich ausser Frage.
Mal was Anderes: Warum sollte AMD sich große Mühe haben jedes Watt im Idle einzusparen, wenn es wichtigere Sachen zu beheben gibt?
Wie ein Vorposter bereits geschrieben hat, wird der Idle Stromverbrauch keine nennenswerten Mehrkosten verursachen, es wird sicher eine Möglichkeit zum selbst-Hand-anlegen geben (RT, ATT usw) und von Umweltfreundlichkeit brauchen wir mal gar nicht zu reden.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 83
- Aufrufe
- 8.304