Test Test: ATi Radeon HD 4770

Doch unter Windows enttäuscht die Radeon HD 4770 ein wenig, obwohl der Messwert mit 147 Watt (der gesamte PC) durchaus noch im guten Mittelfeld liegt. Eine Verbesserung gegenüber den 55-nm-Karten hat es jedoch nicht gegeben, zumal die Grafikkarte mit dem Problem des leistungsfressenden GDDR5-Speichercontrollers zu kämpfen hat.
Die Leistungsaufnahme im Idle hat auch weniger etwas mit dem Fertigungsprozess zu tun. Dort sind vor allem die Stromsparmechanismen ausschlaggebend. Was der Fertigungsprozess bringt, sieht man logischerweise unter Last.

Wenn man sich mal die Ergebnisse von xbitlabs anschaut, die nur die GPU gemessen haben, so liegt die 4770 nur geringfügig über der 4670. Der Unterschied bei der Performance beträgt laut eurem Ranking etwa 80%. Eine ähnliche Relation ergibt sich auch bei einem Vergleich mit der 4830. Die Effizienz hat sich also stark erhöht. Für einen reinen Shrink ist das ziemlich viel. Anzumerken bleibt lediglich, warum das Speicherinterface gegenüber Modellen mit GDDR3 immer noch deutlich mehr Leistung benötigt. Gerade GDDR5 sollte ja helfen, dass man weniger Leistung braucht.
 
Alles in allem hat die karte meine Erwartungen angesichts des DDR5 Speichers erfüllt aber was mir beim durchlesen der verschiedenen Tests auffiel ist das es beim Idle Verbrauch im Vergleich zur HD4830 eine ähnliche Streuung zu geben scheint wie bei den Vergleichstests zwischen der HD4890 und der HD4870.
Je nach Seite und Testsample/Testsystem schwankt die Idle Stromaufnahme zum Teil erheblich.
 
Och man diese Flamer....
Kann man nicht eine Wertung einführen, sobald jemand zu viel FB-Müll geschrieben hat, kann man seine Beiträge auslassen.

@Test
Bin ich der einzige, den das Testsystem stört?
Einen QX auf 4GHz + 850Watt Netzteil und dann über den Verbrauch enttäuscht sein? Das ist pure Dekadenz in meinen Augen!
Wieso nicht einen 3GHz Dualcore nehmen? Was soll da über 1680x1050 limitieren?

Wie gesagt humanere Systeme von anderen Seiten bescheinigen bessere Werte für die 4770, deshalb würde ich den Wert von CB nicht auf die Goldwaage legen.

@HD4770
Tolle Karte, mit maßig OC-Potential, 4870/GTX260-Niveaus scheinen machbar zu sein, das Ganze bald für ca. 80€. Was soll man sagen, fast gekauft! Zumal ich für meine 3850 noch über 50€ bei der Bucht bekomme.
 
@gruffi
Naja xbitlabs haben es auch als so ziemlich einzige Seite geschafft bei der 4890 weniger zu messen als bei der 4870. Ebenso allein stehen sie derzeit mit der Auffassung, dass die 4770 weniger verbrauchen soll als die 4830. Also da würd ich eher den Fehler bei xbitlabs suchen.
 
Wie gesagt humanere Systeme von anderen Seiten bescheinigen bessere Werte für die 4770, deshalb würde ich den Wert von CB nicht auf die Goldwaage legen.
Was die HD4770 benötigt, hat nichts mit dem Testsystem zu tun. Die schluckt idle ihre 30 Watt und fertig. Und die Xbitlabs haben sich wohl vermessen ... die bringen in letzter Zeit öfters "kuriose" Werte.
 
Xbit messen unter Windows XP - ein Faktor?
 
@y33H@
Und die erde ist ne Scheibe, denn wäre sie ne Kugel, dann wären die Schuhe in der Mitte mehr abgelaufen....
Wie wäre es damit der Geschichte ernsthaft auf den Grund zu gehen?
 
An alle die ATI vorwärfen den Idle Stromverbrauch nicht hinzubekommen:

Zeigt mir eine Nvidida Karte mit GDDR5 die dynamisch und automatisch den Speicher heruntertaktet...

Das hat nix mit den (Treiber) Fähigkeiten von ATI zu tun sondern einfach mit dem GDDR5

Desweiteren sollten bitte alle die Nvidia Karten einsetzen sich mal überlegen ob sie überhaupt berechtigt sind irgendeine Meinung darüber abzugeben, wie schlecht doch die ATI Treiber seien. Ist doch lächerlich.

X800XT - X1950XTX - 3870 - 4870

Nie Probleme gehabt, alles wunderbar funktioniert. Gibt soviele Fälle wo das Problem vor dem Bildschirm sitzt aber dann sind ja mal wieder die oh so schlechten ATI Treiber dran schuld, oh man.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Was die HD4770 benötigt, hat nichts mit dem Testsystem zu tun. Die schluckt idle ihre 30 Watt und fertig.

Schon klar. Hier wird ein 850W netzteil verwendet und im idle verbraucht das Gesamtsystem unter 150W und du willst mir erzaehlen das bei einer Auslastung von deutlich unter 20% sinnvolle Werte rauskommen? :evillol:
 
@ wadenbeisser

Was willst du? Welche Geschichte? :freak: HT4U und PCGH messen 32 bzw. 30 Watt im idle. Ergo wird das schon hinkommen.

@ GreatEvil

Dir ist bewusst, dass bei der alleinigen Vermessung der Grafikkarte das NT nicht entscheidend ist?
 
@y33H@
Andere haben andere Ergebnisse. Aber warum ist dies der Fall?
Ob es dir nun passt oder nicht aber die Seiten sind nicht das Maß aller Dinge und bei solch drastischen Unterschieden ist in der Regel Nachforschung angesagt, bei der sich die Seiten bzw. deren Tester ihre Erfahrungen austauschen sollten.
Ich erinnere mich beispielsweise an fehlerhaften Testsamples (HD 4830?) bei denen zu viele Shaderblöcke deaktiviert waren.
 
gibt es von einem hersteller auch die karten mit dual slot kühler wie sie in den test verwendet wurden auch zu kaufen???

bis jetzt hab ich nur die billig version (Kühler, PCB deutlich wenige bestückt usw.) gesehen!
 
y33H@ schrieb:
@ GreatEvil

Dir ist bewusst, dass bei der alleinigen Vermessung der Grafikkarte das NT nicht entscheidend ist?

Bloss macht das CB nicht, die messen das Gesamtsystem und da spielt das eine gewichtige Rolle.
 
Nein, weil die anderen Karten mit dem selben Einfluss vom NT gemessen wurden und das maximal in der Differenz zwischen sparsamster und stromschluckendster einen relevanten Einfluss hat, aber den Vergleich eh keinen interessiert, sondern nur der Vergleich von ähnlichen Grakas.

@wadenbeisser
xbitlabs stehen mit ihren Messwerten da ziemlich allein, also sollten die selbst schauen was los ist. Was genau soll da jetz y33H@ damit zu tun haben? Wieso stellst du nicht selbst Nachforschungen an, wenn du sie so vehement forderst?
 
ok mal angenommen xbitlabs hat sich vermessen schauen wir mal weiter:

Wattdifferenz im Vergleich zur 4770:

Code:
[INDENT][INDENT]computerbase        hardocp       anandtech       hothardware
[/INDENT][/INDENT]gts250        -12W             -2W           +20W             +3W
9800gt         0W                            +10W             +38W
bei beiden karten sind jweils abweichungen über 30W drin und es werden wie gesagt teilweise die reihenfolgen umgeändert:

die gts250 ist bei Anandtech z.B. deutlich leistungsfordender wie die hd 4770 bei cb umgekehrt.

Die 9800gt zieht bei cb genau gleich viel wie die hd 4770 bei anandtech sinds 10W mehr bei hothardware fast 40W da kann irgendwsa nimmer stimmen.

Entweder fehler, defekte musterhardware, extreme streuung oder absicht und eine der seiten verhält sich aus irgendwelchen gründen parteiisch und lügt. Hoffe stark das es nicht das letztere ist.

EDIT: Mann ist es schwer hier ne tabelle hinzumachen, leerzeichen schluckt er und sonst gibts hier ja auch kein werkzeug, bild einfügen wäre warscheinlich noch leichter.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Dir ist bewusst, dass bei der alleinigen Vermessung der Grafikkarte das NT nicht entscheidend ist?

Nicht unbedingt, gibt durchaus Unterschiede zwischen den Netzteilen, da die 3.3V-,5V und die 12V-Schienen verschieden effizient sind. Ein Netzteil nahe einem KW ist ziemlich schlecht gewählt um Unterschiede von 10-20 Watt zu messen. Da können schon einige Grade Differenz bei der Betriebstemperatur erhebliche Unterschiede ergeben!

Für so eine Messung hätte ich von meinem Prof Prügel bekommen.
 
wadenbeisser schrieb:
und bei solch drastischen Unterschieden ist in der Regel Nachforschung angesagt, bei der sich die Seiten bzw. deren Tester ihre Erfahrungen austauschen sollten.

Seh ich genauso! Mich wuerde stark interessieren, warum bspw. auf Ht4U bei Call of Juarez die Ati so gut abschneidet und hier bei CB so katastrophal?
 
@ Booby

HT4U nutzen ein recht effizientes 750er Corsair/Seasonic, PCGH ein 625er Modu82+. Da ist nichts mit nahe ein KW und zudem sind es beides 80-Plus-Modelle (zumindest das Enermax).
 
redfirediablo schrieb:
Zeigt mir eine Nvidida Karte mit GDDR5 die dynamisch und automatisch den Speicher heruntertaktet...
Warum? AMD hat sich GDDR5 entschieden, um Chipfläche zu sparen und die eigenen Kosten zu senken. Dazu hat man, da Nvidia darauf verzichtet, einen werbewirksamen Box-Sticker.

Die Technologie hat offenbar Vor- und Nachteile - Nvidia trägt dafür dauernd das dickere SI mit sich herum.

GreatEvil schrieb:
Seh ich genauso! Mich wuerde stark interessieren, warum bspw. auf Ht4U bei Call of Juarez die Ati so gut abschneidet und hier bei CB so katastrophal?

Weil HT4U den integrierten Benchmark und CB eine Spielszene verwendet.

GreatEvil schrieb:
Seh ich genauso! Mich wuerde stark interessieren, warum bspw. auf Ht4U bei Call of Juarez die Ati so gut abschneidet und hier bei CB so katastrophal?

Booby schrieb:
Nicht unbedingt, gibt durchaus Unterschiede zwischen den Netzteilen, da die 3.3V-,5V und die 12V-Schienen verschieden effizient sind. Ein Netzteil nahe einem KW ist ziemlich schlecht gewählt um Unterschiede von 10-20 Watt zu messen. Da können schon einige Grade Differenz bei der Betriebstemperatur erhebliche Unterschiede ergeben!

Für so eine Messung hätte ich von meinem Prof Prügel bekommen.

Kurz zur Verständnisklärung: Wenn man nur die Grafikkarte misst, wie HT4u, c't, PCGH oder Xbit Labs, schaltet man das Netzteil als Faktor aus, da lediglich die Spannungen und Ströme über PEG-Slot und PCIe-Netzteilkabel misst. Es ist quasi eine bereinigte Messung.
 
Zuletzt bearbeitet:
Zurück
Oben