Test Test: ATi Radeon HD 4770

Bzgl des Stromverbrauchs muss man wohl mal abwarten da andere Webseiten mit ihren Exemplaren schon viel bessere Messwerte bekommen haben.

X-Bit Labs z.B. 17Watt im Leerlauf und 50Watt unter Last:
http://www.xbitlabs.com/articles/video/display/radeon-hd4770_5.html#sect0

AndandTech:
http://www.anandtech.com/video/showdoc.aspx?i=3553&p=9

HotHardware:
http://hothardware.com/Articles/ATI-Radeon-HD-4770-40nm-GPU/?page=8

[Hard]|OCP:
http://enthusiast.hardocp.com/article.html?art=MTY0MywxMCwsaGVudGh1c2lhc3Q=
 
Nette Karte, aber jetzt weder revolutionär noch atemberaubtend.
Wir bei den Kollegen von THw meine ich: "Der Aha-Effekt bleibt aus."

Ich will meine 7800 GT endlich in Rente schicken.

Ich glaube mein X2 4850e wird die Karte sicher langweilen oder?
Der X3 720 BE hört sich ganz gut an.
Zusammen sind die bestimmt ein gutes P/L-Duo.

Noch ein paar Wochen abwarten und die Preise werden sich ordenlich einpendeln.
Im Moment ist sie so gesehen noch zu teuer.

Grüße an die Community

Edit: ach ja.. eine Mainstream-GPU sollte man auch mal mit einen Mainstream CPU testen.
Wer baut sich denn sowas in sein Intel XXXXXXXtremeteueres System ein!?
 
Zuletzt bearbeitet: (weitere Anmerkung)
Verkauf deine 7800gt für einige Euronen und kauf dir eine HD3870 neu für 45 Euro. Dann zahlste insgesamt vllt. 30 Euro und bist wieder gut im Rennen. Weniger geht wirklich nicht.

Edit: ach ja.. eine Mainstream-GPU sollte man auch mal mit einen Mainstream CPU testen.
Wer baut sich denn sowas in sein Intel XXXXXXXtremeteueres System ein!?
Darum gehts nicht. Es geht darum, die Grafikkarte nicht limitieren zu lassen und einen Ausblick in die Zukunft zu geben. Wenn ich die Karte 1-2 Jahre behalten möchte, dann ist die Leistung dieses 4Ghz Quads eventuell schon Standard. Man sieht also, wie sie etwa auf einem i7 oder sonstigem Boliden performen könnte.
 
Ich bitte drum das Computerbase auch die Nachteile der ATI Grafikkarten berücksichtigt das die in AA glänzen brauchen wir nicht zu erwähnen da ist die einfach Super. Aber der AF ist mittelmaß wenn ich bei der Geforce ähnliche AA Qualität haben möchte erhöhe ich den Wert
spätestens bei 8-Fach AA merkt man kaum ein unterschied von der Qualität. Der Vorteil von ATI Karten die rendert in diesen Modus einfach schneller. Ich kann aber die Qualität des AF nicht hochsetzen was bringt mir eine HD48XX/47XX wenn der AF bescheiden ist, du hast reserven aber die kannste nicht sinnvoll nutzen. Wenn ich eh 80-90 FPS hab dann interesiert mich nur eins den überschuss von Leistung für bessere Texturauflösung und bessere Texturfilterungen, Antialaising, Transparenz Antialaising zu investieren.
 
Zuletzt bearbeitet:
hmm danke für die aufklärung mit dem netzteil hätte auch selber drauf kommen können. Aber lol das sie ein 850W netzteil benutzen erklärt natürlich auch nen teil. Ich würde die in ein system mit nem 380W netzteil einbauen da wäre die effizienz bei ca. 85% (seasonic S12II) da kann ich also locker 10W abziehen.

Naja mal schauen werd jetzt mal nicht sofort kaufen, schauen wie sich die preise entwickeln... Gibts eigentlich noch kein datum vom release der 4750?

EDIT:

ohh man die werte auf xbitlabs sind ja noch viel krasser also weichen noch viel deutlicher ab. teilweise ändern sich sogar die reihenfolgen der karten, sehe da 3 möglichkeiten:

1. einer schlampt bei den messungen nur ganz kurz gemessen und nen peak erwischt
2. die karten haben ne sehr hohe streuung (ihr habt ja ein testexemplar bekommen das so nicht 1:1 auf den markt kommt? oder hattet ihr ein reguläres modell müsste nochmal schauen)
3. was ich jetzt euch nicht vorwerfen will aber was bei ausschluss der obigen 2 warscheinlcih das einzig übrige wäre, das eine oder mehrere seiten parteiisch sind aus was für gründen auch immer.

Das ist nunmal nicht der erste test wo ich so krasse unterscheide feststelle wie soll man sich da dann für oder gegen eine karte entscheiden wenn genau dieser wert für einen entscheident ist und da bei verschiedenen seiten bis zu 25W unterschied sind und beim einen karte A weniger verbraucht als karte B und bei der nächsten wieder umgekehrt.

ums nochmal konkret zu machen.

cb: hd4830 verbraucht 14W WENIGER als eine hd 4770
xbitlabs: hd4830 verbraucht 15W MEHR als eine hd 4770
 
Zuletzt bearbeitet:
Danke für den Test, wirklich sehr gut, wie immer. :)
 
Schön zu sehen, wie stark der Lastverbrauch gesunken ist.

Leider muss ich auch sagen, dass der Idleverbarauch einfach zu hoch ist.

Ich weiß nicht was AMD da macht, hab mal gelesen PP2 wird von einem eigenen Chip gesteuert.
Auf meinem Gigabyte Mainboard ist auch ein Chip drauf, der je nach Last in der Lage ist ganze Spannungsphasen für die CPU trocken zu legen.

Echt arm mitlerweile von AMD mit PP2.

Dennoch halte ich die Karte für mehr als gelungen. Wird gekauft und eben selbst getweakt.
Hoffe der Readon Bios Editor bietet bald Unterstützung für die Karte. :)
 
Guter Test !
Jetzt ist die 4830 und 4850 überflüssig, die wohl bald auch auslaufen, sonst macht sich ATi selber Konkurenz, nur schade das der IDLE Verbrauch noch so hoch ist.
 
sehr hoher Stromverbrauch im Idle

Was ist hier los? 147W im Idle, mit einem QX9770 @4GHz und ihr beschwert euch?! Der QX ist ja schon ein großer Stromfresser. Ich würd sagen der QX + MB + HDD + RAM nimmt schon 100W für sich, dann verbraucht die 4770 47W im Idle, so eine Schande :freak:
Wenn man später mit ATi Tray Tools und Co. die Karte im Idle untertakten kann und damit den GDDR5 Speicher, dürfte der Verbrauch nochmal sinken.
Der Wirkungsgrad vom Netzteil wird bei den Stromverbrauch Schreiern natürlich auch nicht berücksichtigt. Mit 147W ist das 850W Netzteil zu 17,29% ausgelastet. Das da der Wirkungsgrad nicht optimal ist, dürfte klar sein.

Green IT ist ja schön und gut, aber verfallt mal keinem Wahn.

Gute Karte, keine Frage. Wenns die für 80€ gibt und ich noch was für meine 2900GT bekommen würde... :D
 
Zuletzt bearbeitet:
Ja der IDLE Verbrauch ist wirklich sehr schlecht.
Da zeigt Nvidia einfach seine Stärken.

Cool, dass das Ding zwar (glaube) 40W weniger als ne 4850 aus der Dose zieht wenn man zockt, aber .. für 40nm is das nicht so toll.
Wenn dann das High-End Modell von ATI rauskommt mit 40nm.... wo soll das enden?
Ich warte auf Nvidias 40nm Antwort. Glaube die wird besser =)

Ich würd sagen der QX + MB + HDD + RAM nimmt schon 100W für sich, dann verbraucht die 4770 47W im Idle,
Haha - okay stimmt ja... nur die GTX285 würde dann nur 39W aufnehmen. Und die ist auch etwas schneller als die 4770 UND ist in 55nm.
Vonwegen dem Wahn verfallen.
 
Zuletzt bearbeitet:
Ich habe vor nicht allzu langer Zeit meine Radeon X1950 Pro Extreme durch eine Radeon HD4830 getauscht.. ich habe damals auch 80€ für die HD4830 bezahlt..
Ich finde die HD4770 zwar interessant, aber werde für 2 bis 10 fps mehr die Grafikkarte wohl nicht wechseln..

Zumal ich einen E2140 habe der auf Standarttakt läuft, da würde das eh wenig bringen.. :)
 
Ja der IDLE Verbrauch ist wirklich sehr schlecht.
Da zeigt Nvidia einfach seine Stärken.

Nein, tun sie nicht. Sie verwenden keinen GDDR5 Speicher. Oder soll ich den Unterschied auch noch erklären?
Speicherbandbreite? Boardkosten? Dir ein Begriff, oder um was genau geht es dir?
 
Okay aber DDR5 hin oder her.. ATI brauch den DDR5 um diese Leistung zu bekommen. Nvidia kriegt sie OHNE DDR5 und hat weniger Watt im Idle mit ner besseren Karte.

Sorry, aber wenn ATI den DDR5 nötig hat. Eigenes Grab geschaufelt sozusagen.


Aber Nvidia wird ja Gerüchten nach auch auf DDR5 rüsten. Mal sehn was dabei rauskommt.
Ob die das ganze dann trotzdem in den Griff bekommen?


oder um was genau geht es dir?
Mir gehts darum, dass meine Karte im Idle ordentlich Strom "sparen" soll. Das Ding wird ja quasi nicht gebraucht, wenn man im Betriebssystem ist.
Und wenn ich spiele kann das Ding schon lieber etwas mehr ziehen. Hauptsache es bringt DANN die Leistung die ich benötige.
Wozu dann unnötig Geld rauswerfen?
 
Zuletzt bearbeitet:
Man kann also davon ausgehen, dass die Karte auch ohne zusätzlichen Stromanschluss läuft? Oder weiß man ob die Karte den Strom nur über den Stecker zieht?
 
Gute Karte, dennoch kommt diese trotz ihrer Attraktivität für mich nicht in Frage.
Ich habe einfach keine Lust mehr auf die ATi Software, mit der ich mich seit Jahren rumplagen darf und das ist für mich ein klarer (Nicht-)kaufgrund - leider.
 
IlDuce88 schrieb:
Haha - okay stimmt ja... nur die GTX285 würde dann nur 39W aufnehmen. Und die ist auch etwas schneller als die 4770 UND ist in 55nm.
Vonwegen dem Wahn verfallen.

So okay und jetzt? Durch ein paar Watt weniger im Idle werden keine Bäume auf der Welt nachwachsen und auch auf der Stromrechnung wird sich das kaum bemerkbar machen.
Das Sinken des Stromverbrauchs muss ja auch einen Nutzen haben. Im Idle ist die Karte leise und wie gesagt: Weder für das Ökosystem noch für den Geldbeutel sind die paar Watt entscheidend. Bis man die Anschaffungskosten einer GTX285 gegenüber einer 4770 über den Idle Stromverbrauch drin hat, willst du mir nicht zufällig vorrechnen oder?

Ausserdem: Der "hohe" Stromverbrauch der 4770 kommt durch den GDDR5 zustande, der immer noch auf vollen Touren rennt. 1. Kann man das bald mit neuen Versionen von RT, ATT usw oder einem offiziellen Catalyst ändern und 2. ist der Chip in 40nm, nicht der Speicher.
 
Zuletzt bearbeitet:
Mmh, diese Karte mit GDDR3 Speicher wäre wohl das Stromsparwunder..

Mal sehen, was sich an den Karten manuell takten läßt, aber schon traurig, dass AMD das nicht selber in den Griff bekommt.
 
@Ycon

Ich habe seit Jahren auch ATI-Software /Treiber in Benutzung. Und bis heute keinerlei Probleme damit gehabt. Das liegt an was ? Wer sagt Dir, dass die "ATI-Software" daran schuld ist ? Hast Du vielleicht ein paar nachvollziehbare, überprüfbare Fakten ?

Gruß Pegasus
 
Zuletzt bearbeitet:
Weil es genau darum geht.

"Keine Lust mehr auf ATI Software" (3 Posts vorher)
"Kann man mit neuen Versionen ... ändern" (2 Posts vorher)
"Schon traurig, dass ATI das nicht selber in den Griff bekommt" (1 Post drüber)


Da brauch man dies und das uns jenes und dann dran rumfuchteln und dann bringt ne Karte im Endeffekt nur mehr wenn man dauerhaft 8xAA benutzt, was man nicht erkennt. Und dann Treiberprobleme bei ATI.
Genau deswegen bin ich auf Nvidia umgestiegen.

Und genau deshalb finde ich es schade für ATI, dass sie einfach nicht mal direkt was hinbekommen. Zumindest in letzter Zeit.
Gut, dass ich seit der X1950XTX nix mehr von denen gekauft hab.
 
Zurück
Oben