Test Radeon HD 4770 im Test: ATis erste 40-nm-Grafikkarte überzeugt durchweg

Lonely Shepherd schrieb:
Aha. Versteh mich nicht falsch, ich will ja nicht, dass du gleich nen Roman schreibst, aber könntest du das noch ein wenig erläutern? Zieht das MoBo etwa auch weniger, wenn die Karte undervoltet/untertaktet ist?

Beim einen Test spielt der Wirkungsgrad des Netzteils eine Rolle, beim anderen nicht. 50W vor dem Netzteil sind z.B. bei 80% Wirkungsgrad nur 40W hiner dem Netzteil.
 
Lonely Shepherd schrieb:
Du hast doch die Möglichkeit mal den Stromverbauch beider Karten mit Undervolting/Underclocking zu testen (ich weiß ja nicht, wie "frei" man in dieser Hinsicht bei PCGH ist). Oder hast du etwa Angst, dass du dann schreiben müsstest, dass AMD hier deutlich besser abschneidet als NV und zeitgleich so manches Stromspar-Image von vielen NV-Fanboys zerstört wird?
Ich kann testen was ich will, solange ich damit keine offizielle Arbeitszeit verbrenne. Angst habe ich keine, ich mag sparsame Karten, egal von welchem IHV. Stromverschwender sind scheiße, außer sie sind konkurrenzlos schnell - und ein solches Modell ist zur Zeit nicht am Markt.

Eine GTS 250 geht in 2D auf 300/600/100 MHz runter, eine HD4770 auf 240/1.600 MHz. Die GTS 250 braucht stock rund 20 Watt, die HD4770 rund 30 Watt. Geht man bei der HD4770 auf 400 MHz VRAM, schluckt sie nur noch 20 Watt. Senkt man aber den Coretakt weiter, zieht Powerplay nicht mehr und die V-GPU geht auf den 3D-Wert; bei der Geforce nicht. Rein vom Underclocking her kann man mit der GST 250 mehr sparen. Nimmt man das manuelle Absenken der VCore mit rein, dürfte die HD4770 die Nase wohl vorne haben, hier müsste man sich aber mal von der GTS 250 wie der HD4770 je eine Handvoll Exemplare schnappen und das Undervolting/Underclocking an allen durchexerzieren und die so erzielten Minimal-Werte der Radeon wie der Geforce mitteln. Dann hätte man ein wirklich aussagekräftiges Ergebnis - von nur je einem Exemplar auf alle zu schließen ist so wie beim OC auch natürlich witzlos.
Lonely Shepherd schrieb:
Versteh mich nicht falsch, ich will ja nicht, dass du gleich nen Roman schreibst, aber könntest du das noch ein wenig erläutern? Zieht das MoBo etwa auch weniger, wenn die Karte undervoltet/untertaktet ist?
Wie kisser bereits angedeutet hat, ist beim messen vor dem NT der Wirkungsgrad zu beachten, der anhängig davon, was die angeschlossenen Komponenten ziehen, variiert und damit auch die Leistungsaufnahme. Misst man nach dem NT, entfällt dieser Faktor. Daher kann man nicht die vor dem NT gemessen eingesparten Watt von dem Wert abziehen, der nach dem NT gemessen wurde. So weit klar oder möchtest du es noch ausführlicher?
 
Zuletzt bearbeitet:
kisser schrieb:
Beim einen Test spielt der Wirkungsgrad des Netzteils eine Rolle, beim anderen nicht. 50W vor dem Netzteil sind z.B. bei 80% Wirkungsgrad nur 40W hiner dem Netzteil.
Macht Sinn.
Aber 40Watt sind ja immernoch ein beachtlicher Wert. Wenn man also die von PCGH gemessenen Wert von 57,2Watt im Idle nimmt (HD4870) und 40Watt abzieht hat man also 17,2Watt. Immernoch sehr sparsam für ne Gamerkarte im Idle. Oder kann man das wieder nicht so rechnen?

y33H@ schrieb:
So weit klar oder möchtest du es noch ausführlicher?
Hmm..., ich würde sagen, du hast genau den Umfang getroffen, den ich meinte. Aber lese ich da etwa leichten Sarkasmus?:freak:

y33H@ schrieb:
..., hier müsste man sich aber mal von der GTS 250 wie der HD4770 je eine Handvoll Exemplare schnappen und das Undervolting/Underclocking an allen durchexerzieren und die so erzielten Minimal-Werte der Radeon wie der Geforce mitteln. Dann hätte man ein wirklich aussagekräftiges Ergebnis - von nur je einem Exemplar auf alle zu schließen ist so wie beim OC auch natürlich witzlos.
Ja meine Güte, CB und PCGH OC'en bei den Tests doch auch jede Graka, die sie in ihre Finger kriegen und veröffentlichen dann das Ergebnis. Ist zwar wie du sagtest nicht sehr aussagekräftig, aber man bekommt doch eine Tendenz. Dann hätte man wenigstens mal klargestellt, dass AMD und NV sich beim Stromverbrauch nichts nehmen, wenn man denn selbst Hand anlegt und somit für Leute die ohnehin underclocken/undervolten, die Stromaufnahme im Idle kein Kaufgrund sein sollte.
 
Lonely Shepherd schrieb:
Aber lese ich da etwa leichten Sarkasmus?
Nein, eine ernst gemeinte Frage. Schließlich warst du es, der meinte ich solle mich doch hin und wieder ausführlicher fassen *g*
Lonely Shepherd schrieb:
aber man bekommt doch eine Tendenz
CB hatte bisher imo nur eine GTS 250 und eine HD4770, HT4U auch. Wir haben zwei HD4770 und eine GTS 250 imo. Zuwenig für eine Tendenz wie ich finde.
Lonely Shepherd schrieb:
Oder kann man das wieder nicht so rechnen?
Kann man nicht so rechnen. Eine HD4870 macht mit stark untertaktetem VRAM real rund 35 Watt, gute Exemplare kann man Richtung 30 Watt quetschen - und mit einer solchen Mod ist man dann idle auf GTX285-Niveau [hier hast du ergo 30 Watt Ersparnis wenn du nach dem NT misst, vor dem NT sind es aber 40 Watt]. Fürs Nichtstun freilich immer noch viel zu viel ... da müssen beide IHVs nachbessern. Schade, dass sowas wie Hybrid-SLI so schnell gestorben ist. AMD, Intel und nV sollen sich mal einen Tisch hocken und die idle-Leistungsaufnahme optimieren und nicht immer nur den Fps hinterherhecheln.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Schade, dass sowas wie Hybrid-SLI so schnell gestorben ist. AMD, Intel und nV sollen sich mal einen Tisch hocken und die idle-Leistungsaufnahme optimieren und nicht immer nur den Fps hinterherhecheln.
Jupp, stimmt. Aber ich bin zuversichtlich, dass die CPU's mit IGP diesen Missstand beheben können.

y33H@ schrieb:
Kann man nicht so rechnen. Eine HD4870 macht mit stark untertaktetem VRAM real rund 35 Watt, gute Exemplare kann man Richtung 30 Watt quetschen - und mit einer solchen Mod ist man dann idle auf GTX285-Niveau [hier hast du ergo 30 Watt Ersparnis wenn du nach dem NT misst, vor dem NT sind es aber 40 Watt]. Fürs Nichtstun freilich immer noch viel zu viel ... da müssen beide IHVs nachbessern.
Da muss ich mal wieder nachhaken.
Hier schreibt PCGH:

"Das finale Ergebnis
Nichtsdestotrotz addieren sich alle Tuning-Maßnahmen auf und die HD 4870 verbraucht nur noch 124 statt 174 Watt. Eine Differenz von satten 50 Watt, nebenbei bleibt die Karte deutlich kühler und agiert praktisch lautlos. "

Das war ja die Messmethode fürs System vor dem NT gemessen.

Für die HD 4870 alleine und nach dem NT gemessen, habt ihr (gerundet) 57Watt.

Jetzt schreibst du, "Eine HD4870 macht mit stark untertaktetem VRAM real rund 35 Watt".

Ergo 57-35=22. Also 22Watt Ersparnis.

50Watt Ersparnis vor dem NT und 22Wat Ersparnis hinter dem NT.
22/50*100=44

Also hatte eurer NT bei der gemessenen Leistungsaufnahme nur eine Effizienz von 44%? Kann doch nicht sein oder?
 
@ Lonely Shepherd

Die 50 Watt entstanden mit extrem niedrigem VRAM-Takt plus gesenktem Core-Takt. Darüberhinaus ist die Karte somit deutlich kühler, dies senkt die Leistungsaufnahme zusätzlich. Wie bereits gesagt - die Werte sind nicht vergleichbar.
 
y33H@ schrieb:
Eine GTS 250 geht in 2D auf 300/600/100 MHz runter, eine HD4770 auf 240/1.600 MHz. Die GTS 250 braucht stock rund 20 Watt, die HD4770 rund 30 Watt. Geht man bei der HD4770 auf 400 MHz VRAM, schluckt sie nur noch 20 Watt. Senkt man aber den Coretakt weiter, zieht Powerplay nicht mehr und die V-GPU geht auf den 3D-Wert; bei der Geforce nicht.

(mangels HD4xxx/GTS 250) Der Sprung zurück auf 3D-Takt, liegt es am anders gestrickten Bios ?

Bei meiner GTX 260 kann ich per NiBiTor gezielt 2D-Takte definieren, bei 3D hatte ich testweise die identischen 2D-Takte eingetragen (mitsamt der entsprechenden Volt-Werte), konnte somit die Karte unter Vollast, aber auf 2D-Taktraten, crunchen lassen (folding@home, GPUgrid). Das lief stabil und unter erstaunlich niedrigen Temperaturen. Und soo langsam war die Karte dabei nicht, bei folding etwa auf RV670-Niveau und bei GPUgrid auf G92-Niveau, mit diesen Modellen kann ich vergleichen, weil in meinem Besitz.

Funktioniert so eine Absenkung bei ATI nicht, weil das Bios die Definition und damit den Rückgriff auf diese Takte nicht vorsieht oder liegt es an der Powerplay-"Software" im Treiber ?
 
PP 2.0 ist in Hardware gegossen. Jede reine MHz-Änderung am Core-Takt lässt den Chip die 3D-Voltages anlegen. Um ein Ersparnis zu haben, muss man die VCore dann wieder manuell senken oder den niedrigeren Takt ins BIOS schreiben. Nvidia setzt auf eine Treiberlösung, daher kann man hier mehr bzw. einfacher "spielen".
 
bei Ati kann man die Takte und Voltages für 2D, UVD (Video), 3D sehr bequem im Bios einstellen, aber eben nur dort. Teilweise soll's mit tools auch möglich sein, aber nicht so komfortabel funktionieren. Ich find die Bios Lösung ganz gut, da ich so die Einstellungen fix definiere.
Ist natürlich wegen Garantie usw. aber auch problematisch... (hatte bisher noch keinerlei Probleme)
 
@y33H

Würdest du bitte aufhören mir irgendwelche Zitate zuzuschreiben oder meine Ursprungsfassung sinnentfremdend abzuändern?!
 
Posting #394, dein 4. Zitat ist nicht von MacPok, sondern von Lonely Shepherd.
 
Wiesi21 schrieb:
bei Ati kann man die Takte und Voltages für 2D, UVD (Video), 3D sehr bequem im Bios einstellen, aber eben nur dort. Teilweise soll's mit tools auch möglich sein, aber nicht so komfortabel funktionieren

Bei ATI-Tray-Tools funktioniert zumindest die 2D/3D Umschaltung mit anderen Taktraten und Voltages total easy. Ist auch sehr leicht zu konfigurieren. Aber kann natürlich sein, dass man im Bios weiter runtergehen kann mit der Spannung. Da hab ich keine Ahnung.
 
y33H@ schrieb:
Wenn Spannung und Takt so wenig ausmachen, warum schluckt eine GTS 250 im Vergleich zu einer 9800 GTX+ dann deutlich weniger?!
Wer redet denn von nVidia? Sprachen wir nicht vom Unterschied zwischen 4830 und 4770? Aber da du ja HT4U so sehr magst, hier mal ein Test zu den Unterschieden diverser Taktraten bei Kern und Speicher. Wie du sehen kannst, sind die Unterschiede unter Idle beim Kerntakt recht gering, während der Speichertakt einen weitaus gravierenderen Einfluss hat. Hier hast du auch noch einen Test, wo bei der HD 4770 der Speichertakt abgesenkt wurde. Und siehe da, man spart immerhin 8 W, womit man zumindest sämtliche GT200 basierten Karten hinter sich lässt. Und gerade vor diesem Hintergrund sollte man sich auch noch mal vor Augen halten, nVidia senkt den RAM Takt auf 100 MHz unter Idle ab, während HT4U die 4770 immer noch mit 400 MHz RAM Takt gemessen hat. ;)
Was grundsätzlich der Unterschied GDDR3 vs GDDR5 ausmacht, ist damit allerdings immer noch nicht geklärt.

Warum die GTS 250 unter Idle weniger Strom braucht als die 9800 GTX+ ist mir ehrlich gesagt egal. Die Antwort darauf kannst du ja selbst herausfinden. Als Denkanstoss möchte ich dir aber noch einen weiteren Auszug von HT4U mitgeben (Quelle):
Es sollte dem einen oder anderen anhand der vorstehenden Screenshots noch auffallen, dass beide hier vertretenen Modelle - ungeachtet des Speicherausbau - mit den gleichen Absenkungen im Idle-Modus aufwarten. Erste Muster der 9800 GTX+ senkten die Taktraten nicht so tief ab. Unser oben erwähnter Artikel zur Leistungsaufnahme von Grafikkarten zeigte allerdings deutlich, dass gerade bei NVIDIA wirklich eine massive Taktratenabsenkung beim Speicher erforderlich wird, damit hier tatsächlich Einsparungen getätigt werden können. Diesem Umstand ist es überhaupt zu verdanken, warum NVIDIA zu GeForce 8800-Zeiten keine Notwendigkeit sah "die Taktraten ein bissel zu senken", es hätte eben nichts gebracht.
Es sollte also klar sein, dass die Unterschiede am wenigsten beim Kerntakt zu suchen sind, zumal beide Karten meines Wissens nach mit 300/100 MHz (Kern/RAM) arbeiten. Entweder sind die Spannungen deutlich höher bei der 9800 GTX+ oder auf der GTS 250 sind höherwertige Komponenten verbaut, Stichwort Wirkungsgrad. So gross wie hier auf CB sollte der Unterschied aktueller Modelle auch nicht mehr sein.

y33H@ schrieb:
Dann kannst du auch keine pauschalisierte Aussage verfassen.
Muss man das verstehen? Wenn ich explizit darauf hinweise, sich keine Rosinen rauszupicken, ist das also keine Grundlage für allgemeine Aussagen? Klingt logisch. :rolleyes:

y33H@ schrieb:
Wie gesagt, das MSAA ist objektiv gleich.
Nein. Dazu brauche ich nur mal ein paar Benchmarks anzuschauen und sehe, dass nVidia zB unter 8xAA stärker einbricht. In vielen Einstellungen sind beide recht ähnlich, das ist richtig. Gesamtheitlich ist AMD aber dennoch tendenziell etwas besser.

y33H@ schrieb:
Und mit SSAA und xS sollte man sich befassen, dann weiß man auch, wie man es korrekt einsetzt. Einfach SSAA drüber bügeln, ist bei aktuellen Titel aufgrund von PP so eine Sache. Hier muss mit etwas Fingerspitzengefühl rangehen.
Und damit für das Gro der Spieler irrelevant.
 
Noch mal auf die HD 4770 zurückkommend:

Ich verstehe den Ärger mancher Leute überhaupt nicht. Die Karte:

- verbraucht im Idle weniger Strom als eine HD4850.
- verbraucht unter Last weniger Strom als eine HD4850.
- ist kühler als eine HD4850 (ev. Passivkühlung).
- FAST gleich schnell als eine HD4850 (mit übertakten sogar schneller!!).
- kostet deutlich weniger als eine HD4850.

Der Vergleich mit der HD4830 hinkt gewaltig. Sie ist durchschnittlich 10% langsamer als eine 4770 und verbraucht unter Last noch mehr Strom. Was wollt ihr mehr?

Von manchen Leuten höre ich wirklich nur meckern auf höchstem Niveau.

Gruss
 
@ paokara

Warum hinkt der Vergleich zur 4830 gewaltig? Weil sie lächerliche 6-10% im Schnitt langsamer ist? Dafür ist die 4850 4-6 % schneller. Und dann sollte der Vergleich wieder passen? Aber wahrscheinlich hast du Recht. Zwischen den Unterschieden liegen ja Welten... :rolleyes:
Toll, dass sie weniger Strom im idle verbraucht als eine HD4850. Ein Phenom I hat auch weniger Strom verbraucht als ein höher getakteter P4. Und trotzdem war der Stromverbrauch zu hoch! Einen Vergleich mit einem total inakzeptablen Punkt zu ziehen und dann sich freuen, dass man es ein bisschen besser macht, ist natürlich total sinnvoll...

Und was heißt hier meckern auf höchstem Niveau? Jeder hat andere Prioritäten und hat das Recht entsprechende Punkte zu kritisieren.
Was wir (das wir nehme ich mal stellvertretend für Kritiker des idle-Stromverbrauchs) wollen, ist keine Karte, die beim nichtstun, je nach Test und Messung zwischen 30 und 40 Watt zieht.
Nenn mir einen Grund, warum eine Komponente, die nichts leistet, eine solche Menge an Strom "verbrauchen" sollte?
 
Seppuku schrieb:
Was wir (das wir nehme ich mal stellvertretend für Kritiker des idle-Stromverbrauchs) wollen, ist keine Karte, die beim nichtstun, je nach Test und Messung zwischen 30 und 40 Watt zieht.
Da stimme ich dir absolut zu. Der Punkt ist aber, dass sich plötzlich jede Menge nVidia Verfechter in solchen Threads tummeln und einen riesen Hype daraus machen wollen, obwohl es bei ihrem Hersteller genügend Modelle gibt, wo das ebenfalls zu kritisieren wäre. So ist jedenfalls keine sachliche Diskussion mehr möglich. Und Lösungsansätze, dass man mit ein wenig Hand anlegen die Leistungsaufnahme teils deutlich senken kann, gehen dann erst recht unter.
 
@ gruffi

Vielleicht sollte man aber nicht hinter jeder Kritik einen Schwarzmaler aus dem anderen Lager sehen ;).
Denn das andere Lager macht es mit dem ständigen Verteidigen der Kritikpunkte auch nicht besser.
Da kann ich jetzt nur von mir sprechen: Aber wenn ich ein Produkt kritisiere, dann meist deswegen, weil ich den Kauf dieses Produkts in Erwägung ziehe und ich aber mit einigen Punkten unzufrieden bin (die einfach nicht hätten sein müssen).
 
@seppuku

Danke für deine Kritik.

Was mich einfach stört ist die Tatsache, dass bei der Veröffentlichung der HD4850 niemand über den Stromverbrauch unter Last gemeckert hat. Hier sehen wir eine Karte, die beide Male weniger Strom zieht, weniger kostet und beinahe gleich schnell ist, was willst du noch mehr?

Ausserdem muss dir doch klar sein, dass schnelle Grafikkarten halt auch im Idle leider ihren Strom ziehen. Zeig mir eine andere Grafikkarte, die annähernd gleich schnell ist und durchschnittlich weniger Strom zieht. Du wirst mir keine nennen können!

Die Grafikkartenbranche hat sich in letzter Zeit in eine Richtung entwickelt, die den meisten User (einschliesslich mir) nicht passt. An dieser Tatsache können wir jedoch nicht viel ändern.

Die HD 4770 zeigt aber auch, dass man mit einer kleinen Fertigungsstruktur unter Last deutlich an Strom einsparen kann. Kombiniert man dies mit einer sinnvollen Taktung des Speichers hätte man eigentlich die perfekte Grafikkarte.

Kannst du mir bitte deine Punkte nennen, die dir an dieser Grafikkarte nicht gefallen?

- Idle Stromverbrauch: Du kannst den Speicher manuell heruntertakten und sparst etwa 10 Watt. Somit würde sie nur noch 20 Watt verbrauchen. Für eine so potente Karte ein akzeptabler Wert.

- Die Lautstärke: Das Dual Slot Referenzmodell soll angeblich sehr leise sein. Ich habe zwei, drei Seite vorher einen Link zu einem anderen Test gepostet.

Was für Punkte gibt es sonst noch?

Gruss
 
Zurück
Oben