Test Test: ATi Radeon HD 4770

nur, dass aufgrund des 128Bit sspeicherinterfaces die karte mit GDDR3 ne ganze ecke gebremst wird. das hat schon seinen grund warum da GDDR5 mit lot am PCB befestigt wurde. dementsprechend sind die karten dann nicht wirklich vergleichbar. für stromsparfetischisten ohne großartige leistungsansprüche dann durchaus zu gebrauchen. für alle anderen denen der stromverbrauch im idle zu hoch ist entweder karte nicht kaufen oder selbst runtertakten.. basta.. aus.. ende.. fettig :freaky:
 
Zuletzt bearbeitet:
doesntmatter schrieb:
Hast du schon mal einen einzigen Testdurchlauf mit annähernd vielen Testprogrammen und Settings durchgeführt ? Natürlich nicht, aber vorstellen kannst du es dir ? Der erste Schritt. Jetzt wechsle die Grafikkarte aus. Nächster Durchlauf. Ach ja, manche meinen, man sollte für jede Grafikkarte die optimale CPU verwenden. Also bitte die CPU ebenfalls tauschen. Nächste Karte, nächste CPU. Sorry, ganz vergessen, das Netzteil ist zu stark, nimm für diesen, den dritten bis fünften Durchlauf das Netzteil mit 500 Watt, danach natürlich die Stärkeren, jetzt ist das 500er zu schwach, bitte ein 650er, erst zum Schluß das 850er. Wir hamm´s ja, Zeit sowieso, die Nächte sind lang.

Wieder falsch. :rolleyes: Natürlich bei den sparsamen CPUs EIST bzw. Cool & Quiet einschalten, nur bei hochgetakteten Quads und den CPUs, die sowieso JEDER hier niemals im Sparmodus betreiben würde, ausschalten, sonst verzerrt man ja den Praxisbetrieb VÖLLIG.

Ja, die Sponsoren stehen in so einer Redaktion bereit, um just-in-time die aktuell benötigte Komponente handzureichen, damit die Tester wenigstens ETWAS kostbare Zeit sparen können, die sie brauchen, um die Testbedingungen jedem Kritiker im Forum verständnisvoll und ehrerbietig erläutern zu dürfen. Ach, so ein Redaktionsleben ist schon schön ...

P.S. Weder verwandt noch verschwägert.

Danke! Ich hatte schon meine Zweifel, ob es überhaupt jemand rafft, wie der Hase so läuft. Aber dieser Post macht mir Hoffnung! Nochmals danke!
 
naja, dass sie langsamer als die 4770 sein wird, ist wohl logisch. darum ja die kleinere nummer ;)
aber mir ist der verbrauch wichtiger als ein paar fps. bei diesen karten gehts ja auch darum. sind ja keine highendkarten ;)
hoffe aber, dass das nicht zu stark bremst :/ 128 bit ist zugegeben schon etwas knapp bemessen. bin mal gespannt auf die tests...
 
Die 4750 wird aber massiv Bandbreitenlimitiert sein und damit ordentlich langsamer.

Ich kann das Idle Gemeckere einfach nicht mehr sehen!

Die einzigste Konkurrenz was den Preis angeht ist die 9800GT, die aber im Idle gleichviel und unter Last deutlich mehr verbraucht bei gleichzeitig schlechtere Leistung.

Die GTS 250 hat einen deutlich höheren Verbrauch unter Last und einen leicht niedrigeren im Idle. Insgesamt nimmt sich das nicht viel, vor allem weil das Potential selber was zu machen nicht mehr gegeben ist.

@ Cbase: Beim Testsystem fehlt die GTS 250 mit Daten zu Takt und Speicherbestückung

Also liebe Nvidia Fanboys, spart es euch, einfach nur noch lächerlich. Es gibt keine Karte von Nvidia die auch nur Ansatzweise bezüglich Preis/Leistung/OC/Verbrauch mit der 4770 mithalten kann. Irgendwann sollte man das auch mal anerkennen können.
 
@doesntmatter
Manchmal habe ich seitenweise lang das Gefühl, dass du einer der wenigen bist, die mitdenken. Danke, auch von mir.

@Volker
Fullquote? Ist das nicht verboten? ;)

@Topic
Ich werde mir eine solche Karte kaufen und damit zufrieden sein. Mehr sogar: Ich werde von einer GTX260² abrüsten, weil sie mir einfach zu viel verbraucht. Jedenfalls für Sugo05 Gehäuse.

Mit dem Zotac 9300 ITX Board und dem o.g. Gehäuse sowie dieser Graka sind in den letzten 3 Monaten wirklich perfekte Komponenten für kleine, hocheffiziente und trotzdem halbwegs kühle Systeme auf den Markt gekommen. Fehlt noch die "Marktreife" von SSDs; für den Massenmarkt jedenfalls. Wie immer hat auch dort Qualität seinen Preis.

Think over your dish border ;)
 
Lübke schrieb:
nebenbei hab ich mir auch schon ne lösung gedacht: die igp mit auf die graka packen. eine gtx295 mit 9300-igp-chip (um die chipsatzfunktion abgespeckt) dürfte einen idleverbrauch im unteren zweistelligen oder gar einstelligen bereich bedeuten. noch besser bei der 4870x2 oder gar 4890x2 mit nem hd3200... imho wäre das eine richtig gute inovation, ohne dass das rad dafür neu erfunden werden müsste ;)

Hah, gute Idee. Lass die Karte am Ende 20 EUR teurer sein. Dürfte bei dem Idle Verbrauch der HighEnd-Monster schnell wieder drin sein.
Irgendwas müssen sie sich einfallen lassen. Wenn sie die aktuellen Chips nicht genügend runtergetaktet, teildeaktiviert oder was auch immer bekommen, dann müssen sie eben (wie auch immer) eine extra Einheit für den Idle-Betrieb implementieren.
 
die 4750 dürfte wohl deutlich vor der 4670 liegen. schätze, das sie sich zwischen 9600gt und 9800gt ge einordnen kann. in hohen auflösungen mit viel aa und af wird ihr dann wohl die puste ausgehn, aber das ist ja gar nicht ihre domäne. bei 1650 x 1050 in 4x aa und 8x af schätze ich die karte noch sehr stark ein. wie gesagt, wir dürfen nicht vergessen, von welcher klasse wir hier sprechen. eine 70,- € karte für die mittelklasse ist eben keine gts250 konkurrenz.
 
Schöner Test, schöne Karte.

Die macht doch fast alles richtig was wollt ihr eigentlich alle? Ey meine Güte und dann dieses AA/AF geflame, sitzt ihr beim Spielen nur vorm Bildschirm um euch die verschiedenen Ecken und Kanten von Bäumen und Ästen anzugucken?
Wenn ihr eine so realistische Grafik so wichtig findet dann geht raus in Park und spielt Fußball oder sonst was.

Es hieß der Catalyst sei kompakter. Was er installiert aber nicht ist. Ganz einfach.

Naja für mich soll er lieber beim runterladen kleiner sein, der nVidia Treiber dauert bei mir fast ne Stunde downzuloaden :D
 
Ich bin mal sehr gespannt, wann die erste graka von Nvidia @ 40 nm folgen wird.
Vorher kann man die hd 4770 zumindest verbrauchsmäßig nicht wirklich einordnen!
Ob die werte gut sind wird man erst sehen, wenn Nvidia kontert :)
Aber nichts desto trotz einen schritt in die richtige Richtung :)

mfg
 
Wie immer ein super Test wie man sich ihn wünscht.

Zur Karte: Das geht einfach nicht, das im Idle (in der sich die Karte mindestens zu 90% befindet) mehr Verbraucht wie eine High-End-Karte (GTX 285). Mir ist es relativ egal wie viel Watt ein Verbraucher zieht (naja, sagen wir maximal 2000W, da is dann auch meine Schmerzgrene) solange ich das Produkt auch wirklich benutze, aber ein hoher Stromverbrauch sozusagen im Standby ist für mich der eigentliche Grauß.
 
Das schlimme ist nur, dass alle Hersteller, sei es nun XFX, HIS oder Sapphiere diesen hässlichen Kühler verwenden.

Man muss ja fast in einen Musashi investieren, der Referenzkühler wäre ziemlich schön gewesen.

Gruss enba
 
Volker schrieb:
Danke! Ich hatte schon meine Zweifel, ob es überhaupt jemand rafft, wie der Hase so läuft. Aber dieser Post macht mir Hoffnung! Nochmals danke!

Ach Volker, immer schön ruhig weiteratmen. Viele wissen doch, wie der Hase läuft und sind dir dankbar für deine Mühen ;) Also keine grauen Haare wachsen lassen :cool_alt:

Schöner Test BTW!

@Lübke: Seh ich genauso. Ziemlich genau mittig zwischen 4770 und 4670.

Irgendwie werd ich das Gefühl nicht los, das ATI mit dem RV740 (also 4770/4750) etliche Grakas arbeitslos macht. Den eigentlichen Vorgänger 4670 sowieso und die 4830/4850 gleich mit ;)

Die 5850 wird ordentlich was reißen hoff ich mal, die 5870 sowieso...Schon voll gespannt

Mal schauen ob die 5870 schon als Referenzkarte mit 2GB kommt. :eek:

@the witcher: Nach den Gerüchten die mir bekannt sind, frühestens Oktober, eher Januar. Wobei sich das auf den Tapeout des GT300 bezogen hat. Und ob der schon in 40nm kommt...

Kann ja auch sein, das NVIDIA vorher n Refresh bringt, aber dann hätte man sich die 55nm grad sparen können...

Dann muss ja wieder alles umbenannt werden.

Thema Stromaufnahme: Viel mehr wirst du da auch nicht sehen. 4770 hat 80W TDP (scheint auch das Maximum zu sein), die 4850 hat 110W TDP (was nicht ganz dem Maximum entspricht)

Sind 30% weniger bei gleicher Leistung, wobei die 4850 natürlich nochn paar Nachteile hat, wie das doppelt so große Speicherinterface.

@Gorby: Sagt jemand mitm E6850 OC + 88GTS OC zusammen mitm 1000W NT...

Miss doch mal bitte dein Idle-Verbrauch und dann komm noch mal wieder zum diskutieren...

Dein NT heißt übrigens Amptac ;)
 
Zuletzt bearbeitet:
Wenn ich nicht schon eine 4850 hätte wäre das meine Karte.

Top Karte: 25€ günstiger als meine Karte und Leistungsmäßig gerade mal 5% langsamer.

Stromverbrauch und Lautstärke sind unter Last auch um welten besser.

Im Idle mot sind noch kleinere schwächen. Alles in allen aber Daumen hoch.

Wird wohl der neue Preisleistungssieger, wenn der Preis in der CB tabelle aktualisiert wird.

@Kaoznake: Bei einem 1000 Wattnetzteil wäre mir die Leistungsaunahme im Lehrlauf auch wichtig ; )
 
Zuletzt bearbeitet:
Bei der HD4670 gibts zum Beispiel von Powercolor die PCS Variante, die sehr schön leise ist.
Da ich zufällig genau diese Karte habe, möchte ich folgendes anmerken:
Die Karte taktet leider nicht soweit runter wie das (CB-getestete) Referenzdesign.
Unter Windows taktet sich die RV730-GPU der Grafikkarte auf nur noch 165 MHz herunter, während der VRAM mit geringen 250 MHz angesteuert wird.
Diese Karte:
Idle:
GPU 500 MHz
VRAM 750 MHz
3D Takt (genau wie Referenz);
GPU 750 MHz
VRAM 1000 MHz

Also, nichtmal knapp daneben.
Der Fairness halber muss ich sagen, dass ich mit der Karte, bis ich davon wußte (Kauf 12/08, Wissen 03/09) sehr zufrieden war.
Sie ist sehr leise, kühl, und performt wie eine 4670 (für mich absolut ausreichend bei 1280x1024).
Aber ich wollte eigentlich den IDLE-KING, und wo diese Karte wirklich steht, weiß ich nicht, aber definitiv schlechter.
Naja, die Hoffnung stirbt zuletzt...

Gruß

Doc

PS:
@H€553
Bevor ich das wußte habe ich auch jedem (der es nicht hören wollte) erzählt wie toll die Karte ist.
Aber das muss man leider dazu sagen.
Also bitte zur Kenntnis nehmen, für Idle-Freaks, nicht empfehlenswert (ohne genaue Idle-Zahlen).
 
Zuletzt bearbeitet:
doesntmatter schrieb:
Hast du schon mal einen einzigen Testdurchlauf mit annähernd vielen Testprogrammen und Settings durchgeführt ? Natürlich nicht, aber vorstellen kannst du es dir ? Der erste Schritt. Jetzt wechsle die Grafikkarte aus. Nächster Durchlauf. Ach ja, manche meinen, man sollte für jede Grafikkarte die optimale CPU verwenden. Also bitte die CPU ebenfalls tauschen. Nächste Karte, nächste CPU. Sorry, ganz vergessen, das Netzteil ist zu stark, nimm für diesen, den dritten bis fünften Durchlauf das Netzteil mit 500 Watt, danach natürlich die Stärkeren, jetzt ist das 500er zu schwach, bitte ein 650er, erst zum Schluß das 850er. Wir hamm´s ja, Zeit sowieso, die Nächte sind lang.

Wieder falsch. :rolleyes: Natürlich bei den sparsamen CPUs EIST bzw. Cool & Quiet einschalten, nur bei hochgetakteten Quads und den CPUs, die sowieso JEDER hier niemals im Sparmodus betreiben würde, ausschalten, sonst verzerrt man ja den Praxisbetrieb VÖLLIG.

Ja, die Sponsoren stehen in so einer Redaktion bereit, um just-in-time die aktuell benötigte Komponente handzureichen, damit die Tester wenigstens ETWAS kostbare Zeit sparen können, die sie brauchen, um die Testbedingungen jedem Kritiker im Forum verständnisvoll und ehrerbietig erläutern zu dürfen. Ach, so ein Redaktionsleben ist schon schön ...

P.S. Weder verwandt noch verschwägert.

So war das alles nicht gemeint...

1. Wenn du wüsstest wie ich meine Hardware quäle... :evillol:
Aber da hast Recht - nein so viel teste ich nicht - ich weiß aber wie viel Arbeit es schon für ein System sein kann.
2. Das NT ist überdimensionert, das ist Fakt. Und zwar für so zeimlich jede Kombo hier. Ausnahme Tripple SLI / Crossfire. Nen gutes 500Watt NT schafft einen Quad + aktuelle High-End Graka.
Für alle Tests mit CPU @OC + Tripple SLI / Crossfire kann man es sich noch antun ein größeres NT für diese Test zu verwenden. Da Diese Kombo die Ausnahme bildet.
3. Von C&Q bzw. EIST habe ich niemals was gesagt.
4. Von der optimalen CPU für jede Graka auch nicht.
5. Das NT kann schon vor längerer Zeit gesponsort worden sein, unter der Auflage, dass es möglichst oft zum Testen verwendet wird. Eine Annahme die ich als Frage formuliert hatte und nicht als Aussage!

U - FAILED!

@Volker - ich will euch hier keine Extra Arbeit aufschwatzen, noch sagen, dass ihr Faul seid.
Im Gegenteil war das nur eine Anregung, ihr könnt testen wie ihr das für richtig haltet - wenn ich die exakten Leistungsaufnahme haben will schau ich dafür halt auf einer anderen Seite.
Ansonsten war der Test nähmlich klasse.
 
Zuletzt bearbeitet:
@ Suizid Ich könnte mir noch vorstellen die größe des Rams/Anzahl der Riegel an die größe des Arbeitspeicher der Graka anzupassen, da viele Riegel auch mehr Strom brauchen und Grafikkarten mit wenig ram diesen ja nicht voll nutzen können.
Alternativ könnten wir auch zu besseren vergleichbarkeit der Stromaufnahme den Arbeitsspeicher der Graka auf 128mb begrenzen.:freak:
 
Suizid schrieb:
1. Das NT ist überdimensionert, das ist Fakt. Und zwar für so zeimlich jede Kombo hier. Ausnahme Tripple SLI / Crossfire.
Völlig egal ob es die Ausnahme bildet. Du kapierst nicht worum es geht und zwar um VERGLEICHBARKEIT (mal abgesehen vom zeitlichen Aufwand) und um die zu gewährleisten, muss das NT eben auch fordernste Szenarien meistern können. Dagegen ist die Vergleichbarkeit eben nicht mehr gegeben, wenn man einfach mal ein NT wechselt. So verfälscht man die Messungen, nicht durch ein ineffizientes NT, da die Effizienz auf ähnliche (bzgl. Leistungsaufnahme) Graka genauso wirkt. Außerdem weiß ich nicht, was du dir von einem anderen (effizienteren) NT erhoffst? Die Reihenfolge im Diagramm bleibt gleich. Es stehen vll niedrigere Zahlen da, aber die interessieren eh nicht, weil sich aus dem Gesamtverbrauch sowieso keine seperaten Zahlen für bestimmte Komponenten errechnen lassen.

4. Das NT kann schon vor längerer Zeit gesponsort worden sein, unter der Auflage, dass es möglichst oft zum Testen verwendet wird.
Pure Spekulationen. Was soll das bringen?

Fühlst du dich jetzt cool?
 
Zuletzt bearbeitet:
@Suizid
Bei den gewählten Testsetup, geht es nur um eines:

Maximale Vergleichbarkeit, auch mit späteren Tests (oder max. Tests, also Quad SLI/CF)!

Nun kann man zwar einwenden, dass das NT (für diesen Test) nicht optimal/fragwürdig ist, gleiches gilt für die CPU.
Aber bei begrenzten Mitteln (Zeit, Arbeit, Kosten, Motivation;)) ist es eine gute Basis um ein breites Spektrum miteinander vergleichen zu können.

Ohne die Mittel (s.o.) zu steigern, könnten Klassentests, wie Du sie forderst (also NT + CPU innerhalb ihrer Klasse), nur noch Klassen-intern vergleichbare Ergebnisse zeigen.
Wie weit der Abstand, zwischen Low-, Mid-, und High-End ist ließe sich dann nur noch abschätzen.

Also, es ist halt ein Kompromiss, nicht perfekt, aber in der Summe der Argumente gerechfertigt.

Gruß

Doc
 
Zuletzt bearbeitet:
Suizid schrieb:
2. Das NT ist überdimensionert, das ist Fakt. Und zwar für so zeimlich jede Kombo hier. Ausnahme Tripple SLI / Crossfire. Nen gutes 500Watt NT schafft einen Quad + aktuelle High-End Graka. Für alle Tests mit CPU @OC + Tripple SLI / Crossfire kann man es sich noch antun ein größeres NT für diese Test zu verwenden. Da Diese Kombo die Ausnahme bildet.

https://www.computerbase.de/2009-02...ad-sli-vs-crossfire-x/3/#abschnitt_testsystem

-> alle Tests mit einem NT (!!) = die Vergleichbarkeit ist im Rahmen des Möglichen gewährleistet.

Suizid schrieb:
5. Das NT kann schon vor längerer Zeit gesponsort worden sein, unter der Auflage, dass es möglichst oft zum Testen verwendet wird. Eine Annahme die ich als Frage formuliert hatte und nicht als Aussage!

? unwahrscheinlich das hier irgendwelche Auflagen erfüllt werden müssen. Es gab hierzu eine offizielle Mitteilung ... find die nur nicht mehr. Grund der Aufrüstung war, wie oben geschrieben, 3W-SLI /CF-X Kombos die mit nem kleinen NT nicht zu packen waren. Zumal die Effizienz doch sehr nach am 80+ silber ist

Code:
Efficiency  	83%(170W) / 86%(425W) / 82%(850W)

/edit
verdammt, zu lang gesucht :D
 
Zuletzt bearbeitet: (edit)
Zurück
Oben