Test Test: ATi Radeon HD 4770

ich denke dass der stromverbrauch eher zweitrangig ist
wenn man sieht was andere karten sinnlos verbraten.
außerdem kann man doch selbst runtertakten, da die karte durchaus für ihr geld eine gute leistung und einen geringen stromverbrauch unter last hat
die paar watt hin oder her, da kauf ich lieber ne 4770 weil sie schneller ist.
egal ob sie nun mehr stromverbruacht wegen dem GDDR5 oder sonstwie
 
Idle-Verbrauch ist also irrelevant, Bildqualität ist irrelevant, Treiberqualität ist irrelevant. Was ist denn entscheidend, nur noch FPS/Euro? Da ist die Karte ein sehr gutes Angebot, keine Frage!
 
Was ist denn entscheidend, nur noch FPS/Euro?
Viele Fps bei beschissener BQ sind nichts, aber auch gar nichts wert. Außer man zockt MP oder ist 1337 oder steht auf Augenkrebs.
 
smith0815 schrieb:
Idle-Verbrauch ist also irrelevant, Bildqualität ist irrelevant, Treiberqualität ist irrelevant. Was ist denn entscheidend, nur noch FPS/Euro? Da ist die Karte ein sehr gutes Angebot, keine Frage!

1. nicht irrelevant, aber auch nicht sehr kaufentscheidend. Solange der Idle Verbrauch im akzeptablen Rahmen ist, dann ist das okay. Einige Leute stellen dass ja dar, als würde die 4770 ein ganzes AKW leer nuckeln im Idle.

2. Steht nicht zur Debatte

3. Wird teilweise angesprochen. Aus meiner Erfahrung herraus kann ich sagen, dass nV und ATi Treiber gleich gut sind.

Mit deinem letzten Satz erweckst du den Eindruck, als würde ATi schlechte Bildqualität und Treiber liefern. Sorry aber in meinen Augen, ziemlicher Schwachfug.
 
@smith0815: Seit wann sind die Treiber irrelevant? Es gitb scheinbar nur viele, die noch nie bemerkt haben, dass AMD schlechte Treiber hat und ich habe bereits 3 Karten getestet, die entstanden sind, nachdem AMD ATI übernommen hat. Nicht mal unter Linux gab es da Probleme.
Der Idle verbrauch ist auch nicht egal. Wenn 2 Karten ansonsten gleichwertig sind würde ich auch die mit dem geringerem Stromverbrauch nehmen. Da es aber noch andere Faktoren gibt, die bei der Karte wirklich gut sind, ist das nicht der Fall.
Die Bildqualität steht bei einer Midrange Karte nicht im Vordergrund. Wenn man wirklich gute Bildqualität haben will kauft man sich eine High End Karte. Bei dem Segment unter 100€ ist es aber wichtiger, dass alle Sachen ruckelfrei laufen.
 
ATi schlechte Bildqualität [...] in meinen Augen, ziemlicher Schwachfug.
BQ ist schlechter, hinsichtlich des AF. Und an SSAA oder gar die xS-Modi kommt AMD auch nur über Umwege ran.
 
@ SamSoNight

Das ist ja schön und gut, dass dieser idle Verbrauch für dich akzeptabel ist. Für mich ist er es nicht. Mein Komplettes Notebook verbraucht im idle weniger als 1/3 und auch mein kompletter Rechner verbraucht ohne Bildschirm nicht viel mehr als diese "absolut akzeptable" Grafikkarte alleine.
Was daran absolut akzeptabel ist, kann ich ehrlich gesagt nicht sehen. Nur weil man es gewohnt ist, dass Grafikkarten so viel verbrauchen, bedeutet es noch lange nicht, dass man es akzeptieren muss.

Und ich kaufe eine Karte immer noch als Gesamtpaket. Und wer zahlt mir den Zeitaufwand und eventuell die anfallenden Kosten, die beim modifizieren entstehen? Gibts da dann einen Rabatt? Wohl kaum...
Wer Spaß am herumdoktern hat, darf das gerne machen. Ich will ein Produkt, das ich einbaue und das auch so wie man es erwarten kann, funktioniert.


Edit:
Und die aufgenommene Energie wird fast komplett als Wärme abgegeben. Da ist es egal, ob der Ram oder der Chip das verbraucht.
 
Zuletzt bearbeitet:
SamSoNight schrieb:
2. Steht nicht zur Debatte
Warum steht die Bildqualität nicht zur Debatte? Ich persönlich brauche spielbare Frameraten, das sind je nach Genre konstante 30FPS oder 60FPS, alles was ich darüber hinaus an Leistungsreserven habe geht in Bildqualität. Eine Grafikkarte, die hier überhaupt nicht die Möglichkeit bietet, ansprechendes AF zu aktivieren, finde ich schon ein wenig limitiert.

3. Wird teilweise angesprochen. Aus meiner Erfahrung herraus kann ich sagen, dass nV und ATi Treiber gleich gut sind.
In Sachen Stabilität und Bugdichte kann ich das bestätigen, aber der Catalyst hat deutliche Mängel. Er erlaubt nicht, den AAA-Modus zu wählen, über MS oder SS entscheidet allein A.I. Er erlaubt auch nicht, den Kompatibilitätsmodus für AntiAliasing oder Crossfire vorzugeben, hier kann man bestenfalls die EXE umbenennen, was aber leider nicht immer möglich ist. Außerdem fehlen wichtige Features, wie zum Beispiel SuperSampling, das gegen Shaderflimmern eine Wohltat ist.
 
Zuletzt bearbeitet: (Features...)
@smith0815: ja, fps und preis sind die beiden wichtigsten entscheidungsgrößen. es ist ja nicht so, dass die bildquali, die treiber und der idleverbrauch bei ati untragbar wären.
- der verbrauch der 4770 liegt zwar weit hinter den erwartungen zurück, ist aber immer noch der leistungsklasse angemessen
- das af flimmert zwar bei ati stärker als bei nv, aber ist immer noch so gering, dass es in den meisten spielen kaum auffällt. (ich hab ne hd4k und kann mich nicht beklagen)
- bei den treibern ist ati zwar i d r langsamer als nvidia und imho sind die treiber auch nicht so toll wie die von nvidia, aber das ist jammern auf sehr hohem niveau. schau dir mal intels grafiktreiber an, dann kommen dir atis treiber perfekt vor ;)
unterm strich gibts einige kleinigkeiten an der 4770 auszusetzen, aber leistung und preis sowie immerhin der last verbrauch machen sie dennoch zu einer sehr guten und der 9800gt absolut (mindestens) ebenbürtigen karte!
 
H€553 schrieb:
@smith0815: Seit wann sind die Treiber irrelevant? Es gitb scheinbar nur viele, die noch nie bemerkt haben, dass AMD schlechte Treiber hat und ich habe bereits 3 Karten getestet, die entstanden sind, nachdem AMD ATI übernommen hat. Nicht mal unter Linux gab es da Probleme.
Ähh, was meinst Du? Findest Du jetzt die Treiber gut oder schlecht?
H€553 schrieb:
Die Bildqualität steht bei einer Midrange Karte nicht im Vordergrund. Wenn man wirklich gute Bildqualität haben will kauft man sich eine High End Karte.
Das ist ja eine interessante Aussage. Dann haben nur 5% der User eine gute Bildqualität und der Rest schaut auf ein verwaschenes Bild oder meinst Du etwas anderes?
 
@Seppuko: Was für einen Rechner hast du denn bitte? Die sparsamste Karte von Nvidia aus dem test verbraucht 12W weniger als die 4770 im Idle. Wenn man eine ATI nimmt kommt man immerhin auf 31W weniger. Zeig mir mal bitte den Rechner, der mit 40W im Idle inkl Graka (und der Leistung, die diese bietet) auskommt.

@Daniel D.: Wenn ich keine Probleme mit den ATI Treibern habe könnte man davon ausgehen, dass ich die nicht schlecht finde.
Ich meinte mit der Aussage, dass es bei grafikkarten in der Preisklasse erst einmal wichtiger ist, dass die Spiele überhaupt laufen. Was nutzt mir die beste Bildqualität, wenn ich mit 15fps spiele? Da lieber eine angeblich schlechtere Bildqualität (ich habe noch nie ein Spiel mit einer Nvidia und einer ATI Karte auf den gleichen Einstellungen nebenbeinander gesehen und kann es daher nicht beurteilen. Schlecht kommt mir die Bildqualität von AMD aber nicht vor) als ein unspielbares Spiel.
 
Zuletzt bearbeitet:
Seppuku schrieb:
@ SamSoNight

Das ist ja schön und gut, dass dieser idle Verbrauch für dich akzeptabel ist. Für mich ist er es nicht. Mein Komplettes Notebook verbraucht im idle weniger als 1/3 und auch mein kompletter Rechner verbraucht ohne Bildschirm nicht viel mehr als diese "absolut akzeptable" Grafikkarte alleine.
Was daran absolut akzeptabel ist, kann ich ehrlich gesagt nicht sehen. Nur weil man es gewohnt ist, dass Grafikkarten so viel verbrauchen, bedeutet es noch lange nicht, dass man es akzeptieren muss.

Und ich kaufe eine Karte immer noch als Gesamtpaket. Und wer zahlt mir den Zeitaufwand und eventuell die anfallenden Kosten, die beim modifizieren entstehen? Gibts da dann einen Rabatt? Wohl kaum...
Wer Spaß am herumdoktern hat, darf das gerne machen. Ich will ein Produkt, das ich einbaue und das auch so wie man es erwarten kann, funktioniert.

Eine Gaming-Desktopkarte mit einem Notebook vergleichen ist schon schwach...
Und dein kompletter Rechner wird sicher kein Gaming Rechner sein (Nochmal 4770=Gamerkarte), wenn er so wenig verbraucht. Höchstens wenn du selber Hand angelegt hast (untervolten, untertakten usw) und damit würdest du dir selbst widersprechen.

Das Gesamtpaket ist für eine Gamingkarte nicht nur akzeptabel sondern spitze. Der Stromverbrauch im Idle ist im ordentlichen Mittelfeld, FPS/Kosten top.
Und wenn du eine leise Karte willst, mit niedrigen Temperaturen musst du wohl auf die "Luxusvarianten" wie IceQ4 und wie sie alle heißen warten. Das ist bei fast allen Karten so, dass das Referenzdesign nicht sehr leise und/oder kühl ist. Und warum soll eine eingebaute 4770 nicht funktionieren :p

@smith:

Für die ganzen erweiterten AA Modi ist eine 4770 eh zu schwach bei aktuellen Spielen. Wenn du ältere Spiele meinst, dann sehen die auch mit normalen 8x MSAA gut aus. Die Unterschiede muss man mit der Lupe suchen. Meckern auf hohem Niveau halt, wie ein Vorposter sagte. Aber wenn du unbedingt 32x AA in CS 1.6 brauchst, bittesehr, kauf dir eine nVidia.
 
H€553 schrieb:
@smith0815: Seit wann sind die Treiber irrelevant?
Sind sie natürlich nicht, Ironiedetektor kaputt?
Die Bildqualität steht bei einer Midrange Karte nicht im Vordergrund. Wenn man wirklich gute Bildqualität haben will kauft man sich eine High End Karte. Bei dem Segment unter 100€ ist es aber wichtiger, dass alle Sachen ruckelfrei laufen.
Guter Witz, es sei denn mit HighEnd-Karte meinst du eine GTX260/285 und höher? Kaufe ich statt der HD4770 eine leistungsfähigere ATI-Karte, dann leide ich immer noch unter den unverschämten Limitierungen der Bildqualität. ATI hat den R600 damals böse verhauen und war geradezu gezwungen, uns die AF-Sparmaßnahmen zuzumuten, mit seinen lächerlichen 16 TMUs war das Teil einfach nicht konkurrenzfähig. Leider wurde und wird die Schweinerei bis heute schöngeredet und somit haben wir als Käufer noch immer keine Möglichkeit, die Bildqualität auf Kosten der Framerate bewusst zu erhöhen. Es gibt nur Low-Quality AF, sogar bei Crossfire-Gespannen, dafür hält uns ATI für blöd und verkauft uns 8xAA in Kombination mit Low-Quality-AF als hohe Bildqualitätsoption, wobei ja sogar ComputerBase und andere diesen Unsinn befördern.
 
SamSoNight schrieb:
Aber wenn du unbedingt 32x AA in CS 1.6 brauchst, bittesehr, kauf dir eine nVidia.
Das Problem an so etwas könnte sein, dass Nvidia bei hohem AA so langsam wird, dass nicht mal mehr ne GTX295 dafür ausreichen würde ;)


@smith0815: habe die ironie erkannt und auch geschrieben, was ich zu deinem Vorwurf, dass AMD schlechte Treiber hätte, halte.
 
Zuletzt bearbeitet:
smith, ich glaube 99% der User hier reicht 8x AA aus.

Schau mal:
http://img3.abload.de/img/nvidiabildc0p.jpg

CS:S in 1920*1200 mit 8x AA. Ich sehe da kein einziges Treppchen, in einem Standbild. Wie will man sowas in Bewegung sehen?
 
Seppuku schrieb:
@ KAOZNAKE
Das einzige, was die 4770 gut macht, ist das Preis/Rechenleistungsverhältnis.
Es gibt aber noch Menschen, die noch weitere Anforderungen an eine Grafikkarte haben. Wenn ich sie nicht brauche, dann will ich von ihr nichts hören und sie hat nicht meine anderen Komponenten aufzuheizen und fürs Nichts-tun, Kosten zu verursachen.

So habe ich auch mal gedacht. Aber die Bedienung von RivaTuner ist wirklich keine Wissenschaft. Das dauert auch nicht länger als ein Nachmittag, an dem man sich mit Lagerfanatisten über neueste Grafikkarten streitet ;)
Soll heißen: Die perfekte Werksgrafikkarte, insbesondere für kleine HTPCS oder extreme SilentPCs gibt es halt nicht wie Sand am Meer. Also wird gemoddet.

Auch ich habe hohe Ansprüche an ein System und eine Grafikkarte. Dazu gehört allen voran ein sehr leiser Betrieb.
Dafür brauche ich schon mal ein leises oder mglw. sogar passives Netzteil. => Wie jeder weiß sind die relativ schwach. => Ergo ist die Hd4770 mit ihren 220(?) Watt Lastverbrauch auf einem der Hd4850 vergleichbaren Leistungsniveau doch ein tolles Produkt, oder nicht?

Eine GTX285 hat an sich - in ihrer Liga(!) - ein gutes Watt-Leistungsverhältnis. Aber die Grundperformance dieser Karte hier kann sich durchaus sehen lassen. Dennoch genehmigt sie sich rund 90 Watt weniger unter Last. Laut CB Test. Mit 850 Watt Netzteil, meinetwegen.


@IlDuce88
Du vergleichst Äpfel mit Datteln. Der G200 GTX Chip unterliegt einer völlig anderen Strategie und ist ein einem beinahe doppelt so hoch angesiedelten Preisgefüge zu Hause. Warum ist das so? Weil das Speicherinterface und die monströse Komplexität der Chips bei gleichzeitig relativ schlechter Ausbeute der Wafer, aus der die Karten gefertigt werden, eben wenig lukrativ ist.

128Bit SI mit 448SI oder größer zu vergleichen ist etwas witzlos. WENN Nvidia eine bugfreie 40nm Karte rausbringt mit 10-20 Watt idle und toller Leistung bin ich der Erste, der sie kauft. Aber man sollte schon bei den Fakten bleiben. :)
 
Zuletzt bearbeitet:
SamSoNight schrieb:
smith, ich glaube 99% der User hier reicht 8x AA aus.
Ich rede doch überhaupt nicht von 8xAA. Wenn bei 4xAA und 16xAF (hohe Qualität wäre schön, gibts bei ATI leider nicht) noch Reserven sind, dann schaltet jeder vernünftige Mensch erstmal TAA/AAA hinzu, um Transparenzen zu glätten (bei ATI habe ich leider nicht die Wahl ob MS oder SS). Wenn dann immer noch Luft ist, kann man bei Nvidia mittels der HybridModi prima das gesamte Bild aufhübschen und erwischt auch noch flimmernde Shader. Wie man sieht, gibt es für die Grafikkarte jede Menge zu tun, bevor 8xAA interessant wird.

Hier wird jedoch suggeriert, 8xAA mit 16xAF (16xLQAF bei ATI) wäre ein qualitativ hochwertiger Modus und womöglich sogar sinnvoll, das stelle ich in Abrede. :freak:

P.S. Die performanten Coverage-Modi von Nvidia lasse ich mal bewusst unter den Tisch fallen, verkompliziert das Ganze nur...
 
Zuletzt bearbeitet: (Coverage)
@smith0815: die 4770 ist eine mittelklasse-karte. deine anforderungen erfordern aber schon highend. bei der 4770 ist bei 4 x aa und 16 x af in 1650 x 1050 bei höchsten einstellungen doch eh meist ende der fahnenstange, da brauchst du mit den höherwertigen modi gar nicht mehr anzufangen. klar, an der stelle hat ati aufgrund des r600 in der architektur sparen müssen, um die 2900xt nicht völlig gegen die 8800gtx untergehen zu lassen und das rächt sich jetzt in der architektur bei den ablegern. aber dann sind wir auch nicht mehr im mittelklassesegment sondern highend. das kannst du der 4870/4890 ankreiden, aber doch nicht der 4770.
einzig das af-flimmern, aber das thema hatten wir ja schon.
 
Zurück
Oben