Test Test: ATi Radeon HD 4770

IlDuce88 schrieb:
Sorry, aber wenn ATI den DDR5 nötig hat. Eigenes Grab geschaufelt sozusagen.

Wieso das denn?!
Ich mein wenn es diese Technologie gibt, wieso sollte man nicht darauf zurück greifen?!
 
Offensichtlich weil sie auch noch Nachteile hat. Ist halt oft ein zweischneidiges Schwert. Aber da die Kostenvorteile (durch kleineres SI kleinerer Chip und weniger komplexes PCB) in AMD finanzieller Lage wohl deutlich überwiegen, hat man da bestimmt nicht lange drüber nachgedacht. Trotzdem müssen sie sich jetzt die Kritik an der idle Leistungaufnahme gefallen lassen.
Wobei natürlich spannend wäre, wie es beim nVidias erster Karte mit GDDR5 aussieht und ob es tatsächlich am GDDR5 selbst liegt oder am SI.

Antimon schrieb:
Naja zumindest die $500 kann man sich sparen, wenn man das nötige Know-How hat, um selbst was zusammenzubasteln, siehe HT4U. Aber PCGH hat anscheinend genug Kohle :P
 
Zuletzt bearbeitet:
Hallo miteinander

Ich bin auch sehr interessiert an dieser Karte und werde wohl bald zuschlagen! :D

Jetzt wollte ich euch nur mitteilen, dass dieser angeblich "hässliche" Kühler sehr leise seine Arbeit verrichtet:

http://techreport.com/articles.x/16820/11

Ihr könnt denke ich ohne Probleme auf diesen Kühler zurückgreifen. Die meisten Karten haben einen solchen verbaut.

Gruss
 
smith0815 schrieb:
Keine Polemik, Argumente. Wenn bei 4xAA und 16xAF (hohe Qualität wäre schön, gibts bei ATI leider nicht) noch Reserven sind, dann schaltet jeder vernünftige Mensch erstmal TAA/AAA hinzu, um Transparenzen zu glätten (bei ATI habe ich leider nicht die Wahl ob MS oder SS). Wenn dann immer noch Luft ist, kann man bei Nvidia mittels der HybridModi prima das gesamte Bild aufhübschen und erwischt auch noch flimmernde Shader. Wie man sieht, gibt es für die Grafikkarte jede Menge zu tun, bevor 8xAA interessant wird.
Interessiert mich ehrlich gesagt immer noch nicht. So wie das Gro der Spieler. Das ist nun wirklich Lamentieren auf hohem Niveau. Oder um es auf den Punkt zu bringen, Polemik, die in einem solchen Thread nichts zu suchen hat. Es geht hier um ein konkretes Modell und nicht um generelle Grundsatzfragen der Architektur. Wenn du darüber diskutieren willst, solltest du dir einen anderen Thread suchen.

smith0815 schrieb:
Du beklagst Polemik, schlägst aber wild um dich und lieferst nicht ein Argument.
Ich schlage nicht wild um mich, sondern kritisiere diejenigen, die hier ständig Öl ins Feuer giessen. Ich habe mir das nun lange genug angeschaut. Und es geht mir genauso auf die Nerven wie anderen Usern auch. Falls dir die Worte zu hart sind und du dich persönlich angesprochen fühlst, tut es mir leid für dich. Daran etwas ändern kannst aber nur du. Und welche Argumente willst du denn und wofür?

smith0815 schrieb:
Niemand redet irgendetwas schlecht
Nein, natürlich nicht. Ich bin ja auch der erste und einzige, der mangelnde Sachlichkeit und übertriebene Unsachlichkeit anmahnt. Es ist ja nicht so, dass die HD 4770 keine Vorteile hätte. Bei den entsprechenden Kandidaten hört man seltsamerweise AUSSCHLIESSLICH negative Argumente. :rolleyes:

smith0815 schrieb:
es gibt nur Gründe warum qualitätsbewusste Spieler alle aktuellen ATI-Karten kritisch hinterfragen sollten.
Nicht mehr oder weniger als bei der Konkurrenz. Schon mal was von subjektiver Wahrnehmung gehört? Der eine empfindet AF hier angenehmer, der andere AA dort. Und? Nochmal, wo genau ist denn das Problem? Perfektionismus bekommst du weder bei AMD noch nVidia. Jeder hat seine Stärken und Schwächen. Es gibt wichtigere Punkte an einer GPU, um hier Nadeln im Heuhafen zu suchen. Ende der Geschichte.

smith0815 schrieb:
außerdem hat ATI Powerplay in Zusammenhang mit GDDR5-Speicher noch immer nicht im Griff. Darüber wird man in einem Diskussionsforum "Grafikkarten Fachgespräche" doch auch noch reden dürfen.
Natürlich. Aber erstens reicht es, wenn man Kritik einmal anspricht und dies nicht in jedem Beitrag gebetsmühlenartig immer wieder und wieder runterleiert. Und zweitens sollte man auch nicht masslos übertreiben.

smith0815 schrieb:
Tatsächlich sollte man IMHO die herstellerübergreifenden Diagramme spätestens bei 4xAA/16xAF enden lassen
Lass sie doch gleich bei 1xAA/1xAF enden, dann braucht sich niemand mehr aufzuregen. Wer zwischen den Zeilen lesen kann, weiss aber schon, worauf du hinauswillst. Auf der einen Seite die angeblich vorgegaukelten High Quality Modi bei AMD abstreitig machen, auf der anderen Seite die 8xAA Schwäche von nVidia ausblenden. Sehr objektiv und kein bisschen Doppelmoral. :rolleyes:

aspro schrieb:
Post 124: Auch wenn der Post an dich gerichtet, hab ich nichts zitiert, weil ich auch auf keine besondere Textstelle verweise, sondern allgemein die Messungen von xbit anzweifle, die du ins Gespräch gebracht hast.
Das ist zwar richtig, du zitierst nichts, da ich aber zuvor nur einen Beitrag geschrieben hatte, sollte klar sein, worauf es sich bezog. Und dort spreche ich eben von Last, sowohl was die Performance als auch Leistungsaufnahme betrifft. Oder ermittelst du FPS unter Idle? Ich erwähne zuvor ja extra noch, dass Verbesserungen des Fertigungsprozesses vor allem unter Last zum tragen kommen. Wieso sollte ich bezüglich Effizienz also von Idle sprechen? Das macht keinen Sinn. Idle erwähne ich ja noch explizit in den letzten zwei Sätzen.

aspro schrieb:
Post 142: Du zitierst mich und interpretierst Last rein, nur um es irgendwie widerlegen zu können, anstatt mal nachzudenken, dass ich damit was anderes gemeint habe.
Nein, ich interpretiere gar nichts rein. Du bist schlichtweg von einem falschen Vorsatz ausgegangen. ;)

aspro schrieb:
Was genau soll die Verschmelzung von CPU und GPU daran ändern? Das ist lediglich eine Maßnahme zur Erhöhung der Integrationsdichte ergo zur Kosteneinsparung.
Nicht lediglich. Momentan schaut es so aus, dass man auf dedizierte Grafikeinheiten nur dann verzichten kann, wenn eine IGP an Board ist. Das ist praktisch nur im mobilen Bereich durchgängig gegeben. Mit der Verschmelzung von CPU und GPU wird sich dieser Umstand ändern. Eine CPU brauchst du sowieso. Und die integrierte Grafikeinheit bekommst du eben gleich noch mit. Für 2D Anforderungen reicht diese vollkommen aus. Ein sauberes Energie Management wird daher unabdingbar sein, und zwar für den kompletten Client Markt und nicht nur für Notebooks. Und das sinnvollste ist eben, die dedizierte Grafikeinheit komplett abzuschalten. Letztendlich gibt es zwei Modi, die dann wichtig sind, Standby und Last. Was die Grafikkarte unter Idle macht bzw machen würde, spielt im Endeffekt keine Rolle mehr.

y33H@ schrieb:
Langsamer idR, ja. Schlechter - nein.
Wenn er langsamer ist, ist er auch schlechter. Es zählt ja nicht nur Qualität, sondern auch Performance. Eines von beiden gut hinzubekommen, ist keine Kunst. Nur beides zusammen kann ausschlaggebend sein.

y33H@ schrieb:
Jup. Dann weise aber erstmal nach, was neuere Treiber bringen. Gerade die 4850 und 4870 Ergebnisse basieren ja auch noch auf recht alten Treibern. Deine Aussage, dass die 8800 GTX einen Tick schneller als die HD 4850 wäre, ist damit ebenso zweifelhaft. Ganz im Gegenteil, ich denke trotzdem, dass sie falsch ist. Schau dir mal ältere Tests hier bei CB an. Beim Launch der 9800 GTX war diese etwa 5-10% schneller als die 8800 GTX, mit nahezu identischen Treibern. Lediglich bei hohen Einstellungen, wenn der 9800 GTX die Bandbreite ausging, fiel diese zurück. Sollte hier aber keine Rolle spielen. Und die 9800 GTX kommt nun mal nicht ganz an die HD 4850 ran. Also immer schön objektiv bleiben und auch mal die gründe Brille abnehmen. ;) Einigen wir uns darauf, dass die 8800 GTX unter praxisnahen Auflösungen wohl irgendwo zwischen HD 4770 und HD 4850 liegt.
 
gruffi schrieb:
Dann weise aber erstmal nach, was neuere Treiber bringen.
Siehe hier. Steigert die Fps in Crysis, GRID, Fallout 3, FC2 und CoD WaW.
gruffi schrieb:
Wenn er langsamer ist, ist er auch schlechter.
So rum betrachtet hast du natürlich recht. Qualitativ gleich, in vielen Fällen aber ist bei Nvidia der Drop von 4x auf 8x (deutlich) größer als bei AMD. Ausnahmen wie FC2 bestätigen die Regel.
gruff schrieb:
Schon mal was von subjektiver Wahrnehmung gehört? Der eine empfindet AF hier angenehmer
Flimmer-AF ist Unterabtastung. Das ist objektiv schlechter.
 
Zuletzt bearbeitet:
Weis jemand ob zu der Karte DVI -> VGA Adapter mitgeliefert werden und wenn ja bei welcher Marke?
Bin sehr interessiert an der Karte :)

mfg
 
Bei den (full) Retail Varianten sollten sie dabei sein aber bei Bulk Ware wäre ich diesbezüglich immer vorsichtig.

Aber mal eine andere Frage an unsere AF Fetischisten. Wieviele von euch hatten eine Karte der Geforce 7 Reihe?
 
Das OC potenzial ist wirklich extrem , habe die 4770 schon fast bei 1Ghz Core , sie ist schon fast so schnell wie eine HD4870 aber auch nur fast .
 
Ich hatte große Erwartungen an diese Karte, besonders bei der Leistungsaufnahme. Sie sollte meine betagte aber äußerst sparsame und per BIOS Mod untervoltete HD3850/512 ersetzen.

Dann kamen erste Meldungen, das die Karte einen zusätzlichen Stromanschluß benötigen wird. Diese Maßnahme wurde oft mit einer möglichen Übertaktung begründet. Zum Release wurde der Presse dann ein im Bereich der Spannungsversorgung vollbestücktes Modell, mit ordentlichem Lüfter zur Verfügung gestellt.

In den Handel gelangen jedoch nur stark abgespeckte Versionen. AMD scheint von der Leistung der Karte wohl selbst überrascht zu sein. Das Motiv ist klar, AMD möchte keine Konkurrenz zur HD 4850/70 haben.

Ich fühle mich verschaukelt. Hoher IDE-Verbrauch gepaart mit beschnittener OC-Möglichkeit ist für mich absolut inakzeptabel!

Schade
 
@ wadenbeisser

Q ist auf einer GF7 zum Kotzen, HQ ist um Welten besser. Flimmern tuts aber bei fiesen Texturen (imo weniger als bei AI-def), zudem filtert ne winkelabhängig :freak:
 
Natürlich. Wenn er das so genau weiß, wird er sicher schon mal ein GF7 gehabt haben.
 
Das war damals allgemein bekannt das die Winkelabhängigkeit das Letzte war und die Karten stark zum Pixelflimmern neigten aber aufgrund der damaligen Perormance in den Himmel gelobt wurden.

Eine Antwort auf meine Frage wäre beispielsweise ein einfaches "ich hatte keine" gewesen, welches man noch mit einer kleinen Erläuterung hätte abrunden können.

Die Frage diente auch eher meiner persönlichen Einschätzung der betreffenden User und ihrer Erfahrungen bezüglich der Hardware aber eine ernsthafte Antwort erwarte ich jetzt nicht mehr.
 
wadenbeisser schrieb:
@y33H@
Das war keine Antwort auf meine Frage.

Ich bezweifle, dass y33H@ weiß wieviele der hier im Thread Beteiligten eine GeForce7 hatten, lasse mich aber gern überraschen. :)

Ich selbst hatte kurz eine 7900GTX im Rechner (geiler Lüfter!), die musste aber sehr schnell einer X1900XT weichen, gepriesen sei das Fernabsatzgesetz. Wenn ich mich recht erinnere war zu dem Zeitpunkt sogar der HQ-Modus noch ziemlich Grütze, der wurde ja erst irgendwann im Lauf der Zeit ordentlich aufgemöbelt, aber ich wollte sowieso das hübsche (fast) winkelunabhängige AF des R580 und EATM war zu der Zeit auch ein tolles Spielzeug.
 
DAU II

Bitte nochmal die letzten 15 Seiten lesen und dann wieder kommen und diskutieren.

Was regt dich der Verbauch auf? Wenn du deine 3850 gemoddet hast, geht das mit der 4770 auch. Lastverbrauch ist zwar leicht höher, dafür ist die Performance ja auch Welten besser.

Thema Spannungsversorgung ist mir jetzt unbekannt, IMO hat sich nur der Lüfter geändert, der in den nächsten Wochen eh durch Herstellermodelle ersetzt wird.

Das AMD sich nicht selbst Konkurrenz machen will, ist ja wohl logisch und von stark abspecken kann ja wohl nicht die Rede sein. Immerhin kostet die Graka ja noch einiges weder als die 4850, wenn man die UVP bei Release betrachtet, nämlich nur die Hälfte (200$ zu 100$!)

Wo du beschnittene OC-Möglichkeiten siehst, ist mir schleierhaft. Die 40nm versprechen traumhafte Taktraten, siehe Beitrag #309, der DDR5 Speicher geht ebenfalls noch ordentlich.

Wenn AMD was hätte beschneiden wollen, hätten sie den Stromstecker weggelassen. Ein kleines Danke deinerseits wär wohl angebracht.

Beitrag ungenügend, setzen, sechs.

Nickname-Wahl hervorragend, eins mit Sternchen.

@wadenbeisser: Bin jetzt kein AF-Fetischist (eher das Gegenteil, totaler Ignorant ;)), aber war leider trotzdem mit ner 78GT gestraft. Das hat teilweise ausgesehen, bei lowquality wars echt hundsmiserabel.

Naja, Hauptsache Benchmarks erstmal gewonnen, später hat sich was getan an der Quali, aber da war Hardwaremäßig eh nicht mehr viel zu retten und die Leistung ließ dann auch zu wünschen übrig.

(Dafür hat ja dann NVIDIA mit der 8800 echt reingehauen. )

Der einzige Vorteil war, das die gegenüber meiner alten X800XL (Dualslot-Kühler, völlige hsysterische Kühlregelung) leise war obwohl sie nur nen Singleslot-Kühler hatte. Und SM3.0, das war noch ein kleiner Vorteil. Aber viel gebracht hat der nicht...

@y33H@: Was ich dich eigentlich mal fragen wollte, wenn du so viel Wert auf Bildqualität legst, warum zum Teufel rennst du dann mitm 24" TN-Display rum, da ist ja die Bildquali voll besch****** *Duck und Weg*
 
Zuletzt bearbeitet:
Was regt dich der Verbauch auf? Wenn du deine 3850 gemoddet hast, geht das mit der 4770 auch. Lastverbrauch ist zwar leicht höher, dafür ist die Performance ja auch Welten besser.

Thema Spannungsversorgung ist mir jetzt unbekannt, IMO hat sich nur der Lüfter geändert, der in den nächsten Wochen eh durch Herstellermodelle ersetzt wird.

@KAKANKE
1. Es ist nicht nur der Lastverbrauch leicht höher sondern es ging mir ausschließlich um den völlig inakzeptabelen IDE-Verbrauch!

2. Die abgespeckte Spannungsversorgung läßt sich hier sehr schön an einem direkten Vergleich zwischen dem Referenzdesign und der Retail-Karte sehen. Auch wenn es Dir schleierhaft sein sollte, wird dies ganz sicher Auswikungen auf das OC-Potential der Karte haben!
http://www.tweakpc.de/hardware/tests/grafikkarten/ati_radeon_hd_4770/s02.php

Noch Fragen? Ein kleines Danke deinerseits wär jetzt wohl angebracht. Der Punkt wurde übrigens vorher schon angesprochen. Bitte nochmal die letzten 15 Seiten lesen, dann kannst auch Du der Diskusion folgen.

Fazit: Thema total verfehlt, Beitrag somit leider nur mangelhaft bis ungenügend... dafür aber viel Wind

PS: Trotzdem danke für den freundlichen Empfang im Forum
 
Zuletzt bearbeitet:
Ich drücke es mal vorsichtig aus....wer ist für überzogene Erwartungen verantwortlich? AMD wohl eher nicht.
Das Ding ist eine Grafikkarte der gehobenen Mittelklasse und hat dafür eine erstaunlich gute Performance, vom max. Strombedarf ganz zu schweigen. Das Ding hat in etwar die Performance einer 4850 und frisst unter Last satte 40W weniger und das in einer Preisklasse unter 100€ bei Markteinführung.

Ich für meinen Teil halte die Grafikkartenpreise ohnehin für lächerlich gering und die Generationsinterwalle für zu kurz....kein Wunder das da was auf der Strecke bleibt.
 
Es bleibt:
- erstaunlich gute Performance (mehr als erwartet)
- Lastverbrauch ist völlig in Ordnung
- hervorragendes Preisleistungsverhältnis

Fakt bleibt jedoch auch der zu hohe und nicht zeitgemäße IDE-Verbrauch, das muß man sagen dürfen. Viele hatten sich von der neuen 40nm Fertigung sicher mehr versprochen und ich halte die Erwartungen daher nicht für überzogen. Na, mal sehen wie die HD 4750 so wird, eventuell wird das dann der Ersatz für meine alte 3850.

Richtig ist auch, daß der Preiskampf mittlerweile desaströse Dimensionen annimmt, der nun offensichtlich auch zu Lasten der Qualität geht (übrigens bei beiden Herstellern). Ich wäre auch gern bereit etwas mehr in ein gutes Produkt zu investieren, aber was AMD da mit der abgespeckten 4770 abgeliefert hat, ist in meinen Augen schon eine Art Täuschung.

Die "richtigen" HD4770er, mit OC, vollbestücktem PCB und ordentlichen Lüfter, kommen sicher erst wenn die HD4830/50 abverkauft sind.

Man erkennt die Absicht und ist verstimmt.
 
Zuletzt bearbeitet:
Zurück
Oben