Test Radeon HD 4670 im Test: ATis neue Mittelklasse-Grafikkarte gleicht nur aus

habichtfreak schrieb:
@griffi: ja tdp ist nicht gleich stromaufnahme aber eine genaue definition ist auch gar nicht so einfach. selbst amd und intel haben grundverschiede erklärungen. an irgendwas muss der verbraucher sich ja orientieren und da das die einzigen werte sind stelle ich sie gegenüber
Man sollte aber beachten, dass die TDP keine exakten Leistungsdaten wiedergibt. Es ist mehr oder weniger eine Klassifizierung. Zwei Modelle mit gleicher TDP müssen noch lange nicht dieselbe Leistungsaufnahme haben.

habichtfreak schrieb:
soweit ich weiß haben single-gpu karten keine microruckler. wenn die karte also 25 fps bringt kommen alle 40ms ein bild.
Nein, eben nicht. Die GPU kann erst rendern, wenn sie die Daten von der CPU erhalten hat. Und das passiert nicht in konstanten Abständen. Denn je nach Rechenlast kann ein Durchlauf der Hauptschleife der Anwendung unterschiedlich lang sein.
Ausserdem redet niemand von Mikrorucklern. Auch Single GPU Karten können ruckeln.
 
Zwirbelkatz schrieb:
Ich möchte nicht unverschämt rüberkommen, aber was einem hier zuweilen an Statements zu Reviewkritik offenbart wird, ist teilweise einfach merkwürdig.
Warum mekrwürdig? Das gibt es genauso wie z.B. die unterschiedliche Chipqualität beim Übertakten.
Sorry, mein Fehler... ich bin so genervt davon, dass jedes Mal jemand von der CB verspricht, dass sich das ändert und dann passiert doch nichts. Und ne direkte Stellungnahme bekommen wir hier auch nicht.
Wie gesagt, sorry.
Für was möchtest du denn eine direkte Stellungnahme? Dann gebe ich dir eine.

Wenn es sich aber um die Treibersache handelt...wie gesagt, das werden wir noch ändern. Noch aber nicht, was auch einen Grund hat. Wir warten schlicht und ergreifend noch auf ein paar Spielerelease, da wir unseren Testparcours doch recht heftig ändern möchten.
 
fuxy1 schrieb:
Die Lautstärke dieser Sapphire Karte ist eine absolute Frechheit.

Mag sein das die getestete Karte leise war, aber von der Sapphire kann ich nur abraten, es sei denn man hat ansonsten Delta-Lüfter im System.

Das liegt daran das sapphire nur einen winzigen Alu-Kühler (im test großer aus Kupfer) verbaut, klar muss der Lüfter da voll aufdrehen, aber bisher nutzt kein Hersteller den Lüfter von der Ati eigenen Karte, allerdings auch kein anderer den von Sapphire.

Ich vermute das Asus bisher den leisesten verbaut.

asus_radeon_hd_4670_dh.jpg




Wolfgang schrieb:
Wir warten schlicht und ergreifend noch auf ein paar Spielerelease, da wir unseren Testparcours doch recht heftig ändern möchten.


Werdet ihr dann auch den Stromverbrauch unter anderen Umständen messen? Ich finde nur ein einziges Spiel (UT3) als Referenz zu nehmen schon arg wenig/ nicht aussagekräftig/ unrealistisch (naja, da passt dann auch wieder das Game das ihr zum testen nehmt, Unreal^^).
 
Zuletzt bearbeitet:
Seppuku schrieb:
Du nimmst als Bewertung eines Treibers einen Burn-in-Test als Argument?
Nicht direkt.
Mit 8.8 rennt die HD3 in Furmark etwas schneller, die HD4 deutlich langsamer.
Was soll man davon halten?

Schnitz schrieb:
Werdet ihr dann auch den Stromverbrauch unter anderen Umständen messen? Ich finde nur ein einziges Spiel (UT3) als Referenz zu nehmen schon arg wenig
Besonders wenns die nicht arg fordernde UT3 Szene ist, die auch für die FPS Balken herhalten muss.
 
habichtfreak schrieb:
wo ich grad von klicker5 gelesen habe:

" unter 35 fps spiele ich nicht mehr" oder so ähnlich.

du solltest dich ernsthaft mit deinem augenarzt in verbindung setzen. ich meine fernsehen und kino kommt für dich wahrscheinlich auch nicht in frage weil soweit ich weis senden die alle mit 25 fps. und warum? weil das menschliche auge idr nicht mehr verarbeiten kann


Sag mal, kennst du eigentlich den Unterschied zwischen einem PC-Spiel und nem Film?
Im Kino werden die Bilder nur gefilmt und dann wiedergegeben, also inklusive unscharfen Szenen etc.
Beim PC-Spiel steht kein Bild mit einem anderen im Zusammenhang, außer dass es eine Reihenfolge bildet.
Gemeint ist das: Das menschliche Auge sieht in Realität teilweise verschwommene Bilder, die für die Informationsverarbeitung gut reichen. Wenn du etwas scharf siehst, liegts daran, dass beim "schwenken" noch erst fokusiert werden muss.

Beim Spiel wird jedes Bild gestochen scharf gerendert, ohne Überblendung und sonst irgendwas. Da her brauchts mehr Bilder als beim Film um etwas flüssig darzustellen, da die Bilder ja abgehakt ankommen, nicht schon "flüssig".

Zwegs Multi-GPU etc., da kommen noch andere Faktoren ins Spiel, die ich noch nie am eigenen Leib erfahren "durfte".
 
Dann schreibt das um Himmels Willen mit ins Fazit! Ihr vergleicht die 4670 in der Beurteilung unentwegt mit der 3850 - wie soll man Euch dann dabei ernst nehmen?

Wolfgang schrieb:
Wenn es sich aber um die Treibersache handelt...wie gesagt, das werden wir noch ändern. Noch aber nicht, was auch einen Grund hat. Wir warten schlicht und ergreifend noch auf ein paar Spielerelease, da wir unseren Testparcours doch recht heftig ändern möchten.
 
@Wolfgang
Ab Catalyst 8.5 sind ATI-Karten in DirctX10-Spielen deutlich stärker. Mit neuem Treiber würden die "Konkurrenten" HD4670 und HD3850 ein anderes Bild liefern.

Wie wäre es den zum Beispiel, wenn ihr mal die HD3870 mit GDDR3 testet und sie dann auch noch auf HD3850-Niveau runtertaktet? Damit hättet ihr eine HD3870 mit GDDR3 im Parcour und gleichzeitig die HD3850 mit neuem Treiber mal getetestet, so das man sie wirklich mit der HD4670 vergleichen kann.
 
Schnitz schrieb:
Werdet ihr dann auch den Stromverbrauch unter anderen Umständen messen? Ich finde nur ein einziges Spiel (UT3) als Referenz zu nehmen schon arg wenig/ nicht aussagekräftig/ unrealistisch (naja, da passt dann auch wieder das Game das ihr zum testen nehmt, Unreal^^).
Nein, das wird bei UT3 bleiben und auch nur bei einem Spiel. Du glaubst übrigens nicht, wie stromfessend UT3 für eine Graka ist ;) Ist ja nicht so, als hätten wir nicht verschiedene Spiele diesbezüglich mal ausprobiert.

Besonders wenns die nicht arg fordernde UT3 Szene ist, die auch für die FPS Balken herhalten muss.
Für die GPU ist diese Szene sogar sehr fordernd.

Dann schreibt das um Himmels Willen mit ins Fazit! Ihr vergleicht die 4670 in der Beurteilung unentwegt mit der 3850 - wie soll man Euch dann dabei ernst nehmen?
Das tut aber jede Seite, auch mit den gleichen Treibern. Warum sind die dann noch ernst zu nehmend und wir nicht? Warum sollen wir das also nicht auch?

Ab Catalyst 8.5 sind ATI-Karten in DirctX10-Spielen deutlich stärker. Mit neuem Treiber würden die "Konkurrenten" HD4670 und HD3850 ein anderes Bild liefern.
Schließen wir mal einen Kompromiss: Ich benche im Laufe der kommenden Woche mal die 3850 mit dem neuen Treibern in D3D10-Spielen unter 1280 nach und poste die Ergebnisse dann hier in den Thread, einverstanden? Und wenn ich es vergessen habe, schreibt mir bitte eine PM.
 
@ Wolfgang

Habt ihr einmal getestet, in wie weit UT3 sich vom Stromverbrauch von z.B. FurMark unterscheidet?
 
Nein, den Furmark haben wir nicht ausprobiert. Wir werden den auch nicht nehmen, da das nicht wirklich ein Spiel ist und zudem doch irgendwie recht unrealistische Auslastungen hervorruft. Auf den ATi-Karten gibt es zudem ja mit neuen Treibern auch noch Probleme.
 
oh, es ist ist soweit. Eine günstige Karte im Low-End Segment erreicht die Leistung meiner X1950 XTX =)

Wird wohl langsam Zeit für eine HD4870 ^^

@Topic

Ich glaube man hat bis jetzt noch nie so viel Leistung für sein Geld bekommen.
Die Benchmarks zeigen, dass die Karte durchaus als Spieletauglich eingestuft werden kann, wobei man natürlich Spiele wie Crysis nicht berücksichtigen darf, da die sowieso nicht optimiert sind.

Aber für Call of Duty 4 bei 1280*1024 kein AA und kein AF, aber den Rest der Einstellungen auf maximal reichts auf alle Fälle.

Allerdings ist die Crossfire Unterstützung meines Erachtens nach überflüssig. Eine 4850 ist vermutlich schneller als ein solches Crossfiregespann und auch nur geringfügig teurer.
 
Blackmarket schrieb:
Noch bissl früh um den Preis bei 66 Euro festzusetzen, neue Produkte erreichen doch nie gleich den Tiefstpreis, der wird noch fallen die nächste Woche/n. Wenn man die Stromkosten mit reinrechnet kommt man mit der HD4670 billiger weg, als Vergleich hab ich natürlich die HD3850 512 MB Version genommen.

K, dann gucken wir nochmal heute.

Achso... 58 Euro für die 3850, die 4670 ist gar nicht lieferbar. Und jetzt?


Im Ernst: auf welcher Basis soll man vergleichen? Soll man postulieren, dass zwei Grafikkarten in 2 Monaten (wenn - retrospektiv statistisch betrachtet - das "Mittel" der Leser das Review konsumierte) den selbsen Preis haben werden und damit rechnen? Welche Wahl haben wir, außer den aktuellen Preis zu nehmen?


Wolfgang schrieb:
Das tut aber jede Seite, auch mit den gleichen Treibern. Warum sind die dann noch ernst zu nehmend und wir nicht? Warum sollen wir das also nicht auch?

Wie jetzt, "mit den gleichen Treibern"? Meinst Du damit, dass andere Seiten ebenso den 8.3er für die RV670, für die RV730 jedoch neueste nehmen? Wenn ja, dann ist auf einmal eine hirnrissige Sache legitim, nur weil sie andere genauso falsch machen.
Wenn die andren Kinder in den Brunnen springen, springt man dann hinterher?

Und wenn Du meinen solltest, dass andre Seiten die Karten vergleichen, dabei aber den selben Treiber nehmen, dann hast Du Dir die Frage schon selbst beantwortet: entweder, ihr merkt an, dass diese Benches aufgrund veschiedener Treiber nicht vergleichbar sind und lasst es, oder aber ihr gesteht euch ein, dass ihr im selben Moment einen blöden Fehler macht.
Wir reden hier über Leistungsgrößenordnungen, wie sie sonst zwischen "HQ" und "Q" bzw. "AI standard" und "AI high" zu finden sind - das vergleicht man einfach nicht miteinander!


Schließen wir mal einen Kompromiss: Ich benche im Laufe der kommenden Woche mal die 3850 mit dem neuen Treibern in D3D10-Spielen unter 1280 nach und poste die Ergebnisse dann hier in den Thread, einverstanden? Und wenn ich es vergessen habe, schreibt mir bitte eine PM.

Wird der Test dadurch besser?
 
Was ist eigentlich mit Full HD? kann diese Karte locker ein Full Hd signal ohne ruckler auf einen 24 zoll abgeben? suche immer noch die perfekte karte für meinen vater
 
@Wolfgang
Ich weiß ja nicht, wie oft es schon durchgekaut wurde, aber eure Stromverbrauchswerte wundern mich jedesmal. Ich frage mich jedesmal, wie ihr es schafft, selbst mit der 4670 einen Idle-Verbrauch von 124 W zu messen.
Bei Anandtech kommen die auch mit einem C2Q auf einen tollen Wert von 67 W. Ich weiß, dass eure CPU stark übertaktet ist, aber das allein kann noch lange nicht zu 57 W mehr bei Idle führen. Habt ihr etwa auch noch EIST deaktiviert?
Zum Vergleichen reichts wenigstens (obwohl ich dennoch auf mind. 2-3 Seiten vergleichen würde), aber diese hohen Werte sind wirklich extrem.

@strub0
Die HD 4xxx Reihe kann sogar zwei HD-Streams dekodieren und haben auch noch passenderweise einen Soundchip verbaut. Diese ist auf alle Fälle die ideale Karte.
Die vorigen Karten, sowohl ATI als auch nvidia) konnten doch auch HD-Streams dekodieren, wo war bei denen das Problem?
 
Deinorius schrieb:
@Wolfgang
Ich weiß ja nicht, wie oft es schon durchgekaut wurde, aber eure Stromverbrauchswerte wundern mich jedesmal. Ich frage mich jedesmal, wie ihr es schafft, selbst mit der 4670 einen Idle-Verbrauch von 124 W zu messen.
Bei Anandtech kommen die auch mit einem C2Q auf einen tollen Wert von 67 W. Ich weiß, dass eure CPU stark übertaktet ist, aber das allein kann noch lange nicht zu 57 W mehr bei Idle führen. Habt ihr etwa auch noch EIST deaktiviert?
Und genau so ist es und genau deswegen auch der Wert;) Und es hat auch einen guten Grund, warum wir EIST deaktiviert haben. Und selbst wenn nicht, im Endeffekt beziehungsweise der Aussage ändert das gar nichts.
Wie jetzt, "mit den gleichen Treibern"? Meinst Du damit, dass andere Seiten ebenso den 8.3er für die RV670, für die RV730 jedoch neueste nehmen? Wenn ja, dann ist auf einmal eine hirnrissige Sache legitim, nur weil sie andere genauso falsch machen.
Wenn die andren Kinder in den Brunnen springen, springt man dann hinterher?
Nein, ich meine damit, dass wir die HD 4670 mit der HD 3850 vergleichen und jedes andere Review auch. Und die kommen trotzdem in etwa auf dieselben Werte wie wir, auch wenn neuere Treiber verwendet werden.

Wir reden hier über Leistungsgrößenordnungen, wie sie sonst zwischen "HQ" und "Q" bzw. "AI standard" und "AI high" zu finden sind - das vergleicht man einfach nicht miteinander!
Das stimmt so einfach nicht. Wenn man die AF-Optimierungen nutzt gibt es mit AF bei fast jedem Spiel Unterschiede, mit einem anderen Treiber aber nur in wenigen.
 
Wolfgang schrieb:
Nein, ich meine damit, dass wir die HD 4670 mit der HD 3850 vergleichen und jedes andere Review auch. Und die kommen trotzdem in etwa auf dieselben Werte wie wir, auch wenn neuere Treiber verwendet werden.

"In etwa" trifft's ganz gut.


Das stimmt so einfach nicht. Wenn man die AF-Optimierungen nutzt gibt es mit AF bei fast jedem Spiel Unterschiede, mit einem anderen Treiber aber nur in wenigen.

Das ist mir schon bewusst - dennoch sind die dann tatsächlichen Leistungsunterschiede in einer ähnlichen Größenordnung zu finden, wie die bei unterschiedlichen Filtern. Und das findest Du doch selbst scheiße, oder?
 
@Wolfgang
Eine Frage noch. Warum misst ihr den Stromverbrauch nicht mit mehreren Spielen? Es sollte eigentlich kein Problem darstellen. Immerhin kann man bei der Leistungsmessung nebenbei den Strom messen. Oder sind die Messzeiten zu unterschiedlich?
 
Zurück
Oben