Test Radeon HD 4670 im Test: ATis neue Mittelklasse-Grafikkarte gleicht nur aus

Deinorius schrieb:
Warum misst ihr den Stromverbrauch nicht mit mehreren Spielen?

Es macht nach meiner Einschätzung keinen Sinn, für verschiedene Spiele-Titel Messungen durchzuführen, die Rechner-System der Leser zuhause unterscheiden sich ohnehin stark genug. Es geht doch um die Größenordnung zwischen Idle eines Referenz-Testsystems, der max. erreichbaren Last bei CPU und bspw. Furmark (um die erforderliche Nennleistung des Netzteils abschätzen zu können) sowie etwas dazwischen. Letzteres sollte einen "Normal-Verbrauch" darstellen, der wiederum Basis für das jährliche Gesamtaufkommen sein dürfte.

Jedem sollte klar sein, daß die extremen Benchmark-Messungen kein Durchschnittswert sein können, niemand bencht rund um die Uhr (und wer´s macht, dem ist der Strom wurscht). Wer auf das Milliwatt seine Komponenten bestimmen möchte, kauft sich gleich ein Meßgerät für zuhause. Kenne ich meinen Idle-Verbrauch (auch nur ungefähr) und die maximalen Verbrauchswerte einer Grafikkarte, reichen die vier Grundrechenarten als Anhaltspunkt für private Zwecke völlig aus.

Wenn schon, dann kann die Watt-Stunden-Angabe nach einer gesamten Testreihe (alle Spiele, alle theoretischen Test usw. per Script u.ä. automatisch steuerbar) eine sinnvolle Angabe sein. Für den, der sie interpretieren kann. Dann aber ein hochwertiges Messgerät anschließen, das grafisch alle Spitzenströme und Niveaus ausgibt. Ein Vergleich mit der Performance-Kurve wäre dann durchführbar (nach Skalierung auf einen gemeinsamen Zeithorizont) und weitergehende Aussagen über den Zusammenhang eingesetzte Technologie-/Leistungswert pro Watt möglich. Hier im CB-Forum gibt es meiner Lesart nach kein Interesse an noch detailierten Messergebnissen. Sage ich mal provokativ :lol:
 
Es macht sehr wohl Sinn. Spiele beanspruchen Systeme unterschiedlich stark und dementsprechend ändert sich auch der Stromverbrauch. Selbstverständlich muss ja nur der Lastverbrauch entsprechend gemessen werden. Ich nehme mal an, das ist zumindest klar.

Wie man es macht, ist dem Tester selbst überlassen. Ich weiß nicht exakt, wie ein System gemessen wird. Ich weiß nicht, wie lang die Timdemos dauern, oder wie lange man den Strom misst, oder ob man gar nur den Peak-Wert aufschreibt.
Ich sehe aber wahrlich keinen großen Aufwand, schon bei der Leistungsmessung auch das Strommessgerät anzuschließen und den Wert mit aufzuschreiben. Im Grunde könnte man das auch gleich mit allen Spielen machen, die man beim Test einsetzt. Durch die Wahl der Spiele nimmt man diese immerhin als eine Art Standardwahl an. Diese Spiele stellen die Leistung der Hardware dar, somit kann man das auch auf den Stromverbrauch übertragen.
Bei PCGH sieht man doch gut (auch wenns keine richtigen Spiele sind), dass der Stromverbrauch stark schwanken kann. Hier hat man sich schon darüber ausgelassen, dass die 4670 hier mehr verbraucht als die 3850, während andernorts diese weniger verbraucht. Ich glaube eigentlich weniger, dass es an der Güte der Hardware liegt, sondern vielleicht sogar an der Wahl des Spieles.
Bei Anandtech verbraucht die 4670 16 W weniger als eine 3850 und 30 W weniger als eine 9600 GSO und dennoch bietet diese mehr Leistung bei Crysis (fast durchgehend im Vergleich zu hier). Ich sehe hier nicht die selbe Aussage im Sinne von Performance/Watt. Es ist vielleicht nur Augenwischerei, aber da ich nur einen geringen Mehraufwand sehe, kann man es zumindest mal in Betracht ziehen.
doesntmatter schrieb:
Letzteres sollte einen "Normal-Verbrauch" darstellen, der wiederum Basis für das jährliche Gesamtaufkommen sein dürfte.
Also in dem Sinne kann man die CB-Werte schon mal komplett vergessen. Wer nicht ebenfalls stark übertaktet und EIST deaktiviert hat (und ich nehme mal stark an, dass besonders letzteres sicher nicht auf den Großteil zutrifft), dann sollte man sich besser andernorts den Stromverbrauch ansehen, besonders wenn ich mir die Idle-Werte bei Anandtech ansehe. Die liegen praktisch im Verhältnis von 1:2! Mit Ausnahme von reinen Spiele-PCs ist der Idle-Wert immer noch häufiger zu sehen.
Ich akzeptiere die Werte hier als Vergleichswerte an, aber sicher nicht um sich damit vielleicht einen Gesamtverbrauch auszurechnen.

Dein letzter Absatz ist aber sehr interessant. Obs genug interessiert ist ne andere Frage. Vielleicht könnte man sich auch einem seperatem Artikel diesem Thema widmen. Wenn man schon nicht bei jedem Test mit einem imho geringem Mehraufwand (s.o.) zumindest einen durchschnittlichen Lastverbrauch zu messen, warum sich nicht in einem extra Artikel dem widmen. Ich finde diese Frage sehr interessant. Welche Karte, welcher Hersteller bietet in dieser Hinsicht die bessere Lösung. Dann kann man auch Performance/Watt Diagramme hinzufügen und die Leistungswerte nimmt man aus einem vorigen Test.
 
Zuletzt bearbeitet:
MadManniMan schrieb:
Na, die Unterschiede zwischen dem Review der Kollegen und unserem sind nun wirklich nicht groß. Das kann locker durch andere Spieler oder wer weiß was enstehen.
Eine Frage noch. Warum misst ihr den Stromverbrauch nicht mit mehreren Spielen? Es sollte eigentlich kein Problem darstellen. Immerhin kann man bei der Leistungsmessung nebenbei den Strom messen. Oder sind die Messzeiten zu unterschiedlich?
Nunja, erstens erhöht das den Arbeitsaufwand und zweitens frage ich mich, was das denn bringen soll? Mit UT3 haben wir ein Spiel ausgesucht, dass die Graka bzg. der Leistungsaufnahme mehr belastet als man glaubt, auch Crysis geht da nicht höher. Ich möchte jetzt ja nicht genau zeigen, wieviel Watt GRaka a in allen Spielen benötigt.
 
Wenn es einen eklatanten Mehraufwand benötigt, würde ich es auch nicht vorschlagen. Aber was spricht genau dagegen, wenn man beim Austesten der Spiele, so wie es ja schon läuft, das System die ganze Zeit am Strommessgerät stecken lässt. Dann misst man halt nicht nur die Leistung sondern auch gleich den Stromverbrauch. Ich verlange sicher nicht, dass man mehr Testläufe durchläuft.
Außerdem habe ich doch schon erwähnt, dass es grad dabei zu unterschiedlichen Ergebnissen führen kann, siehe meinen vorigen Beitrag.
Eigentlich würde es mich nun wirklich interessieren, ob der Lastwert wirklich nur an der Güte der Hardware liegt, oder an der Wahl des Spieles.
 
Ich kaufe mir eine Grafikkarte nicht, weil sie in diesem oder jenem Spiel besonders stromsparend ist, sondern in der Gesamtheit aller beobachteten Anwendungen. Stellt sich bei mir zuhause bei der eigenen Messung heraus, daß die Angaben aus den Tests völlig daneben liegen, ist das mein Grund für Inanspruchnahme von "Nicht-Gefallen" und Rückgabe zum Händler/Verkäufer. Die Hersteller-Angaben sind ja großzüzig angesetzt. Zuvor prüfe ich natürlich, ob es an einer Einzelanwendung lag oder durchgängig höhere Werte auftreten.

Bei mir wird demzufolge eine Grafikkarte universell eingesetzt und nicht "für" Cryis oder irgendeinen anderen Titel (wenn schon für FAH, für das alleine drei Grafikkarten die meiste Zeit laufen). Und bei meinen letzten vier Einkäufen war der tatsächliche Verbrauch geringer als befürchtet (Max.-Werte aus Tests), ein Umstand, der nicht allein auf meine sonstigen, stromsparenden Komponenten zurückzuführen ist. Mir reichen die bisherigen Testangaben voll aus.

Interessieren würde mich die technische Seite sehr wohl, warum die Chip-Generationen bei dieser oder jenen Beanspruchung (Shader, VRAM, Auslastung usw.) je nach Titel mehr oder weniger Strom aufnehmen, wie groß deren Performance ist, wie also die "Effizienz" der Designer verstanden werden kann, nicht zuletzt, um die Spiele-Entwicklung abschätzen zu können. Dazu existieren bereits Artikel, bspw.:
https://www.computerbase.de/artikel/grafikkarten/bericht-raytracing-in-spielen-2-0.759/
https://www.computerbase.de/artikel/grafikkarten/bericht-nvidia-cuda-und-physx-im-ueberblick.840/
https://www.computerbase.de/news/grafikkarten/kommentar-die-zukunft-der-3d-grafik.843/
https://www.computerbase.de/news/betriebssysteme/microsoft-enthuellt-details-zu-directx-11.22450/
 
Deinorius schrieb:
Warum misst ihr den Stromverbrauch nicht mit mehreren Spielen? Es sollte eigentlich kein Problem darstellen. Immerhin kann man bei der Leistungsmessung nebenbei den Strom messen.
Finde ich persönlich eine sehr gute Idee. Es sollte in der Tat kein allzu grosser Mehraufwand sein, vor den Performance Messungen das Messgerät einzustöpseln und bei jedem Spiel einfach mal auf die Anzeige zu schauen und den Wert statistisch zu erfassen. Ähnlich wie bei der Performance könnte man so ein durchschnittliches Rating für die Leistungsaufnahme erstellen. Darüber sollte CB wirklich mal nachdenken. Erstens könnte man sich so gegenüber anderen Printmedien abheben. Zweitens wäre die Aussagekraft deutlich besser. Und drittens, wie gesagt, kaum Mehraufwand. Halte ich zumindest für die bessere Lösung, wenn man schon die Grafikkarte mittels synthetischer Tests nicht ans Maximum bringen möchte.
 
gruffi schrieb:
... bei jedem Spiel einfach mal auf die Anzeige zu schauen und den Wert statistisch zu erfassen.

Das funktioniert so nicht bzw. Statistik kann man das nicht nennen. Jede Sekunde kann da ein anderer Wert stehen, welchen nimmt man ? Statistisch korrekt wäre nur eine Gesamt-Erfassung aller Messdaten und dann eine arithmetische Berechnung verschiedener Kennziffern (Minimum, Maximum, Durchschnittswert, 1-2 Standardabweichungen etc.).
 
Von dem Sinne würde es mich schon interessieren, was das Strommessgerät zu bieten hat. Mein Billigstgerät kann in den Verbrauch über eine Zeit in kWh anzeigen. Für einen Test kaum nutzbar, da nicht genau genug. Was kann euer Gerät?
Immerhin müssen eure derzeitigen Lastwerte auch von irgendwo her kommen. Natürlich wäre es schon am besten, wenn man das Gerät so einstellen kann, dass es über eine gewisse Zeit misst und am Ende sowohl average und max. Wert anzeigt. Wär super, aber ich nehm mal an, dass das nicht spielt.
Aber wofür sind die derzeitigen Stromverbrauchsmessungen überhaupt gut? Mit dem Peak-Wert kann man sich eigentlich nur die NT-Wahl erleichtern, da man eher weiß, wieviel das NT leisten muss. Obwohl selbst dafür ist man bei den Herstellerangaben besser bedient. Denn mit den Amperewerten der einzelnen Spannungsleitungen hat man bessere Grundlagen als mit de reinen Watt.
Und für den eigenen Stromverbrauch kann der Peak-Wert auch nicht viel Aussage bieten. Nehmen wir mal an, der Peak-Wert von 200 W liegt nur zu 1-2 % vor, zu 40 % sind es 190 W und zu knapp 60 % sind es 185 W. OK, das ist wohl eher Augenwischerei und ich habe keine praktischen Erfahrungswerte dazu. Insofern würde mich grad ein eigener Artikel dazu wirklich sehr interessieren.

Nochmal zur Erinnerung: Ich verlange sicher keinen eklatanten Mehraufwand. Wenn Wolfgang sagt, "Das ist so nicht einfach möglich. Das Gerät, das wir nutzen, kann das so nicht einfach bieten", dann kann ich mich damit abfinden. Das Einzige, was ich verlange, darüber kurz nachzudenken, es vielleicht in Betracht zu ziehen. Ich sehe keinen großen Mehraufwand mit meinem Vorschlag, mehrere Spiele in die Rechnung mit einzubeziehen, aber ich kenne auch dieses Strommessgerät nicht. Vielleicht gehts nicht so einfach, aber macht ja nix. Man kann mich ja dazu immer korrigieren.
 
doesntmatter schrieb:
Das funktioniert so nicht bzw. Statistik kann man das nicht nennen. Jede Sekunde kann da ein anderer Wert stehen, welchen nimmt man ? Statistisch korrekt wäre nur eine Gesamt-Erfassung aller Messdaten und dann eine arithmetische Berechnung verschiedener Kennziffern (Minimum, Maximum, Durchschnittswert, 1-2 Standardabweichungen etc.).
Naja, bei den Frames funktioniert das ja auch. Je nach Szene können die FPS auch stark abweichen. Und bei der einen Messung der Leistungsaufnahme momentan funktioniert es genauso. ;) Es gibt auch Messgeräte, die einen Durchschnittswert über eine gewisse Zeit ausgeben können.
Natürlich ist das immer noch nicht exakt. Aber schon mal deutlich aussagekräftiger als ein einzelner Wert.
 
Wolfgang schrieb:
Na, die Unterschiede zwischen dem Review der Kollegen und unserem sind nun wirklich nicht groß. Das kann locker durch andere Spieler oder wer weiß was enstehen.

Und was, wenn es ganz einfach nur an dem anderen Treiber liegt?

Ach, ich geb's auf. Ich wollte auch nie einen Kampf gegen Windmühlen bestreiten - nur anregen, nicht mehr...
 
@ MadManniMan

Und was wäre, wenn es am Treiber liegt? Dann würde doch das Fazit auch nicht viel anders ausfallen, weil die Unterschiede zwischen den 2 Tests nicht wirklich groß sind.
 
Seppuku schrieb:
@ MadManniMan

Und was wäre, wenn es am Treiber liegt? Dann würde doch das Fazit auch nicht viel anders ausfallen, weil die Unterschiede zwischen den 2 Tests nicht wirklich groß sind.

Was dann wäre? Lies doch nach! CB stellt die 4670 als schneller als die 3850 dar - und steht damit ziemlich allein da.

Was gibt es da noch zu erklären?
 
@ MadManniMan

ComputerBase schrieb:
Die Radeon HD 3850 agiert nun 13 Prozent schneller, bleibt damit immer noch in Reichweite.
Mit den beiden qualitätssteigernden Features sieht es für die Radeon HD 4670 besser aus.
Und auf dieses Ergebnis kommen die anderen Tests (mit leichten Differenzen je nach Spieleauswahl) auch. Ob jetzt eine Karte mal im Schnitt mal in dem einen Review 5% schneller oder langsamer ist, ist doch egal (so genau kann man es mit einer Spielestichprobe sowieso nicht ermitteln!). Von daher kann man die eventuelle Leistungssteigerung sowieso vernachlässigen.
 
Zuletzt bearbeitet:
MadManniMan schrieb:
CB stellt die 4670 als schneller als die 3850 dar - und steht damit ziemlich allein da.

Was gibt es da noch zu erklären?

Dein eigener Link?

http://www.techpowerup.com/reviews/Powercolor/HD_4670/26.html

Je nachdem mal die eine oder die andere vorn, insgesamt praktisch identisch schnell. 5% oder selbst 10% hin oder her... Pfffffff die 3850 läuft eh aus.

MadManniMan schrieb:
Du hast jetzt nicht ernsthaft Ergebnisse ohne AA/AF herangezogen?

Warum nicht? Da sollte die 3850 doch Vorteile gegenüber der 4670 haben? Jedenfalls nicht so starke Nachteile wie mit AA/AF. Außerdem bei der Graka kommt AA eh nicht sooooo in Frage.
 
Hier wird ja lautstark über den Einfluss der Treiber in den Stromverbrauch diskutiert. Was mich aber sehr viel mehr interessieren würde, um welchen Treiber gehts denn hier überhaupt?

Ich hab mal bei Amd/Ati vorbeigesehen doch da konnte man in dem Dialog nicht mal die 4670 auswählen. Bei anderen Grafikkarten wurde man auf folgende Seite gelinkt:

http://game.amd.com/us-en/drivers_catalyst.aspx

Hier sind wiederum die Treiber nicht nach Grafikkarten geordnet sondern nach OS.


Welcher Treiber wäre denn nun für meine zukünftige 4670 richtig?

//Edit: Ich hätte vielleicht zuerst einmal den sehr ausführlichen Test von Herr Andermahr lesen sollen, da steht:

Da steht dass folgender Treiber verwendet wurde: ATi Catalyst Sample 8.53_RC1 (HD 4670)

Naja ein RC aber was solls, ich denke ich werde sie trotzdem kaufen sobalt sie bei dem Händler meines Vertrauen vorrätig ist (geht noch etwa 2-3Tage + Versand)


Gruß Opalinus
 
Zuletzt bearbeitet: (siehe Edit!)
Also sry mal an die CB-Redaktion. Erstens finde ich es totalen Blödsinn ein Testsystem als Standart zu übertakten wenn es um die Strommesswerte geht (wenn sich jemand als Grund der niedrigen Leistungsaufnahme jemand die Karten holen möchte, Übertaktet er die nicht das macht null Sinn), zweitens habe ich bei keiner anderen Seite bisher gesehen das als Standart ein System übertaktet wurde (als Zusatz vielleicht aber nicht Standart) weil es die realen Werte völlig verfälscht und drittens seit wann verbraucht bei ATI eine aktulle Mainstreamkarte mehr Strom als die Highend Karten der letzten Generation. Man man man wenn ihr es testet und die Karte ein Idlewert von etwa 120 Watt hatt müsste man doch mal nachdenken, entweder neues Testmuster oder mal das Testsystem im Standart laufen lassen und sehen ob der chip vielleicht nicht defekt sein könnte. Ist ja wie, als ob einer ein Auto der Mittelklasse testet und der verbraucht 90 Liter auf 100 km. Völliger Blödsinn und dann noch solche armseligen Bemerkungen machen, das es unterschiedliche Qualitäten unter den Chips gibt ist für mich nur eine Ausrede den Fehler nicht zugeben zu wollen. Chips verbrauchen wenn sie schlechte Qualität haben vielleicht 5% mehr aber nicht über 100%! Eure Tests sind nicht schlecht aber das war ein dickes Ei. Desweiteren sagen alle anderen Seiten das die Karte bis zu 40 Watt weniger Strom aufnimmt was auch die Zusatzstecker der 3850 erklärt, das sie wohl auch mehr verbraucht als die 4670 die keinen hat..
Also nächstens mal bitte auch mal nachdenken bevor ihr die Benchmarks reinstellt. Und wenn ihr umbedingt übertakten wollt dann bitte als Zusatz und nicht als Standart. Sry das musste jetzt mal gesagt werden. Denn die wenigsten Leute wollen verfälschte Ergebnisse und da denke ich auch Rede ich im Sinne der Mehrheit. Ansonsten macht weiter so.

Gruß Grenni.
 
Göttlicher Post! Hab mich schief gelacht, danke! :evillol:

Zwei deiner angesprochenen Punkte werd ich mal versuchen dir zu erklären um den Rest müssen sich andere kümmern - es ist einfach viel zu viel Mist den du da geschrieben hast :D

1. Bei einem Grafikkartentest macht das Übertakten des Prozessors durchaus Sinn um eine Limitierung der FPS durch die CPU ausschließen zu können.

2. Die Watt-Zahl bei der Leistungsaufnahme bezieht sich nicht auf die Karte sondern das gesamte System. Steht auch im Text. Lesen bildet...

MfG,
Commodus

P.S: Willkommen im Forum! xD
 
Hallo!

Ist eine HD 4670 im Gegensatz zu einer HD 3850 schneller?

Sie wäre doch eine gute Alternative. :)
 
mich würde mal interessieren mit welchen player und mit welchen codec ihr die vc1/h.264 wiedergabe tests macht...
 
Zurück
Oben