News Starke Schwankungen bei der Radeon HD 5750?

Kommt keiner auf die Idee, seriöserweise nur noch Karten zu testen, die bereits verfügbar sind, und davon am besten immer gleich 2 Stück, aus unterschiedlichen Quellen bezogen.
Bzw. diese Tests nach den Vorab-Tests der vom Hersteller bereitgestellten Modelle AUF JEDEN FALL später noch nachzureichen.

Damit wäre das Problem aus der Welt geschafft und die Hersteller würden diese Praxis auch gleich wieder sein lassen.
 
Nun, das ist einer der Gründe warum ich neue Hardware niemals kurz nach dem Erscheinen kaufe sondern nur gut abgehangene Ware, egal von welchem Hersteller.
 
@Dau II:
Eine sehr gute Einstellung! Ich mache das genau so. Bei mir kommt nur bewährte Ware ins Gehäuse, und wenns geht dann welche aus dem Serverbereich (CPUs, RAMs, Mainboards)...
 
schaut Euch mal die Subsys ID´s an...

Die Karten haben unterschiedliche Bios Versionen und stammen von unterschiedlichen Herstellern, der Unterschied liegt (bei gleicher GPU Temp) bei 4 (in Worten vier) Watt in der Leistungsaufnahme.

Ich denke das Toleranzen von +-5% völlig normal sind. Wenn der Hersteller 2 meint seiner Karte durch weniger Lüfterdrehzahl eine höhere GPU Temp zumuten zu können erklärt sich der Unterschied im Verbrauch von alleine.

Ich betrachte JEDEN Test eines Samples als Momentaufnahme, nicht mehr und nicht weniger, das Streuungen in der Produktion existieren ist Vollkommen normal, wenn ich nun eine Hervorragenden Chip mit einem Miesen Vergleiche und stelle Differenzen fest hab ich Werte mit denen ich arbeiten kann.

Seriöser Journalismus würde nun recherchieren und erst dann die Ergebnisse veröffentlichen, unseriöser veröffentlicht eine Statistik bestehend aus zwei Werten…
 
was soll daran nun so besonders oder schlimm sein?
Scheinbar hat man die Lüfter Steuerung so verändert das die Karten Leiser sind.
Dadurch werden die Karten natürlich heißer und brauchen mehr strom (das es soviel ist, hätte ich nicht gedacht)

Da dachte sich der Hersteller wohl das die Kunden lieber ne Leise Karte wollen anstatt ne kühle/Sparsame

macht ja auch sinn, denn welcher kunde achtet auf die Temperatur oder den Verbrauch?
aber die Lautstärke bekommt man jeden tag mit.
 
Hi,

sorry, aber ich versteh hier irgendwie was nicht.

Ein Hersteller verschickt eine Grafikkarte an eine Redaktion um diese einem Test zu unterziehen. Diese befindet diese Karte als empfehlenswert.

Nun geht diese Redaktion hin und besorgt sich aus dem Handel (also aus einer unabhängigen Quelle) nochmals diese Grafikkarte und testet diese nochmals mit einem wesentlich schlechteren Ergebnis, da diese Grafikkarte nicht die Spezifikationen aufweist, die das (offensichtlich extra für Testredaktionen optimierte) Testmodell hatte.

Und nun wird hier hauptsächlich die Testredaktion schlecht gemacht und es werden (meiner Meinung nach) Ausreden gesucht? Hää?

Glücklicherweise hat ja noch niemals nie nicht irgendein Grafikkartenhersteller versucht seine Produkte besser zu machen, als sie eigentlich sind und hat aus diesem Grunde auch noch nie z.B. seine Treiber ganz speziell auf die Ergebnisse eines bekannten Grafikkarten-Benchmarks optimiert. ;) (wer die Ironie findet darf sie behalten)

Meiner Meinung nach sollten manche (ich greife hier niemanden persönlich an) einfach mal das Ganze etwas objektiver betrachten, auch vor dem Hintergrund, das AMD/ATI zur Zeit finanziell nicht gerade unbedingt gefestigt dastehen (es könnte schlimmer sein, aber wirklich gut geht es dem Unternehmen nicht) und man unbedingt ein neues Produkt verkaufen will, daß auch einfach mal wieder richtig am Markt greifen muß. Mit der 4xxx-Serie hatte AMD/ATI ein gutes und konkurrenzfähiges Produkt und der Nachfolger muß einfach diesen Erfolg wiederholen, sonst sieht es auf längere Sicht hin finster aus. Und das ein Unternehmen vor diesem Hintergrund, sagen wir einfach mal vieles versucht, sein Produkt im besten Licht dastehen zu lassen, ist verständlich, sofern diese Versuche nicht zu Lasten des Käufers gehen.

Aufgrund des im Artikel beschriebenen Tests kommen mir persönlich aber sehr große Zweifel, ob hier AMD/ATI nicht versucht seine Kunden, trotz eines scheinbar guten Produkts, über gewisse Makel hinwegzutäuschen.


Viele Grüße Moorleiche

P.S.:
Seriöser Journalismus würde nun recherchieren und erst dann die Ergebnisse veröffentlichen, unseriöser veröffentlicht eine Statistik bestehend aus zwei Werten…

Diese Aussage implementiert, daß jeder Test, der sich nur auf ein oder zwei getestete Exemplare bezieht, unseriös ist. Also nahezu alle hier auf CB veröffentlichen Redaktions-, oder Usertests (mal von der Tatsache ausgehend, daß Usertests sowie außerhalb des "seriösen Journalismus" ablaufen). Aber davon abgesehen wären Deiner Aussage nach auch renommierte Test-Redaktionen wie "Auto, Motor Sport", "Stiftung Warentest" oder das "ADAC-Magazin" betroffen. Wenn z.B. ein ein neues Auto einem Crashtest unterzogen wird, und dieses dort versagt, oder ein Bügeleisen nach ein paar Minuten Feuer fängt, ist dieser Test Deiner Meinung nach unseriös, weil ja evtl. nur dieses eine gerade getestete Objekt so schlecht war und gaaaanz bestimmt alle anderen vom Band gelaufenen gaaanz sicher diesen Makel nicht aufweisen? Siescher, siescher doch! ;)
 
Zuletzt bearbeitet:
hier macht doch keiner die Redaktion schlecht.

aber scheinbar handelt es sich hier lediglich um eine Anpassung der Lüftungssteuerung.
 
- Die Lüfterdrehzahl wurde manuell angepaßt
- Der Kühler wurde auf korrekten Sitz etc. gecheckt
- Weitere Werte wurden verglichen...

Nun mag es sein, daß das (bisher) nur bei dieser einen Karte aufgetreten ist. Die Ursache ist de facto aber allein die GPU und kein weiterer Umstand. So ist diese Momentaufnahme exemplarisch und sehr wohl von Bedeutung. Es ist also nicht nur bei dieser einzelnen Karte ein Zufall sondern mit hoher Wahrscheinlichkeit bei einem sehr hohen Prozentsatz dieser Serie.
Und von simpler Produktions-Streuung kann hier nun ebenfalls wahrlich nicht mehr die Rede sein.
 
gwuerzer schrieb:
Kommt keiner auf die Idee, seriöserweise nur noch Karten zu testen, die bereits verfügbar sind, und davon am besten immer gleich 2 Stück, aus unterschiedlichen Quellen bezogen.
Bzw. diese Tests nach den Vorab-Tests der vom Hersteller bereitgestellten Modelle AUF JEDEN FALL später noch nachzureichen.

Keine Seite wird auf den Vorab-Test verzichten weil dieser viele Klicks bringt und man bei Hardware immer aktuell sein muss. Aber ich stimme dir zu, dass man wenigstens die Karten nach Erscheinend nochmal testen und gegenüber stellen könnte.

Wenn das wirklich stimmt, hat sich AMD echt selbst ien Bein gestellt, wobei ich mir nicht vorstellen kann, dass die echt so hohl sind. :rolleyes:
 
ich bekomm meine 4850 auch auf 55°C im Furmark und andere haben zu schwitzen, ist einfach ne sache der Kühlung.
 
Toll... Jede Karte kann mal Scheisse sein...

Ihr müsst mittlerweile auch über jeden Mist berichten.:freak:

Macht ihr auch ne News, wenn ich schreibe ich habe zwei E8400 und der eine macht 4GHz bei 1,18V und der andere 3,6GHz bei 1,32V?!:freak:

Also echt, mehr Kompetenz bitte!

Und soweit ich deagleone´s Beitrag aufgefasst habe, sind das doch nur minimale Schwankungen und wenn die einen halt den Lüfter runterdrehen und dadurch natürlich ein erhöhter Strombedarf entsteht, weil die Temp. steigt, ist doch da nix bei.

Jeder Idiot kann das doch im CCC nachjustieren nach seinen Bedürfnissen und solange nicht mehr wie (LOL) zwei Karten gegeneinander getestet wurden, ist daran doch gar nichts mehr aussagekräftig.

MfG M.R.
 
Zuletzt bearbeitet:
was mich interessieren würde ist, ob man versucht hat, die bios untereinander zu tauschen, und ob beide karten dann mit unterschiedlichen bios noch dieselben werte in verbrauch/temperatur haben (mit festgelegter lüftersteuerung versteht sich)
 
Da bringt ati/amd endlich eine sehr gute mittelklasse raus und dann sowas >.< naja was temparatur und lautstärke angeht,wers unbedingt leise und kühl will greift eh zu ner alternativen kühlung(zb.vapor-x ?) das mit dem stromverbrauch ist da schon schwerwiegender,kann es sein dass das bios fehler hat und eine viel zu hohe spannung verwendet wird?!?
 
was soll das?
Ich kann doch auch nicht Äpfel vom Bauern 1 mit Äpfel vom Bauern 2 direkt vergleichen und erwarten das beide gleich sind. Es sind unterschiedliche Biosversionen am Start, es sind vielleicht unterschiedliche Bauteile auf den Karten verbaut. Gibt ja keine direkten Bilder von beiden Karten.
Wurden die alten Werte der ersten 5750 genommen oder neue noch einmal ermittelt?
Das System wurde neu aufgesetzt? gleiche Treiber?

Es wird ja nicht mal geschreiben welcher Hersteller die zweite Karte denn ist. Das sieht total nach Aufreisserartikel aus. Nur schön wieder im www ins Gespräch kommen...
Sorry mit so wenig Fakten gebe ich mich nicht zu frieden und fühle mich eher getäuscht...

Da sind so viele Fragen, die nicht ganz klar sind...
 
Zuletzt bearbeitet:
Seriöser Journalismus würde nun recherchieren und erst dann die Ergebnisse veröffentlichen, unseriöser veröffentlicht eine Statistik bestehend aus zwei Werten…

Hätte ich nicht besser formulieren können.
Klar ist es ok, nur eine Karte zu testen. Verlang ja keiner, dass sich eine Redaktion mit 20 Karten desselben Typs ausstattet.
Aber WENN Zweifel aufkommen, ist es notwendig, statistisch mehrere Karte zu betrachten.
Erst dann kann man es in Relation setzen.

Wer weiß, vielleicht verbraucht die nächste getestete Karte etwas weniger als die von CB getestetet. Und die übernächste wieder etwa genausoviel.
Oder alle Karten brauchen tatsächlich deutlich mehr bei anderem Temperaturmanagement. Das würde, was das Sample der Redaktion betrifft, natürlich ein schlechtes Licht auf die Angelegenheit werfen.

Aber wirklich erst dann kann man eine Aussage treffen, wenn es noch mehr Vergleichswerte gibt.
 
Unabhängig vom statistischem Wert zweier Stichproben, scheint das Problem eher bei den Chiptemperaturen zu liegen.
Auf Seite 5 des Tests (Leistungsaufnahme Grafikkarte / Last Furmark 1.6) kann man recht gut erkennen, dass die Leistungsaufnahme sehr stark von der Temperatur abhängt. Die Wortwahl (emuliert) ist hier etwas verwirrend, gemeint ist wohl das die Kühlung von aussen auf die angegebenen Temperaturen geregelt wurde.
Betrachtet man den relevanten Wert Furmark von Seite 4 (Referenzkarte 70 Grad) und auf Seite 5 den Verbrauch bei 72 Grad ergibt sich bei einer Steigerung der Temperatur um 2 Grad ein Mehrverbrauch von 4,2 Watt, bei delta 13 Grad -> 18 Watt und bei delta 24 Grad -> 24,9 Watt.

Das kann man so interpretieren:
1.) Die Leistungsaufnahme ist anscheinend sehr stark von der Temperatur abhängig.
2.) Die verwendete Kühlung ist dann diesem Verhalten nicht angepasst.

Interresant wäre hier ob sich das erste, gute Testmuster bei (emulierten?) Temperaturen ähnlich im Leistungsverbrauch verhält.
 
Abwarten und Kaffee trinken. Die höhere Leistungsaufnahme verwundert schon. Bei den Lüftern und Haltbarkeiten der Karten sind ja marken- und chipunabhängig immer mal wieder schwarze Schafskarten zu finden, wohl auch wegen des Preiskampfes.

Wolfgang wird es sich wohl nicht nehmen lassen, irgendwann mal wieder ein Grafikroundup rauszuhauen, wo auch die 5e Serie mit einigen Serienkarten aus dem Handel zugegen ist. Solange kann zumindest ich noch warten...
 
Zurück
Oben