News Starke Schwankungen bei der Radeon HD 5750?

bastard2k2 schrieb:
es sind vielleicht unterschiedliche Bauteile auf den Karten verbaut. Gibt ja keine direkten Bilder von beiden Karten.

Beim Referenzdesign *sollten* eigentlich alle Bauteile identisch sein, das große Sparen geht dann eigentlich erst mit den Herstellervarianten los.

Lübke schrieb:
hm, zufall oder selektierte chips für die tester?
anhand einer einzelkarte schwer zu sagen. auffällig nur, dass keines der testsample diese probleme hatte...

So gesehen hatte noch nie(?) ein Testsample solche Probleme. Jedenfalls hat sich die Realität doch meist ganz gut mit den Tests gedeckt. Solche Abweichungen hab ich jedenfalls noch nicht gesehen. Soll heißen: Das 2. Testmuster ist vermutlich einfach nur *wirklich* schlecht.

BlackMan schrieb:
Unabhängig vom statistischem Wert zweier Stichproben, scheint das Problem eher bei den Chiptemperaturen zu liegen.[...]
Betrachtet man den relevanten Wert Furmark von Seite 4 (Referenzkarte 70 Grad) und auf Seite 5 den Verbrauch bei 72 Grad ergibt sich bei einer Steigerung der Temperatur um 2 Grad ein Mehrverbrauch von 4,2 Watt, bei delta 13 Grad -> 18 Watt und bei delta 24 Grad -> 24,9 Watt.
[...]
2.) Die verwendete Kühlung ist dann diesem Verhalten nicht angepasst.

Das Problem bei der Karte ist aber, das man den Lüfter auf 3300 Umdrehungen stellen muss, um auf die Temperatur zu kommen, die die andere Karte mit 2200 Umdrehungen schafft.

Mein Fazit:

1. Es könnte sich auch um einen kastrierten Cypress-Chip handeln. Wenn das so wäre, ist es natürlich extrem unschön für den Kunden, das das ganze so aus dem Ruder läuft. Zumindest bei der Lesitungsaufnahme. Wobei 20W unter Last und dafür ne leisere Karte auch kein Weltuntergang sind. Trotzdem unschön.

2. Könnte das Teil einfach "kaputt" sein. Funktioniert zwar, aber irgendwo steckt ne Macke in der Technik, die das Problem verursacht.

3. Sollte man in ein paar Wochen nochmal ein Testmodell besorgen, (oder zwei) und das Ganze nochmal checken.
 
Naja ne Sauerei ist was anderes, das Netz lebt von News und Spekulationen!

Ich betrachte mich selbst mal als bösen Quadcore Quäler (ich hatte mittlerweile bestimmt eine dreistellige Zahl unter dem Kühler) wenn ich mir die Serienstreuung bei den hochgelobten Intel Vierkernern anschaue sind die ermittelten Unterschiede der beiden Karten marginal!

Das Problem ist Grundsätzlich in der Temperatur zu suchen, wie vorher schon geschrieben haben die Karten unter LAST bei gleicher DIE-Temp ne Differenz von 4 Watt in der Leistungsaufnahme. Im Idle sind die Temperaturen Identisch so what...
(Immer davon ausgehend das die Sensoren korrekt arbeiten, ähnlich wie bei den Intel CPU :D )

Was mich an der ganzen Geschichte ärgert ist die Tatsache das eine Karte (die ich mir niemals Kaufen würde) auf grund von zwei ermittelten Werten aus Himmelhochjauchzend zu Tode betrübt wird,

Der Threadtitel sagt alles!

Wenn ich das ganze statistisch Betrachte hab ich ne Abweichung von 2,1 Watt bei Identischen Bedingungen.
 
Über die Umstände dieser großen Differenz ist noch zu wenig bekannt, AMD wird gewiß, auf dieses Problem von der entspr. Fachpresse angesprochen, den richtigen 'Bilderbuch'-Kommentar abgeben können. Die Phrasen sind hinlänglich bekannt.

HT4U muß man zugute halten, daß sie diesen Test gemacht haben! Viele Magazine, ich würde sogar behaupten die überwiegende Mehrheit!, stürzen sich schnell auf Tests mit Referenzexemplaren und hernach findet man kaum noch Tests, die sich mit den offiziellen Verkaufsprodukten beschäftigen. Bei CPUs ist es ähnlich.
Mich beschleicht nach der Lektüre des Berichtes der Verdacht, daß AMD auf Teufel-Komm-Heraus versucht hat, das neue Produkt mit positiven Kritikpunkten auf den Markt zu werfen. Was beim Kunden Dank schnellebiger Medien hängen bleibt, ist der erste flüchtige Eindruck und dieser war durch die Bank weg gut.
Persönlich empfinde ich den HT4U-Artikel erschütternd, wenn nicht gar katastrophal. AMD möchte man keine Unterstellungen machen, aber latent kann sich jeder so sein Teil denken...
 
Moorleiche schrieb:
Aber davon abgesehen wären Deiner Aussage nach auch renommierte Test-Redaktionen wie "Auto, Motor Sport", "Stiftung Warentest" oder das "ADAC-Magazin" betroffen. Wenn z.B. ein ein neues Auto einem Crashtest unterzogen wird, und dieses dort versagt, oder ein Bügeleisen nach ein paar Minuten Feuer fängt, ist dieser Test Deiner Meinung nach unseriös, weil ja evtl. nur dieses eine gerade getestete Objekt so schlecht war und gaaaanz bestimmt alle anderen vom Band gelaufenen gaaanz sicher diesen Makel nicht aufweisen?
Du bist mutig, ein 30.000 Euro teures Auto mit einer 100 Euro Karte in puncto Qualitätssicherung zu vergleichen. Zumal ich gerne wüsste, wie ein Hersteller vor nem Crash die potenzielle Crashsicherheit eines beliebigen Chargenmodells berechnen sollte.


Zum Thema:
Die Grundgesamtheit der Testexemplare ist ein wenig dünn :)

Ausserdem kann es ein Fehler vom Boardpartner oder aus der Chipfertigung des kleinen, modernen Prozesses sein. AMD kann damit zu tun haben, muss es aber nicht.

Anhand der letzten Vorfälle sollte man generell aufpassen, was man kauft. Obs jetzt eine GTS250 ist, die dreist umgelabelt wurde und eigentlich eine 9800gtx ist, die weitestgehend einer übertakteten 9800 entspricht, die mal eine 8800gt war, oder obs eine GTX260² 55nm mit Spulenpfeifen ist, oder aber eine HD4870, die beim Furmark abraucht, oder eine HD5750, die ihren Idletakt nicht wie versprochen fährt: Überall ist ein Qualitätsverlust eingetreten.
 
Zuletzt bearbeitet:
Ich bekomme meine 5750 von Sapphire heute geliefert. Allerdings komme ich erst am Wochenende dazu sie einzubauen, dann werde ich mal sehen, wie sie sich Temperatur und Lautstärke verhalten.
Da ich sowieso versuchen werde den Accelero S1 zu montieren, wäre mir die Lautstärke egal, allerdings wäre ein höherer Verbrauch eher unschön....Hoffen wir das Beste
 
Hmm, ich find den Unterschied zwar nicht soo gravierend, aber dennoch nicht schön. Grad bei solchen Karten, bei denen man mit super Stromsparmechnismen und Top Performance/Watt Verhältnis wirbt, hinterlässt soetwas nen faden Beigeschmack.

Aber am wenigsten verstehe ich hier manche Poster. Hier wird erzählt, dass man den Lüfter runtergeregelt hat und dadurch nen höheren Stromverbrauch hat. Hallo? Da besteht kein kausaler Zusammenhang. Wenn ich die Drehzahl eines Lüfter runterdrehe, steigt nicht der Strombedarf, sondern lediglich die Temp.

Hier liegt das Problem in der Versorgung oder der Effizienz des Chips und nirgendwo anders. Da ist nicht einfach die Karte leiser gemacht worden, während man etwas höhere Temps in Kauf nimmt.

Ob das allerdings nur ein wirklich mieses Exemplar im Rahmen der Serienstreuuung war, oder obs bei allen so ist, das muss sich noch zeigen.
Aber wenn man überlegt, dass Testsamples die besten Karten aus der Serienproduktion sind und man die mal mit dem schlechtesten Modell Produktion vergleicht, dann sind solche Abweichungen durchaus zu erwarten.
 
Zum Mehrverbrauch nur so viel, bei 10 Stunden zocken, an 365 Tagen im Jahr reden wir hier über Mehrkosten von 5 € im Jahr... :freak:

@ Moep89, setz Dich mit der Materie auseinander und Du wirst feststellen, dass der Stromverbrauch sehr wohl überproportional mit gerringerer Lüfterdrehzahl und damit höherer Temperatur steigt.
 
Zuletzt bearbeitet:
Zum Glück habe ich mir eh noch keine HD5770 gekauft.
Das wird auch nicht passieren, bis die beiden Elkos
auf der Karte verschwinden. ^^

Es geht bei dem Stromverbrauch weniger um die paar Euro mehr im Jahr,
sondern um die Kühlung. Ob du nun 20W mehr oder weniger in
kleinen bis mittelgroßen Gehäusen leise weg kühlen musst,
ist ein großer Unterschied. Aber auch von den Kosten her läppert es sich.
Wer Strom sparen will, macht das nicht nur über die Grafikkarte,
sondern über alle Bauteile hinweg. Da kommen dann schon mal
über 100W zusammen, auch Idle! Und wenn sich manche über
5% weniger Rechenleistung beschweren, warum dann nicht auch
über 20% höheren Stromverbrauch?
 
Zuletzt bearbeitet:
BlackMan schrieb:
Das kann man so interpretieren:
1.) Die Leistungsaufnahme ist anscheinend sehr stark von der Temperatur abhängig.

die temperatur ist komplett abhängig von der leistungsaufnahme, andersrum ist es totaler quatsch ;).
 
Moep89 schrieb:
Aber am wenigsten verstehe ich hier manche Poster. Hier wird erzählt, dass man den Lüfter runtergeregelt hat und dadurch nen höheren Stromverbrauch hat. Hallo? Da besteht kein kausaler Zusammenhang. Wenn ich die Drehzahl eines Lüfter runterdrehe, steigt nicht der Strombedarf, sondern lediglich die Temp.
Richtig. Die Temperatur steigt. Und da Halbleiter bekanntermaßen Heißleiter sind, sinkt der Widerstand mit steigender Temperatur und somit steigt die bezogene Leistung.
In welchen Größenordnungen das messbar ist, weiß ich jedoch nicht....
 
also ganz ehrlich.
ihr habt eine karte die sich so verhält und schreibt so einen bericht.
wo bitte ist da denn die verhältnismäßigkeitt und wo bitte die seriosität.
trauerspiel
 
Moep89 schrieb:
Hmm, ich find den Unterschied zwar nicht soo gravierend, aber dennoch nicht schön. Grad bei solchen Karten, bei denen man mit super Stromsparmechnismen und Top Performance/Watt Verhältnis wirbt, hinterlässt soetwas nen faden Beigeschmack.

Aber am wenigsten verstehe ich hier manche Poster. Hier wird erzählt, dass man den Lüfter runtergeregelt hat und dadurch nen höheren Stromverbrauch hat. Hallo? Da besteht kein kausaler Zusammenhang. Wenn ich die Drehzahl eines Lüfter runterdrehe, steigt nicht der Strombedarf, sondern lediglich die Temp.

Hier liegt das Problem in der Versorgung oder der Effizienz des Chips und nirgendwo anders. Da ist nicht einfach die Karte leiser gemacht worden, während man etwas höhere Temps in Kauf nimmt.

Ob das allerdings nur ein wirklich mieses Exemplar im Rahmen der Serienstreuuung war, oder obs bei allen so ist, das muss sich noch zeigen.
Aber wenn man überlegt, dass Testsamples die besten Karten aus der Serienproduktion sind und man die mal mit dem schlechtesten Modell Produktion vergleicht, dann sind solche Abweichungen durchaus zu erwarten.


ich war in physik nicht besonders, aber selbst ich weiß das durch höhere temp. auch der stromverbrauch höher wird...elektrischer wiederstand blabla....
 
Das Wichtigste wurde hier schon gesagt:

1.) Eine Karte ist nicht repräsentativ und statistisch gesehen völlig unerheblich. Sie kann allenfalls den Anstoß zu einer umfassenderen Untersuchung geben.

2.) Der Kartenhersteller hat Möglichkeiten, am Referenzdesign Änderungen vorzunehmen. Auch hier müsste genauer nachgeforscht werden.

3.) Die Serienstreuung kann ebenfalls ein Grund sein, warum die gekaufte Karte vom Testsample so stark abweicht. Es sollte klar sein, dass ATi als Testsamples nur die besten Karten verschickt. Wenn nun im Handel zufällig eine Karte aus dem unterren Segment der Serienstreuung erwischt wird, kann diese deutliche Unterschiede zum Testsample aufweisen.
 
ACH WAS ECHT ?


Die zum Testen rausgegeben "Probemodelle" sind besser als die Massenmarktversion?
Na das is ja ein Ding.... Beileid denen, die AMD Produkte kaufen. haha :-)

*nvidia Fanboi Mütze aufsetz*
 
mediamaxx schrieb:
Natürlich ist das anders: Die eine CPU macht sogar mit weniger Spannung mehr Takt mit, die andere Baugleiche braucht Zusatzspannung und kann trotzdem nicht mithalten.

Man sollte nicht nur je 10 Grakas unterschiedlicher Hersteller, sondern auch CPUs gleichen Typs gegeneinander antreten lassen, um mal einen objektiven Artikel zum Thema "Serienstreuung" zu veröffentlichen.

Ähm, wir sind damit zwar offtopic, ein wenig, aber was Du schreibst, widerspricht sich. Mit dem ersten Absatz sagst Du, daß mein CPU Vergleich nicht geht, mit dem zweiten schlägst Du selber den gleichen Vergleich vor, den ich auch machte. Was denn nun?
Im Übrigen habe ich die Intelligenz des Lesers vorausgesetzt, daß selbstredend CPUs vom gleichen Typ verglichen werden sollten, alles andere wäre genauso Schmarrn wie aus einer GPU einen Regelfall zu konstruieren.
 
2.) Der Kartenhersteller hat Möglichkeiten, am Referenzdesign Änderungen vorzunehmen. Auch hier müsste genauer nachgeforscht werden.

das ist ja genau das problem: wenn die boardpartner durch diese geänderten layouts tatsächlich schlechtere karten bringen, als die tests der gleichnamigen referenzkarten suggerieren, dann bedeutet das, dass die 5750 im laden eben deutlich schlechter sind, als es die tests glauben machen...
 
@Lübke

FALSCH!

Das bedeutet, dass der Boardpartner minderwertiger ist, mehr nicht. :rolleyes:

Es gibt noch andere Boardpartner wie z.B. HIS und Sapphire und die bauen in der Regel hochwertigere Karten.
 
Zuletzt bearbeitet:
Zurück
Oben