News Starke Schwankungen bei der Radeon HD 5750?

@ OT71:

du musst aber den Zusammenhang beachten - siehe die 5 vorigen posts!

es ist ja nicht das allein und erst bei 50% höherer drehzahl wird die gleiche Temp erreicht!
 
angHellic schrieb:
@ OT71:

du musst aber den Zusammenhang beachten - siehe die 5 vorigen posts!

es ist ja nicht das allein und erst bei 50% höherer drehzahl wird die gleiche Temp erreicht!

ja, der chip vom nachtest wird wärmer, und zusätzlich läuft der lüfter langsammer....was zusammen zu dem höheren verbrauch führt.

ob das nun an dem chip selber liegt, oder an anderen bauteilen!?

trotzdem hätte man mehrer grafikkarten vergleichen müßen, bevor man sowas raushaut.
 
vieleicht erklärt das auch die unterschiedlichen Verbrauchsmessungen der einzelnen Seiten ..

ich glaube, hier war knapp unter der 4890 gemessen worden und bei pcgh auf Niveau der 4870 ...

im allgemeinen dürften Schwankungen jedem klar sein, so gibt ja auch niemand eine Garantie beim übertakten .... aber 25Grad Celsius ist doch ne ganze Menge wie ich finde ...

Edit: wenn das wirklich andere Hersteller sind, dann kann man vieleicht auch noch so Faktoren wie die verwendete WLP dazurechnen, ist doch bekannt im Bereich von +- 5°C anzusiedeln. Naja, wie auch immer, meine nächste ist ne ATI, denn ich liebe das Rot und nen Ferrari kann ich mir nicht leisten, also ATI ....
 
Zuletzt bearbeitet:
gwuerzer schrieb:
Kommt keiner auf die Idee, seriöserweise nur noch Karten zu testen, die bereits verfügbar sind, und davon am besten immer gleich 2 Stück, aus unterschiedlichen Quellen bezogen.
Bzw. diese Tests nach den Vorab-Tests der vom Hersteller bereitgestellten Modelle AUF JEDEN FALL später noch nachzureichen.

Damit wäre das Problem aus der Welt geschafft und die Hersteller würden diese Praxis auch gleich wieder sein lassen.

/sign

Ähnlich wie bei Game Tests wo ja auch nur mit den retail Versionen getestet wird bei den meisten MAGs. Mich würden eh mehr die Tests zu den fertigen Produkten als ganzes interessieren anstatt nur die Karte. Also eventuelle Beigaben dabei oder nicht, oder wie funktioniert eventuell Hersteller eigene Software ala EVGA Precision Tools, Qualität der Kabel/Adapter und und und........

Natürlich wäre der Aufwand jede Karte eines jeden Herstellers zu testen sicherlich viel zu groß, aber zumindest die ersten paar oder aber die "wichtigsten/größten" ala ASUS, MSI, Zotac, Powercolor usw.
 
Ursache von solchen Qualitätsschwankungen ist "Geiz ist geil". Würde die Karte 10-20€ mehr kosten währen solche Fehler zumindest nicht mehr so oft vorhanden. Gerade der Biosbug der HD 5750 ist ein Paradebeispiel wie man krampfhaft ein paar € sparen wollte.

Üble Täuschung seitens AMD könnt ihr gleich mal vergessen, die wissen ganz genau das sowas früher oder später raus kommt. Das war auf jeden Fall nicht Absicht...

Bei den HD 5800 gibts solche Geschichten eher weniger. Also ihr wisst was zu tun ist, ,kauft euch alle eine HD 5850 1GB.:rolleyes:
 
Verstehe ehrlich gesagt die ganze Aufregung nicht, das was journalistisch daraus gemacht wurde, sowohl von HT4U (im Fazit) als auch CB, ist nicht gerade eine Glanzleistung.

Hier nochmal die HT4U-Werte:

Referenzkarte 72°C - 77,3W (bei 26,9 db)
Testexemplar 72°C - 81,5W (interessant wäre auch hier eine db-Messung seitens HT4U)
Testexemplar 94°C - 102,2W (bei 20,9db)

Ich halte etwa 5% Abweichung (81W zu 77W) beim Lastverbrauch für verschiedene GPUs einer Serie bei ansonsten "gleichen" Parametern für keine außergewöhnlich große Streuung, die 5% liegen imo sogar fast im Fehlerbereich der Messung.
Dass der Verbrauch mit der Temperatur in diesem (deutlichen) Verhältnis ansteigt, ist bekannt und sollte die Redaktionen nicht verwundern.
Insgesamt wird hier etwas reißerisch aufbereitet, was nicht ungewöhnlich ist.
(Zum Nachteil des Image der Karte, wie man an der Vielzahl undifferenzierter Posts hier schon erkennen kann)

Man muss hier auch nicht seitenlang über mögliche Gründe wie Spannungswandler, Speicher etc. diskutieren, das ist verschwendete Zeit.
Das ist einfach geringe (im Messfehlerbereich) Serienstreuung der GPUs.
Solche Abweichungen (5%) kann ich mit 2 Karten jeder anderen erhältlichen Serie reproduzieren (wahrscheinlich sogar mit ein und derselben Karte ;) )

Auf den Rest (ca. + 20W) hat die GPU (bzw. deren Qualität) keinen Einfluss und auch keine sonstigen elekt. Bauteile,

der Rest ist einzig allein Sache der Lüftersteuerung. Diese regelt unter Last einfach nicht hoch genug.

(Und auch hier verhalten sich andere Serien genauso, was Temperaturabhängigkeit des Verbrauchs angeht)


Gruß
Raubwanze
 
Zuletzt bearbeitet:
deagleone schrieb:
schaut Euch mal die Subsys ID´s an...
Die Karten haben unterschiedliche Bios Versionen und stammen von unterschiedlichen Herstellern
Das interessiert hier keinen denn ATI IST SCHLECHT und nvidia vieeeeel besser.

Sie zeigen ja nicht mal die Chips, und verschweigen den Hersteller, toller Test, aber was interessiert das die Leserschaft.
Fast Jeder mit einer nvidia GTX in seiner Signatur geifert los. SCHEISS ATI, ich bin empört, ich will Aufklärung, aber sofort.
Ob da nicht der MOSSAD dahinter steckt?

deagleone schrieb:
der Unterschied liegt (bei gleicher GPU Temp) bei 4 (in Worten vier) Watt in der Leistungsaufnahme.

4 Watt sind für den Famboi mit seiner Overclocked ULTRA halt zuviel... :lol:

Ich werde jetzt meine Radeon 4870X2 wegwerfen und sie gegen eine bessere Nvidia G220 eintauschen.

Die Verkaufskarte ist sogar leiser wie die Referenz, das ist doch eigentlich positiv.
Wie wurde die Leistungsaufnahme gemessen?
Die des ganzen Systems?
Was für ein Netzteil kam zum Einsatz.

Sorry das ist doch ein grosser Bullshit.

Hat vielleicht jemand daran gedacht dass es sich auch um unterschiedliche Chips handeln könnte?
vielleicht ist die etwas wärmere Karte auch ein idealer Freischaltkandidat.

Ich tippe einfach mal auf einen teil deaktivierten grösseren.
Oder vielleicht handelt es sich um eine charge die während der Migration auf 40nm produziert wurde.
vielleicht ist die wärmere karte noch ein 55nm modell.

aber so bleibt der test einfach müll, auch wenn er die nvidia fans sabbern und geiffern lässt.

gruss
 
Sublogics schrieb:
Meine Spekulation:
AMD/ATi hat ja heftige Lieferprobleme bei den HD5000er GPUs, da wäre es (für den wichtigen Mittelklasse-Markt) doch denkbar daß ATi für die 5750 u.a. statt den RV840 Juniper- RV870 Cypress-Wafer verwendet und diese per BIOS o.ä. auf die Funktionen der Juniper-Features kappt. Dabei bleibt natürlich unter anderem die Hälfte der Transistoren über die vielleicht einfach weiterballern und dabei Stromverbrauch und Abwärme liefern...
Die Cypress-Wafer mögen teurer zu produzieren sein, sie sind aber schon länger in Produktion und vielleicht schneller zu liefern. ...

Meine Spekulation*:
Bei Nvidia sieht es noch viel schlechter aus, als gedacht. Sie kommen nicht aus den Puschen, und machen sich nun in die Buxe das der Markt gestättigt ist, wenn ihr Möchtegern-Monster am Markt aufschlägt. Um nicht nur die üblichen Nvidia-Fanboys auf ihrer Seite zu Wissen, sondern einen großen Anteil des Marktes zum warten zu bewegen, ködern sie die Redaktuere einer kleinen Hardware Seite mit Stickern, T-Shirts und einer defekten 5750, um Angst und Schrecken unter den ATi Interessierten zu verbreiten.

Die Folge; der Verkauf der zur Zeit zumindest halbwegs verfübaren HD5000er Karte bricht ein, und überall ist nur noch von den "schwankenden ATIs" die Rede.

*Das ist natürlich nur spinnerei, und stellt nicht meine Ansichten dar.
 
raubwanze schrieb:
Ich halte etwa 5% Abweichung (81W zu 77W) beim Lastverbrauch für verschiedene GPUs
Hättest Du ein paar Beiträge vor Dir gelesen oder den Artikel, häätest Du gewusst dass sie die gleiche Temp bei 50% schnelleren Lüftern erreicht haben!


Äffle schrieb:
Die Verkaufskarte ist sogar leiser wie die Referenz, das ist doch eigentlich positiv.
Wie wurde die Leistungsaufnahme gemessen?
Die des ganzen Systems?
Was für ein Netzteil kam zum Einsatz.

ich überspringe mal Dein geflame (falls es Dich beruhigt: ich habe auch ne X2)...Kennst du ht4u scheinbar nicht. Keine Seite betreibt mehr aufwand um zu einer gesicherten leistungsaufnahme zu kommen - schau Di da mal ein bissl um! Es wird einzig und allein die Leistungsaufnahme der Karte gemessen, und genauer als die das machen geht es wohl nicht....

Alles andere wurde schon gesagt....
 
Also erstmal ein Hallo an das CB-Team, die CB-User und natrülich auch an alle Leser.

Zum Thema:
Um es vorweg zu sagen, meiner Meinung nach hat sich HT4U mit diesem Nachest selber in´s Knie geschossen.

Hier wurden den unterschiedlichen Messwerten der GPU-Spannung aus Haupt- und Nachtest keine Bedeutung geschenkt und die Verbrauchs-Messergebnisse wurden einfach aus dem Haupttest übernommen.

Im Haupt-Tetst wurde bei der Referenkarte eine GPU-Spannung von 1,124 Volt (Last) gemessen. Im Nach-Test waren es aber schon 1,150 Volt (Last). Alleine dieser Unterschied sollte mich als Tester doch schonmal aufhochen lassen und mich zu einer eingehenden Kontrolle des Testsystems bewegen. Mag sein, dass dies dem Tester nicht aufgefallen ist. Aber warum übernimmt er dann einfach die Verbrauchsangaben aus dem Haupt-Test und vermischt diese mit der im Nachtest gemessen GPU-Spannung. Dies führt dann natülich zu so einem Ergebniss.

Vielleicht können ja hier die Grafikkarten-Profis etwas zu sagen, ob dieser Spannungsunterschied von 1.124 (Referenzkarte) zu 1.158 Volt (MSI-Karte) bereits zu solch einem unterschiedlichen Verbrauch führen kann.

In jedem Fall wurde der Nachtest in meinen Augen schlampig durchgeführt. Ob gewollt oder ungewollt sei mal dahingestellt.

Grüße, toshco
 
Zitat HT4U:
Die Firmware-Versionen haben wir ebenfalls verglichen, doch wir fanden keinen Unterschied - zumindest nicht in der Versionsnummer:

Ein Blick ins BIOS mit dem RBE hätte Aufschluss geben können. Ich tippe darauf, das ganz trivial das BIOS verpfuscht wurde!
HT4U hatte bei der AMD Referenzkarte 012.013.000.000.000000

Es findet sich merkwürdigerweise auch ein BIOS mit einer kleineren Nummer, also ein älteres
ATOMBIOSBK-ATI VER012.012.000.000.000000
http://www.techpowerup.com/vgabios/58393/Sapphire.HD5750.1024.090903.html


Von 1,124 Volt zu 1,158 Volt ist schon ein beträchtlicher Unterschied.
 
Zuletzt bearbeitet:
Vielleicht können ja hier die Grafikkarten-Profis etwas zu sagen, ob dieser Spannungsunterschied von 1.124 (Referenzkarte) zu 1.158 Volt (MSI-Karte) bereits zu solch einem unterschiedlichen Verbrauch führen kann.
Woher hast du die Refernzspannung? Die ist falsch. An der Spannung liegt es nicht:
HD 5750 Muster 1: 1,150 Volt
HD 5750 Muster 2: 1,158 Volt
Messtoleranz, die sind identisch.
http://ht4u.net/reviews/2009/amd_radeon_hd5000_fertigungsschwankungen/index5.php
 
toshco schrieb:
Aus dem Haupttest:

http://ht4u.net/reviews/2009/amd_ati_radeon_hd5750/index5.php

AMD Radeon HD 5750 GPU 157 MHz 0,956 Volt 700 MHz 1,124 Volt

Grüße, toshco

Edit:
und wenn du dir die Messwerte anschaust, wirst du fesstellen, dass alle Werte der Referenzkarte aus dem Haupttest übernommen wurden nur die Spannung wurde neu gemessen.
wenn dem so ist, dann ist der "nachtest" absolut fürs licht. der entsprechende spannungsanstieg ist ein eindeutiges indiz für die benötigte höhere lüfterdrehzahl für gleiche temperatur. vor allem ist das übernehmen der alten testergebnisse mit der niedrigen spannung fraglich, obwohl definitv beim nachtest eine höhere spannung gemessen wird.
 
angHellic schrieb:
Hättest Du ein paar Beiträge vor Dir gelesen oder den Artikel, häätest Du gewusst dass sie die gleiche Temp bei 50% schnelleren Lüftern erreicht haben!

da aber die leistungsaufnahme dabei nur 4 watt unterschied war, bedeutet dass nicht dass der chip schlechter war, sondern dass auf dieser karte etwas mit der kühlung nicht stimmt. (eventuell ein problem mit dem heatspreader)
wenn du für 4 watt mehr leistung 1000 umdrehungen mehr bruachst dann muss etwas mit dem wärmetransport nicht stimmen... (oder der lüfter komplett verdreckt sein)
 
quaiky schrieb:
da aber die leistungsaufnahme dabei nur 4 watt unterschied war, bedeutet dass nicht dass der chip schlechter war, sondern dass auf dieser karte etwas mit der kühlung nicht stimmt. (eventuell ein problem mit dem heatspreader)
wenn du für 4 watt mehr leistung 1000 umdrehungen mehr bruachst dann muss etwas mit dem wärmetransport nicht stimmen... (oder der lüfter komplett verdreckt sein)
oder es ist schlicht und ergreifend die spannung höher, so wie es auch scheinbar ist. ob die spannung allerdings höher sein muss um einen stabilen betrieb zu gewährleisten oder ob die boardpartner, in diesem fall msi, hier das bios vermurkst haben ist wohl noch zu klären.
 
Zurück
Oben