Nighteye schrieb:
Das ist eigentlich schon seit Jahren Allgemeinwissen bei AMD GPUs, dass der angezeigte Verbrauch nicht für die komplette Karte gilt, da AMD im Gegensatz zu Nvidia einfach keine entsprechenden Sensoren auf dem PCB verbaut.
Was dir angezeigt wird, ist die TGP(Total Graphics Power), was die Karte verbraucht und von AMD meist auch zusätzlich angegeben wird, ist die TBP(Total Board Power).
Ein Teil an relativer Abweichung kommt z.B. durch VRM Verluste oben drauf, ein Teil an absoluter Abweichung kommt durch andere Komponenten auf dem PCB sowie Lüfter drauf, die unabhängig von der anliegenden Last(alles außer Idle) immer ziemlich gleich viel ziehen.
Unter Vollast habe ich bei meiner Karte ca 17-18% zwischen dem was der Treiber sagt(255W) und dem was die Karte zieht(300W).
Diese Abweichung wird natürlich prozentual etwas größer, je weniger die Karte verbraucht.
Wenn ich nur 100W ziehe, bleibt es nicht bei der 45W Differenz von oben(145W), weil Dinge wie VRM Verluste in absoluten Zahlen auch geringer werden, aber genausowenig wird es bei 17% bleiben(117W), da die fixen Verbraucher gleich bleiben.
Ich hab mit meiner 6800XT die Rechnung ASIC Power(das was der Treiber sagt) * 1,11 + 15W genommen, wobei ich 15W als grobe Schätzung für die fixen Zusatzverbraucher genommen habe und dann den Rest zwischen den dann 285W und den 255W die der Treiber zeigt, als relativen Anteil genommen und damit komme ich ganz gut hin.
Zeigt der Treiber für meine 6800XT also 100W, dann sind 100 * 1,11 + 15 = 126W das, was die Karte als Ganzes zieht.
Zeigt er 255W, sind es 255W * 1,11 + 15W = 298W.
Und mit dem OC-BIOS meiner Karte darf sie laut Treiber bis auf 281W hoch, da kämen mit der Rechnung dann 327W raus. CB hat die Karte im Test unter Vollast auch mit exakt 327W gemessen.
https://www.computerbase.de/artikel...saufnahme-der-grafikkarte-spiele-durchschnitt
Ohne präzise Messgeräte und Testreihen ist es schwer zu sagen, wie viel von den Differenzen wirklich fixe und wie viel relative Verbraucher sind. Dafür müsste man die GPU mit PCAT mal unter verschiedensten FPS limits und damit unterschiedlichen Verbräuchen Testen und die Unterschiede zwischen ASIC Power und dem, was PCAT anzeigt, betrachten.
Man kann es aber ja auch mal z.B. mit der 6600XT machen, die hat eine TGP von 130W, also das was der Treiber maximal anzeigen wird und eine TBP von 160W, also das was die Karte maximal ziehen wird.
Würde man hier einfach die 17,5% relative Differenz nehmen, die ich mit meiner 6800XT unter Vollast habe, dann käme man hier nur auf 152W, würde man die 45W absolute Differenz nehmen, käme man auf 175W.
Meine Rechnung mit 130W * 1,11 + 15W = 159,5W kommt da nahezu perfekt hin.
https://www.computerbase.de/artikel...saufnahme-der-grafikkarte-spiele-durchschnitt
Im Test zieht die Referenzkarte zwar nur 147W, aber sie scheint hier durch den Takt etwas limitiert zu sein und erreicht nicht das Power Limit(demzufolge wird sie im Treiber auch nicht die vollen 130W gezeigt haben). Die mitgetestete MSI Gaming X mit angegebenen 135W TGP tut dies und kommt auf 167W in Doom und 163W über alle drei Spiele. Erneute Gegenrechnung: 135W * 1,11 + 15W = 164,5W.
Ich könnte auch die Anteile an fixen Verbrauchern verändern, bei 10W fix blieben ~13% relativ, bei 20W fix blieben ~10% relativ.
Wenn ich dafür jedes mal meine Karte als Basis nehme, kommt natürlich am Ende immer das gleiche raus.
Aber für die 6600XT käme ich dann mit dieser Basis bei z.B. 10W fix auf 130W * 1,13 + 10W = 157W, also etwas niedriger. Bei 20W fix käme ich auf 130 * 1,1 + 20W = 163, also etwas höher.
Ich denke also mit den 15W fix und 11% relativ bin ich, zumindest was RDNA angeht, ganz gut dabei.