Geforce4070 schrieb:
Ich wette darauf das es am MCM Design liegt. Monolithen sind da einfach effizienter.
Ich liebe es, wenn Leute Wetten abschließen, man aber an ihren Beiträgen merkt, dass sie sich mit der Materie nicht befasst haben und erst mal nur stumpf etwas daher schreiben.
Kannst du denn begründen, warum ein monolitischer Chip hier "einfach" effizienter wäre? Ich kann dir hier eine Begründung schreiben, warum dein Beitrag auf der einen Seite falsch und doch einen Funken Wahrheit enthält.
Monolithen sind nicht pauschal "einfach" effizienter, so eine Aussage ist pauschaler Blödsinn. Die Effizienz hängt bei einer GPU - genauso einer CPU - von vielen Faktoren ab und es ist vollkommen unabhängig ob man ein Multi-Die-Design umsetzt oder ein monolitisches Design. Es ist richtig, dass erst mal ein gesteigerter Grundverbrauch existiert im MDD. Nur ist dieser in der Regel zu vernachlässigen und der Bedarf hängt von vielen anderen Faktoren ab und auch wie effektiv die Steuerung des Chips/der GPU damit umgehen kann.
Bei einer GPU ist das aber nicht nur eine Frage der Steuerung im Chip, sondern auch eine Frage der Firmware und des Treibers, denn anders als eine CPU, die relativ viel Controll-Logik enthält, schenkt man sich diese bei GPUs zu Gunsten von Rechenwerken und Co. Daher konnte AMD auch relativ "schnell" mit den ersten Treibern hier an bestimmten Punkten abhilfe schaffen, da die ganzen States für die Chip-Bestandteile in der Firmware hinterlegt sind und der Treiber entsprechend anhand verschiedener Parameter die States setzen kann.
So kann/könnte man bei einem MDD-Design zum Beispiel ganze Memory-Controller und deren Links "deaktivieren", wenn man diese nicht braucht, was am Ende sogar "mehr" Energie einsparen könnte, als bei einem Monolithen, weil dann auch die ganze RAM-Bank abgeschaltet wird. Wäre von der "Controll"-Logik etwas komplizierter auch auf Treiber ebene, weil man dann in den niedrigen States auch den "VRAM" limitieren müsste, die der Treiber nutzen kann usw. Aber es gibt hier echt viele Möglichkeiten.
Entscheidend ist, wie viele Taktdomänen AMD/NVIDIA in ihre Chips integriert und wie viele States für diese Domänen vorgesehen werden und wie fein man auch Bestandteile des Chips abklemmen kann. Vollkommen unabhängig ob MDD oder monolitisch.
Geforce4070 schrieb:
AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen
Eine gewagte Aussage, die man so nicht stehen lassen kann: RDNA und RDNA2 sind gerade bei einem Monitor sehr gut gewesen und lagen beide unter 10 W. Erst im Multi-Monitor-Betrieb waren beide etwas schlechter aber auch nicht abgeschlagen von der Konkurrenz. Ebenso war Vega, was beim Idle-Verbrauch angeht, auf einem Level wie NVIDIA und nicht wirklich schlechter und in YouTube teils deutlich besser. Polaris war auch nicht wirklich schlechter als NVIDIA und je nach Konfiguration sogar besser - damit haben wir 8 von den 10 Jahren bereits abgedeckt und in keiner seit dem erschienen Generationen war AMD beim Idle wirklich abgeschlagen und schlechter als NVIDIA, manchmal sogar besser.
Auch Fury war nicht schlechter als NVIDIA damals und die zweite und dritte GCN-Generation war nicht wirklich schlechter als die NVIDIA Pendants und die erste Iteration ebenso wenig. Man hat immer mal schwankungen von ein paar Watt zu Gunsten des einen oder anderen Herstellers, aber die GPUs agierten beim Idle-Verbrauch alle auf einem ähnlichen Level, was den Idle-Verbrauch anging.
RDNA3 war hier - und deswegen wurde hier auch so stark darauf eingegangen - eine traurige Ausnahme bei den ersten Tests, weil es vollkommen verwundert hat, warum RDNA3 plötzlich SOVIEL schlechter abgeschnitten hat.
Geforce4070 schrieb:
All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.
Du kannst dich an der Stelle glücklich fühlen, dass du nie Probleme mit NV-Karten hattest. Ich könnte da ein ganz anderes Liedchen singen, was aber daran liegt, dass bei mir durch die Hände pro Jahr aktuell so 10 - 20 Karten je Hersteller wandern und ich daher viel eher auch mal Karten mit Dead on Arive erlebe und all die schönen Macken, die es da gibt.
Genauso wie zickig manchmal die NVIDIA-Treiber sein können. Das Dumme an all dem ist, dass man - egal ob AMD, NVIDIA oder Intel - manchmal nicht drin steckt. Selbst eine "falsche" UEFI-Einstellung kann schon mal der Auslöser von Problemen sein oder weil ein Gerät ein "exotischen" Interrupt-Einstellung setzt usw.
Es ist doof, dass AMD für dich mit mehr Problemen bisher verbunden war und dass man dann kein Bock hat: Verständlich. Ich hoffe für dich, dass du dann NIE Probleme mit NVIDIA bekommst.
Lurtz schrieb:
Dann muss es wohl Magie sein, dass viele User nur 15 Watt TBP auf hochauflösenden HighRefresh-Displays haben, während PCGH bei stillem Desktop teils auf 80 Watt kommt.
Das Problem bei solchen Messungen ist immer: Was versteht man unter Idle und wie ist Windows und Co dann auch eingestellt.
Ich erreiche aktuell in einem vollständig ruhendem Desktop ohne weitere Proramme mit der 7900 XTX Verbräuche von 6 - 15 Watt und gemittel 8 Watt. Das ist sehr wenig. Sobald ich aber meine normalen Standardprogramme an habe, die immer da sind, geht der Verbrauch auf 8 - 20 W m Mittel um die 16 W hoch.
modena.ch schrieb:
Du erzählst völligen Blödsinn und bekommst nicht mit, dass sich die Resultate
im Vergleich zu den ersten Tests bei den 7900ern klängst geändert haben.
Naja, entsprechende Nachtests bei PCGameshardware, CB und Co sind ja auch eher "Mangelware", entsprechend sind die alten Ergebnisse für viele noch greifbar. Da kannst du ihm nur bedingt einen Vorwurf machen.
Wobei ... ach mein Jahresgeld geht jetzt doch in eine 4090 ... doofe KI, jetzt hat mich das Fieber da erreicht und ja es gibt ROCm, aber das Gefrickel aktuell tu ich mir unter Linux auch nicht an. Ich will das es geht!
Glaub, wird dann noch ein Pandi-Test geben, dann aber auch mit KI!