Da braucht man keinen Verdacht äußern, sondern es wird mit ziemlicher Sicherheit so sein, dass teildefekte Chips mit verwendet werden. Das ist seit Ewigkeiten normale Praxis, schlicht weil die Produktion der Wafer nie 100% fehlerfrei ist und auf einem Wafer entsprechend immer ein bestimmter Prozentsatz fehlerhafter Chips mit drauf ist.
Warum sollte man die jetzt also wegwerfen, statt die einfach in CPU-Modelle zu verbauen, welche die defekten Teile nicht benötigen? Wenn man Wafer mit 8 Kern Dies produziert, aber bei manchen Dies 1-2 Kerne defekt sind, nimmt man die halt für 6 Kern CPUs und wenn die iGPU des Dies nicht richtig funktioniert, baut man damit ein Modell ohne iGPU. Das machen sowohl AMD als auch Intel, einfach weil komplett wegwerfen Geld- und Resourcenverschwendung wäre. Auch Nvidia dürfte das machen, wenn bspw. bei einem AD104 Chip nicht alle 240 Tensor Cores oder 60 SM fehlerfrei sind, kommt der Chip eben nicht in die 4070 Ti Super, sondern eines der kleineren 4070er Varianten.
Das würde ich auch nicht mit dem eher negativ belasteten Resteverwertung beschreiben, sondern als effiziente Resourcennutzung. Denn teildefekte Chips sind ja qualitätiv nicht minderwertiger, es sind einfach nur Teile defekt, die man für die größeren CPU- oder GPU-Modelle bräuchte.