Zum Thema GPUs in Cores "aufspalten".
Das macht in dem Fall nicht wirklich viel Sinn.
Bei den CPUs gab es irgendwann den Punkt, an dem man einen einzelnen Core nicht mehr beliebig (durch mehr Takt) in Sachen lListung steigern konnte und man musste auf zwei und mehr parallele Cores umsteigen.
GPUs sind aber immer schon massiv parallel. Moderne GPU bestehen aus Hunderten und Tausenden parallel arbeitender kleiner Einheiten und man kann ohne große Probleme je nach Bedarf mehr oder weniger davon auf den Chip packen. Das skaliert, im Gegensatz zu den CPUs, praktisch ohne Verluste.
Das geht so weit, wie man die irgendwann riesigen Chips noch irgendwie produzieren (und bezahlen) kann. (Teilweise über 500mm^2, das ist mehr als doppelt so groß wie ein Sandy Bridge-Quadcore inklusive seiner iGPU.) Danach schaltet man dann einfach zwei (oder mehr) dieser GPUs parallel, per CF oder SLI. Wahlweise auf einer Karte oder auf mehreren.
An Parallelität fehlt es bei den GPUs also nicht.
Trotzdem stößt man natürlich irgendwann an thermische und elektrische Grenzen. Z.B. sieht die aktuelle PCIe-Spec eigentlich nicht mehr als 300W für eine Karte vor. Das ist erfahrungsgemäß auch ungefähr die Grenze, bis zu der man eine Karte noch mit einigermaßen vertretbarem Aufwand mit Luft kühlen kann.
@ Schrauber01:
"Warum baut kein Hersteller mal eine Karte, bei der der Kühler unter anderem höher ist wie die Platine."
Sowas gibts doch. z.B. die hier: