digitalangel18 schrieb:
... warum nicht einfach ein separater 2D Chip auf Grafikkarten verwendet wird. Der sollte doch mit heutiger Fertigungstechnologie für ein paar Dollar und mit winziger Verlustleistung machbar sein? Und noch 16MB zusätzlicher Framebuffer dürfte auch nicht ins Geld fallen. Die eigentliche GPU müsste dann nur für 3D/GPU-Processing/Videobeschleunigung dazu geschaltet werden. Das wäre dann auch unabhängig von Mainboard und co.
Welche Instanz benötigt denn die 3D-Funktion bzw. woher kommt denn die Anforderung "jetzt" die GPU anzusprechen ?
Von der Grafikkarte ? Dann wäre ein 2D-Chip oder eine "CPU" oder wie das dann heißen soll sinnvoll.
Aber es ist das Board, das CPU, GPU, die Caches, RAMs etc. verbindet, natürlich muss die "Zentrale Prozessoreinheit", bei der eine (Spiele-)Anwendung eine 3D-Berechnung anmeldet, diese 3D-Funktion an- oder abschalten. nVidia mit seinem "Hybrid Power" macht das bereits, benötigt aber einen 3D-Chip onboard, der die 2D-Bildausgabe übernimmt. Hätten wir eine autonome, externe Grafikkarte an einem LCD-Monitor, könnte theoretisch die eingelegte Software per Schnittstelle die Grafikkarte "starten" und GPU-Berechnungen auslösen. Quasi die Spiele-Konsole ohne "Hirn". Was wäre gewonnen zu heute ?
Die Tendenz zu speziellen Chips (ähnlich ASUS-Boards mit Mini-Linux) finde ich sehr folgerichtig, auch getrennte Taktung bei den AMD-CPUs, oder das formulierte Ziel, ganze CPU-Kerne abschalten zu können, je nach Leistungsanforderung.
Ob die neue Intel-Verlautbarungen für einen GPU-Ersatz durch CPUs oder umgekehrt die nVidia-Verlautbarungen zum CPU-Ersatz durch GPGPUs sich irgendwann durchsetzen, wer weiß das schon. Im Moment dominieren CPUs in allen Bereichen, ohne diese (mit entsprechender Leistung, siehe Benchmarks) läuft gar nichts.
Allein bei folding@home gibt es für den "Massengebrauch" (CUDA lasse ich außen vor) im Beta-Stadium eine nahezu komplette GPU-Berechnung mit sehr geringen CPU-Anteilen (unter Vista), die vielleicht wegweisend ist in autonome Chip-Spezialisierung in einem heterogenen Chip-Umfeld. Ob das später modulare Chips sind, die man in ein Multi-Chip-Mainbaord einsetzt (ähnlich Multi-CPU-Serverboards), oder per PCIe-/USB 3.0-Schnittstelle, spielt kaum eine Rolle.