nanoworks schrieb:
Ich bin sowieso fest davon überzeugt, dass es für den Desktop Prozessor wie wir ihn heute kennen, keine Zukunft gibt. Das werden alles die APUs übernehmen.
Es ist doch in jeder Hinsicht besser, einen Chip zu verwenden, der aus vielen hochspezialisierten Recheneinheiten besteht, die alle nur die eine Aufgabe übernehmen, für die sie integriert wurden, anstatt einen hochgezüchteten Mehrkerner anzuheizen, der alles mit der Brechstange erledigt.
Für die Aussage empfehle ich dir ein bisschen Lektüre in Bezug auf Prozessorgeschichte. Vor allem hinsichtlich der Stichworte CISC und RISC.
Das was du vorschlägst gab es früher schon mal. Mit jeder neuen Prozessorgeneration wurden neue Befehlssätze mit neuen speziell dafür konstruierten Recheneinheiten eingeführt. Die Prozessorarchitekturen die darunter fielen, nannte man CISC (Complex Instruction Set Computing). Ergebnis des Ganzen war letztendlich eine Studie von glaub IBM die zu dem Schluss kam, dass die ganzen spezialisierten Anweisungen nur in ungefähr 1% aller Befehle verwendet wurden und der Rest auf die Grundfunktionen wie MAD und co. zurückgriff. Gleichzeitig machten diese Spezialisierungen einen Großteil der Die-Fläche aus.
Die x86 Architektur die wir heute noch für Desktopprozessoren verwenden gehört eigentlich zu CISC.
Es kam allerdings dann zu einem Umdenken und man entfernte vieler dieser Spezialisierungen wieder und steckte die Transistoren lieber in die Grundfunktionen um diese zu beschleunigen. (Das was du hochzüchten nennst) Erst das brachte wieder gute Geschwindigkeitszuwächse und die neuen RISC (Reduced Instruction Set Computing) CPUs hängten ihre alten CISC Kollegen um Längen ab.
Das Ende vom Lied ist heute, dass sämtliche x86 CPUs die du heute kaufen kannst, egal ob von Intel oder AMD, intern immer RISC sind, also nur relativ wenige Befehle unterstützen. Vor diese eigentliche Rechneinheit ist ein Interpreter geschaltet, der die alten und komplexen x86 Befehle in diese grundlegenden Befehle zerhackt. Nur dadurch sind die heutigen CPUs überhaupt so schnell.
AMD entwickelt jetzt mit ihrem ach so tollen APU-Ansatz genau in die gegenteilige Richtung und holt die ganzen Probleme die seit Jahren Geschichte waren, wieder mit ins Boot.
Da wäre das Problem, dass es praktisch unmöglich ist, die ganzen separaten mit verschiedenen Funktionen belegeten Einheiten, vollständig auszulasten. Wann braucht man schon mal die GPU + CPU auf einer APU genau in dem Maße, dass sich das genau ausgeht? In 99% der Fälle wird eines von beiden der Flaschenhals werden.
Sofern man die GPU überhaupt braucht. Wenn man gerade was macht, das die GPU überhaupt nicht gebrauchen kann, dann sitzt ein riesiger Teil des Dies blöde rum und trägt absolut nichts zur Rechenleistung bei. Die Transistoren die dann idlen hätten früher in der CPU gesteckt und dort die Rechenleistung immer erhöht.
Dass AMD zusätzlich noch immer absolut kein Konzept vorgelegt hat, wie sie das Problem mit den Speicherbandbreite bei den APUs lösen wollen, spricht Bände. Schon jetzt braucht man absoluten Top-RAM um wirklich die volle Leistung aus der APU zu holen, weil die mickrigen 2x64bit DDR3 eben nicht für GPU+CPU reichen.
Mehr Speicherkanäle gehen nicht, weil das den Pincount und die Komplexität der Mainboards nach oben donnert wie blöd, siehe Intels LGA-1366 und LGA-2011 Plattformen mit ihren schweineteuren Mainboards.
Schnellerer Speicher ist aber nunmal auch keiner in Sicht, weil DDR4 noch auf sich warten lässt. Und bis der dann mal in Masse auf den Markt kommt, wäre der wahrscheinlich auch schon wieder nicht schnell genug.
Es gibt schlichtweg einen Grund warum selbst meine mickrige GT425M hier im Laptop über eigene 128bit GDDR3 verfügt. Die Anbindung kann AMD aber über einen normalen Prozessorsockel nicht bieten.
Nur scheint das bei AMD keinen zu stören. Es kommt kein Piep darübe, wie man das Problem anzugehen gedenkt und gleichzeitig wird der GPU Part in den APUs immer weiter aufgeblasen, obwohl die Dinger jetz schon ins Bandbreitenlimit knallen.