Da muß ich an den Werbespot denken:
https://www.youtube.com/watch?v=5IMI1qjE1pY
"ganz im Ernst: wer braucht sowas ?"
Dass ich mal sowas schreibe, wo mir klar ist, daß man auf der Welt mehr als 5 Supercomputer braucht und im PC auch mehr als 512kB RAM.
Was ich meine ist: 52958/3854=13,7 ist nicht mal näherungsweise bei 32 und bildet für mich ziemlich deutlich die von Amdahl beschriebenen Probleme ab.
Bei meinen eigenen Messungen im Sparc-Umfeld komme ich auch immer wieder zu dem Ergebnis, daß bei 12x parallel ein Sweetspot ist. ab da sinkt der Gesamtdurchsatz.
Damit ist es oft besser 8 schnelle Cores einzusetzen und 16 Cores schaffen nur in Ausnahmefällen noch etwas mehr weg, sind dafür aber deutlich teurer in der Anschaffung und vor allem bei der Lizensierung von Software.
Spezielle Software, die dann auf Multithreading optimiert wird, kann man womöglich genauso gut auf Multisockel oder gar Multinode optimieren. Letzteres hätte dann auch noch HA-Vorteile.
Einen positiven Aspekt hat das ganze: wer sich noch an die Marx/Engels Grundgesetze der Philosophie erinnert, dem sagt das vlt. was: Umschlagen einer gesteigerten Quantität in eine neue Qualität. D.h. wird die schiere Menge immer mehr gesteigert, wie hier die Cores, dann kommt mit einem Schlag etwas ganz neues, eine neue Qualität. Hier vlt. eine ganz neue Architektur, Quanten-Prozessor oder frei programmierbare FPGAs mit tausenden Cores, oder etwas, was plötzlich in China aus dem Nichts auftaucht und niemand auf dem Radar hatte und die aktuelle Stagnation überwindet.