Stern1710 schrieb:
Das könnte sehr, sehr interessant werden. Ein einzelner Sockel für 64 Kerne bietet für viele Server definitiv gewisse Lizenzersparnisse (da dort oftmals pro Sockel bezahl werden muss)
Da die entsprechenden Unternehmen dafür keine Zahlen veröffentlichen, hat man dafür leider keine Statistik, aber ich glaube dieses Problem wird sehr stark überschätzt: einfach weil bei den wirklich großen Schuppen viel automatisiert ist und die größte Manpower (und damit die meisten Meinungen dazu) in individuelleren Unternehmen mit quantitativ weniger Hardware existieren.
Alleine in unserer Uni werkeln weit mehr als 1000 Server und für Neubestellungen sind afaik größtenteils AMD Epyc vorgesehen.
Supercomputer haben schnell mal an einer Location mehr Server als ein ganzer DAX-Konzern insgesamt (vielleicht
mittlerweile ausgeschlossen Automobil und Luftfahrt, weil die ja seit 2017/18
endlich auch mal in Machine Learning selbst mit einsteigen und nicht mehr zu 100% jegliches Know-How nur kaufen).
Und die richtig großen Schuppen, Google, die AWS-Cloud von Amazon u.v.m. sind da ja noch nicht mal mit drin.
Diese Use-Cases, nicht zuletzt wegen immer mehr Forschung+Entwicklung, Machine Learning, usw. dürften mittlerweile bestimmt einen weitaus größeren Marktanteil haben, als die typischen Verwaltungsserver von Unternehmen XY.
Der springende Punkt: in all diesen professionellen Use-Cases läuft Linux. Google baut sich da ja sogar seine eigenen Distributionen. Zum Speichern von Daten haben sie auch eigene Lösungen, setzen ansonsten stark auf MariaDB, No-SQL-Lösungen oder teils auch auf etablierte Formate wie HDF5, was ursprünglich mal von NASA & Co. kam.
D.h. kein Microsoft, kein Oracle, ... -> keine Lizenzkosten für Hardware.
Wie gesagt, da die alle aus "Geschäftsgeheimnisgründen" keine offiziellen Zahlen veröffentlichen, kann man das nur schlecht mit einer Statistik untermauern...aber wenn man die Größenordnungen betrachtet, in denen Unis, Forschungsinstitute, Supercomputer und die Big Player wie Google mittlerweile Hardwareressourcen einsetzen (und das ja immer mit Linux & Co.) dann sind die Zeiten glaube ich vorbei, in dem die Masse des Marktes für CPU-Kerne oder -Sockel Lizenzgebühren bezahlen musste und das dementsprechend ein wichtiges Kriterium war.
Für die neuen Märkte, wo ewig viel Hardware benötigt wird, ist eher möglichst viel RAM, möglichst viel Bandbreite, möglichst viele Kerne, möglichst gute Parallelisierung, ... interessant.