Poati schrieb:
Man sollte aber in der Größenordnung immer im Auge behalten, wie viele solcher Bladeserver betrieben werden müssen, um Leistung X zu erzielen. Pro CPU bekommt AMD zur Zeit aber eben doppelt so viele Kerne unter, die Speziallösung mit 56 Kernen mal außen vor gelassen.
für uns gesprochen ist man zwischenzeitlich schon eher an dem Punkt dass man man mehrfache Server schon allein aus HW-Redundanz Gründen braucht, weniger weil man die Leistung CPU seitig braucht. Heißt wir haben zb 2 große Standorte mit je 2 Serverräumen und ich will auch Redundanz innerhalb des Server Raums. Also bin ich schon bei 2x2x2 = 8 Servern die ich in Physik anyway haben will. Mit 8 Servern und den massiven CPU Count den ich heute bekomme würde das oft schon reichen. Im Fehlerfall will ich aber ne Übernahme ohne groß Performanceverlust abfangen können , muss also zb genug Ram frei halten.
Laufen tun bei uns so etwa 300-400 virtuelle Server. Limit ist auch hier viel mehr der maximale Ram Ausbau anstatt die Anzahl der CPU Kerne die wir brauchen. Viele der Server sind ja nur zur sauberen Trennung der Systeme da, machen Kleinstaufgaben die CPU Seitig 0 abverlangen.
Gedeckelt wird das ganze noch mit einem extrem undurchsichtigen Lizenzkonzept von MS SQL Server und Oracle, die zwischenzeitlich ja nach physikalischen Kernen (nicht CPU) im ganzen Cluster oder der ganzen VM Welt gehen.
Weil ganz theoretisch kann ich meiner SQL Server VM ja 128 Kerne zuordnen, Sinn hin oder her. Das ist schon ne Wissenschaft für sich alleine da durchzusteigen was man nun lizenzieren soll und wie sich das bei jedem Ausbau der Welt ändert. Da ist man schnell im Kostenbereich wo es besser ist weniger Kerne zu haben...
Wir haben für diverse Systeme wenige PoolServer bei denen die Software 4-Tier eher von hoher Leistung auf einzelnen Threads profitiert. Da hat man ganz gezielt hochtaktende Gold Xeons genommen - die es damals eben so gab mit ich meine 4,2 Ghz. Jeder Client (knapp 4 stellig in Summe) bekommt da zb einen Prozess mit etwa 1GB Ram und dieser kann auch mal Minuten lang am Anschlag sein, meist aber nur sehr kurz. Da war dann Single Thread Performance wichtiger (Epyc gabs da eh noch nicht) , aber deshalb ist zb diese App in einem eigenen Cluster mit vergleichsweise wenig Kernen und viel Ram.
Und selbst bei der (größten) SQL Server DB mit 1.5TB Ram ist die Parallelisierung überschaubar, wird sogar schnell kontraproduktiv.
https://www.sqlshack.com/troubleshooting-the-cxpacket-wait-type-in-sql-server/
Was auch gern hier limitiert ist die Anbindung ans SAN.
Aber hey, ich hab mit unserer ESX welt auch nicht direkt was zu tun.