DARKx schrieb:
Und was ist dann der Flaschenhals
In aller erster Linie RAM (Menge, teils auch Durchsatz) und ganz klar auch Storage Performance - CPU Performance ist weniger das Problem.
Ich fahre ca. ein Verhältnis von 6-8/1 von vCPUs zu physischen Cores. Bei meinen aktuellen Hosts mit 10-16C 2P Ausbau komm ich im Schnitt auf grob 120-200+ zugewiesenen vCPUs. Die avg CPU Load liegt bei deutlich unter 50%. RAM gibts zwischen 768-1,5TB. Da RAM sehr teuer ist im Vergleich (ggü. den paar Piepen die der unbedarfte Gamer da beim Prozessor unbeding sparen will) fahren wir wenn möglich hohe RAM Auslastung von ~75-80% inkl. einkalkulierter Redundanzen. Storage sind redundante NetApp Hybrid Systeme mit mehrenen Flash Aggregates gepaart mit Disk Aggregates für reinen Space für Daten ohne groß IO Anforderungen.
Weiterhin überlegt, selbst WENN man das bei uns ändern würde - der AMD Epyc würde in diesem Umfeld kein Geld sparen - eher massiv teurer kommen. Ich nutze VMs mit 6-8 vCPUs die diese auch brauchen. 24-32C Epyc wäre das Resultat, damit aber der Mehrspeed beim Prozessor irgendwas bringt außer hohe Kosten zu erzeugen (Windows Server Datacenter kostet pro 2x8C ca. 5k - bei mir dann also 20k auf Epyc und "nur" 10k auf der Intel Kiste) müsste ich entsprechend 50-100% mehr RAM verbauen und auch ausnutzen. Das kommt beim Storage dann wieder zu Problemen usw. usf.
Nichts destotrotz, für viele ich Epyc in gewissen Umfeldern klar das Bessere und P/L Bessere Produkt. In so mancher Situation geht das aber nicht auf... Gerade bei Servern inkl. Lizenzkosten wo 40-50k und mehr auf der Uhr stehen sich an paar 100€ rein am Prozessor aufzuhängen und alles andere auszublenden funktioniert halt nicht. Für 4500€ bekommt man schon ganz brauchbare CPUs auch bei Intel - die 28C Modelle sind hingegen mehr Niesche wie aktuell ne 2080TI die neue Gamer-Mittelklasse ist
Ned Flanders schrieb:
Ist ja nicht so als das man mit Intel aktuell kein Risiko eingeht. Da sind ja noch reichlich Lücken unveröffentlicht. Gerade bei VMs
Wahrscheinlich schlummern aber genau so viele Lücken in Software mit dem Potential aus der VM auszubrechen oder den Host anzugreifen.
Man sollte den Spaß nicht überbewerten - und viel wird auch einfach falsch verstanden. Spectre heist nicht mit Fingerschnipp den kompletten Datenbestand abzufindern - ganz im Gegenteil, abseits vom Einsatz unter mehr oder weniger Laborbedingungen im VM Umfeld bei teils 50+ VMs die da im Memory rumplärren noch was verwertbares zu bekommen dürfte recht unwahrscheinlich sein.
Was man auch nicht vergessen sollte - im Business arbeitet man idR. mit Wahrscheinlichkeiten bei Risikoanalysen - es gibt dabei noch sehr viel naheliegendere Risiken die eher eintreten werden als das wer in einer entsprechend gepatchten Umgebung irgendwas verwertbares via Spectre abfingert. Ich halte sogar gezielte Angriffe per Zero Day Exploit für wahrscheinlicher - alle paar Minuten wird bei mir in den Clustern irgend eine VM von Host zu Host geschubst weil sich die Belastungen ändern
Krautmaster schrieb:
Denke da ist es in so gut wie jedem Betrieb einfacher jemand einzuschleusen der dann die Daten beschafft. Nur weil man über Spectre ggf was auslesen kann ist das noch lange nicht wirtschaftlich interessant umsetzbar
VMware teilt übrigens die Meinung mit dem Abschalten von SMT nicht - die gehen einen wenn auch recht kostspieligen Weg und flushen bei jedem Kontextwechsel die Caches - kostet grob 15-50% an Leistung und behebt das Problem wohl ebenso.
Intern only sollte man sich aber selbst das schon überlegen - weil wenn eh Niemand Code ausführen kann - kann auch keiner Daten Abfingern. Entsprechend mangelnde Praktikabilität mal außen vor.