Mac_Leod
Captain
- Registriert
- Dez. 2001
- Beiträge
- 3.854
Danke für euer Feedback, es wird am Ende ein HP ProLiant DL345 Gen11 mit AMD EPYC 9475F CPU und 8x 32 GB Ram.
Der Terminalserver mit seinen 30 Usern läuft Im HyperV dann mit 8 Kernen pro Sockel, von denen es 4 Stk. gibt.
Die Aufteilung ist bei 6 NUMA Knoten die optimale (behaupte ich).
Nun habe ich aber noch einen weiteren Gedanken zum Thema Backup.
Letztes Jahr hatte ich das Problem, dass bei einem Kunden 2 Terminalserver VMs wiederhergestellt werden mussten.
Diese waren jeweils etwa ca. 2,8 TB groß. Der Restore lief mit ca. 110 MB/s
Jumbo Frames waren überall aktiv. Anbindung am ESX Host war ist 1x10G SFP+.
Der Restore lief parallel.
Als Backup lief bis dahin ein Server Qnap TS-435XeU-4G.
P/L ist es einfach unschlagbar und macht bei mehreren Kunden bisher einen echt guten Job.
Nur hat es diesmal echt ewig gedauert bis alles wieder lief.
ca. 30 Personen waren 13h nicht einsatzfähig.
Flaschenhals waren da die 4 HDDs (Exos 7E8 8TB im Raid5) welche nicht aus dem Knick gekommen sind.
Beim neuen Kundenprojekt soll die Qnap auch wieder zum Einsatz kommen. Bei min 14 TB netto.
Nun spiele ich mit dem Gedanken, entweder pack beim neuen Kunden-Projekt die Platten in einen Raid10 und bestell ggf. größere oder geh gleich auf 4x Samsung PM893 mit 8 TB, was den Preis fürs Backup natürlich extrem in die Höhe treibt. (4600€ vs. 1700€)
Problem ist dann auch, dass SSDs + Raid5, immer eine echt dumme Idee ist, auch bei Enterprise SSDs, also wird auch hier ein Raid10 gebaut.
Ich frage mich gerade wieviel Zeit man dadurch spart, bei der 3-4 Fachen Lesegeschwindigkeit im Restore Fall sollte der nächste Flaschenhals dann die 10G Karte sein oder?
Der Terminalserver mit seinen 30 Usern läuft Im HyperV dann mit 8 Kernen pro Sockel, von denen es 4 Stk. gibt.
Die Aufteilung ist bei 6 NUMA Knoten die optimale (behaupte ich).
Nun habe ich aber noch einen weiteren Gedanken zum Thema Backup.
Letztes Jahr hatte ich das Problem, dass bei einem Kunden 2 Terminalserver VMs wiederhergestellt werden mussten.
Diese waren jeweils etwa ca. 2,8 TB groß. Der Restore lief mit ca. 110 MB/s
Jumbo Frames waren überall aktiv. Anbindung am ESX Host war ist 1x10G SFP+.
Der Restore lief parallel.
Als Backup lief bis dahin ein Server Qnap TS-435XeU-4G.
P/L ist es einfach unschlagbar und macht bei mehreren Kunden bisher einen echt guten Job.
Nur hat es diesmal echt ewig gedauert bis alles wieder lief.
ca. 30 Personen waren 13h nicht einsatzfähig.
Flaschenhals waren da die 4 HDDs (Exos 7E8 8TB im Raid5) welche nicht aus dem Knick gekommen sind.
Beim neuen Kundenprojekt soll die Qnap auch wieder zum Einsatz kommen. Bei min 14 TB netto.
Nun spiele ich mit dem Gedanken, entweder pack beim neuen Kunden-Projekt die Platten in einen Raid10 und bestell ggf. größere oder geh gleich auf 4x Samsung PM893 mit 8 TB, was den Preis fürs Backup natürlich extrem in die Höhe treibt. (4600€ vs. 1700€)
Problem ist dann auch, dass SSDs + Raid5, immer eine echt dumme Idee ist, auch bei Enterprise SSDs, also wird auch hier ein Raid10 gebaut.
Ich frage mich gerade wieviel Zeit man dadurch spart, bei der 3-4 Fachen Lesegeschwindigkeit im Restore Fall sollte der nächste Flaschenhals dann die 10G Karte sein oder?
Zuletzt bearbeitet: