• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Suche Heimserver-Mainboard

nebulein schrieb:
Was spricht denn gegen einen HP Microserver Gen10 Plus? Sofern der zu klein sein sollte, gibt es ja noch andere Mini Server. Der Vorteil ist hier halt, dass du im Prinzip viele Features out of the box hast wie z.b. der thinksystem st50. So viel teurer wird das im Endeffekt auch nicht.
Natürlich auch eine Option, wobei hier mit der iLO Steckkarte und meiner Mellanox ConnectX-3 prompt alle Slots aufgebraucht sind. Außerdem hat das keine m.2 Slots, was für mich ein nogo ist und maximal 4 SATA Anschlüsse könnten auch ein Limit werden - wenn meine beiden MX500 2TB mal im Gaming-PC ersetzt werden würden die vermutlich in den Server wandern und dann hätte ich da 5 SATA Devices. Plus gelegentlich mein Bluray-Laufwerk.
Wenigstens erfordert HPE nicht, für den MicroServer eine iLO Advanced Lizenz zu kaufen, nur um den iKVM nutzen zu können...

Dazu kommt noch, dass das im Vergleich zum ASRock Rack X570D4U mit Zen 2 CPU bei weniger Leistung teurer ist. Ein großer Unterschied im Stromverbrauch ist auch nicht zu erwarten wenn ich die servethehome Reviews vergleiche.

Die Thinksystem st50 habe ich mir kurz angeschaut, aber die sind im Vergleich zum HP MS noch deutlich uninteressanter.


Ich bekomme eventuell über die Arbeit in einigen Wochen an einen ausgemusterten HPE ProLiant ML350p Gen8 welcher allerdings zweifelsohne für mein Wohnzimmer zu laut sein wird (ich habe keinen alternativen Aufstellungsort in der Mietwohnung) und daher entweder als Homelab laufen wird oder alternativ bei meinen Eltern für den Zweck 'Backup Copy' hin kommt. Mal schauen, zugesichert ist der sowieso noch nicht.

nebulein schrieb:
Einige B550 bzw. x570 etc. können ECC, aber nur offiziell mit Ryzen Pro CPUs. Inoffiziell wohl auch mit den normalen Ryzens, aber es gibt dazu wenig Erfahrungswerte und spätestens wenn man eine Ram Supportliste sucht, landet man schnell wieder bei den Asrock Rack Mainboards, weil ECC Ram meistens gar nicht aufgelistet ist. Genau aus den Gründen hab ich mein Projekt mit einem Ryzen Server auch verworfen. Keine Lust 500-800 € zu bezahlen und nachher läuft dann der Ram doch nicht im ECC Modus.
Ich würde den RAM direkt von der Kompatibilitätsliste von Asrock kaufen, das ist sowieso aktuell der günstigste UDIMM ECC.

Wegen einer non-Pro CPU mache ich mir da keine Gedanken. Die Probleme mit ECC sind da, wo das Mainboard nicht mitspielt.

RalphS schrieb:
Threadripper ist vielleicht ne Option. Aber keine Ahnung ob es das schon was brauchbares für den WS Sektor gibt.

Vielleicht taugt auch das Asus WS 570er Board etwas.

Ansonsten scheitert es mE an den lanes, oder erfordert pci Express Switches; und die sind teuer.
Threadripper wäre für meinen Bedarf wieder totaler Overkill... ich überlege von meinem i5-6600 System weg zu wechseln weil die Stabilität (und Wartungsmöglichkeiten) mangelhaft sind, nicht wegen mangelnder Leistung.

Das ASRock Rack X570D4U hat für alles was mir aktuell einfallen würde genügend Lanes, es ist ja nicht so als ob ich eine Mining-Farm mit zig GPUs aufbauen will.
 
Ich hab mir letzte Woche das hier gekauft:

MB Supermicro X10SRL-F retail (MBD-X10SRL-F-O) gebraucht bei Sona für ca. 220 EUR inkl. Versand.
CPU Intel Xeon E5-2630 v4 10C/20T 2.20-3.10GHz boxed ohne Kühler (BX80660E52630V4) gebraucht bei Ebay für ca. 122 EUR inkl. Versand.
Kühler Noctua NH-D9DX i4 3U neu bei Amazon für ca. 57 EUR inkl. Versand.
RAM 2x Samsung RDIMM 32GB DDR4-2400 CL17-17-17 reg ECC (M393A4K40BB1-CRC) neu bei Ebay für ca. 300 EUR inkl. Versand.

Erfüllt alles, was du forderst. Energiesparsam ist natürlich relativ, aber mit 85 W TDP finde ich das schon ziemlich ordentlich, man kann im BIOS auch Energiesparen einstellen, mangels Messgerät kann ich dir da aber nichts genaues zu sagen.

2x 1TB SSD habe ich auch verbaut (als Unraid Cache):
1x Supermicro AOC-SLG3-2M2-O
2x Kingston NV1 NVMe PCIe SSD 1TB M.2 (SNVS/1000G)
Beides neu bei Amazon für ca. 240 EUR inkl. Versand.

Im Laufe der Woche kommt auch das Mellanox ConnectX-3 10Gb Kit :)

Der nächste Schritt wird dann das hier sein: https://geizhals.de/inter-tech-4u-4410-88887203-a1532665.html?hloc=de
 
HerrRossi schrieb:
Erfüllt alles, was du forderst. Energiesparsam ist natürlich relativ, aber mit 85 W TDP finde ich das schon ziemlich ordentlich, man kann im BIOS auch Energiesparen einstellen, mangels Messgerät kann ich dir da aber nichts genaues zu sagen.
Das wäre für mich sehr interessant.

Von primärer Relevanz ist ja auch nicht die maximale Power, sondern wie viel der Server im Idle verbraucht... ein Heimserver verbringt ja den Großteil seiner Existenz mit minimaler Auslastung. Jede 10W 24/7 Verbrauch sind auf der Stromrechnung ~25€...

Ein Energiemessgerät kostet ja nicht die Welt ;)
 
Zuletzt bearbeitet:
Die niedrigen TDP ist doch nur für Lastszenarien interessant. Beim Idle Verbrauch ist egal, ob eine L, T, S CPU verbaut wurde.
 
  • Gefällt mir
Reaktionen: Rickmer
Yep, der Idle Verbrauch des Grundsystem ist primär eine Frage des Mainboard. Deshalb war ich erfreut, im servethehome Review zu lesen, dass beim Asrock Rack Board ein relativ geringer Verbrauch im Idle gemessen wurde.
 
Rickmer schrieb:
Das ASRock Rack X570D4U hat für alles was mir aktuell einfallen würde genügend Lanes, es ist ja nicht so als ob ich eine Mining-Farm mit zig GPUs aufbauen will.
That's okay. Ich sag ja, das ist alles etwas in sich unschlüssig.
Aber wirf ein Auge auf das board Manual, bevor du kaufst. Ich seh in Deinen Anforderungen bereits >= 32 lanes. Die müssen irgendwo herkommen.

Mir ging’s daher auch weniger um die power als solche. Aber die kleinen Maschinen haben evtl einfach zuwenig Lanes.
 
Zweifelsohne. Aber inkl. Chipsatz kann ich soweit ich das sehe insgesamt dashier maximal abrufen:
PCIe 4.0 x8 (PCIe Slot 6) (x16, teilt sich die Lanes mit Slot 4)
PCIe 4.0 x1 (PCIe Slot 5)
PCIe 4.0 x8 (PCIe Slot 4) (fällt weg bei Nutzung einer Pro CPU mit Onboard Grafik)
PCIe 4.0 x4 (m.2 Slot 1)
PCIe 4.0 x4 (m.2 Slot 2)

Einer der beiden m.2 Slots (ich konnte keine genaue Angabe finden welcher) und der x1 Slot sind über den Chipsatz angebunden.
Schade ist nur, dass beim Design ohne den X550-AT2 Dual 10G Onbard das PCIe 3.0 x4 nicht für einen dritten m.2 Slot genutzt werden kann.

RalphS schrieb:
Mir ging’s daher auch weniger um die power als solche. Aber die kleinen Maschinen haben evtl einfach zuwenig Lanes.
Zumindest aktuell sehe keine Notwendigkeit für mehr Lanes.

Aber das ist auch einer der Gründe warum ich das X570 Board statt dem signifikant günstigerem X470 Board anschaue: Die beiden mit voller Geschwindigkeit angebundenen m.2 Slots können mit passendem Adapter zu einem PCIe x4 Slot oder auch zu einem u.2 Anschlus gemacht werden. Adapter sind ja problemlos auffindbar, und zumindest für eine low-power Anwendung wie meine Mellanox Karte ungefährlich.
 
Also er hat ja jetze nicht wirklich Ansprüche, was die lanes angeht. Das is ja mittlerweile schon Standardausführung. Es sei denn, du hast wirklich einer der ganz kleinen Chipsätze.
Ergänzung ()

Es kommen aber sicher bald 10g-Netzwerkkarten mit pcie4 raus, dann würden ja schon zwei oder maximal vier lanes reichen. Das spart ja auch noch mal.

Ansonsten, wenn's nicht reicht, hol dir einen alten threadripper. Der hat lanes ohne Ende, da kannste richtig rumaasen mit :D
 
AGB-Leser schrieb:
Es kommen aber sicher bald 10g-Netzwerkkarten mit pcie4 raus, dann würden ja schon zwei oder maximal vier lanes reichen. Das spart ja auch noch mal.
Würde ich mir auf jeden Fall anschauen falls mir die PCIe Slots ausgehen.
Alternativ gibt es ja auch die angesprochenen m.2 auf PCIe x4 Riser Cards welche ich nicht mit 'ner GPU nutzen wollen würde, aber eine Netzwerkkarte sollte klappen was das Power-Budget angeht.

AGB-Leser schrieb:
Ansonsten, wenn's nicht reicht, hol dir einen alten threadripper. Der hat lanes ohne Ende, da kannste richtig rumaasen mit :D
Immer eine Option, bleibt halt die Frage zum Stromverbrauch offen. Wenn ich so viel Geld in eine Heimserver-Board stecke will ich das auch einige Jahre lang nutzen und da wird Strom über die Jahre teuer.
 
Edit, falscher Fehler, sorry.
 
Zuletzt bearbeitet:
Rickmer schrieb:
Würde ich mir auf jeden Fall anschauen falls mir die PCIe Slots ausgehen.
Alternativ gibt es ja auch die angesprochenen m.2 auf PCIe x4 Riser Cards welche ich nicht mit 'ner GPU nutzen wollen würde, aber eine Netzwerkkarte sollte klappen was das Power-Budget angeht.


Immer eine Option, bleibt halt die Frage zum Stromverbrauch offen. Wenn ich so viel Geld in eine Heimserver-Board stecke will ich das auch einige Jahre lang nutzen und da wird Strom über die Jahre teuer.
Ja, grade in Deutschland ist das ein Problem. Aber den threadripper wirste ja auch etwas drücken können im Verbrauch. Du musst dich halt entscheiden, ob's dir die vielen lanes wert sind.
Mit einem Adapter von m.2 auf PCI würde ich zb sein lassen. Denn über die m.2-stecker gehen definitiv keine 66W drüber. Also brauchste da wieder eine extra Stromverbindung. Als Notlösung okay, aber wenn du neu/gebraucht kaufst, musste das gleich richtig machen. Ich würde nach gebrauchten Teilen Ausschau halten.
Die Frage ist: Wie lange soll die Hardware insgesamt laufen? Das rechnest du mitm Strom gegen
 
AGB-Leser schrieb:
Mit einem Adapter von m.2 auf PCI würde ich zb sein lassen. Denn über die m.2-stecker gehen definitiv keine 66W drüber. Also brauchste da wieder eine extra Stromverbindung.
Ich würde so oder so einen Adapter mit zusätzlichem Stromanschluss nehmen und außerdem das dann für sowas wie die Mellanox ConnectX-3 nutzen, die nie über 10W kommen wird. Das sollte dann unkritisch sein. Etwaige Grafikkarten kommen in den Slot, der dafür vorgesehen ist.

AGB-Leser schrieb:
Die Frage ist: Wie lange soll die Hardware insgesamt laufen? Das rechnest du mitm Strom gegen
5+ Jahre Minimum wenn ich so viel rein investiere, daher auch warum mir moderne connectivity wichtig ist. Aktuell habe ich keine NVMe SSD im Server, aber da waren schon welche drin und werden sicher wieder welche kommen.

(Wollte bei meiner Schwester im Laptop den Speicher erweitern und hatte nicht mitbekommen, dass anders als mein Modell das Nachfolger-Modell nur m.2 statt 2,5" verbauen kann. Also hat der Server jetzt eine 2,5" SATA SSD und meine Schwester eine NVMe SSD für Storage)

Von der Leistung wird das locker klappen, der i5-6600 ist nicht ausgelastet und ich würde für das X570 Board einen gebrauchten AMD 3100 oder 3600 suchen, etwas in der Größenordnung. Auf lange Sicht wird da dann mein Ryzen 7 5800X aus dem Gaming-PC rein wandern.
 
Wird das ein reines Datengrab, oder lässt du da was drauf laufen?
Ergänzung ()

Ich hab bei mir im nas den g45xx laufen. Geheimtipp, weil der nämlich mit ECC umgehen kann. Da hat Intel wohl mal n Fehler gemacht :D
 
Da ist ein Fileserver drauf, aber auch mein Backup-Server (andere VM), diverser Kleinkrams (Teamspeak natürlich), eine VM die ich nur für Banking/Überweisungen verwende und andere spezialisierte VMs sowie auch Experimente.

Pihole und Nextcloud wollte ich mir z.B. beides mal auf dem Server als VMs einrichten, sowie auch eventuell eine Sophos oder PFSense Home Firewall.
 
Dann könnte der g45xx knapp werden. Es sei denn, die laufen nicht gleichzeitig. Der hat ja 2x3,5GHz. Sollte vielleicht reichen. Ein xeon ist vielleicht etwas viel.
 
Ich hatte jetzt das ASRock Rack X570D4U tatsächlich bestellt mit einem Ryzen 5 3600. Eigentlich hätte mir ein Ryzen 3 3100 gereicht, aber der ist aktuell nicht zu kriegen.
Zum Ryzen 5 3500X war der Preisunterschied gering und da lässt sich dann der 3600 (ist ein Tray, war mir dann auch egal) doch noch besser weiterverkaufen später.

Mit von der Partie sind noch 32GB ECC RAM (direkt von der RAM Liste vom Board), ein Noctua NH-C14S (das wird wieder ein offener Aufbau und da erhoffe ich mir von dem NH-C14S hohe passive Kühlleistung) sowie ein Noctua NF-A4x20 PWM für den Chipsatz-Kühler. Mit LNA und per PWM runter geregelt sollte der dann auch nichtmehr hörbar sein.

Schade finde ich, dass ich meinen Prolimatech Genesis nicht weiter nutzen kann (der kühlt den i5-6600 locker passiv weg), aber für den gibt es kein AM4 Kit.
 
  • Gefällt mir
Reaktionen: 0x7c9aa894 und conf_t
Ich hab bei mir auch mal nachgeschaut. Scheinbar hat Asus beim DARK Hero ECC deaktiviert.
Ergänzung ()

Passt der auf den Sockel 939? Schau mal, ob der dann passt. Angeblich sollen die beiden die gleichen Lochmaße nutzen
 
So, heute sind die letzten Bauteile angekommen und ich habe mal alles zusammengebaut.

Anmerkungen:
1) Es ist kein Zettel mit Standard-Credentials fürs IPMI eingelegt, man muss das entweder nachschlagen oder (wie ich) erraten. admin/admin war zugegeben mein erster Versuch.
2) Wenn man das Passwort ändert ist das auf 16 Zeichen begrenzt - und zwar mit silent fail. Ich hatte 20 Zeichen aus dem Passwort-Manager reingehauen, auf speichern gedrückt, und mich dann gewundert warum ich mich nicht einloggen kann. Das hat mich einige Minuten Kopfkratzen gekostet.
3) Die Lüfterkontrolle wird über das IPMI eingestellt statt über das BIOS und ist so unintuitiv, dass ich googeln musste wie das gemeint ist. Einmal kapiert ist das jedoch ein Fall von 'macht Sinn und funktioniert gut'
4) Es sind null Gerätetreiber von Asrock aus zum Download verfügbar
5) Beim Bootvorgang der alten Windows Server 2019 Installation ging Windows in ein 'Geräte werden betriebsbereit gemacht' Screen. Das hat einige Minuten gebraucht, hat dann nochmal einen Reboot gemacht und ist dann ganz normal hochgefahren.
6) Ich bin nicht gewohnt, dass ein Server-Board schneller durch die 'press F2 for BIOS' Meldung schneller durch bootet als man die vollständig lesen kann
7) Nach Bootup waren erstmal 5 unbekannte Geräte vorhanden
2021-05-15 15_49_03-rig-hpv - Remotedesktopverbindung.png

8) Windows Updates hat auch nicht geholfen mit den Treibern
9) Ich bin jedoch fündig geworden im Download-Bereich des X570D4U-2L2T - also genau demselben Board mit zusätzlicher integrierter Intel 10G Netzwerkkarte. Das sind aber nur die Windows 10 AMD Standardtreiber - in ziemlich alter Version. Die habe ich mir also erstmal direkt von AMD selbst geholt...
10) Die Chipset-Driver installieren hat einen Treiber entfernt. Einen Zweiten konnte ich als AMD GPIO Treiber identifizieren und nachschieben. Die drei PCI-Gerät Einträger haben die Asrock AMD PCI Driver benötigt.
11) Der Idle-Stromverbrauch ist aktuell bei 80W+ da stimmt also irgendwas noch nicht. Bei 80W war ich auch im BIOS, da fehlen definitiv noch Stromsparmechanismen.


Ich werde mal auf meiner 'Experiment-SSD' eine frische Windows-Installation durchführen und schauen wie das dann aussieht.
 
  • Gefällt mir
Reaktionen: conf_t
Zurück
Oben