Stromverbrauch Arch Linux Dual Monitor Betrieb

JackForceOne

Lieutenant
Registriert
Juni 2012
Beiträge
1.011
Hallo zusammen,
ich würde gerne wissen, ob jemand Stromverbrauchsmessungen vom Desktop PC im Dual-Monitor Betrieb unter Arch Linux hat. Ich habe momentan noch eine R9 280X und die taktet leider nicht runter im Dual-Monitor Betrieb.
Ich überlege mir eine RX550 oder GTX 1550Ti oder sowas in die Richtung zu kaufen um den Stromverbrauch dauerhaft so niedrig wie möglich zu halten - ich spiele nur noch gelegentlich League of Legends, das sollte die ja packen ;)
TechPowerUp hat da ne nette Übersicht drüber, zumindest für Windows als OS.
Nur wie sieht es bei Linux aus? Hat da jemand von euch eigene Messwerte? :)

Wichtig ist mir nur der IDLE Verbrauch. Wie sieht es seitens Treiberunterstützung in Arch mit ner GTX 1550Ti bspw. aus?
 
Du bekommst die Kosten für eine neue GPU durch Ersparnis im Stromverbrauch niemals wieder rein.
 
Ich habe momentan noch einen Dell PowerEdge T20 als Home-Server - ich werde aber wegen der Leistung und RAM Kapazität meinen Ryzen-Desktop PC als Server umfunktionieren und den T20 in Rente schicken - er wird also 24x7 laufen :)
 
Hab mich zwar nie mit Energieverbrauch ernthaft befasst und kann da nicht viel zu sagen...

Aber wenn die neue Grafikkarte nicht generell weniger Energie verbraucht kann ich mir nicht vorstellen dass es viel bringen wird.
Es bleibt ja im Kern der selbe Treiber (AMDGPU)+ Kernelfunktionen zum Energie sparen.
Linux hat immernoch Probleme mit Energiesparen wenn es über die einfachen Standardfunktionen hinausgeht.
 
Du könntest den Kernelparameter amdgpu.ppfeaturemask=0xfffd7fff setzen und dann versuchen, die Karte mit Wattman (DPM auf low performance setzen) in den Griff zu bekommen. Die klügste Wahl wäre es glaube ich, bis zum Release des Ryzen 3 3300G zu warten und diesen in den Server zu packen. Die zwei Monitore kannst du dann von der iGPU betreiben.

Bei ner Nvidia Grafikkarte bist du auf Binärtreiber angewiesen (Nouveau hat kein Powermanagement mit ner 1550ti), was mit Arch Linux auch mal problematisch sein kann, da durch die häufigen Updates schnell mal Xorg nicht mehr funktioniert...
 
Man kann einen Ryzen auf einigen Boards auch komplett ohne GPU betreiben. Dazu einfach nach dem Aufsetzen die GPU ausbauen. Mein Board piept dann zwar dreimal beim starten, läuft aber seit 1/2 Jahr ohne Probleme ohne GPU (R5 1600).
Ansonsten würde ich für Linux immer AMD-GPUs nehmen (von CUDA mal abgesehen, aber das scheinst du ja im moment nicht zu brauchen wenn du eine AMD hast), ganz einfach wegen dem integrierten Treiber. Der Nvidia-Treiber sorgt doch schon öfters für Blackscreens nach Kernel/X-Server Updates.
 
Jo ich würd die GPU auch komplett rausschmeißen. Hab ich bei mir auch so laufen, R7 1700X mit GPU ubuntu server installiert, danach GPU rausgeschmissen und im BIOS Halt on Error ausgemacht, zack, läuft ohne Probleme.

Auf nem Server braucht man doch eh keine Desktopumgebung, verbraucht nur unnötig Ressourcen und Strom und öffnet potentielle Sicherheitslücken.
 
Vielleicht sollte ich mal erklären was ich vorhabe - sorry :)

Ich benutze nun schon seit einigen Monaten erfolgreich auf dem Desktop und auf meinem Server Arch als OS. Auf dem Server läuft alles auf der Hardware: Nextcloud, diverse Webdienste, Pihole, MediaWiki, ...
Ich möchte nun aber beides in ein Gehäuse verpacken und Strom sparen, mehr Leistung und RAM haben und die einzelnen Services wie die Nextcloud und das MediaWiki, sowie das PiHole durch Virtualisierung mit QEMU trennen. Ich plane also eine Datenbank VM, eine Webserver VM und eine Storage VM und die sollen dann untereinander aufeinander zugreifen. Ich denke, dass dadurch Backups leichter werden und ich insgesamt die Dienste besser trennen kann. Wenn ich Updates auf dem Server einspiele und neu starte, ist halt das DNS vom Pihole direkt mit weg xD Das ist nicht so schön :) Die ganzen Server VMs sollen headless, also ohne GUI installiert werden.

Und wofür ich eine GPU benötige... naja ich möchte an derselben Maschine noch eine weitere VM erstellen, welche als OS wieder Arch bekommt, mit der ich hin und wieder mal eine Runde League of Legends spielen kann und da benutze ich Gnome als Desktop-Umgebung und dafür brauche ich ne GPU. Und die GPU kann ich schön über QEMU durchreichen, sodass die Anzeige (hoffentlich) wie bei Linus "7 Gamer 1 CPU" nativ ist.

Und weil meine R9 280X leider auch unter Windows im Desktop mit beiden Monitoren nicht runtertaktet und auch kein H.265 De-/Encoding kann, überlege ich dafür eine neue anzuschaffen :)
 
Der Dell PowerEdge T20 hat doch 2 Display Ports +VGA. Und RAM geht da auch genug rein, sogar eine extra GraKa.
Du hast 2 Systeme (PC+GraKa und Dell T20 Server)? Welches der beiden Syteme willst du umbauen?
 
Ok dann sieht die Sache schonmal anders aus. Wenn ich mich richtig erinnere, wurde der erhöhte Idle-Verbrauch bei mehr als einem Display mit der 500er-Serie verringert. Ich würde aber, solange Linux zum Einsatz kommt, weiterhin eine AMD nehmen, wegen der Treiber. Bei Passthrough hast du noch den Vorteil, dass Nvidia das offiziell nur für Quadro-Karten freigegeben hat, wodurch du (zumindest bei Windows als Gast-OS) dem System noch vorgaukeln musst, dass es nativ läuft, da sonst der Treiber nicht lädt. Mehr dazu -> nach Nvidia passthrough code 43 googeln.

Zum Vorhaben allgemein: Ich kann dir Proxmox als Unterbau empfehlen. Das ist zwar Debian und kein Arch, aber mit dem System kommt man gar nicht so viel in Kontakt. Du hast eine Web-GUI über die sich das System verwalten lässt. U.a. lassen sich dort QEMU-VMs und LXC-Container erzeugen und verwalten. Die Web-GUI hat einen entscheidenden Vorteil: Stand jetzt ist es best practice, die GPU die durchgereicht werden soll, komplett aus dem Hostsystem auszuklinken. Soll heißen, auf dem Host bist du blind.

Ein weiterer Vorteil und Tipp (den du auch mit Arch nutzen kannst, dann halt über die Konsole): Statt vollwertigen QEMU-VMs würde ich für die einzelnen Serverdienste LXC-Container verwenden. Für dich unterscheiden die sich kaum von VMs, sie nutzen aber den Kernel des Hostsystems, was native Performance und deutlich geringeren RAM-Verbrauch im Vergleich zur VM-Lösung bedeutet.
 
  • Gefällt mir
Reaktionen: JackForceOne
Vielen Dank für Eure ganzen Tipps :)
@NameHere Der T20 hat für meinen Geschmack langsam mal ausgedient. CPU Performance ist nicht mehr so gut, der RAM ist sau teuer (habe da den Original Dell ECC RAM drin) und der hat keine M.2 Slots. Außerdem kann das integrierte Netzteil keine performantere Grafikkarte mit Strom versorgen.
Vermutlich wäre es vernünftiger den T20 komplett zu nutzen, aber ich möchte gerne auch etwas basteln und vor allem für die Zukunft einen leistungsfähigen Home-Server haben :)
 
@JackForceOne habe auch ein T20 hier und wollte RAM aufrüsten. Der ECC-RAM ist doppelt so teuer wie der normale RAM. Kann deine Aussage nachvollziehen.
Am T20 muss man basteln wenn man Extra-Hardware (GraKa etc.) einbauen will.
 
Ich hatte das mit dem Basteln bereits und ein separates Netzteil nur für die GPU angeschlossen, das ist aber eher nicht so stromsparend und ich will das Gehäuse im Rechner haben. So viel Basteln will ich dann doch nicht, vor allem weil die CPU Power nicht mehr so da ist :D
 
Zurück
Oben