Plex Server Upgrade für 4K HEVC 10bit [Intel Quick Sync vs. Nvidia Encoder]

-]AF[-Death schrieb:
Brauch ich da unbedingt einen Z Chipsatz für oder geht das auch bei einem H470 Chipsatz ?
Genau vor der Frage stand ich auch und habe verschiedene und kaum konkrete Aussagen erhalten. Da ich mir alle Spielereien und Settings auch beim RAM offen halten will/wollte, ist es ein Z geworden.
 
  • Gefällt mir
Reaktionen: -]AF[-Death
-]AF[-Death schrieb:
Sicher das die 10Gen GVT-g auch noch beherrscht ? Oder ist das allgemein nur wichtig für Unraid ? Weil ich sicher sagen kann das ich Unraid eh nie benötigen werde.
GVT-g geht bis einschließlich zur 10ten, außer es ist ein mobiler Prozessor mit einer iGPU der 11ten Generation (Iris Plus oder Iris Xe). Aus dem Grund ist das bei Intel vermutlich so komisch beschrieben.

GVT-g ist nur relevant, wenn du eine Windows VM auf einem Linux Host betreiben möchtest. Es handelt sich ja um ein Modul des Linux Kernels:
https://github.com/intel/gvt-linux

Nixdorf schrieb:
Damit kann man die Quicksync-Einheiten auch in einer Docker-VM nutzen
Docker Container können bereits ohne GVT-g auf die iGPU zugreifen. GVT-g ist nur für VMs. Damit kann man die iGPU "multiplizieren" und jeder VM eine "exklusive" vGPU zuweisen. Hat man das nicht, kann man die iGPU ja nur exklusiv einer VM zuweisen (wenn überhaupt) und damit hätten nicht mal mehr Container darauf Zugriff.

-]AF[-Death schrieb:

Kann gut sein, dass das von Board zu Board anders ist. Hier zB sieht man, dass es bei einem H470 geht:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KCX, -]AF[-Death, Rockhound und eine weitere Person
@mgutt

Hab mir deinen Text jetzt merhrmals bezüglich GVT-g durchgelesen und auch mal gegoogelt, aber das meisste was man dazu findet ist leider in Englisch und scheint daher auch nicht viele User zu geben die das brauchen.

Linux wird bei mir als Haupt OS auch zukünftig keine Rolle spielen, da ich es nicht benötige und mit Windows soweit zufrieden bist. Heisst Windows 10 als OS und später dann Plex per Docker VM und eventuell noch ne VM für openhab. Ne Linux VM werde ich vielleicht mal zum Testen nutzen, aber sicher nicht als Haupt OS.

Soweit ich dich nun richtig verstanden kann ich all das auch umsetzen ( auch Tone Mapping und Transcoding für Plex ) ohne ne CPU mit GVT-g zwingend zu kaufen ?
Weil hab mal geguckt, meinen jetziger Rechner hab ich ca 2012 zusammengebaut. Gespielt wird darauf nicht, dafür hab ich nen separaten Rechner. Heißt wenn ich mir nun einen neuen zusammenbaue soll der wieder ne zeitlang halten und da bin ich nun am überlegen ob ich nicht auf das aktuellste setze was der Markt hergibt. Gerade weil die 11Gen HDCP 2.3, AVX-512, HDMI 2.0b und AV1 decode unterstützt im Vergleich zur 10Gen.
Das sind zwar alles Dinge die ich momentan noch nicht brauche, nur in vielleicht 2 Jahren sieht das anders aus.
 
-]AF[-Death schrieb:
und da bin ich nun am überlegen ob ich nicht auf das aktuellste setze was der Markt hergibt
Wenn du mit der 11ten derbe Mangelerscheinungen haben solltest kannst du ja immer noch zurück auf Comet.
 
@KCX

Wäre auch eine Möglichkeit, aber schmeisse ungerne Geld aus dem Fenster wenn man sich doch vorab informieren kann. Würde wenn höchstens andersrum Sinn machen von 10 auf 11Gen.

Hab die Nacht auf der Arbeit genutzt und auf der Plex Homepage noch ein wenig gelesen und glaube um eine Linux/Ubuntu VM komm ich doch nicht drum herum wenn ich Tone Mapping der iGpu nutzen will :rolleyes:

Nun ist die Frage, kann man unter Windows eine Ubuntu VM laufen lassen und die iGpu mit Hilfe von SR-IOV
dann unter Windows und Ubuntu nutzen oder nützt mir SR-IOV da überhaupt nichts ?

Wenn das so wäre, hätte ich ja wirklich keine andere Wahl ausser einen 10Gen Cpu zu nehmen wegen GVT-g.
Eine GPU kommt nicht in Frage wenn es auch ohne geht.

Die Nacht war lang :D und ich hab mich noch ein bisschen zu den Intel Chipsätzen belesen. Da icht nicht übertakten will käme ja neben Z490/Z590 noch B560 und H570 in Frage. Bei beiden kann man nur den Ram übertakten, was ausreichend wäre. Gab es als du geupgraded hast die beiden Chipsätze noch nicht oder warum der Z490 ?
 
-]AF[-Death schrieb:
glaube um eine Linux/Ubuntu VM komm ich doch nicht drum herum wenn ich Tone Mapping der iGpu nutzen will
Ich musste ein Ubuntu installieren (keine VM) Portainer / Docker und Plex für Docker damit die iGPU die Hauptlast trägt. Wie das in einer VM funktioniert kann ich leider nicht beantworten.

https://docs.docker.com/engine/install/ubuntu/
https://www.portainer.io/
https://hub.docker.com/r/linuxserver/plex

@mgutt hat hier auch ein paar Seiten vorher Videos verlinkt

-]AF[-Death schrieb:
Gab es als du geupgraded hast die beiden Chipsätze noch nicht oder warum der Z490 ?
Jo, als ich gekauft habe, gabs nur Z490.... Z590 war zwar schon am Horizont aber war/ist für mich uninteressant.
 
  • Gefällt mir
Reaktionen: -]AF[-Death
@KCX

Schön zu hören das du das compilieren das Grafiktreibers für Comet Lake doch noch hinbekommen hast. Hatte gestern Nacht den Thread von dir im Plex Forum gelesen. Hätte ich selber auch nicht hinbekommen da zwar nicht unbegabt aber bezüglich Linux keine Kenntnisse.

Ich hab daher den einfachen weg gewählt und mir bei Amazon einen NUC8i7 für 312€ bestellt. Da sollte alles ohne großes Gefrickel funtionieren.

Ein weiterer Grund war noch das ich hier gesehen habe was ein 10900k selbst im Idle an Strom zieht. Im Vergleich mit seinen 4Watt sind das ca 60W Unterschied. Dank unserer tollen CO2 Steuer hab ich das Geld für den NUC in 2 Jahren wieder raus :-)

Und was ich jetzt als Office PC kaufe muß ich mir noch überlegen.
 
  • Gefällt mir
Reaktionen: KCX
-]AF[-Death schrieb:
Ein weiterer Grund war noch das ich hier gesehen habe was ein 10900k selbst im Idle an Strom zieht. Im Vergleich mit seinen 4Watt sind das ca 60W Unterschied.
Erläuterst du mal, welche 4W, und wieso die 45W im Idle beim Board im verlinkten Artikel dann rechnerisch nicht mögliche 60W mehr sind? Ich krieg hier nicht ganz zusammen, was womit verglichen wird. Von einem 10900K war hier im Thema bisher auch nie die Rede.

Jedenfalls bekommt man einen Comet-Lake-Desktop ohne dedizierte Grafikkarte unter 25W im Idle. Im verlinkten Artikel saß zusätzlich eine RTX 3070 auf dem Board. Die 25W sind immer noch ein großer Aufschlag zum Idle-Verbrauch eines NUC, aber längst keine 60W.
 
Zuletzt bearbeitet:
@Nixdorf

Ich meine die 4 Watt in Idle die der Nuc zieht. Nachzulesen hier

Bei der Seite oben ging es ja eigentlich im das Supermicro Mainboard welches sie getestet haben und als CPU kam ein 11900K zum Einsatz.
Bei der Auswertung/Vergleichstabelle sind ja alle Verbrauchswerte mit 11900k, nur der obere Wert ist mir 10900K.
Und das war auch zufällig das Board welches ich mir Aufgrund gewisser Eigenschaften auch ausgesucht hatte. Von daher passt der Vergleich für mich.
Das einzige was ich in meiner Rechnung vergessen habe zu berücksichtigen das die alle Tests mit einer RTX3070 gemacht habe. Keine Ahnung was die im Idle zieht, aber den Wert müßte man doch abziehen von dem in der Tabelle jeweiligen Wert.

Auf die schnelle mal geguckt. Ne 3070 liegt wohl bei ca 16W Idle Verbrauch. Wären also immernoch 57W zu 4W.
Ändert somit nichts in meiner Aussage das der NUC in 2 Jahren abbezahlt ist.
Wer mal selber für sein System nachrechnen möchte.
https://www.stromverbrauchinfo.de/stromkostenrechner.php
 
Ah, die ebenfalls abweichende CPU hatte ich überlesen. Und als Board war das MSI MEG Z590 Ace das eigentlich betrachtete. Gut, da siehst du aber dann im Vergleich mit dem SuperMicro-Board auch, dass nicht der 10900K für den hohen Verbrauch verantwortlich ist, sondern das Board.

Das gleiche Board mit 11900K benötigt 78W, und dann gibt es das SuperMicro-Board, welches mal eben 33W weniger mit dem 11900K aufnimmt. Rechnet man von den 45W des SuperMicro mal die 5W Aufschlag des 11900K ab, ist man bei 40W, und zieht man dann noch die 16W für die RTX 3070 ab, sind es noch 24W. Das ist ein typischer Wert für ein brauchbar zusammengestelltes Comet-Lake-System ohne dedizierte GPU.

Jedenfalls ist es nicht sinnvoll, dass du dich einerseits auf ein bestimmtes Board eingeschossen hattest, was es bitte sein sollte, und dann wird andererseits irgendein NUC als Alternative akzeptiert. Derlei Kompromissbereitschaft müsste ja dann auch bei der Komponentenauswahl für den Desktop vorhanden sein. Und überhaupt: Wenn man 440€ nur für das Board auszugeben bereit ist, wieso rechnet man dann überhaupt den Stromverbrauch aus?

Auf 20W Unterschied käme man also durchaus runter. Den Rest Differenz zum NUC kann man dann allerdings nicht mehr weg diskutieren. Die Amortisationsdauer erhöht sich damit von zwei Jahren auf mehr als fünf. Damit ist das Bild dann schlüssig.
 
-]AF[-Death schrieb:
Schön zu hören das du das compilieren das Grafiktreibers für Comet Lake doch noch hinbekommen hast. Hatte gestern Nacht den Thread von dir im Plex Forum gelesen. Hätte ich selber auch nicht hinbekommen da zwar nicht unbegabt aber bezüglich Linux keine Kenntnisse.
😅 wilkommen im Club. Bin immer noch ein Linux Noob.

Halte uns bezüglich NUC auf dem Laufenden.
 
@Nixdorf

Gut aufgepasst 👍 Hatte bei lesem noch gedacht, stimmt soweit alles was er schreibt, nur würde ich nicht auf die Idee gekommen +400€ für ein Board auszugeben.
Und sehe dann das es nicht das MSI Ace war welches ich eh kaufen wollte, sondern das Asrock Velocita...ist schon wieder ein paar Tage her wo ich geguckt hatte und seitdem zig Configs durchgespielt.

Klar wenn man so so rechnet dauert es wirklich 5 Jahre bis der NUC sich amortisiert. Aber sehe nicht ein mehr als 300€ fürs Board auszugeben...

Naja jedenfalls hab ich nun Office und Plex Rechner getrennt voneinander was ich eh besser finde. Braucht man sich nicht mit eventuellen VM oder Docker Problemen rumärgern.

Vielleicht kauf ich mir den 10850k trotzdem noch als Office Rechner. Aber das muß ich mir noch überlegen. Und ja ich bin flexibel bzw auch Kompromissbereit :D

@KCX

Danke schön :D

Heisst du hast auch nur über den Docker statt unter Ubuntu direkt zum Laufen bekommen ?

Werd ich machen. Hoffe ja das Amazon mir das Teil liefert. Weil stand derzeit nicht verfügbar und hoffe das die noch irgendwo her einen beschaffen.
 
-]AF[-Death schrieb:
Heisst du hast auch nur über den Docker statt unter Ubuntu direkt zum Laufen bekommen ?
So ist es. Der Comet war zu neu. Ob es immer noch so ist müsste ich erst testen.
 
@-]AF[-Death Ich sehe ja durchaus die Vorteile eines NUC hinsichtlich Verbrauch, aber man muss halt schon realistisch rechnen. Man bekommt die Investition durchaus irgendwann wieder rein, aber beim Amortisieren von über 300€ nur über Stromkosten werde ich grundsätzlich hellhörig. Da ist dann entweder die Zusammenstellung völlig daneben, oder man hat Quatsch gerechnet. Prima, dass das nun passt.

-]AF[-Death schrieb:
Naja jedenfalls hab ich nun Office und Plex Rechner getrennt voneinander was ich eh besser finde.
Das bewertet halt jeder anders. Ich bin am völlig anderen Spektrum ein Freund des einen zentralen Hubs für alles. Beides legitim. Würde mich wie @KCX über Updates zum NUC im Einsatz freuen.
 
mgutt schrieb:
Neuer Test mit E-2146G (6 Kerne / 12 Threads statt 4 Kerne) und es ruckelt jetzt nur noch alle 70 Sekunden. Was eine Steigerung 😂

Das Posting ist zwar schon etwas her, aber: Bei mir hat es auch regelmäßig beim Transcodig geruckelt, auf 8100, 8400 und 9500, jeweils mit iGPU unter Centos 7 bare metal. Unter OS X lief es flüssig mit den gleichen CPUs.

Habe dann mal intensiv gegraben und konnte unter Linux die Stromsparmaßnahmen der CPU als Ursache ausfindig machen, vor allem das Oszillieren des Taktes zwischen 800 und Maximum. Nach dem Deaktivieren lief es sofort flüssig ohne Ruckler beim Echtzeit Transcoding (Stichwort tuned-adm).

Schaffe aktuell mit einem Intel 8600 mit iGPU 2 Streams von UHD/HDR@HEVC 30+Mbit => FullHD@AVC 8Mbit mit Tonwertmapping in Echtzeit zu konvertieren. Mit einem 3. Stream fängt es dann wegen IO an zu Ruckeln. Nächste Woche bekomme ich noch testweise einen 8700 und sollte dann 3 Streams packen.
 
g0l3m schrieb:
vor allem das Oszillieren des Taktes zwischen 800 und Maximum
Ja, powersave ist nichts für Echtzeitanwendungen.

g0l3m schrieb:
Schaffe aktuell mit einem Intel 8600 mit iGPU 2 Streams von UHD/HDR@HEVC 30+Mbit => FullHD@AVC 8Mbit mit Tonwertmapping in Echtzeit zu konvertieren.
Das ist nicht das Problem. Das Problem ist zusätzliches Einbrennen von Untertiteln.
 
  • Gefällt mir
Reaktionen: KCX
Zurück
Oben