Sparsame CPU/IGPU für 8K HEVC Video-Decoding

DeltaTango

Cadet 1st Year
Registriert
Feb. 2024
Beiträge
10
Hallo,

zur Zeit läuft mein Homeserver mit einem Skylake I5-6400 auf Ubuntu 24.04 LTS. Auf dem Server laufen mehrer Docker Container.
CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS
e8dceb041a12 adguardhome 0.02% 31.71MiB / 15.53GiB 0.20% 0B / 0B 2.13MB / 0B 10
f1873eeb4b76 immich_db_dumper 0.00% 12.6MiB / 15.53GiB 0.08% 80.1kB / 0B 10.9MB / 0B 8
ea1b68b4e36a immich_server 85.50% 531.9MiB / 15.53GiB 3.34% 1.41GB / 13.5GB 108MB / 0B 25
1e3c05d9eab4 immich_machine_learning 69.13% 171.4MiB / 15.53GiB 1.08% 80.4kB / 0B 45.5MB / 0B 11
f6b84c43ac31 frigate 8.77% 809.1MiB / 15.53GiB 5.09% 9.35MB / 584kB 362MB / 729kB 278
18ee1855a7f4 homeassistant 1.49% 1.217GiB / 15.53GiB 7.83% 0B / 0B 218MB / 57.9MB 93
c9d9df2e4556 mosquitto 0.03% 6.555MiB / 15.53GiB 0.04% 10.8MB / 11MB 3.84MB / 11.8MB 1
994a8efc057f immich_postgres 37.25% 226.3MiB / 15.53GiB 1.42% 1.64GB / 1.12GB 280MB / 26.9MB 26
8f2ef335e3e9 immich_redis 18.90% 48.02MiB / 15.53GiB 0.30% 769MB / 283MB 5.45MB / 374MB 5
Der Server verbraucht ca.20 Watt im normalen Betrieb.

Bei 8K-HEVC Video Decoding (Hardware VAAPI) von Immich über den Chromium-Browser ruckelt es ein wenig.

1727194362582.png



Ich suche daher einen etwas potentern Prozessor der am liebsten natürlich noch weniger verbraucht. Entscheidend ist halt das die IGPU es besser hinbekommt. Ich hatte zu Testzwecken mal einen N100 ausprobiert, der war aber noch etwas langsamer. Ich würde das komplett als Mini-PC holen. Am besten wäre es natürlich noch eine CPU zu bekommen die auf den jetzigen Sockel passt. Aber da wird es ja nichts besseres geben was weniger verbraucht, oder?
 
Budget?
 
DeltaTango schrieb:
Am besten wäre es natürlich noch eine CPU zu bekommen die auf den jetzigen Sockel passt.
Wenn die onboard Grafik der Flaschenhals ist, bringt dir auch ein 7700K nix.
Da hilft nur deutlich mehr Takt oder Recheneinheiten in der GPU bzw. ne handvoll Generationen neuer die wohlmöglich schon hardware decoder integriert haben.
 
Ich würde auch eher zu einer GPU raten?

Die A310 gibt es auch als 1 slot low profil und könnte genug Leistung haben.
 
  • Gefällt mir
Reaktionen: GTrash81 und HerrRossi
Welche Farbcodierung und Bittiefe soll decodiert werden? 8bit, 10bit? 4:2:2?
 
DeltaTango schrieb:
m besten wäre es natürlich noch eine CPU zu bekommen die auf den jetzigen Sockel passt
Das wäre ja bei Skylake Sockel 1151 da wirst Du keine bessere CPU/iGPU Kombi mehr bekommen. Mehr Leistung gibt es da erst mit der Iris Xe GPU sprich 11 Gen. Intel Tiger-Lake.
 
Thomrock schrieb:
Sockel 1151 da wirst Du keine bessere CPU/iGPU Kombi mehr bekommen
Hatte ich mir schon gedacht. Also neues Board mit CPU.
Ergänzung ()

djducky schrieb:
Welche Farbcodierung und Bittiefe soll decodiert werden? 8bit, 10bit? 4:2:2?
Also wenn schon neu das volle Programm 😃
Ergänzung ()

Der_Dicke82 schrieb:
Ich würde auch eher zu einer GPU raten?
Auf keinen Fall, das soll ein sparsamer Rechner sein und die richtige IGPU sollte auf alle Fälle reichen. Will ja kein Gaming machen.
Ergänzung ()

ruthi91 schrieb:
hardware decoder integriert haben.
Ja klar was sonst.Ohne würde es gar nicht gehen. Mein alter Skylake macht ja Hardware-Deckoding, nur einen ticken zu langsam.Da fehlt gar nicht mal zu viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thomrock
DeltaTango schrieb:
Will ja kein Gaming machen.
Sei unbesorgt, das kann die gar nicht. Die erwähnte A310 kann Bildschirme betreiben und Medien de- und encodieren, auf dem Niveau einer aktuellen igpu von Intel. Ist aber günstiger. Da muss eine neue Plattform lange laufen damit du mit dem gesparten Strom wieder plus machst.
 
  • Gefällt mir
Reaktionen: HerrRossi und GTrash81
DeltaTango schrieb:
Auf keinen Fall, das soll ein sparsamer Rechner sein und die richtige IGPU sollte auf alle Fälle reichen.
Die A310 ist sehr sparsam, ehe du die hunderten Euro, die du für einen neuen PC ausgibst, wieder eingespart hast, vergehen viele, viele Jahre.
 
Die A310 hat alleine 40-75 Watt.Meine CPU jetzt hat max 65. Der Rechner läuft jetzt schon mit 20 Watt. Ist ja eigentlich schon zu viel für einen Homeserver. Hätte natürlich den Scharm das ich sonst nichts ändern müsste. Hoffentlich läuft auch Linux damit. Es war schon ein Riesenkrampf das Hardware Decoding auf irgendeinen Browser ans laufen zu bringen. Mit Chromium hat es dann irgendwann mit ganz speziellen flags und Startparametern funktioniert.
 
Wird jetzt neu nicht eher AV1 verwendet?
Auf youtube gibt es 8K AV1 Videos, aber scheinbar keine HEVC?
Gibt es ein Beispielvideo?


Und man muss beim Cromium-Browser in den Entwickler-Tools kontrollieren, ob der Hardware-Decoder auch aktiv ist. Der Chromium-Browser ist von Version zu Version mit unterschiedlichen angepassten speziellen Startparametern zu konfigurieren, sonst spricht er den Hardware Video-Decoder nicht an, und fällt auf Software-Decoder zurück.

Edit: ____
 
Zuletzt bearbeitet:
DeltaTango schrieb:
Auf keinen Fall, das soll ein sparsamer Rechner sein und die richtige IGPU sollte auf alle Fälle reichen. Will ja kein Gaming machen

Wie schon gesagt wurde kann die gar kein Gaming. Dafür ist sie nicht schlecht im en- und decoden und verbraucht relativ wenig Strom dabei. (Der idle Verbrauch ist aber leider nicht immer so geil)

45-70 Watt ist der maximal Verbrauch! Da kommt die in deinem Fall niemals hin!

In einem de-/encoding Szenario verbrauchst du mit der graka 3-5 Watt mehr beim encoden und hast 50-90% mehr frames

Im idle hast du aber auch etwas mehr Verbrauch! Trotzdem lohnt sich ein kompletter Neukauf ziemlich sicher nicht!

Die A310 läuft übriges unter linux
 
Zuletzt bearbeitet:
DeltaTango schrieb:
Also wenn schon neu das volle Programm 😃
Was heißt das? Ich habe dich nach deinen HEVC-Einstellungen gefragt, weil verschiedene Bittiefen und Farbcodierungen (anders, nicht besser oder schlechter) einen Einfluss darauf haben, welche Hardware sie beschleunigt decodieren kann. 10bit 4:2:2 kann aktuell nur Intels moderneres Quicksync ab raptor Lake, andere Farbcodierungen wie 4:2:0 bekommt man auch bei nVidia und AMD sowie älteren Intels.
 
Und ohne genauere Infos über die HEVC-Codec-Einstellungen ist eben fraglich, ob die AMD-iGPU das überhaupt beschleunigt decodieren kann.
 
Falls sein MB mit Kaby Lake klarkommt, könnte der TE es auch mit einer CPU mit HD630 ausprobieren, die ist in Sachen transcoding flotter als die HD530, braucht aber auch mehr Strom.
 
Zuletzt bearbeitet:
Kaby Lake / HD630 kann HEVC 10bit afaik auch nur in 4:2:0 beschleunigt decodieren.
 
Also den Rechner brauch ich nur zum decoden. Encoden schafft mein Hauptrechner mit der NVIDIA RTX 4080 ganz gut. Das HEVC Format wird von meiner Insta X4 geliefert. Wird auch nach der Bearbeitung in Insta Studio so belassen:

ID : 1
Format : HEVC
Format/Info : High Efficiency Video Coding
Format-Profil : Main@L6.1@High
Codec-ID : hvc1
Codec-ID/Info : High Efficiency Video Coding
Dauer : 33s 467 ms
Bitrate : 235 Mb/s
Breite : 7 680 Pixel
Höhe : 3 840 Pixel
Bildseitenverhältnis : 2,000
Modus der Bildwiederholungsrate : konstant
Bildwiederholungsrate : 29,970 (30000/1001) FPS
Color space : YUV
Chroma subsampling : 4:2:0
Bit depth : 8 bits
Bits/(Pixel*Frame) : 0.266
Stream-Größe : 938 MiB (100%)
Kodierungs-Datum : 2024-09-21 12:31:36 UTC
Tagging-Datum : 2024-09-21 12:31:36 UTC
Color range : Full
Color primaries : BT.709
Transfer characteristics : BT.709
Matrix coefficients : BT.709
Codec configuration box : hvcC

Ziel ist es auf dem großen 4K TV im Browser mit Immich das 360° Videomaterial anzuschauen. Man kann die Kamera dort quasi drehen.

Das mit der A310 hört sich jetzt doch ganz interessant an. Habe jetzt nur bedenken das die Treiber richtig funktionieren und der Leerlaufstrom nicht zu groß wird (mit Ubuntu 23.10 soll es wohl nativ gehen mit 24.04 nicht mehr...). Habe schon in verschiedenen Foren was von 40Watt ohne Monitor Anschluß gelesen. Beim schauen wäre mir die Wattzahl fast egal, aber im Idle sollte die am liebsten nichts verbrauchen (In Wolfgangs Channel ist es wohl gelungen die mit 1W Idle zu betreiben!) . Der Server läuft 24/7.

Mich schrecken im Moment die ganzen Ungewissheiten noch ab. Hat denn einer die ARC A310 unter Ubuntu am laufen und kann was dazu sagen?
 
Zurück
Oben