TheDarkness
Commander
- Registriert
- Sep. 2013
- Beiträge
- 2.590
Ich hab nahezu alles in H265, inklusive mehrere UHD Blurays. Wie gesagt, ne normale CPU schafft locker mehrere Streams und in besserer Qualität als irgendeine GPU. Da ist nichts mit besser auf ner GPU, nur schneller!BrollyLSSJ schrieb:Dich betrifft es vielleicht nicht und ich bin auch nicht betroffen, da ich alles in H264 habe, aber es soll noch Leute geben, die Geräte haben, die nichts mit H265 anfangen können und da muss dann transkodiert werden (z.B. in H264). Und das geht mit der GPU besser als auf Software Basis der CPU. Es gibt auch Leute, die haben eine F CPU, also eine ohne iGPU. Die haben dann eben eine NVIDIA GPU fürs Transkodieren.
Klar, wenn man ne steinalte CPU drin hat wird das nichts mit 100mbit 4K HDR zu 8mbit 1080P SDR o.Ä.
Mit ner steinalten CPU hat man aber auch normalerweise keine zig TB um überhaupt viel in der Qualität abzulegen, entsprechend leichter wird dann auch das Transkodieren.
Wer ne steinalte Plattform hat, kommt bei den Strompreisen aber auch langfristig günstiger weg die aufzurüsten als ne GPU reinzuklatschen. Der zusätzliche Verbrauch von GPU und alter Plattform sind oft 50W+ und das sind in DE schonmal gerne 200€+ jährlich an Stromkosten.
Als Beispiel hatte ich nen Ryzen 3600, der entweder einen 4K Stream mit hoher Bitrate (so 100mbit) transkodieren können oder zwei 4K Streams mit niedriger (so 30-40mbit). 1080P Source Files hingegen sind gar kein Problem.
Da es auch (beliebte) NAS-OS gibt, wie TrueNas Core, die eben Probleme mit HW Transkodierung haben und auch andere Systeme wie Scale und Unraid nicht immer Plug&Play sind, ist HW für Privat meist auch schwachsinnig.