Jein.
Kommt auf das Quellmaterial an.
Grundsätzlich müssen bei HDCP alle aktiven angeschlossenen Geräte in der Verwertungskette (NAS, ggf. AVR, TV und alle Konverter dazwischen) HDCP-Fähig sein. Andernsfalls gilt es als Bruch in der Kette und das Material wird in SD oder FHD geliefert, da der Kopierschutz (HDCP=High-bandwith Digital Content Protection) sich beschwert.
Hat das Quellmaterial 8bit Farbtiefe, ist es mit dem Splitter aufgeteilt und hat HDCP 1.4. Dann reicht der verlinkte AV-Konverter.
Hat es 10 bit Farbtiefe, ist es HDCP 2.2 Kodiert.
Ich hab noch einen HDCP 2.2 zu 1.4 Konverter, der HDCP am Eingang vorgaukelt "jaja, ich kann 2.2" um die Kette nicht zu brechen und am Ausgang dann aber 1.4 ausgibt.
Und da beisst sich die Schlange in den Schwanz:
Man kann mit einem HDCP Konverter HDCP 2.2 auf 1.4 herunterrechnen um es dahinter weiterzuverarbeiten, die Farbtiefe bleibt aber so weit ich weiß.
Aber der Videograbber wird das 10bit material als 8bit interpretieren, da er es ja nicht besser weiß und der Farbraum eben NICHT mit konvertiert wird.
Äußern tut sich das dann in enorm schmutzigen (wie ein dreckiger Wasserfarbkasten) Farben.
Kann man hier ganz gut sehen:
https://www.igorslab.de/community/threads/hyperion-ambilight-an-uhd-hdr.394/#post-13864
Man müsste also, selbst wenn man HDCP austricksen kann, irgendwo VOR dem Viddeograbber das Signal auf 8bit herunterrechnen.
Das können nicht viele Geräte und die, die es können, kosten dementsprechend.
HDFury stellt sowas z.B. her. Damit würde man sich sogar die Adapterorgie sparen, da die HDFury devices auch HDCP aushebeln können und der nachliegende AV-Konverter das dann nicht mehr unterstützen muss.