Ich weiß es gibt viele Videophile die meinen am besten jedes Einzelbild als RAW Datei haben zu müssen das ein Film ordentlich aussieht, genauso wie Audiophile meinen eine 256kbit von einer 320kbit MP3 unterscheiden und einordnen zu können, aber für mich ist ein Full-HD-Film ab ca. 8GB in Ordnung. Klar, wenn ich in einem stark bewegtem Bild Pause drücke und dann ganz nah ran gehe, sehe ich hier und da ein Artefakt. Manchmal sind sehr ähnliche Farbverläufe etwas stufig. Wobei das eher bei den 4GB Varianten passiert.
Daher komprimieren ich und mein Vater alle F-HD Filme auf 8GB runter (klar kommt auch auf die Filmlänge an), damit der Heim-Server-NAS nicht aus allen Nähten platzt.
Ich kenne das Kompressionsverhalten bei 4K nicht, kann es auch auf Grund mangelnder Hardware nicht überprüfen, aber ich denke das man grob sagen kann, dass eine 4-mal höhere Datenmenge für eine mehr als ausreichende Qualität ausreicht.
Wobei 4K sowieso erst ab mind. 50, eher 60 Zoll wirklich Sinn macht.
Also 32GB für einen normalen 1,5-2 Stunden Film und 50GB für einen Herr der Ringe Schinken. Bollywood dann auf 2 Discs ^^
Da es auch 100GB Rohlinge gibt, kann man die Bitzahl bei Filmen normaler Länge sogar verdreifachen und statt 32GB auf 90GB gehen. Dann ist wirklich nichts mehr sichtbar.
Klar kommen jetzt welche die den Unterschied sehen, aber die haben dann eben Pech gehabt.
Wieso sollte die gesamte Filmwelt ihre komplette Hardware teuer austauschen nur damit ein paar Pingel zufrieden sind, wenn doch die vorhandene Abspielhardware ausreicht?!