HDMI ist in der lage HD der 3. Generation (1080p50) oder 1080p mit 3d zu beideitig übertragen. Sprich hin und gleichzeitig zurück. Das ist die gleiche Datenmenge wie Ultra HD.
Allerdings fehlt hierbei der Rückkanal z.B. für Ton. Das ist schade, wenn man vom Mediaplayer des TV-geräts rückwärts zum AVR sendet.
Ansonsten ist das doch ne feine Sache gerade bei PC's. Gegen einer feineren Darstelung ist nicht's auszusetzen. Vieles ist vektorbasiert. (Windows 7 Aero/ Windows 8 UI, Mauszeiger, Symbole sind schon auf 4k angepasst), Die Schriften und auch der Header von Computerbase. Abgesehen vom Logo. Gerade eine Verdopplung der Auflösung stellt geringe Probleme dar. Da sieht das z.B. Logo ohne Interpolation so aus, wie wir es heute ohne Skalierung sehen. Garnicht tragisch. Deshalb machte es Apple auch so mit dem iPhone 4 oder new iPad.
In Zukunft kommt bei mir ein Utra HD 26 Zoll IPS Display für mein PC.
*Träum*
8k wird bestimmt "real HD", "Retina HD" (bei Apple
) oder Ultra HD+. Oder es wird ausgelassen.
Einfach weil es zu teuer ist. Kleinbildkameras, mit denen nahezu jeder Kinofilm gedreht wird, erreicht eine Auslösung von ca 20 Megapixel. Die 4k Auslösung bietet ca 8,3 MP. 8k wären dann um die 33 MP, was einfach zu viel ist und die Filme fangen an zu rauschen. Das sieht dann so aus, wie bei heutigen Smartphone-Filmchen. Welche gut und klar sind, aber eben nicht Kinoreif.
Die sollen mal lieber bei Ultra HD die HZ-Zahl normen. USA hat 60Hz, Europa 50 HZ. Kinofilme 48 Hz. 48, damit es einen Teiler von 60 (USA) hat und weil unsere Augen 24 Bilder/s sehen. Deutsche filme werden einfach um 2% schneller abgespielt, damit er auf 50Hz kommt. Was soll das? Alle auf 48 Hz Fertig. Viele Fernsehr unterstützen schon 48Hz. Nahezu jeder. Zumal ist es 2% billiger.