sdfighter schrieb:
Korrigiert mich wenn ich falsch liege, aber ist die Überschrift nicht falsch ?
Müsste es nicht 2x4k heißen ?
Die Frage ist sehr berechtigt.
nlr schrieb:
8K hat die vierfache Auflösung von 4K.
8,3 zu 33,2 Megapixel.
Ja, wenn man die Pixel-Anzahl als Auflösung bezeichnet... das 8K Bild hat doppelt so viele Zeilen wie 4K (4320 statt 2160) und doppelt so viele Pixel pro Zeile (7680 statt 3840). Macht ausmultipliziert Faktor 4 mehr.
Das menschliche Auge allerdings sieht nur den linearen Zuwachs, und der ist tatsächlich nur Faktor 2.
Allerdings ist das Auflösungsvermögen des menschlichen Auges begrenzt. Schon bei 4K muss man sehr nahe am Bildschirm sitzen, um tatsächlich den Vorteil, den die höhere Auflösung von 4K verglichen mit full HD bringt, überhaupt wahrnehmen zu können. Bei 8K müsste man dann schon fast an der Mattscheibe kleben, bzw. vor einem gigantischen Bildschirm sitzen, den man dann unmöglich mit einem Blick ganz erfassen kann.
Daher halte ich 8K für komplett überflüssig. Die versuchen hier nur einen gigantischen Marketing Hype aufzubauen, um die Wirtschaft anzukurbeln. Brauchen tut das absolut kein Mensch, jedenfalls gewiss nicht zum fernsehschauen. (als PC-Monitor lönnte ich es mir eher vorstellen).
Daneben gibt es noch das Bandbreitenproblem bei der öffentlichen Übertragung und auch beim Streaming. Selbst die 720p die heute gesendet werden schauen oft grauenvoll aus - weil wegen der limitierten Bandbreite im Übertragungskanal brutalst komprimiert werden muss.
Um euch mal ne Vorstellung zu geben (Zitat Wikipedia): Die praktisch erreichte Datenübertragungsrate pro DVB-T Kanal liegt je nach eingestellten Parametern zwischen circa 12 Mbit/s und knapp über 20 Mbit/s.
Ein einzelnes Bild in 720p hat wie schon errechnet 921600 Pixel. Pro Grundfarbe braucht man 8 bit Farbtiefe (bei SDR, im Gegensatz zu HDR), also 3 mal die Pixelzahl, macht 2,7648 Mbyte (8 bit = 1 byte). Davon werden 50 Bilder pro Sekunde gesendet, macht gut 138 MB/s = 1100 Mb/s. Um das dann über einen Kanal zu übertragen, der nur 20 oder sogar nur 12 Mbit/s kann, muss man also 1100 / 20 = Faktor 55 oder sogar 1100 / 12 = Faktor 92 komprimieren.
Da braucht man sich nicht wundern, dass die Bildqualität hinter dem zurückbleibt, was die rein physikalische Auflösung verspricht. Und das dürfte wohl auch der Hauptgrund sein, dass die TV Sender weiterhin nur in 720p oder 1080i senden. Es gibt einfach nicht mehr Bandbreite im existierenden TV System!
Und selbst wenn man ein komplett neues TV System aufziehen würde - wo aber realistisch gesehen absolut kein Weg hinführt - weitaus mehr Bandbreite könnte man da auch nicht herbeizaubern. Man könnte allenfalls breitere Übertragungskanäle definieren oder mehrere schmalbandige zusammenlegen um einen hochauflösendes und nicht ganz so extrem komprimiertes Signal zu übertragen, was aber dann drastisch auf Kosten der Anzahl der übertragbaren Sender ginge.
720p hat 1280x720 = 921600 Pixel, also 0,92 MP. 8K hat 33 MP, also Faktor 36 mal mehr. Dazu kommt die höhere Framerate, die NHK anstrebt - 120 statt 50 fps, also Faktor 2,4, und die höhere Farbtiefe von 12 statt 8 bit pro Grundfarbe. Also nochmal Faktor 1,5 mehr, macht alles zusammen Faktor 130! Das wären dann statt 1100 Mb/s sage und schreibe schlappe 143 Gb/s. Und das ist noch ohne Overhead gerechnet, der bei digitaler Übertragung immer noch dazu kommt.
Wollte man dieses Signal durch die existierenden TV-Kanäle quetschen, müsste man dermaßen krass komprimieren, dass beim Zuschauer nur noch Matsch ankäme.
Bei IPTV schaut's etwas besser aus, aber natürlich auch nur bei entsprechend schnellem Internetzugang. Für 8K Übertragung mit passabler Kompression reicht aber selbst die Geschwindigkeit der schnellsten Internetverbindungen (ich setze die bei Privatverbrauchern mal bei 500 Mb/s an) nicht aus. Dafür müsste man fast um den Faktor 300 komprimieren.
Deshalb...
CityDuke schrieb:
Wäre viell. auch gut wenn nach 8K erstmal für eine Weile schluss ist.
... wäre gut wenn nach
4K erst mal für eine Weile Schluss ist.
CityDuke schrieb:
Für mich selbst genügt eigentlich schon 4K mehr als genug, obgleich ich beim 75" TV in 2,70m Entfernung schon kaum 1080p von echtem 2160p Material unterscheiden kann.
Ich kenne natürlich die Sehleistung Deiner Augen nicht - wenn sie bei 100% liegt solltest Du nicht weiter als etwa 2m vor einem 75" TV sitzen, um die volle Auflösung von 4K tatsächlich wahrnehmen zu können.
SaschaHa schrieb:
Wer hier meint, man würde keinen Unterschied sehen, war entweder noch nie selbst in dem Genuss, es sehen zu dürfen, hatte das falsche Bildmaterial (...) oder sollte dringend zum Optiker.
.. oder er sitzt zu weit entfernt - das dürfte wohl mit Abstand der häufigste Grund sein.
SaschaHa schrieb:
bei Bewegungsunschärfe merkt man die Auflösung natürlich nicht
Ja, weil immer noch mit steinzeitlichen frame rates gefilmt wird, und dementsprechend langen Belichtungszeiten.
Hätten wir heute schon die 120 fps, die NHK vorschlägt, dann sähe das schon deutlich besser. Und zwar durchaus auch bei niedrigeren Auflösungen, nicht erst bei 8K.
Ahmbor schrieb:
--> was anderes als 4:3/5:4 totaler Blödsinn
Das stimmt auch bis zum heutigen Tag. 16:9 wurde nur erfunden, damit man leichtgläubigen Leuten statt einem 5:4 19 Zoll Monitor einen mit 20 Zoll vermeintlich größeren für mehr Geld verkaufen konnte, der "dank" 16:9 in Wirklichkeit eine kleinere Fläche als der 19er hat und entsprechend billiger zu produzieren war.
Ich könnte auf die 16:9 Sehschlitz-Displays gut verzichten. Denk mal an IMAX. Warum wohl hat das 5:4???