Bildfrequenz Panel Hardware (nativ):
Hertz bezeichnet die Frequenz, bei TVs die Bildfrequenz. Ein TV mit 50 Hz kann 50 Bilder pro Sekunde übertragen. Ein 200 Hz TV eben 200 Bilder pro Sekunde. Eine Erhöhung wirkt sich positiv auf die optimale Bildqualität aus.
Full HD Display können 50 Hz, 100 Hz nativ und 200 Hz nativ haben. 50 Hz ist normal und nicht nativ.
4K Display können nur maximal 100 Hz mit HDR nativ haben. Ohne HDR 200 Hz nativ.
Nativ bedeutet was der TV in phys. Hardware anzeigen kann.
200 Hz war meiner Meinung nach nötig wegen 3D TV. Pro Auge gibt es eine Halbierung der Bildrate (Hz) und bei 100 Hz TVs mit 3D-Shutter-Technik führt die Halbierung auf 50 Hz pro Auge zu unschönen Doppelkonturen und Bewegungsunschärfe. Die Auflösung halbiert sich auch noch dazu in der Höhe.
Dewegen gibt es eigentlich kaum noch kaum 4K 3 TVs. Nicht weil die Nachfrage nachgelassen hat sondern weil ein 4K TV 100 Hz nativ mit HDR nur mit 50 Hertz pro Auge darstellen kann.
Bei der Produktion von Filmen werden Filmkameras eingesetzt, die Vollbilder aufzeichnen. Meist 24 Hertz. Diese Aufnahmen sind in erster Linie fürs Kino bestimmt, wo ebenfalls Vollbilder dargestellt werden.
Das menschliche Gehirn nimmt ab ca. 14 bis 16 Bildern pro Sekunde aufeinanderfolgende Bilder als Bewegung wahr. IMAX Filme liegen in 48 Hz vor.
Ganz anders sieht das bei Videoaufnahmen aus, die mit TV-Kameras für das Fernsehen produziert wurden. TV-Kameras arbeiten nach dem Zeilensprungverfahren und zeichnen Halbbilder mit 48 Hz auf. Zwischen diesen Halbbildern gibt es es einen Zeitverzug von 0,02 Sekunden und am Ende werden aus 48 Hz---> 50 Hz. Da sind wir bei einen normalen 50 Hz TV.
Aus historisch-technischen Gründen verwendeten Fernsehgeräte das Zeilensprungverfahren, bei dem keine Vollbilder , sondern Halbbilder mit 50 Hz dargestellt werden. Jedes Halbbild besteht nur aus der Hälfte der Bildzeilen eines Vollbildes. Es wird immer abwechselnd ein Halbbild mit den ungeraden Bildzeilen und eines mit den geraden Bildzeilen dargestellt. Ursprünglich wurde das Zeilensprungverfahren in der Anfangszeit des Fernsehens eingeführt, um mit dem damaligen Stand der Technik ein halbwegs flimmerfreies Bild zu gewährleisten. Schlicht weg ein kleiner Betrug.
Es gibt praktisch 2 Standarts. Kino und TV-Produktionen.
Schaut ihr normal TV (50 Hz) wird praktisch nix angepasst. Schaut ihr ne Bluray (24 Hz) muß das Bild von Vollbildern in Halbilder umgewandelt werden. Dieser Vorgang ist unter den Namen
Deinterlacing bekannt. Wer mal mit Handbrake gearbeitet gearbeitet hat wird bestimmt schon darüber gestolpert sein.
TV-Material besteht aus 50 unterschiedlichen Einzelbildern pro Sekunde (PAL), bei einer kontinuierlichen Bewegung zeigt jedes dieser Halbbilder einen anderen „Schnappschuss“.
Bei Kinomaterial stammen je zwei aufeinanderfolgende Halbbilder nach der Umrechnung aus dem selben Vollbild. Ergo nur halb so viele „Schnappschüsse“. Dabei werden Bewegungen weniger flüssiger dargestellt. Es fehlt praktisch die Hälfte der Bildinformation.
Wenn man jetzt diese umgewandelten Einzelbilder mehrere Male hintereinander angezeigt und dazwischen kurz abgedunkelt entsteht wieder der Eindruck einer wirklich flüssigen Bewegung.
Ein 100 Hz TV kopiert ein zusätzliches Zwischenbild zu zwei Originalbildern. Ein 200 HzTV fügt gleich drei Bilder hinzu, damit Bewegungen noch flüssiger erscheinen. Bei dieser Displayart wird nur die Bieldwiederholfrequenz erhöht. Am Bild selbst wird kein Eingriff vorgenommen.
Es wird praktisch wieder ein kleiner Betrug vorgenommen um den Qualitätsverlust beim Deinterlacing wieder auszugleichen.
Bildfrequenz Panel Software (interpoliert):
Um die Wiedergabequalität, Bildqualität zu erhöhen greifen die Hersteller auf verschieden Möglichkeiten aus einer Kombination aus Soft und Hardware zu.
So rechnete beispielsweise Samsung bis einschließlich 2014 mit der Clear Motion Rate (CMR) und machte aus einem Gerät mit 100-Hertz-Bildschirm (Panel) einen Fernseher mit 400 Hz CMR: 100 Hz (Bildwiederholfrequenz) x 2 (Zwischenbildberechnung) x 2 (Backlight-Blinking) = 400 Hz CMR.
Hersteller Sony versieht ein natives 50 Hz-Display etwa mit der Funktion Motionflow 400 Hz. Wie kommt die Zahl 400 nun zustande? Im Detail erklärt Sony das nicht, aber sie ist das Ergebnis von zusätzlich berechneten Bildern, die zwischen zwei Einzelbildern hinzugefügt werden. Ähnliche Funktionen und Marketingbezeichungen haben auch Fernseher von LG oder Panasonic usw...
Leider kann man diese Angaben nicht direkt vergleichen. Egal, wie viel Hertz die Hersteller auf die Verpackung schreiben: Ein 4K TV mit HDR 200 Hz nativ macht maximal 120 „echte“ Bilder pro Sekunde, ein Full-HD-TV maximal 200.
Diese interpoliert Angabe dient nur dazu welchem nativen Display in Echt eine Zwischenbildberechnung nahe kommt.
Das auch nur so wie der Hersteller es meint.
Wie gut diese Zwischenbildberechnungen funktionieren wirkt subjektiv für jeden anders. Ich habe ein 100 Hz 2015 Phillips TV und alle Zwischenbildberechnung (interpoliert) ausgeschaltet. Ich habe das Bild über Helligkeit und Rot- Grün-Blau Weißwert eingestellt.
50/60 Hertz
PAL Fernsehern (50 Halbilder pro Sekunde = 50Hz) zu NTSC Fernsehern (60 Halbbilder pro Sekunde = 60Hz). Nativ 100 Hz /120 Hz, 200 Hz/240 Hz.
In den Anfängen der Fernsehtechnik orientierte man sich bei der Bildfrequenz an der Stromfrequenz (230 Volt / 50 Hz) die bei uns herscht. NTSC z.B. in Japan (100 Volt / 50 + 60 Hz) oder Nordamerika (120 Volt / 60 Hz) .
Wurde ein Film mit 25 Bildern pro Sekunde, funktioniert das auf einem 50 Hz TV sehr gut, da jedes Bild einfach zweimal gezeigt wird und so genau die 50 Bildwechsel erreicht werden.
Wer einmal einen Konsolenimport aus Japan auf 50 Hz stellt wird hingegen festellen das dies nicht optimal ist oder garnicht geht.
8 Bit, 10 Bit, 12 Bit Farbtiefe
Bisherige Fernseher und Monitore mit SDR konnten nur 256 Helligkeitsstufen (8 Bit) unterscheiden.
HDR 10 und Hybrid Log Gamma Geräte (HLG) können 1024 Helligkeitsstufen alias 10-Bit darstellen.
Dolby Vision unterstützt 4096 Helligkeitsabstufungen alias 12-Bit.
HDR10 ist ein freier Standard (SMPTE ST-2086) der das standardisierte Perceptual Quantizer (PQ) Verfahren (SMPTE ST-2084) nutzt. Farb- und Helligkeitsinformationen werden mit 10-Bit Farbtiefe im erweiterten REC.2020 Farbraum übertragen. Die übertragenen Metadaten sind statisch, gelten also für den gesamten Videoinhalt. HDR10 ist einer der ersten offenen Standards und wird von so ziemlich jedem Hersteller unterstützt. HDR10 ist auch immer Bestandteil einer 4K UHD Blu-ray und kommt auch bei 4K-Streams von Netflix, Amazon Video usw. zum Einsatz.
Dolby Vision nutzt ebenfalls das PQ-Verfahren um seine Metadaten an das Ausgabegerät zu übertragen. Hier handelt es sich aber nicht um einen freien Standard, für die Nutzung von Dolby Vision fallen somit Lizenzgebühren an. Der Vorteil gegenüber HDR10 ist die dynamische Übertragung der Metadaten. So kann die Farbkalibrierung für jede Szene, sogar für einzelne Bilder festgelegt und ausgegeben werden. Die Farb- und Helligkeitsinformationen werden sogar mit 12-bit ausgegeben, wodurch noch feinere Helligkeitunterschiede dargestellt werden können.
HLG kommt aus den Bereich der Fernsehübertragung und dient dazu Transponder-Bandbreite zu sparen. Wichtig zu wissen ist zudem, dass seit kurzer Zeit auch Hybrid Log Gamma ein Teil vom HDMI 2.0b-Standard ist, so dass alle Fernsehmodelle, die mit dieser Schnittstelle versehen sind nach einem Update in der Lage dazu sind den neuen HDR-Standard zu verarbeiten.
High Dynamic Range und Nits
Die Erweiterung dieses Dynamikumfangs nennt man „High Dynamic Range“ (HDR) – der bisherige Dynamikumfang wurde als „Standard Dynamic Range „(SDR) bezeichnet. Ein moderner 4K Fernseher ist in der Lage, mehr verschiedene Farben (Farbraum) in verschiedenen Helligkeitsstufen (Farbtiefe) darzustellen.
Im SDR-Bereich bewegt sich der Helligkeitsbereich zwischen 0.05 cd/m² und 100 cd/m² (candela pro m² auch „nits“ genannt). Das entspricht in etwa dem Helligkeitsspektrum vom Mondlicht bis zu einer einfachen Lampe. Man merkt bereits hier, die Darstellung von richtigem Schwarz und grellem Licht ist damit natürlich nicht möglich.
IM HDR-Bereich kann kann theoretisch 0.0005 cd/m² bis 10.000 cd/m² abgedeckt werden. Das entspricht einem dunklen Sternenhimmel, bis zu einem Himmel bei Tag mit Sonnenschein.
HDR sorgt dafür, dass wir Videoinhalte zu sehen bekommen, wie wir sie aus der Natur kennen. Unsere Augen reagieren auf Helligkeitsunterschiede viel sensibler als z.B. auf unterschiedliche Farben.
Für HDR braucht es also viel Nits.
HDMI Versionen: und
8 Bit, 10 Bit Panele (TVs)
HDMI 1.4 brachte die 4K Unterstützung mit 24 Hz.
HDMI 2.0 brachte die 4K Unterstützung mit 60 Hz.
HDMI 2.0a brachte die 4K Unterstützung mit 60 Hz und offiziell HDR (High Dynamic Range).
HDMI 2.1 wird 8K, Dynamic HDR, Video-Kompression DSC 1.2 (VESA DisplayPort) und 16 bit bringen.
Was wichtig ist: HDMI 2.0a hat nur 8 bit Unterstützung. Das ist non HDR. Ganz normales SDR.
Damit zu den normalen Bildinformationen noch die Helligkeitsinformationen (HDR) durch ein HDMI 2.0a Kabel übertragen werden können, muß mal wieder am Bild getrickst werden. Das Zauberwort ist
Farbunterabtastung .
Subsampling 4:2:0 oder 4:2:2 habt ihr bestimmt schon mal irgendwo im Menü endeckt. Das ist der Trick auf Seiten des Kabels.
Jetzt folgt der auf Seiten des TVs. Es gibt TVs mit einem 8 bit Panel und es gibt TVs mit einen 10 bit Panel. 12 bit Panel sind mir nicht bekannt.
Damit auf einen 8 bit Panel HDR überhaupt geht muß auch hier, na wenn wunderts es wieder getrickst werden. Normaler Weise geht das ja nicht.
Frame Rate Control wird dabei angewendet. Damit kann ein 10 bit Panel praktisch emulieren. 8 bit + FCR. Ein 10 bit Panel mit FCR kann also ein 12 bit Panel emulieren.
Grundsätzlich sollte das Panel mehr Bit haben als der Zuspieler. Die Panel sind wie z.B. CPUs nie zu 100% in der Produktion gelungen. Sobald ihr nur an der Helligkeit rumwerkelt schaft euer Gerät nicht mehr das ganze Spektrum. Im
Hifi Forum nach zu lesen.
Dazu gibt es einen guten Beitrag auf
Golem.de. Es geht da eigentlich um HDR am PC aber vieles was dort steht sollte recht informativ für TV-Nutzer sein.
Echtes HDR mit mindestens 10 bit sollte meiner Meinung nach im Moment per eingebauten Mediaplayer oder per Stream direkt im TV funktionieren. Was die eingebauten Player oder Streaming Apps können oder nicht ist schon wieder ein anderer Schuh.
Mit HDMI 2.1 wird auf 16 bit erhöht.
Quellen:
Wikipedia,
4kfilme.de