Gorby schrieb:
Ich hab da irgendwas technisch nicht verstanden. Ich kann also nur mit entsprechendem Ausgabegerät HDR-Videos wiedergeben?
Wieso kann ein normaler Bildschirm wie mein Eizo kein HDR-Video von YT in HDR wiedergeben?
Für rudimentäre Erklärung dankbar
Bei HDR geht es in erster Linie um eins nämlich (wie der Name schon sagt) Kontrast.
Ziel ist es Bildmaterial mit sehr großem Kontrastumfang möglichst entsprechend anzuzeigen. Dafür werden logischerweise Schirme mit einem sehr hohen statischen Kontrast benötigt - die IPS-üblichen 1000:1 (wie bei dein Eizo vermutlich) reichen hier bei weitem nicht aus, auch keine 3000:1, sondern bestenfalls das
hundertfache und mehr.
Dafür muß nicht nur das Panel sehr hell leuchten, auch der Schwarzwert muss sehr niedrig sein (im Idealfall =0).
Um jetzt nicht bei so einer riesigen Spannweite zwischen Weiß und Schwarz Abstufungen (Banding) erkennen zu können, wird eben auch eine höhere "Farbauflösung", sprich mehr Helligkeitsabstufungen, sprich hohe
Farbtiefe (10bit und mehr = Deep Color) benötigt.
Tulol schrieb:
Weil für echtes HDR eigentlich auch ein größerer Farbraum nötig ist.
Bin bei Bewegtbildern(Video) jetzt nicht ganz im Bilde, aber bei der Fotografie verwendet man 16Bit/Pixel, das entspricht "48Bit Farbtiefe".
Soweit ich weiß sind aber Grakas die in PCs verbaut werden normalerweise nur für 32Bit ausgelegt(?), entspricht ~10Bit/Pixel.
Für gewöhnlich, also sRGB Farbraum, sind am PC bei Fotos gerade mal 8Bit/Pixel üblich. Die in Kameras verbauten Sensoren nehmen zwar intern mit 16Bit/Pixel auf, da dran kommt man aber nur wenn es die Daten durch die Kameraelektronik das auch ins RAW oder TIFF Format schafft(was IMHO auch eher selten der Fall ist, in der Regel sind es bloß die genannten 10Bit/Pixel).
Wie dem auch sei, das Datenaufkommen ist dadurch erheblich höher, sowas muß eine GPU auch erst mal berechnen. Vom dramatisch erhöhten Speicherbedarf für entsprechende Texturen red ich gar nicht erst.
Ich schätze du meinst das richtige, aber da mischen sich in meinen Augen zwei Dinge. Nämlich
Farbumfang, also 8bit, 10bit usw. und
Farbraum.
Ersteres ist wie erwähnt der eigentliche Knackpunkt bei HDR.
Zweiteres "lediglich" eine weitere Verbesserung/Erweiterung, da hier "nur" höher gesättigte Farben angezeigt werden können (was nicht heißt das das nicht in gleichem Maße wünschenswert wäre, ganz im Gegenteil). Und das denke ich ist wiederum das geringere Problem das wir mit TVs und Monitoren haben, Wide Gamut Monitore z.B. gibt es ja bereits zu Genüge (ok vielleicht nicht mit kompletter rec 2020 Abdeckung, aber deutlich größer als sRGB). Nebenbei bemerkt glaube ich dass der deutlich höhere Farbraum noch so einiges an Problemen, vor allem für den Ottonormaloverbraucher, aufwerfen wird - Stichwort Farbmanagement.
Jedenfalls spricht nichts dagegen HDR (im eigentlichen Sinne) auch in sRGB auszugeben oder in Graustufen
.
Was Bild
ausgabe von Grafikkarten angeht, so sind sogar 24bit (8 pro Kanal) üblich und im Normalfall für IPS-Panels auch völlig ausreichend.
Eben erst bei höhen Kontrasten gewinnen 10 Bit zunehmend an Bedeutung. Ich sehe an meinem Dell UP keinerlei Unterschied zwischen 8 und 10bit, auch wenn so manche Veranschaulichung namenhafter Monitorhersteller (*husteizo*) einen das glauben lassen will. Der Sinn von 10bit in diesem Fall ist auch ein anderer, nämlich eine feinere Helligkeitsauflösung als Puffer für Veränderungen der Tonwerte, vornehmlich durch die Kalibrierung.
Der 16bit oder gar 32bit (pro Kanal!)-Workflow ist da ja wieder was anderes und bezieht sich nur auf die interne Verarbeitung und nicht auf die Ausgabe. Er dient ebenfalls als ein Puffer um Helligkeits- und Farbverläufe auch nach der Bildbearbeitung (die
immer mit Tonwertverlusten einhergeht) als solche erkennen zu können ohne Banding (deswegen bleibt der Umfang von Rot Grün und Blau in PS und Co auch bei 0-255 und steigt nicht auf 0-65536 oder aberwitzige 0-4294967296).
Was hier vielen offenbar nicht klar ist was HDR überhaupt bedeutet:
Vereinfacht gesagt beschreibt der Dynamikumfang im Fall von Bildinformation die Differenz zwischen dem hellsten und dem dunkelsten Teil eines Bildes. Blickt man zB. aus einem Zimmer durch ein Fenster ins Freie bei schönstem Sonnenschein, hat das Menschliche Auge kein Problem damit das Zimmer als auch das "Freie Draußen" gut belichtet abzubilden. Versucht man nun diese Szene mit einem Normalen Fotoapparat abzubilden wird es schief gehen. Entweder das Zimmer ist "normal" ausgeleuchtet und das "Freie Draußen" im Fenster erscheint völlig überstrahlt/Weiß, oder das Zimmer säuft im Dunkeln ab während das "Freie Draußen" 1A belichtet und detailliert zu erkennen ist.
So sieht es aus. Und man sollte sich auch vergegenwärtigen, dass selbst mit einem hochwertigen Sensor bei ca. 16000:1 Schluss ist. Also muss auch aufnahmeseitig entsprechende Technik her, damit wir uns am Ende mit 1000000:1 die Augen wegballern können^^.
Was wieder HDR betrifft ist das was ich sehe irgendwie noch nichts Halbes und nichts Ganzes, eher ein vorläufiger Versuch alten, lokal gedimmten Wein in neuen Schläuchen zu verkaufen, während die Entwicklung einfach noch nicht so weit ist. Das ist weniger Kritik an Youtube und Co sondern an den TV-Herstellern. Der Witz überhaupt sind vor allem die Angaben jener zum Kontrast ihrer HDR-Boliden. Es gibt nämlich keine, selbst bei OLED-TVs. Panasonic z.B. spricht von "Ultimativem Kontrast", LG sogar von "Infinite Contrast"
, viele andere wie Sony schweigen sich komplett aus. Das zeigt wie weit wir noch vom HDR-Idealzustand bzw. vom Zustand der die Bezeichnung HDR auch verdient, entfernt sind.