News High Dynamic Range: YouTube streamt jetzt auch HDR-Videos

EMkaEL schrieb:
wo ist diese liste?

Keine Liste, aber die Angabe stammt aus dem Google-Blog: https://youtube.googleblog.com/2016/11/true-colors-adding-support-for-hdr.html

Starting today, you can watch YouTube videos in HDR on supported devices, such as HDR TVs with the new Chromecast Ultra, and soon on all 2016 Samsung SUHD and UHD TVs

Habe den Satz im Artikel nochmal präziser formuliert. Die Samsung-TVs sollen Youtube mit HDR erst "bald" unterstützen.
 
NeoTiger schrieb:
HDR ist nur der nächste Bullshit, den uns die TV-Industrie verkaufen will, nachdem 3D nicht gezogen hat.
[...]

Ja, die Industrie verarscht den Kunden schon ziemlich mit den ganzen "HDR" Bildschirmen mit 8 Bit Panel, genau wie mit UHD Fernsehern die man höchstens 3K nennen dürfte. Das heißt aber nicht, das HDR sinnlos wäre. Ich wünsche mir seit ~10 Jahren 16 Bit Bildschirme für den PC. Das jetzt zumindest 12 Bit in greifbare Nähe rückt, finde ich sehr gut. Außerdem definiert der HDR Standart eine neue Transferfunktion gegenüber dem veralteten Gamma, welches noch auf Röhrenfernseher hin optimiert wurde. Die neue Funktion ist mehr an der menschlichen Wahrnehmung orientiert, wodurch die Bits effizienter genutzt werden. Das was ich also effektiv mit 16Bit wahrnehmen wollte, könnte ich so schon mit den 12 Bit von Dolby Vision kriegen. Natürlich ergibt das alles nur ein Sinn, wenn das Display auch ein passendes Panel hat und auf Schwarzwert, Helligkeit und lokalen Kontrast hin optimiert wurde.
Nicht zu vergessen: Der Standart sieht auch Rec 2020 als Zielfarbraum vor. Das ist, wenn es denn irgendwann mal erreicht wird, ein großer Fortschritt gegenüber sRGB/Rec 709.
 
fruchtzwerg13 schrieb:
Der 7090 hat ein 8bit Panel
Genaugenommen ein 8Bit + FRC Panel, wie zB auch der Sony X8505C
Ein gutes 8Bit+FRC Panel macht keinen sichtbaren Unterschied zu einem 10Bit Panel bzgl des Bandings

Einen Unterschied zwischen der HDR Qualität sieht man erst richtig wenn man einen UHD BluRay Player und eine UHD HDR BD abspielt, dann kommt nämlich die Maximalhelligkeit ins Spiel, ist diese zu gering (meist bei den TV unter 1200€ // 50Zoll+) wird das Bild zu dunkel dargestellt.
 
fruchtzwerg13 schrieb:
Der 7090 hat ein 8bit Panel

Das ist falsch. Wäre das tatsächlich so, hätte ich ihn nicht gekauft. Ich habe mich auf mehreren Seiten vergewissert, dass er ein natives 10 Bit Panel hat.

http://www.techradar.com/reviews/au...and-lcd-tvs/samsung-ue49ks7000-1325915/review

http://www.samsung.com/de/consumer/tv-av/tv/quantum-dot-display/UE49KS7090UXZG

https://www.entain.de/49-zoll-fernseher/Samsung-UE49KS7090U-p656.html

Wenn ihr hier was in den Raum stellt, dann bitte mit Angabe der Quelle. Danke.

Hier noch mal auf Nachfrage bei Samsung.

https://www.avforums.com/threads/samsung-ks7000-ue55ks7000-uhd-4k-tv-review.2032989/page-5
 
Zuletzt bearbeitet:
die meisten drehen nach der Austellung ihrer neuen Geräte erstmal deren Helligkeit runter, weil die Fabrikeinstellungen für den abendlichen Filmgenuss im abgedunkelten Wohnzimmer oft zu unangenehm hell ist. Wer schaut schon gerne im Dunkeln direkt in eine 100 Watt Lampe?

Das sehe ich auch so. Wenn ich sehe wie weit ich meinem LCD da runter geregelt habe. Also 2 statt 20 Maximal.
 
XdaywalkerX schrieb:
Wenn ihr hier was in den Raum stellt, dann bitte mit Angabe der Quelle. Danke.

onetwoxx hats oben schon geschrieben und hier auch noch eine Quelle

http://www.displayspecifications.com/en/model/5f42432

ich stand auch zwischen dem 7090 und 8090, habe dann aber doch zum 8090 gegriffen, und die 10 bit vom 8090 waren ein grund, es gab aber noch mehr Gründe warum ich den 8090 genommen habe
 
Der Gedanke von HDR ist ja auch, die Durchschnitthelligkeit unverändert zu lassen, nur das jetzt bei Bedarf partiell deutlich hellere Bereiche anzeigen zu können, wie zB die Lichtreflektion in Wassertropfen. Solange die Inhalte den Effekt nicht so überziehen wie bei 3D sollte das also nicht unangenehm sein.
 
Weiss nicht was ich davon halten soll. Im Zweifelsfall erlaubt sich ein Filmemacher einen Scherz und wir blicken direkt in einen Flakscheinwerfer.

Bei der Lautstärke wird ja die dynamische Lautstärkeanpassung als Feature angeboten. Leises nicht zu leise, lautes nicht zu laut.

Keine Ahnung ob das mal wieder ein Schlagwort ist mit der man neue Geräte verkaufen will oder etwas bleibendes wie Tonfilm, Farbfernsehen oder Full HD.
 
FU_long schrieb:
Warum gibt es eigentlich noch keine HDR PC Monitore? Bei Spielen macht dieses Feature wirklich Sinn. Es wäre jedenfalls sinnvoller, als 4K auf 27 Zoll. :D
Weil für echtes HDR eigentlich auch ein größerer Farbraum nötig ist.
Bin bei Bewegtbildern(Video) jetzt nicht ganz im Bilde, aber bei der Fotografie verwendet man 16Bit/Pixel, das entspricht "48Bit Farbtiefe".
Soweit ich weiß sind aber Grakas die in PCs verbaut werden normalerweise nur für 32Bit ausgelegt(?), entspricht ~10Bit/Pixel.
Für gewöhnlich, also sRGB Farbraum, sind am PC bei Fotos gerade mal 8Bit/Pixel üblich. Die in Kameras verbauten Sensoren nehmen zwar intern mit 16Bit/Pixel auf, da dran kommt man aber nur wenn es die Daten durch die Kameraelektronik das auch ins RAW oder TIFF Format schafft(was IMHO auch eher selten der Fall ist, in der Regel sind es bloß die genannten 10Bit/Pixel).

Wie dem auch sei, das Datenaufkommen ist dadurch erheblich höher, sowas muß eine GPU auch erst mal berechnen. Vom dramatisch erhöhten Speicherbedarf für entsprechende Texturen red ich gar nicht erst.

Was hier vielen offenbar nicht klar ist was HDR überhaupt bedeutet:
Vereinfacht gesagt beschreibt der Dynamikumfang im Fall von Bildinformation die Differenz zwischen dem hellsten und dem dunkelsten Teil eines Bildes. Blickt man zB. aus einem Zimmer durch ein Fenster ins Freie bei schönstem Sonnenschein, hat das Menschliche Auge kein Problem damit das Zimmer als auch das "Freie Draußen" gut belichtet abzubilden. Versucht man nun diese Szene mit einem Normalen Fotoapparat abzubilden wird es schief gehen. Entweder das Zimmer ist "normal" ausgeleuchtet und das "Freie Draußen" im Fenster erscheint völlig überstrahlt/Weiß, oder das Zimmer säuft im Dunkeln ab während das "Freie Draußen" 1A belichtet und detailliert zu erkennen ist.

Analog zum Audiobereich die Differenz zwischen dem leisesten und Lautesten Teil eines Musikstücks/Tonsequenz - Während man im einen Moment eine Stecknadel zu Boden fallen hört, explodiert im nächsten Moment eine Granate mit ohrenbetäubendem Getöse.
 
Zuletzt bearbeitet:
Warum soll mit HDR der Kontrast besser / höher sein, das schwarz ist doch nicht schwärzer und das weiß nicht weißer als bei sonstigen Videos und TVs! Es geht doch lediglich um die zwischenstufen für weichere Farbübergänge / Grauübergänge oder liege ich da falsch?
 
@Tulol:
So groß ist der zusätzliche Rechenaufwand gar nicht, da mWn viele Spiele intern eh schon in höherer Bittiefe rechnen und nachher ein Tonemapping auf 8 machen. Das muss nun halt auf 10 bzw 12 Bit mappen. Wenn die Postprocessing Effekte nach dem Tonemapping liefen, müssen diese nun in höherer Bittiefe arbeiten, aber der Rest sollte gleich bleiben. Wenn Texturen auch in 10 Bit oder mehr wären, würde das natürlich den Speicherbedarf erhöhen, aber HDR Texturen sind keine zwingende Vorraussetzung für ein in HDR berechnetes Bild. Auch wenn sie natürlich Sinn ergeben. Die neueren AMD Grafikkarten können übrigens auch schon 12 Bit pro Kanal ausgeben.

Da du den Audiobereich nanntest: Dort werden schon deutlich sinnvollere Bittiefen verwendet. CD hat 16 Bit, HD Tracks haben 24 Bit (Nutzen darf bezweifelt werden) und während des Aufnahme und Mixing Prozesses wird mit 32 Bit gearbeitet, für interne Rechnungen sogar mit 64 Bit.
Mit 16 Bit und einer vernünftigen Transferfunktion wäre ich im Bildbereich schon sehr glücklich, die 10 Bit von HDR10 tuns aber erstmal auch ;)


@M.B.H:
Eigentlich hast du Recht, aber erst mit HDR ergibt es Sinn, sehr hohe Kontraste zu fahren. Die Inhalte, also Film & Fernsehen, werden in Hinblick auf normalem Dynamikumfang erstellt. Wenn man hier einfach das Weiß viel heller und das schwaz viel dunkler macht, hat man nicht nur Banding Artefakte durch die mangelnde Bittiefe, es sieht auch einfach unnatürlich aus. Durch den HDR Standart werden nun Inhalte geschaffen, bei denen während der Erstellung ein hoher Dynamikumfang bei der Betrachtung das Ziel war.
Als Analogie aus der Fotografie:
Wenn du ein Foto in RAW anfertigst oder eine Belichtungsreihe zu einem HDRI zusammenführst, hast du ein Bild mit hoher Bittiefe, welches so nicht auf dem Display angezeigt werden kann. Daher wirst du am Ende eine Konvertierung in 8 Bit vornehmen. Üblicherweise wird dabei ein Tonemapping gemacht, bei dem ein für 8 Bit Displays schönes Ergebnis bei rauskommt. Das entspricht den aktuell produzierten Inhalten.
Wenn du stattdessen die Tonwerte linear mappen würdest, hättest du am Ende ein ziemlich blasses und Kontrastarmes Bild, welches aber auf einem Bildschirm mit sehr hohem Kontrast wieder gut aussehen würde. Das entspricht in etwa der Herrstellung von HDR Inhalten.

Keine Ahnung ob das Verständlich war ^^
 
Ich mag HDR auf LCD TVs, da sehen die Inhalte fast so schön aus wie auf meinem Uralt-FullHD 10bit Plasma Panel, das ich mit nem PC und passender Software mit 10bit-HDR Inhalten versorge. Einziger Nachteil sind die 900W, die TV und PC beim Filme gucken ziehen...
 
Desto mehr ich darüber lesen umso unnützer erscheint mir das ganze.

Das erinnert mich an DTS. Wo sehr viele eine Dynamik Kompression verwenden weil die eigentliche Natürliche Dynamik von Nachteil ist.

Wer will schon das jemand Akustisch mit einem Maschinengewehr ballert und man sitzt daneben. Wie schnell klopf der Nachbar an die Wand.
 
fruchtzwerg13 schrieb:
Der 7090 hat ein 8bit Panel

8 Bit mit FRC, kann also wie 10 Bit ebenso 1073741824 Farben darstellen.
Ist zwar kein natives 10 Bit Panel aber unterm Strick die gleiche Leistung.

Das ist falsch. Wäre das tatsächlich so, hätte ich ihn nicht gekauft. Ich habe mich auf mehreren Seiten vergewissert, dass er ein natives 10 Bit Panel hat.

Das weiß Niemand so genau. Samsung verkauft ihn als 10 Bit Panel, was nichts heißen muss, da 8 Bit + FRC schon ewig als 10 Bit verkauft wird. Ebenso kann man es nicht messen, da 8 Bit + FRC die gleichen Farben darstellen kann. Es ist nicht das erste Forum wo das über den KS7090 diskutiert wird. Was auch immer stimmt, es wäre egal, da 8 Bit FRC und 10 Bit quasi gleichwertig sind.

Bei Displayspecifications wird er jedenfalls mit 8 Bit + FRC ausgewiesen.

Auch muss man ausdrücklich zwischen der Angabe von Support für 10 Bit Signalverarbeitung und Panel unterscheiden.
 
Zuletzt bearbeitet:
Gorby schrieb:
Ich hab da irgendwas technisch nicht verstanden. Ich kann also nur mit entsprechendem Ausgabegerät HDR-Videos wiedergeben?

Wieso kann ein normaler Bildschirm wie mein Eizo kein HDR-Video von YT in HDR wiedergeben?

Für rudimentäre Erklärung dankbar :)

Bei HDR geht es in erster Linie um eins nämlich (wie der Name schon sagt) Kontrast.
Ziel ist es Bildmaterial mit sehr großem Kontrastumfang möglichst entsprechend anzuzeigen. Dafür werden logischerweise Schirme mit einem sehr hohen statischen Kontrast benötigt - die IPS-üblichen 1000:1 (wie bei dein Eizo vermutlich) reichen hier bei weitem nicht aus, auch keine 3000:1, sondern bestenfalls das hundertfache und mehr.
Dafür muß nicht nur das Panel sehr hell leuchten, auch der Schwarzwert muss sehr niedrig sein (im Idealfall =0).
Um jetzt nicht bei so einer riesigen Spannweite zwischen Weiß und Schwarz Abstufungen (Banding) erkennen zu können, wird eben auch eine höhere "Farbauflösung", sprich mehr Helligkeitsabstufungen, sprich hohe Farbtiefe (10bit und mehr = Deep Color) benötigt.

Tulol schrieb:
Weil für echtes HDR eigentlich auch ein größerer Farbraum nötig ist.
Bin bei Bewegtbildern(Video) jetzt nicht ganz im Bilde, aber bei der Fotografie verwendet man 16Bit/Pixel, das entspricht "48Bit Farbtiefe".
Soweit ich weiß sind aber Grakas die in PCs verbaut werden normalerweise nur für 32Bit ausgelegt(?), entspricht ~10Bit/Pixel.
Für gewöhnlich, also sRGB Farbraum, sind am PC bei Fotos gerade mal 8Bit/Pixel üblich. Die in Kameras verbauten Sensoren nehmen zwar intern mit 16Bit/Pixel auf, da dran kommt man aber nur wenn es die Daten durch die Kameraelektronik das auch ins RAW oder TIFF Format schafft(was IMHO auch eher selten der Fall ist, in der Regel sind es bloß die genannten 10Bit/Pixel).

Wie dem auch sei, das Datenaufkommen ist dadurch erheblich höher, sowas muß eine GPU auch erst mal berechnen. Vom dramatisch erhöhten Speicherbedarf für entsprechende Texturen red ich gar nicht erst.

Ich schätze du meinst das richtige, aber da mischen sich in meinen Augen zwei Dinge. Nämlich Farbumfang, also 8bit, 10bit usw. und Farbraum.
Ersteres ist wie erwähnt der eigentliche Knackpunkt bei HDR.
Zweiteres "lediglich" eine weitere Verbesserung/Erweiterung, da hier "nur" höher gesättigte Farben angezeigt werden können (was nicht heißt das das nicht in gleichem Maße wünschenswert wäre, ganz im Gegenteil). Und das denke ich ist wiederum das geringere Problem das wir mit TVs und Monitoren haben, Wide Gamut Monitore z.B. gibt es ja bereits zu Genüge (ok vielleicht nicht mit kompletter rec 2020 Abdeckung, aber deutlich größer als sRGB). Nebenbei bemerkt glaube ich dass der deutlich höhere Farbraum noch so einiges an Problemen, vor allem für den Ottonormaloverbraucher, aufwerfen wird - Stichwort Farbmanagement.
Jedenfalls spricht nichts dagegen HDR (im eigentlichen Sinne) auch in sRGB auszugeben oder in Graustufen ;).

Was Bildausgabe von Grafikkarten angeht, so sind sogar 24bit (8 pro Kanal) üblich und im Normalfall für IPS-Panels auch völlig ausreichend.
Eben erst bei höhen Kontrasten gewinnen 10 Bit zunehmend an Bedeutung. Ich sehe an meinem Dell UP keinerlei Unterschied zwischen 8 und 10bit, auch wenn so manche Veranschaulichung namenhafter Monitorhersteller (*husteizo*) einen das glauben lassen will. Der Sinn von 10bit in diesem Fall ist auch ein anderer, nämlich eine feinere Helligkeitsauflösung als Puffer für Veränderungen der Tonwerte, vornehmlich durch die Kalibrierung.

Der 16bit oder gar 32bit (pro Kanal!)-Workflow ist da ja wieder was anderes und bezieht sich nur auf die interne Verarbeitung und nicht auf die Ausgabe. Er dient ebenfalls als ein Puffer um Helligkeits- und Farbverläufe auch nach der Bildbearbeitung (die immer mit Tonwertverlusten einhergeht) als solche erkennen zu können ohne Banding (deswegen bleibt der Umfang von Rot Grün und Blau in PS und Co auch bei 0-255 und steigt nicht auf 0-65536 oder aberwitzige 0-4294967296).

Was hier vielen offenbar nicht klar ist was HDR überhaupt bedeutet:
Vereinfacht gesagt beschreibt der Dynamikumfang im Fall von Bildinformation die Differenz zwischen dem hellsten und dem dunkelsten Teil eines Bildes. Blickt man zB. aus einem Zimmer durch ein Fenster ins Freie bei schönstem Sonnenschein, hat das Menschliche Auge kein Problem damit das Zimmer als auch das "Freie Draußen" gut belichtet abzubilden. Versucht man nun diese Szene mit einem Normalen Fotoapparat abzubilden wird es schief gehen. Entweder das Zimmer ist "normal" ausgeleuchtet und das "Freie Draußen" im Fenster erscheint völlig überstrahlt/Weiß, oder das Zimmer säuft im Dunkeln ab während das "Freie Draußen" 1A belichtet und detailliert zu erkennen ist.
So sieht es aus. Und man sollte sich auch vergegenwärtigen, dass selbst mit einem hochwertigen Sensor bei ca. 16000:1 Schluss ist. Also muss auch aufnahmeseitig entsprechende Technik her, damit wir uns am Ende mit 1000000:1 die Augen wegballern können^^.

Was wieder HDR betrifft ist das was ich sehe irgendwie noch nichts Halbes und nichts Ganzes, eher ein vorläufiger Versuch alten, lokal gedimmten Wein in neuen Schläuchen zu verkaufen, während die Entwicklung einfach noch nicht so weit ist. Das ist weniger Kritik an Youtube und Co sondern an den TV-Herstellern. Der Witz überhaupt sind vor allem die Angaben jener zum Kontrast ihrer HDR-Boliden. Es gibt nämlich keine, selbst bei OLED-TVs. Panasonic z.B. spricht von "Ultimativem Kontrast", LG sogar von "Infinite Contrast" :D, viele andere wie Sony schweigen sich komplett aus. Das zeigt wie weit wir noch vom HDR-Idealzustand bzw. vom Zustand der die Bezeichnung HDR auch verdient, entfernt sind.
 
Zuletzt bearbeitet:
jubey schrieb:
Der Witz überhaupt sind vor allem die Angaben jener zum Kontrast ihrer HDR-Boliden. Es gibt nämlich keine, selbst bei OLED-TVs. Panasonic z.B. spricht von "Ultimativem Kontrast", LG sogar von "Infinite Contrast" :D, viele andere wie Sony schweigen sich komplett aus. Das zeigt wie weit wir noch vom HDR-Idealzustand bzw. vom Zustand der die Bezeichnung HDR auch verdient, entfernt sind.

So siehts aus. Wobei der rechnerische Kontrast der LG OLEDs wirklich schon gut genug ist, dank des tollen Schwarz. Bringt nur nichts, wenn die Maximalhelligkeit lächerlich ist. Wenn die OLEDs nicht mit "Automatic Brightness Limiter" kämen, sondern die 500 cd/m^2 auch bei vollflächigem Weis schaffen würden, würde ich schonmal anfangen zu sparen. Aber 126 cd/m^2 ist lächerlich.
 
Koto schrieb:
Und der nächste TV da wird man dann vor dem Gerät schön braun gegrillt. Wenn ich dann ne Sonne in der Wohnung habe.:freak:

Bis dahin ist noch ein weiter weg, erstmal brauchen wir eine neue Energiequelle welche die Strompreise senkt, sonst wird niemand solche Fernseher kaufen ;) Sonnenstrahlung kann im Sommer 700 W/m^2 betragen, bei 65" wären das immerhin ~900W. Selbst wenn der Wirkungsgrad 100% wäre (davon sind wir weit entfernt), würde doch kaum jemand so ein Stromfresser betreiben wollen. (Außer so ein paar Verrückten wie mir, aber für Nischen zu fertigen ist nicht rentabel)
 
Ich finde es immer lustig, wenn 550cd als "lächerlich" bezeichnet werden. Ich muss zugeben 1000cd habe ich in natura noch nicht gesehen, aber selbst bei 550cd in HDR wird man abends schon lichtgegrillt.

(habe einen 55CRW854)
 
Zurück
Oben