News DisplayHDR: VESA-Standard für HDR‑Monitore definiert

Richtige Standards sind längst überfällig.
Allerdings finde ich diese hier unzureichend.

Wieso gibt es z.B. keinen Standard für echte HDR-Displays, die eben nicht nur Local Dimming in groben Zonen sondern Pixel-genaues Dimming haben?
Überhaupt scheint es gar keine Anforderung dafür zu geben, wie viele Zonen ein Display haben muss, um zertifiziert zu werden, oder wie?
Und wieso ist nur die Abdeckung von Farbräumen festgelegt und nicht auch die Genauigkeit?

Für mich bedeutet das, daß ich selbst bei Monitoren mit HDR1000 Zertifikat jedes Mal noch genauer nachhaken muss, um herauszufinden, ob das Teil überhaupt was taugt. Damit hat die Kennzeichnungen ihren Sinn irgendwie verfehlt.
 
AUO hat die specs mit festgelegt? ^^
na dann leute – macht euch auf harte zeiten gefasst :lol:

gut, spaß beiseite ;)

nun ergibt das vorpreschen in letzter zeit von quantum dot noch mehr sinn, wenn man richtung 90% DCI-P3 65 minimum möchte. bin ja mal gespannt, was da noch kommt und ob eine art „quantum dot 2“ o.ä. folgt....

weiß jmd. wie aufwändig es für programmierer ist, games in 2 farbräumen zu designen? legt man da vorher einfach entsprechungen fest, oder designt man einmal in sRGB (BT.709) und einmal in DCI-P3 65? letztlich möchte man doch iwie gewährleisten, dass die richtigen farben auf den endgeräten ankommen...

von daher finde ich es etwas unglücklich, dass HDR 400 nur sRGB können muss, kanns aber auch verstehen, dass man mit einer niedrigen hürde beginnt, wenn man einen solchen standard etablieren möchte. iwie versucht man halt, möglichst viele leute mitzunehmen und so bekommen auch diejenigen ein bisschen HDR, die eher nicht das nötige kleingeld haben...

für leute, die gerne shooter spielen: auch wenn der höhere kontrast eine bessere sicht bringt, wird es nicht ganz unproblematisch sein, das local dimming so schnell zu schalten, dass bei schnellen bewegungen wie drehungen, die technik noch hinterherkommt. je höher die gewählte HDR-klasse, desto unpassender könnte es sein. für so ziemlich alle anderen genres dürfte HDR aber ein riesiger gewinn sein. generell seh ich hier also, neben den farbräumen, die größte herausforderung in schnellem local dimming.

wird wohl auch nicht lange dauern, bis die ersten modelle aufm markt landen mit nur 9 dimming zones oder so... hauptsache die specs iwie erfüllen und aufkleber druf, egal wies ausschaut :rolleyes:

insgesamt sehe ich die spezifikationen aber positiv. endlich werden weitere standards festgelegt, mit denen ein fahrplan ersichtlich wird, auch wenn es hier und da evtl. noch die ein oder anderen technischen unwägbarkeiten gibt. der hype train ist unterwegs und auch wenn es mal eher unzureichende modelle geben dürfte, erhält der fortschritt insgesamt nun einen push! :daumen:
 
Ein Standard, direkt für die Mülltonne - aus Konsumentensicht. Für die Hersteller ist es natürlich ein nettes Weihnachtsgeschenk. Mit DisplayHDR 400 kann man jetzt auch offiziell HDR auf Monitore drucken, die das nicht einmal im Ansatz beherrschen. 400 cd/m² als max. Helligkeit sind bei OLED mit den geringen Schwarzwerten OK, aber nicht für ein LCD.

Beispiel der Ultra HD Premium-Mindestanforderungen im TV-Segment:

  1. 10 bit Farbtiefe
  2. BT.2020-Farbraum
  3. >90% DCI-P3
  4. LCD: Mind. 1.000 cd/m² bei max. 0,05 cd/m² Schwarzwert (Kontrast > 20.000:1)
  5. OLED: Mind. 540 cd/m² bei max. 0,0005 cd/m² Schwarzwert

Auch lese ich nichts davon, dass allgemeine HDR-Standards wie HDR10 unterstützt werden müssten.
 
mich würde eher interessieren, wieviel vom BT.2020 farbraum ein HDR fähiger fernseher abdecken muss. diesen uralt BT.709 standard juckt keine sau mehr. wahrscheinlich machen die absichtlich keine angaben, damit in 3-5 jahren das ganze dann als UHDR oder HDR+ vermarktet wird. :freak:
 
Herdware schrieb:
Warum?
Ich kenne mich mit Online-Shootern zugegebenermaßen nicht aus, aber wäre es denn ein Nachteil, wenn man z.B. einen Gegner im Schatten besser erkennen kann?

Wobei es bei HDR halt generell um Bildqualität geht. Je kontrastreicher ein Bild ist, um so besser sieht es aus. Kontrast/Dynamikumfang ist eines der wichtigsten Kriterien für subjektive Bildqualität. Viel wichtiger als z.B. Auflösung.
Wenn man sich einmal an HDR gewöhnt hat will man nicht mehr drauf verzichten. Ist so eine Sache, die man selbst ausprobiert haben muss. Wie SSDs oder VR. ;)

Der Schatten ist in Games leider nicht wie im echten Leben, also der Realität. Er ist in Games einfach Schwarz, zu Schwarz. Je mehr Kontrast desto schwarzer wirds und ich habe nur ein altes TN Panel. Verzichtet man auf Kontrast so hat man in Hellen Scenen einen Grauschleier. Mit der jeweiligen Technik wird das ganze noch schlimmer. Aber möglicherweise wird das mit HDR besser.

Fakt ist der Schatten in der Realität sieht bei Tageslicht völlig anders aus meiner Meinung nach.
 
Da lobe ich mir mein madvr in verbindung vom epson 9300.. dynamisches hdr ala dolby vision. Jedes
Bild wird neu berechnet. Da gibt es kein zu helles oder zu dunkles Bild.
 
Hallo,

was haben denn hier die Lobbyisten wieder verbrochen?
HDR Standard schön und gut aber eine 3fache Unterteilung, totaler Nonsens.
Entweder ist er komplett HDR tauglich oder eben nicht. Da zwischen gibt nichts.
Wer meint die Unterteilung wäre gut, der soll sich mal mit HDR beschäftigen.
Die Unterteilung dient doch nur dazu Schrottmonitore noch als HDR fähig verkaufen zu können.
 
pmkrefeld schrieb:

Geiles Teil, leider außerhalb meines Preisbereichs :D Falls noch nicht passiert, schau dir mal die UHDBD von Prometheus an ;)

Habe mir vom Weihnachtsgeld dieses Jahr den Sony xe9005 geleistet und mir vorher nicht viel von HDR erwartet und selbst mit dem "Einstiegsgerät" hat es mich voll aus den Socken gehauen. Weniger Dynamikumfang und Helligkeit dürfte es aber auch nicht sein, und der leistet im peak schon knappe 850 nits. Alles darunter wird nur zu Enttäuschungen führen.
SDR Bild sieht im Vergleich einfach ausgewaschen und wesentlich unplastischer aus.

Schön, dass such hier auch was im Monitorbereich tut :)
 
Na Prost, Mahlzeit.

Findet man heutzutage unter 1.000euro kaum tolle Monitore wie einen 21:9 30-34" wqhd mit 100hz wird das mit dem Siegel ja teils unmöglich. Wahlweise in 4K mit 100hz gibts auch nix ohne das man die Hosen komplett runter lassen müsste.

Auf mich bezogen heißt das, das ich dann einen 30-34" Monitor mit wqhd, ips, 100hz(wenn möglich gsync) und dazu noch hdr600 wenn nicht 1000 suche ....

Der Preis wird sich dann irgendwo bei 2.000euro + einordnen....

Vielleicht Pfeif ich dann auch ganz drauf und spiele dann die 3Spiele die ich noch daddel am tv direkt in 4K und investiere in die nächste graka Generation.

Beim arbeiten hätte ich zwar auch super gern 100hz +21:9 aber bei den Preisen ist das echt schwer vertretbar für den Desktopbetrieb.

Gefühlt bekommt man ja heute noch den selben Mist auf dem monitormarkt angedreht wie vor 6jahren und das für den selben oder zu höheren Preisen.

Einfach ne extrem schlechte Zeit für nen Monitorkauf.

Mich regen ja auch schon die HDMI 2.1 Sachen auf, da kann ich dann nur wegen der Stecker mein doch recht brauchbares Heimkino auf lange Sicht erneuern... während ARD und ZDF weiter in 720p senden und das bis mind 2022😉
 
Zuletzt bearbeitet:
stoeggich schrieb:
Was ist dann drann jetzt besser im vergleich zu HDR10 und Ultra HD Premium was HDR10 vorraus setzt.

HDR10 ist ein freier Standard für die Metadaten von HDR-Inhalten. Derzeit quasi der kleinste gemeinsame Nenner, den alle HDR-Geräte unterstützen. (Daneben gibt es noch andere Formate, z.B. Dolby Vision, das zusätzlich dynamische Metadaten bietet, aber proprietär ist.)
HDR10-Support sagt erst mal nichts über die Eigenschaften eines Displays aus, außer dass es HDR10-Daten irgendwie wiedergeben kann.

Ultra HD Premium definiert darüber hinaus auch ein paar technische Eigenschaften des Fernsehers (Helligkeit, Kontrast, Farbraum usw.), die einen gewissen Mindeststandard darstellen, der sicherstellen soll, dass einem die UHD/HDR-Inhalte auch wirklich einen Mehrwert bieten.

Die neuen Vesa-Standards tun wohl das selbe für Computer-Monitore. Ein Unterschied zu Ultra HD Premium scheint dabei z.B. zu sein, dass das auch Reaktionszeiten mit einschließt.
Fernseher neigen ja dazu, die Eingangsdaten erst mal durch eine Menge Nachbearbeitungsprozesse zu jagen, die die sich auf die Bildqualität auswirken, aber die Latenz erhöhen. Das ist bei Film, Fernsehen und Streaming egal, aber bei Computerspielen sehr schlecht. Da muss man dann eher etwas Bildqualität Kompromisse machen für eine niedrige Reaktionszeit/Input Lag.

Pizza-König schrieb:
Für mich bedeutet das, daß ich selbst bei Monitoren mit HDR1000 Zertifikat jedes Mal noch genauer nachhaken muss, um herauszufinden, ob das Teil überhaupt was taugt. Damit hat die Kennzeichnungen ihren Sinn irgendwie verfehlt.

Das stimmt und ist bei den derzeitigen Standards für Fernseher auch nicht anders. Das perfekte HDR-Display gibt es bisher noch nicht. Selbst Studiomonitore haben noch gewisse Einschränkungen. Man muss also immer Kompromisse machen und sich z.B. zwischen dem perfekten Schwarz (ohne Blooming) eines OLED und der höheren Helligkeit entscheiden, die gute LCD mit Hintergrundbeleuchtung hinbekommen können.

Daneben gibt es noch zahlreichen andere Details, wo sich die Geräte unterscheiden. Z.B. wie gut sie niedrigere Auflösungen skalieren können, wie gut sie Kompressionsartefakte unterdrücken, ob und wie sie bei niedrigen Frameraten für flüssigere Darstellung sorgen können usw.
Oder z.B. auch, wie ein HDR-Monitor reagiert, wenn er einen HDR-Inhalt wiedergibt, der mehr Helligkeit erfordert, als er bieten kann. Also ob ob eher in hellen oder eher in dunkleren Bildbereichen Details verschluckt werden sollen usw.Jeder Hersteller geht da etwas anders an die Sache heran. Deshalb sind z.B. auch die aktuellen OLED-TVs, die fast alle die selben (LG-)Panel nutzen, doch wieder unterschiedlich in Sachen Bildqualität und haben verschiedene Stärken und Schwächen. Nur durch andere SoCs, Software und Einstellungen (z.B. Mappingtabellen).

Ich sehe keine Chance, dass es irgendwann mal ein einfaches Logo geben wird, nach dem man ganz allein seine Kaufentscheidung treffen könnte. Wenn man nicht die Katze im Sack kaufen will, muss man sich immer im Detail informieren.

IronAngel schrieb:
Der Schatten ist in Games leider nicht wie im echten Leben, also der Realität. Er ist in Games einfach Schwarz, zu Schwarz. Je mehr Kontrast desto schwarzer wirds und ich habe nur ein altes TN Panel. Verzichtet man auf Kontrast so hat man in Hellen Scenen einen Grauschleier. Mit der jeweiligen Technik wird das ganze noch schlimmer. Aber möglicherweise wird das mit HDR besser.

Ganz genau darum geht es bei HDR. Entsprechende Inhalte und ein gutes HDR-Display vorausgesetzt, kann man in einer Szene gleichzeitig sowohl in dunklen als auch in hellen Bildbereichen alle Details erkennen. Und man hat gleichzeitig perfektes Schwarz und helle Lichter. Richtige Lichter z.B. bei einem Sternenhimmel oder Scheinwerfern in der Nacht usw., nicht nur mehr oder weniger weiße Punkte auf grauem Hintergrund.

Der Effekt ist absolut genial. Für mich ist der Sprung in der Bildqualität SDR>HDR mindestens so bedeutend, wie der von DVD-Qualität zu FullHD und auf jeden Fall sehr viel spürbarer, als der von FullHD zu UHD.
Ich habe einige UHD/HDR-Filme, die nur von 2K-Ausgangsmaterial hoch skaliert sind, aber trotzdem umwerfend aussehen, nur wegen HDR. Z.B. Guardians of the Galaxy 2.
 
Ich frage mich immer warum alle immer noch heller haben wollen. Ich habe meinen Monitor auf 8% Helligkeit stehen, weil mir das sonst zu hell ist. Kontrast können wir nicht genug haben, allerdings habe ich noch nicht verstanden, wie der Kontrast auf Wunsch von HDR besser wird. Das kann ja nur dynamischer Kontrast sein und ist damit eigentlich witzlos.
 
stoeggich schrieb:
Was ist dann drann jetzt besser im vergleich zu HDR10 und Ultra HD Premium was HDR10 vorraus setzt.

Sorgt nur für mehr Verwirrung
Was besser ist? Für Verbraucher nichts.....für Hersteller alles, die dürfen jetzt auf ihre alten schrottigen Ladenhüter monitore das HDR logo draufkleben.
Der Saturn kunde wird sich sagen: Whau!!!! HDR monitor für 150€ krass, nehme ich mit, mein dummer Nachbar hat 2000€ für sein HDR tv bezahlt, was ein dummkopf..."
 
Die HDR 1000 Monitore werden für die nächsten Jahre wohl noch ~2000€ kosten, sieht man ja an den 4k 144Hz 1000 Nits Acer & Asus die irgendwann nächstes Jahr kommen. OK vielleicht wirds noch paar 60Hz Krücken geben die dafür nur 1500€ kosten.

Zumindest für mich nicht in diesem Leben. Für das Geld direkt ein 4K OLED.
 
OLED hat nach wie vor mit Einbrenneffekten zu kämpfen, kann man gut bei den Ausstellern in den Elektro-Märkten sehen, wenn man dort mal einfarbige Bilder zuspielt. Das wird im PC-Betrieb vermutl. schlimmer ausfallen als bei Film und TV.
Ansonsten wäre OLED auch meine erste Wahl.

Der ganze Dimming Kram ob Local oder Direct ist für mich auch nur eine murksige Lösung, gerade im Desktop Betrieb kann es nerven wenn man ein kleineres Fenster öffnet und sich ein Teil oder der Rest z.B. vom Hintergrundbild heller oder dunkler wird und das ständig je nachdem wo auf dem Monitor sich schnell größere Helligkeitswechsel abspielen. Beim TV und Film nicht ganz so kritisch, beim statischen Desktop schon eher. Wobei es mich auch bei Filmen nervt wenn man sieht das helle Stelle dunkler sind damit der schwarzwert niedriger ist ... naja direct ist da natürlich etwas im Vorteil ... dennoch ist hier nur OLED durch einzelne Pixelansteuerung perfekt.

Die Aufteilung ist für mich auch nicht wirklich sinnvoll, echtes 10bit Panel sollte es doch schon sein und von mir aus 1000nits, wobei das 10bit Panel für mich wichtiger wäre. Entspiegelte Oberfläche wäre aber z.B. bei größeren Monitoren auch mal ganz nett.
 
Solange die zertifizerten Monitore >500€ kosten bei 27" ist mir der neue Standard ziemlich egal :rolleyes:
 
Zuletzt bearbeitet: (typo fixed)
pmkrefeld schrieb:
Ich hab mir am Cyber/Black/Week/Monday/Friday mal den Sony A1 gegönnt (die LG OLEDs waren alle ausverkauft :P), ist glaube ich der hellste OLED mit 1000cd/m2 und wird nur von den neuen Spitzenmodellen von Samsung übertroffen die sogar bis zu 1500cd/m2 erreichen.
Zum Vergleich habe ich noch einen Einstiegs-Samsung-HDR (der hat halt nur 1/3 gekostet).

Während beim Samsung von dem HDR kaum was zu merken ist (man fragt sich echt ob HDR an ist oder nicht), fällt einem bei dem A1 schon mal die Kinnlade runter :)

Ein paar Beispiele:

Punisher (Netflix/4K/HDR) - Einer der Protagonisten steht vor einem Fenster, innen ist es eher dunkel während es draußen sehr hell ist, das Fenster ist so hell dass das Tageslicht blendet (und das ist keineswegs eine Übertreibung). Gleichzeitig sind alle Details des Himmels als auch des Protagonisten sehr gut zu erkennen.

Punisher (Netflix/4K/HDR) - Kommandozentrale der Protagonisten, der Raum ist ziemlich dunkel, an der Decke hängen einige industrielle Lampen. Hier gibt es einen erstaunlichen Effekt, die Lampen sind nämlich so hell dass sie nicht wie ein Teil eines Bildschirms wirken sondern eine eigenständige Lichtquelle.

Gran Turismo Sport (PS4 Pro/HDR) - Ist für mich Stand heute das am besten aussehende Spiel, Punkt. Es gibt so viele Situationen in denen HDR hier einen enormen Unterschied ausmacht: Reflektionen der Sonne auf einen gegnerischen Fahrzeug, das Herausfahren aus einem dunklen Tunnel ins Tageslicht oder das Aufblitzen der Sonnenstrahlen wenn diese durch die Szenerie verdeckt wird, die Scheinwerfer bei Nachtfahrten, usw.
Dann kommt noch der Fotomodus bei dem es nicht zu erkennen ist ob die Autos echt sind oder nicht.

Ich selbst habe bisher das Thema 'HDR' in der gleichen Schublade gesehen wie 3D-Filme, es waren für mich beides Totgeburten. Seitdem ich das aber selbst erleben durfte bekomme ich nicht genug davon, leider sind entsprechende Inhalte noch sehr selten.

Das VESA jetzt entsprechende Standards definiert ist eine sehr gute Entwicklung, hoffentlich sehen wir bald noch viel mehr davon :D

Der Sony A1 kommt nur auf 750cd/m2 in nem kleinen fenster auf dem bildschirm und 135cd/m2 im vollbild ;) mein Samsung kommt auf 1400cd/m2, dafür ist der schwarzwert klar einiges besser trotz das meiner Full Array Backlight hat.
OLEDs werden hoffentlich die nächsten 2 Jahre die 1000Nits erreichen.

http://www.hdtvtest.co.uk/news/kd65a1-201706044471.htm
 
Ich finde so helle Monitore nicht so toll. Für Vielnutzer jedenfalls nicht so gut für die Augen.
 
Du sollst dir damit ja auch nicht 10h weisse flächen anschauen.

1000nits sind spitzenwerte die liegen nicht immer an nur wenns gebraucht wird Sonne z.b.

Aber ich finde es auch affig 10verschiedene HDR Versionen das war auch der tot für 3d da es x verschiedene version gab.

Würde mich nicht wundern wenn von HDR in 5Jahren keiner mehr was drüber verliert.
 
Ich habe auch seit kurzem einen Sony 49XE9005 und kann den WOW-Effekt der Helligkeit nur bestätigen. Z.B. zweite Folge von Godless auf Netflix, wo die Minengesellschaft mit den Ladies von La Belle im Esszimmer sind. Der Raum selbst ist nicht übermäßig hell, die Kerzen am Tisch leuchten jedoch richtig heraus.

Oder Forza 7, bin letztens auf der Nordschleife über eine Kuppe gefahren und musste die Augen zusammen kneifen wegen der Sonne.
 
Zurück
Oben