HDR erst ab 1000Nit echtes HDR?

Sele1981

Cadet 4th Year
Registriert
Mai 2014
Beiträge
65
Hi,

gerade was HDR angeht herrscht ja noch einiges an Chaos am Monitor Markt. Aber ich bin nach wie vor verwirrt ob ein HDR Monitor nur dann HDR liefern kann wenn er 1000Nit beherrscht? Auf dieser Seite wird das zumindest behauptet. Oder reichen vielleicht doch auch 500Nit da Monitore generell ja kleiner sind als Fernseher?

Gerade der LG 32UD99-W wird ja mit HDR10 beworben. Und auch Prad schreibt das er, dank 500 cd/m², HDR kann.
 
Für mich brauch es für echtes HDR neben einer hohen Nits zahl auch nen echtes 10bit Panel, leider haben da viele auch nur nen 8bit Panel verbaut.

Meine Meinung dazu ist, warte ab und kauf dann was anständiges als jetzt gezwungenermaßen nen 500nits Monitor zu kaufen.
 
  • Gefällt mir
Reaktionen: Flaimbot
Die Leuchtdichte ist eine Einheit pro Fläche, also auch ein kleiner Monitor muss eine hohe Leuchtdichte haben

Für gutes HDR braucht es zwei bzw. drei Punkte:
1. Eine hohe maximal Helligkeit
2. einen guten Schwarzwert
Aus 1. und 2. ergibst sich also, das ein guter HDR TV einen hohen Kontrast haben muss. Es bringt nix, wenn der TV mit 1000 cd/m² leuchten kann, wenn das Schwarz eher ein leuchtendes Grau ist.
3. Wie von KenshiHH schon erwähnt, sollte der TV auch ein 10bit oder gar 12bit Panel haben um den hohen Kontrast auch ausnutzen zu können.

Ab welche Leuchtdichte ein TV/Monitor wirklich hell genug ist, kommt auch ein wenig drauf an, wie man ihn einsetzt. Für Anwendungen in einem hellen Raum bzw. Tagsüber muss der TV heller sein, als für dunkle Räume oder abends. Wobei das auch für "normel" SDR TV/Monitore gilt.
 
Danke!

Also sind diese HDR10 Monitore mit 300 cd/m² die gerade den Markt überschwemmen "Fake HDR" Monitore??
 
Für PC Monitore gibts HDR mit 400 ,600 und 1000 cd/m2‎ als Spezifikation .Alles unter 400 cd/m2‎ ist schon mal reines Fakemarketing .Ein 10bit Panel ist auch für mein Verständniss als Grundvorraussetzung für HDR anzusehen um den erweiterten Farb und Kontrastumfang korrekt zu gewärleisten .Ebenso wie min. 600 Nits als alternativ Wert als noch halbwegs brauchbare Untergrenze angegeben sein sollte 1000 oder als Peak sogar kurzfristig höher sind Spitzenwerte .Da auch Dolby Vision Panels mit 10bit vorraussetzt dazu besser aussieht und 12bit Panel sehr rar und oder extrem teuer sind ist hier echtes 10bit statt 8bit+Frc schon OK .
 
Zuletzt bearbeitet von einem Moderator:
Yep und das ekelhafte ist dass selbst für HDR 1000 nur nen 8 bit Panel mit dithering nötig ist also fake 10bit, rein auf HDR 1000 kann man sich daher nicht verlassen.


Und ja, aktuell massig "fake" HDR Monitore aufm Markt, die HDR10 Monitore werden damit beworben nur weil sie das Signal verarbeiten können bzw es verstehen aber nicht mal im entferntesten ausgeben können.
 
????? Entweder 8bit+Frc Panel oder echtes 10bit Panel ohne Frc dazu und ja es ist im direkten Vergleich sichtbar da der Farb und Kontrastumfang beider Paneltypen nicht identisch ist .
 
Danke für die Erklärung. Bin da nicht mehr auf dem Laufenden und bringe scheinbar Dinge durcheinander. Ich ging fälschlicherweise davon aus, dass das FRC ist in der vorgeschalteten Elektronik sitz, also unabhängig ist vom verbauten Panel.

Noch eine Verständnisfrage, welche für den TE evtl. auch interessant sein dürfte. Du sagst dass ein 10bit Panel einen höheren Farb- und Kontrastumfang hat als ein 8bit Panel. Aber die Bit-Zahl beschreibt doch nur die Anzahl der möglichen (Farb-)Abstufungen und nicht den (Farb-)Umfang? Ich denke der Farbumfang wird durch die verschiedenen Farbräume (sRGB, Adobe RGB, DCI-P3, usw.) beschrieben. Oder?
Und es beschreibt auch nicht die Farbtreue oder?
 
Ja hätte korrekt Farbtiefe ausschreiben sollen um Missverständnisse zu vermeiden .8bit 256 zu 10bit 1024 Abstufungen .
 
HDR ist Auflösungsunabhängig.

Und das Panel ist 8 Bit plus FRC. Also pseudo 10 Bit.
 
Es spricht nichts gegen 8Bit mit FRC, wenn die Frequenz hoch genug ist sieht niemand einen Unterschied...
 
Bei gutem Kontrast sollten 400-600 nits ausreichend sein (eher 600 als 400).
LG OLEDs kommen afaik (zu faul zum googeln) auch nur auf 400-500. Durch die Einzelabschaltung ist schwarz aber halt eben auch wirklich schwarz.
Bei nicht-OLED würd ich unter 500 nicht anfangen zu suchen.
 
Hallo,
ich bin wahrlich kein Profi. Ich zitiere mal eine Textpassage (auch um herauszufinden ob mein Gedankengang Korrekt ist).

"DCI-P3 allein macht aber noch keinen HDR-Monitor aus. Die Maximalhelligkeit gängiger Standardmonitore liegt bei 350 cd/m². Um den Dynamikumfang zu erhöhen, reicht es nicht aus, hier die Maximalhelligkeit nach oben zu schrauben. Bei herkömmlichen Displays wird das LED-Backlight als eine einzige Einheit angesteuert. Erhöht man die Display-Helligkeit, geht auch der Schwarzwert nach oben und der Kontrast bleibt letztlich gleich.

Optimal wäre es natürlich, wenn die Helligkeit jedes einzelnen Pixels getrennt angesteuert werden könnte – Stichwort OLED-Technologie. Das ist technisch aber derzeit noch Zukunftsmusik. Der ASUS PA32UC verwendet daher ein lokales Dimming mit 384 Zonen. Abhängig vom Bildinhalt führt das natürlich zu unerwünschten Effekten, wenn in ein und derselben Zone sehr helle und sehr dunkle Inhalte angezeigt werden sollen."

Für mich liest sich das so, dass HDR aktuell in den Kinderschuhen steckt und die Monitore, welche das unterstützen in wenigen Jahren "wirklich alt" aussehen werden. 384 Zonen (ca. 8 Mio Pixel /384 -> ca. 20000) unterschiedlich beleuchtet, reicht das überhaupt? Stelle mir das Bild welches dabei rauskommt ziehmlich unnatürlich mit übertriebenem Bling Bling vor. Bei OLEDs ist das für mich ein anderes Ding, aber hier glaube ich entweder: 1)Es wird stark verbessert und erst damit wirklich gut oder 2) Ein Ähnliches Schicksal wie 3D- Fernseher/Monitore erleiden (Anfangs gehypt, später Sackgasse)
 
Ich habe mir den Asus PA32UC bestellt, er kommt morgen oder übermorgen an, ich werde dann mal berichten wie er sich im Gegensatz zu meinem OLED Fernseher schlägt. Auf OLED ist HDR auf jeden Fall sehr schick anzuschauen.
 
Vielleicht weil mir 27" zu klein sind und ich schnelle Reaktionszeiten nicht benötige???
Zudem ist Aktivkühlung ein No Go bei einem Monitor.
 
Es geht um den Inputlag nicht Reaktionszeiten ;).

Zockst du damit nicht ? Selbst wenn nicht das BLB suckt ziemlich für so einen teuren Monitor, siehe prad und pcmonitors. Zudem hat der Monitor PWM, was ziemlich peinlich für so einen Preis ist. Selbst für Leute die nur Grafiken bearbeiten, ist das Teil ziemlich schlecht wie man auf Amazon nachlesen kann.
 
Zuletzt bearbeitet von einem Moderator:
Die Frage ist, wie gut ist der Asus im Vergleich zum Dell UP2718Q. 27 Zoll sind eine gute Größe, dazu ist der Dell einiges günstiger und hat ebenfalls ein sehr gutes Bild laut Tests.

Sind Reaktionszeiten und input-lag (außer für Profi-Spieler) heute überhaupt noch ein Thema? Als tfts neu waren, hatten die so ihre Schwächen aber bei dem technischen Fortschritt sollte doch für normale Spieler so ziemlich jedes Modell zumindest schnell genug reagieren (ein gutes Bild ist da wichtiger, als minimal Schneller).
Ich finde auch 60 HZ völlig ausreichend (früher galt ja 30fps in Fachzeitschriften als flüssig, Crisis z.b. Habe ich damals mit highend bei etwa 30fps gespielt). Ok 40-50 FPS fühlt sich tatsächlich besser an/ist geschmeidiger aber ob jetzt 50 oder 70 oder 120fps? Irgendwann kann, vom Auge mal abgesehen, auch das Gehirn garnicht mehr reagieren. Weis nicht wie Profispieler reize verarbeiten können (vllt. Ist das ja Begabung) aber selbst in schnellen Shootern merke ich oberhalb von 50fps nichts (Ausnahmen: Tearingeffekte, bei z.b. 70fps auf 60hz)

Fernsehgeräte haben ja noch langsamere Reaktionszeiten und Konsolen existieren ja trotzdem.
Ergänzung ()

Habe aktuell übrigens Noch meinen ersten Monitor. Der war Darmals wirklich Oberklasse, ist aber in der Tat nach heutigem Maßstab recht träge.

Ich wette darauf, dass heute jeder Monitor (billigschrott mal ausgenommen) deutlich flotter als mein Dell 2408 WFP ist.

Bildtechnisch muss der sich dank seines Wertigen S-PVA panels immer noch nicht verstecken, aber was Speed angeht ist wahrscheinlich sogar ein medion vom Aldi schneller
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben