HDR unterstützung aber nur DP 1.2?

Birnenbaer

Cadet 3rd Year
Registriert
Dez. 2017
Beiträge
54
Hallo zusammen,

Ich habe jetzt endlich meinen neuen Monitor. Asus TUF GAMING VG27AQZ

Aber jetzt wollte ich HDR benutzen, was wohl mein Monitor unterstützt (HDR10), aber Windows sagt es wird nicht unterstützt und ich kann es nicht einschalten.
Dann habe ich nachgeforscht und rausgefunden dass man für HDR einen DP 1.4 braucht, mein Monitor aber wohl nur einen DP 1.2 Anschluss hat. Meine Grafikkarte (Rx6800) kann natürlich DP 1.4 ... Das ist jetzt wirklich ärgerlich.

Wieso hat der Monitor nur einen DP 1.2 wenn er HDR unterstützt.... Ist das denen ihr ernst.

Kann man da was machen?

HDMI würde dann HDR wohl gehen, weil der Monitor HDMI 2.0 Anschlüsse hat, ... aber dann habe ich wieder ein anderes Problem, nämlich Freesync bzw. die max. Bildwiederholfrequenz von 165hz bzw. 144hz geht dann wohl nicht. Oder?

Zum Glück habe ich wohl eine AMD Karte, denn mit G-sync währe ich auf Display Port angewiesen. Aber ich habe gelesen dass man Freesync mit HDMI nutzen kann. Aber dann eben nur 120 HZ.

Oder gilt die 120 Hz begrenzung nur bei 4K auflösung im Zusammenhang mit HDMI?

Könnte ich bei 1440p und HDMI die 144hz und Freesync nutzen?

Und was das Displayport 1.2 Problem angeht. Kann man da noch was machen... oder bin ich jetzt einfach gearscht?

Muss ich mich jetzt entscheiden zwischen 144hz mit Displayport ... oder HDR unterstützung aber dann nur über HDMI und mit max. 120 HZ?

Habt ihr da einen Rat?

Vielen Dank im Vorraus.
 
ich meine einige Hersteller haben HDR bei DP 1.2 "backported", hast du denn HDR in den Monitor Einstellungen aktiviert ?

HDMI ist wieder ein anderer Standard, und da kein HDMI 2.1 integriert ist wird es mit VRR schwer ... wenn statisch ok für dich ist, dann auch das einfach mal testen, laut Handbuch (das gibt es ja ...) kann der Moni bei 1440 bis 144hz

1689483637615.png


bei 4k (was dein Moni ja nicht ist) wäre das was anderes.
 
  • Gefällt mir
Reaktionen: Birnenbaer
Sorry aber damit wirst du kein HDR Erlebnis haben auch wenn es aktiviert ist, erkundige dich bitte was HDR ist und wie es funktioniert, mit so einem Monitor sicher nicht.
 
  • Gefällt mir
Reaktionen: Slayn und GTrash81
Also ich hatte vorher einen full HD 24" 60hz Monitor... Der bekam nach 10 Jahren Betrieb so vertikale Schlieren, bzw. Man sah so mehrere vertikale hellere Striche auf dem Bild. Ich vermute Material Ermüdung.

Und von dem ausgehend ist das ein riesen Sprung der neue Monitor.

Wenn da hdr10 draufsteht dann will ich das auch haben. Mir ist jetzt egal was jetzt wieder irgendwelche HiFi Fans sagen... Von wegen das ist kein HDR ... Danach habe ich nicht gefragt.

Ich möchte einfach in Spielen HDR nutzen können wenn es da die einstellbare Grafikoption gibt.

Dass viele Hersteller dp 1.2 backported haben was HDR angeht... Das wäre wünschenswert.

Ich kann HDR im Monitor nicht aktivieren... Es steht dran dass es ausgeschaltet ist und ist ausgegraut.

Liegt es vielleicht daran, dass ich im AMD Grafiktreiber, die Anzeigenausgabe und Spielegrafik auf 10 Bit gestellt habe, oder dass ich es auf RGB als Ausgangssignal, laufen lasse.

Das ist alles noch neu für mich.
 
nicK-- schrieb:
Sorry aber damit wirst du kein HDR Erlebnis haben auch wenn es aktiviert ist, erkundige dich bitte was HDR ist und wie es funktioniert, mit so einem Monitor sicher nicht.
er schrieb, das der hersteller den monitor für hdr10 "freigegeben" hat und warum das so ist, obwohl der monitor nur dp1.2 hat. dafür muss er sich weder informieren noch sonst was. es geht nur darum, warum ein HDR monitor, im windows nicht mit aktiviertem HDR betrieben werden kann.
@Birnenbaer
hatr der monitor vielleicht für die anschlüsse eine erweiterte einstellung?

mein samsung z.b. ist mit standarft hdmi in 4k max 120fps, der monitor hat aber eine Möglichkeit "erweiterte einstellungen " zu aktivieren, dann kann der hdmi 2.1 auch 144hz. vielleichjt gibt es sowas bei deinem monitor auch.
laut Geizhals Daten Blatt, sollte der HDMI Anschluss HDR mit lfc unterstützen. inwieweit das richtig ist, k.a.
hdmi 2.0a kann hdr
 
  • Gefällt mir
Reaktionen: unique28 und Birnenbaer
Es ist ja nur ein 1440p Monitor... Und da sollte dann theoretisch HDMI 2.0 reichen für 144hz.

Ob es erweiterte Einstellungen gibt kann ich Mal schauen.

Am liebsten wäre es mir wenn ich mit Displayport HDR anzeigen lassen könnte obwohl es nur Dp 1.2 ist.

Vielleicht liegt es auch an dem was ich im Grafik Treiber eingestellt habe.
RGB fullspektrum als Ausgangssignal statt y4:4:4 oder wie das heißt

Im Grafiktreiber kann ich auf 10 Bit stellen... In Windows aber aktuell nicht.
 
HDR scheint scheint bei deinem monitor nur uber HDMI 2.0a möglich zu sein. dazu musst du dann aber auch ein passendes Monitor Kabel kaufen, bzw. auf die Zertifizierung achten.
da kannste aber beim asus support nachfragen und die können dir auch sicher beim kabelkauf helfen, bzw. nen tip geben
 
  • Gefällt mir
Reaktionen: Birnenbaer
Birnenbaer schrieb:
Wenn da hdr10 draufsteht dann will ich das auch haben. Mir ist jetzt egal was jetzt wieder irgendwelche HiFi Fans sagen... Von wegen das ist kein HDR ... Danach habe ich nicht gefragt.
Ich möchte einfach in Spielen HDR nutzen können wenn es da die einstellbare Grafikoption gibt.
Dass viele Hersteller dp 1.2 backported haben was HDR angeht... Das wäre wünschenswert.
Ich kann HDR im Monitor nicht aktivieren... Es steht dran dass es ausgeschaltet ist und ist ausgegraut.
Ich kann dir nur folgendes aus eigenen Erfahrungen berichten. ich besitze diesen Monitor hier

https://geizhals.de/gigabyte-g32qc-a-a2455168.html

Dieser kann zwar nur Display HDR 400 und ich hatte auch eine Zeitlang diese Option unter Windows 10 zur Verfügung und konnte es in den Einstellungen des Betriebssystems aktivieren. Leider geht dies seit einer gewissen Zeit nicht mehr und mein Monitor unterstützt auch nur DP 1.2. Auch unter Windows 11 geht es einfach nicht mehr.

Seit irgendeinem kumulativen Update von Windows steht mir dieses Feature nicht mehr zur Verfügung und auch eine Absenkung der Bitrate im Treiber von AMD von 10 auf 8 Bit Farbtiefe ändert daran nichts. Ich habe auf meiner Platte nur noch ein Spiel, wo ich HDR aktivieren kann und das ist Doom Eternal. Verstehen muss ich das nicht.

Birnenbaer schrieb:
Liegt es vielleicht daran, dass ich im AMD Grafiktreiber, die Anzeigenausgabe und Spielegrafik auf 10 Bit gestellt habe, oder dass ich es auf RGB als Ausgangssignal, laufen lasse.

Korrigiere mich gerade, denn es ist ein Wunder geschehen. Ich habe so eben meine Farbtiefe des Monitors auf 8 Bit zurück gestellt und siehe da, plötzlich kann ich HDR unter den Windows Settings wieder anwählen. Unter 10 Bit Farbtiefe verschwindet diese Einstellungsmöglichkeit einfach.

Trotzdem muss ich sagen das Bild sieht unter HDR im Arbeitsmodus einfach schlechter aus bei meinem Gerät. Liegt wahrscheinlich auch daran, das ich ein VA-Panel habe.

Hast du es schon mal probiert ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Birnenbaer
Birnenbaer schrieb:
Es ist ja nur ein 1440p Monitor... Und da sollte dann theoretisch HDMI 2.0 reichen für 144hz.

Ob es erweiterte Einstellungen gibt kann ich Mal schauen.

Am liebsten wäre es mir wenn ich mit Displayport HDR anzeigen lassen könnte obwohl es nur Dp 1.2 ist.

Vielleicht liegt es auch an dem was ich im Grafik Treiber eingestellt habe.
RGB fullspektrum als Ausgangssignal statt y4:4:4 oder wie das heißt

Im Grafiktreiber kann ich auf 10 Bit stellen... In Windows aber aktuell nicht.
Unter den Windows Settings kann ich HDR nur aktivieren, wenn ich auf 8 Bit Farbtiefe stelle im Treiber von AMD aber die Settings verwirren auch etwas.

Windows muss in seinen eigenen Einstellungen 8 Bit Farbtiefe haben nur dann kann ich HDR dort aktivieren unter DP 1.2 aber im AMD Treiber selber macht es keinen Unterschied, ob ich 8Bit einstelle oder 10 Bit mit full RGB Farbspektrum.

Verstehe ich jetzt auch nicht so ganz, das verwirrt einen schon etwas.
 

Anhänge

  • IMG_20230716_085903.jpg
    IMG_20230716_085903.jpg
    976 KB · Aufrufe: 156
  • IMG_20230716_085928.jpg
    IMG_20230716_085928.jpg
    1,3 MB · Aufrufe: 160
  • Gefällt mir
Reaktionen: Birnenbaer
GTrash81 schrieb:
Der genannte Monitor kann kein HDR.
Maximal Helligkeit laut Datenblatt ist 350cd und HDR fängt erst bei 400cd an.
Auch steht im Datenblatt kein Wort von HDR-Zertifizierung und RTings bestätigt dies:
https://www.rtings.com/monitor/reviews/asus/tuf-vg27aq (zu "HDR Brightness" scrollen)

ja der dort auf deiner Website erwähnte vg27aq kann kein HDR ... aber ich habe den vg27aqz ... und der kann.
Ergänzung ()

Painkiller72 schrieb:
Unter den Windows Settings kann ich HDR nur aktivieren, wenn ich auf 8 Bit Farbtiefe stelle im Treiber von AMD aber die Settings verwirren auch etwas.

Windows muss in seinen eigenen Einstellungen 8 Bit Farbtiefe haben nur dann kann ich HDR dort aktivieren unter DP 1.2 aber im AMD Treiber selber macht es keinen Unterschied, ob ich 8Bit einstelle oder 10 Bit mit full RGB Farbspektrum.

Verstehe ich jetzt auch nicht so ganz, das verwirrt einen schon etwas.

Danke für deinen Tipp vorhin ... ich habe mal alles auf 8bit gestellt im AMD Treiber... sowohl den Punkt bei der Grafik ... als auch den unter Anzeige ... einmal neustart und ich konnte plötzlich auf HDR stellen in Windows ...

In der Monitor Info Stand HDR aktiv mit 8bit Dithering ... was auch immer Dithering bedeutet.

Ich bin dann nochmal in den AMD Treiber gegangen und habe gelesen dass sich diese 10 Bit Option unter dem Reiter Grafik ... mit HDR gegenseitig ausschließt. Das heißt diese Einstellung im AMD Treiber hat HDR bei mir verhindert.
Scheinbar kann ich jetzt doch HDR ... trotz DP 1.2
Die andere Option mit 10bit im AMD Treiber ... unter dem Reiter Anzeige ... den habe ich jetzt auch wieder eingeschalten und WOW ...es ging.

Was lernen wir daraus ... nicht irgendwelche Sachen im AMD Treiber einschalten wenn man nicht weiß was die machen.

Jetzt steht im Windows Info Fenster zu meinem Monitor ... Farbraum HDR ... 10 Bit Farbtiefe - 120hz - 1440p und maximale Helligkeit ist 603 Nits ... laut Windows Info Fenster ... also alles super zwecks HDR und Helligkeit.

Ich hoffe du bekommst das mit deinem Monitor auch noch hin dass er HDR mit 10 Bit Farbtiefe hinbekommt. Aber wichtig ... die 10 Bit Farbtiefe nur unter Anzeige einschalten ... falls du eine AMD Grafikkarte hast. Denn Laut recherche macht HDR nur Sinn wenn du auch die 10bit Farbtiefe an hast.

Kleiner Wermutstropfen bei mir noch ... Mit HDR und 10bit Farbtiefe kann ich maximal 120hz anschalten. Wenn ich auf 144hz hochgehe ... dann schaltet er runter auf 8bit Farbtiefe mit Dithering

Da kommt dann wohl der DisplayPort 1.2 vermutlich an seine Grenzen. Vielleicht würde es mit HDMI gehen aber da weiß ich dann wieder nicht wie es mit Freesync ist.

Aber was solls ... ich bin zufrieden ... dann eben nur 120 Hz und dafür HDR mit 10bit Farbtiefe und Freesync geht auch noch ...

Vielen Dank an alle ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Painkiller72
Birnenbaer schrieb:
Jetzt steht im Windows Info Fenster zu meinem Monitor ... Farbraum HDR ... 10 Bit Farbtiefe - 120hz - 1440p und maximale Helligkeit ist 603 Nits
So ist es. Und was lernen wir daraus?
Die Angabe der max. Helligkeit in den Monitor-Spezifikationen bezieht sich auf die max. Helligkeit AUSSERHALB der HDR-Nutzung!

Ist bei meinem auch so. Spezifikations-Angabe: 350 Nits, schalte ich aber HDR an, gehts rauf auf 1000 Nits.
 
  • Gefällt mir
Reaktionen: Birnenbaer
Painkiller72 schrieb:
Unter 10 Bit Farbtiefe verschwindet diese Einstellungsmöglichkeit einfach
Mit der Farbtiefe hat HDR aber nichts zu tun. Mein Moni ist z.b. nur mit 10 Bit ausgestattet (echte 10, kein FCR) und HDR (hdr400/in gams HDR10) geht trotzdem. Tipp
 
  • Gefällt mir
Reaktionen: Painkiller72
Mit der Farbtiefe hat HDR aber nichts zu tun. Mein Moni ist z.b. nur mit 10 Bit ausgestattet (echte 10, kein FCR) und HDR (hdr400/in gams HDR10) geht trotzdem. Tipp

Also ich weiß jetzt nicht genau was du mir mit deinem kurzen Post sagen wolltest, Aber das HDR und Farbtiefe zwei verschiedene Sachen sind, habe ich oben schon geschrieben und das wusste ich auch schon vorher.
Alles was ich jetzt Herausgefunden und recherchiert habe ist:
HDR ist der Farbraum ... wie ich oben schon sagte... Und 10bit ist die Farbtiefe. Man könnte es auch 40bit Farbtiefe nennen (1Billion Farben) statt 32bit (16,7 Millionen Farben). HDR mit 8bit macht keinen Sinn. Windows meldet zwar dass HDR an ist, aber der Monitor kann das Bild so nicht darstellen, weil zu HDR auch das größere Farbspektrum gehört, mit mehr Abstufungen, und nicht nur ein weißeres Weiß oder ein schwarzes Schwarz. Alle HDR Normen und auch HDR Material geben mindestestens eine 10bit Farbtiefe vor für die Wiedergabe. Der Standard HDR10 benötigt 10Bit Farbtiefe, daher auch der Name. HDR mit 8bit Dithering versucht irgendwelche Farben, die es nicht darstellen kann, zu interpolieren. Aber das kann man nicht mit 10bit Farbtiefe vergleichen. Und es gibt ja auch schon HDR mit 12 bit, was vielliecht in Zukunft der Standard für HDR werden wird.
Jedenfalls werde ich nicht auf 10 Bit Farbtiefe verzichten im HDR Modus... dann lass ich lieber meinen Monitor nur mit 120 Hz laufen statt 144 Hz.
Das Zitat ... da ging es um AMD Treibereinstellungen im Reiter Grafik, die HDR verhindern oder sich gegenseitig ausschließen. Aber nur beim Reiter Grafik ... nicht bei Anzeige ... Ich glaube bei dieser 10bit einstellung ging es irgendwie auch um OpenGL 10bit ... und das hat wohl HDR in Windows blockiert.
 
'10-Bit-Pixelformat' heißt die Einstellung und ist für OpenGL zuständig und kann nicht mit HDR genutzt werden bzw. umgedreht. Diese Einstellung krallt sich auch noch zusätlich VRAM, wenn sie eingeschalten ist.
 
  • Gefällt mir
Reaktionen: Painkiller72 und Birnenbaer
Painkiller72 schrieb:
steht mir dieses Feature nicht mehr zur Verfügung und auch eine Absenkung der Bitrate im Treiber von AMD von 10 auf 8 Bit Farbtiefe ändert daran nichts
Deswegen erwähnte ich das mit HDR und Farbtiefe. Das feature meinte doch HDR, oder?
 
Ich hab da was durcheiander gebracht. Waldheinz erwähnte es ja schon, 10 Bit Pixelformat und 10 Bit Farbtiefe sind natürlich nicht das gleiche.

Hab ich jetzt auch erst durch diesen Thread bemerkt. Ich dachte immer, das mir ein Windows Update die HDR Fähigkeit meines Monitors genommen hätte, dabei war es in dem Fall mangelndes Wissen über diese Funktion und das wenn man auf 10 Bit Pixelformat stellt mein Gigabyte G32QC A Monitor HDR dann nicht mehr unterstützt.

Im Radeon Treiber selber kann ich 6, 8, 10, 12 bpc einstellen und so lange ich auf 8 Bit Pixelformat bleibe unterstützt mein Display damit die HDR 400 Funktion.
 
  • Gefällt mir
Reaktionen: Waldheinz
Zurück
Oben