Das ist eigentlich genau, was ich meine. Der Artikel ist für mich Schrott. Er macht nur scheinbar Aussagen, mit denen man etwas anfangen kann.
Fangen wir an mit der Bewertung der Peak Brightness, wo HDR10(+) mit Great, aber Dolby Vision mit Excellent angegeben wird. Das Excellent beruht darauf, dass DV das Tone-Mapping im Gerät übergehen kann, statisches und dynamisches Tone-Mapping aber die Spitzenhelligkeiten abdämpfen, um hartes Clipping zu verhindern. Doch was ist nun mit HGiG? Das wird offenbar völlig ignoriert, denn da müsste es dann ebenfalls Excellent heißen, da dabei eben das Tone-Mapping ebenfalls deaktiviert und der Software überlassen wird.
Zudem beziehen sich die Peak-Brightness-Angaben auch auf Videos, die "gemastert" wurden. Spiele werden nicht gemastert, sondern dynamisch berechnet. Und da kann ein Spiel eben auch Frame für Frame oder Szene für Szene sämtliche Pixel on-the-fly anpassen. Damit das passt, sind lediglich die statischen HDR-Metadaten nötig bzw. eine Kalibrierung. Ein Film wird von vornherein für einen bestimmten Nit-Bereich gemastert, ein Spiel kann aber auf jedem System individuell berechnet werden, eben auch basierend auf Metadaten oder Kalibrierung.
Bit-Tiefen finde ich ziemlich uninteressant. 12- statt 10-Bit? Mir völlig wurscht. Ich spiele eh in 8-Bit mit Dithering, vor allem zeigt mir die Kalibrierungssoftware da auch weniger (praktisch gar kein) Banding als mit 10-Bit. Und wenn das OLED-Panel eh nur 10-Bit hat, dann ist das nur noch Augenwischerei, wenn man da irgendwo 12-Bit einstellen kann.
Kurzum, der Artikel brachte mir überhaupt keinen Erkenntnisgewinn. Die Vorteile beziehen sich rein auf Videomaterial und werden unter der Prämisse gesehen, dass HDR10 immer irgendeine Form von Tone-Mapping im Gerät durchführt, was seit HGiG nicht mehr zwingend stimmt.
Aber wer das halt alles nicht weiß, der nimmt nur eine Botschaft mit: Dolby Vision ist "irgendwie besser". Heller, bessere Farben, bessere Abstimmung aufs Gerät. Dass das alles aber auch eigentlich mit HDR10 möglich ist, unterschlägt der Artikel komplett.
PS: Im Prinzip wäre es auch möglich, Dolby Vision rein per Software in HDR10 zu simulieren. HGiG einschalten, Peak-Helligkeit angeben (kalibrieren) und dann kann die Software den gleichen Algorithmus nutzen, um das DV-Tone-Mapping durchzuführen und schönstes Dolby Vision an den TV zu senden, im HDR10-Modus. Es ist eigentlich nur eine Form von dynamischem Software-Tone-Mapping, die ein spezieller Chip vornimmt. Das hat seine Daseinsberechtigung, vor allem weil es funktioniert, ohne dass der Konsument irgendetwas machen muss, aber technisch bessere Resultate erlaubt es nicht wirklich. Auf Videos bezogen müsste man bei HDR10 verschiedene Editionen für verschiedene Peak-Helligkeiten anbieten, was natürlich absurd wäre. Da liefert Dolby Vision wirklich ein nettes Feature, um den eigenen Bildschirm voll auszunutzen. Aber ich kann immer nur wiederholen, dass das alles bei Spielen keinerlei Relevanz hat, da diese sich auch mit HDR10 ebenso dynamisch an den Bildschirm anpassen können wie Dolby Vision das bezogen auf Videos ermöglicht.
PPS: Sorry, wenn das etwas bissig rüberkommt. Das gilt nicht dir, sondern dem Artikel. Wobei der auch nicht wirklich etwas dafür kann. Er behandelt eben das Thema auf ganz anderer Ebene. Gab es 2019 überhaupt schon HGiG? Und Gaming spielte da ja auch keine Rolle bei den Betrachtungen. Aber 2021 bezogen auf Gaming, wenn es um die Sachlage geht, dass die Xbox Dolby Vision unterstützt und man sich beim PC dann fragt, ob man etwas verpasst, dann wird so ein Artikel schnell irreführend, wenn man herausfinden möchte, welche (vermeintlichen) Vorteile Dolby Vision da bietet.