Oje, wo fang ich an. In der Computergrafik ist man genauso an "Aufnahmen" gebunden wie in der Fotografie, es gibt nur Bilddateien mit abstrakten numerischen Werten und Metadaten-Profile, die beschreiben wie diese Werte in physikale Farben zu übersetzen sind. HDR hat mehrere Bedeutungen, je nach Kontext. HDR-rendering gibts in Spielen und der Echtzeitgrafik allgemein seit gut einem Jahrzehnt. Das Ausschlaggebende ist, dass die intern berechnete Beleuchtung einen weit größeren Dynamikumfang, also maximale Helligkeit hat, als der finale Render an den Monitor weitergeben kann. Darum wird ein Tonemapping Algorithmus verwendet, der versucht den internen Helligkeitsumfang in den meist verwendeten sRGB Farbraum des Ausgabebilds zu zwängen. Das alleine bedeutet schon einen deutlichen Sprung in Grafikqualität. Ein Farbraum wie sRGB hat eng definierte Annahmen an die Helligkeit und die damit verbundene Farbintensität, die ein Bildschirm reproduzieren kann. Wenn der Bildschirm aber einen deutlich größeren Umfang abdeckt, sieht das Bild schnell übersättigt aus. Darum gibt es Farbprofil-Management. So, wie kann man jetzt mehr vom tatsächlichen HDR Umfang an den Bildschirm weitergeben? Dazu braucht es zum einen ein Gerät, das hardwareseitig die Voraussetzungen mitbringt (die Offensichtlichste eben hohe Helligkeit), zum anderen muss die jeweilige Anwendung die Fähigkeit besitzen ein HDR Bild-, oder Videoformat zu produzieren, das vom Monitor als solches identifiziert wird.