HDR unter Windows, Howto

VaniKa schrieb:
Aber es wird dann halt so dargestellt, als könne das grundsätzlich mehr und alle plappern von diesen dynamischen Metadaten,

Genau das hab ich bei HGIG auch gehabt .. alle fanden im AVS HGIG toll und empfahlen allem und jedem HGIG ohne aber zu sagen das man auch Dyn. Mapping nehmen kann wenn mans heller haben will.
Alle haben da nur von HIGIG gelabert und wenn man was gegen HGIG sagte ging ne große Diskussion los.
Und das hat auch dazu geführt das ich HGIG weniger mochte.

Das is genau wie diese Warm 2 Sache ... nur Warm 2 is das einzig wahre .. bla bla bla.

VaniKa schrieb:
Es liegt dann ja auch an den Spieleentwicklern, diese Bandbreite optimal und eben "dynamisch" zu nutzen, Frame für Frame, Pixel für Pixel.

Jepp ... so versteh ich das auch .... bis auf die Pixel für Pixel sache so umständlich is das sicher nich.
Aber du kannst dich da ja weiter reinfuchsen ... und vielleicht auch mal das eine oder andere Youtube Video dir anschauen wo das jemand erklärt oder sowas.
 
Stagefire schrieb:
Alle haben da nur von HIGIG gelabert und wenn man was gegen HGIG sagte ging ne große Diskussion los.
HGiG ist halt in dem Sinne eine echt sinnvolle Neuerung, dass es eine ähnliche Kontrolle über das Bild erlaubt wie Dolby Vision (oder anscheinend auch HDR10+) ohne dass ein neuerer Standard als HDR10 nötig wäre. Das ist verdammt cool. Objektiv gesehen ist damit das beste Bild möglich, weil die Diskrepanz zwischen dem, was ein Spiel sendet, und dem, was ein Bildschirm anzeigt, minimiert wird. Der subjektive Geschmack kann natürlich trotzdem davon abweichen und man kann sich aus Gründen, die man selbst wichtiger bewertet, anders entscheiden. Bloß erübrigt sich damit auch automatisch eine Diskussion darüber.

Stagefire schrieb:
Das is genau wie diese Warm 2 Sache ... nur Warm 2 is das einzig wahre .. bla bla bla.
Ja, das verstehe ich auch überhaupt nicht. Es heißt, Warm 2 (oder Warm 50) sei akkurater, aber wie kann das sein? Das Weiß in der neutralen Position empfinde ich als echtes Weiß. Ich sehe da auch keinen Blaustich. Warm 2 bzw. 50 empfinde ich hingegen als total vergilbt. Es heißt, man bräuchte ein paar Tage, um sich daran zu gewöhnen, aber es bleibt doch trotzdem vergilbt, auch wenn einem das dann nicht mehr auffällt. Ich lasse da jedenfalls den Regler auf 0, allein schon, weil ich den Blauanteil im Licht auch nicht senken will.
 
VaniKa schrieb:
HGiG ist halt in dem Sinne eine echt sinnvolle Neuerung, dass es eine ähnliche Kontrolle über das Bild erlaubt wie Dolby Vision (oder anscheinend auch HDR10+) ohne dass ein neuerer Standard als HDR10 nötig wäre. Das ist verdammt cool.

Mir ging dieses Hochloben halt aufn Zeiger während halt Dyn. Mapping Schlecht geredet wurde.
Mittlerweile seh ich die Sache etwas entspannter und nutze auch etwas mehr HGIG.
Aber mir ging dieses HGIG Sekten verhalten halt aufn Zeiger.

VaniKa schrieb:
Ja, das verstehe ich auch überhaupt nicht. Es heißt, Warm 2 (oder Warm 50) sei akkurater, aber wie kann das sein?

Puh frag mich nich .. alle labern jedenfalls davon genau wie von HGIG .. es geht bei Warm 2 ja mehr um die Farb darstellung und nur Warm 2 erzeugt den "Creators Intend" Und der Creator is Gott für die und Gott sagt ihnen sie sollen Warm 2 nehmen.

.. aber mir is das Warm 2 Bild zu dunkel und zu Rötlich.
Ich geh höchstens auf Warm 1 bin aber meist auf Mittel weil ich ein helleres Bild haben möchte.

Man verliert Pro Stufe runter bis zu Warm 3 etwa 30 - 50 Nits Pro Stufe und ich will ja eher Nits dazu gewinnen und nich verlieren.

Ich nehm das was mir Persönlich am besten gefällt und mir is das schnuppe wie sich der "Ersteller"
das vorgestellt hat.

Ich komme dann immer mit dem Totschlagargument "Modding" also Textur Mods , Reshade Profile ,
Beleuchtungs Mods usw. Da Antworten sie dann nich mehr drauf weil sie Schachmatt sind. Und dann is wieder ruhe. Weil durch Modding ändert man ja auch den "Creators Intend" und die die dem Gott folgen dürften dann ja auch keine Mods nutzen den sie würden ja sonst gegen den "Creators intend" verstoßen.

Gibt halt schon komische Hansels im OLED Bereich.

VaniKa schrieb:
Das Weiß in der neutralen Position empfinde ich als echtes Weiß. Ich sehe da auch keinen Blaustich. Warm 2 bzw. 50 empfinde ich hingegen als total vergilbt.

Einen Blaustich gibts da auch nich .. der Blau Ton in den Kälteren Bereichen bringt einfach nur Bildhelligkeit während der Rot Ton in den wärmeren Bereichen eher Dunkelheit bringt.
 
Zuletzt bearbeitet:
Stagefire schrieb:
es geht bei Warm 2 ja mehr um die Farb darstellung und nur Warm 2 erzeugt den "Creators Intend"
Okay, dieser gemütliche Film-Look aus Amerika, verstehe. Kann ich dennoch drauf verzichten. Ein Spiel soll für mich ja auch nicht wie ein Film aussehen. Aber das sehen manche für sich vielleicht anders.

Stagefire schrieb:
Gibt halt schon komische Hansels im OLED Bereich.
Hab das mal korrigiert. 😉
 
VaniKa schrieb:
Okay, dieser gemütliche Film-Look aus Amerika, verstehe. Kann ich dennoch drauf verzichten. Ein Spiel soll für mich ja auch nicht wie ein Film aussehen. Aber das sehen manche für sich vielleicht anders.

Jupp .. das is irgendwie mehr für den Film Bereich und die haben das aber auch fürs Zocken übernommen.
Ich bin jedenfalls ein Fan davon jeden seinen TV/Monitor so einstellen zu lassen wie er möchte.
Ausser bei so Sicherheits Geschichten da versteh ich das wenn Leute darauf hinweisen

Akkurat is bei dennen nur Farbe 50 , Warm 2 , HGIG , Helligkeit 50

Das man bei HDR das OLED Light auf 100 lassen soll versteh ich ja ... auch die Helligkeit 50 versteh ich .. aber den Rest sollte man nich vorschreiben

VaniKa schrieb:
Hab das mal korrigiert. 😉

Also so Pingelich wie die OLED Leute was diese "Akkurat" Sache angeht hab ich nirgends sonst gesehen .. nur im OLED Bereich.
 
VaniKa schrieb:
Ja, meine Neugier ist eigentlich auch rein akademischer Natur. Ich möchte es halt verstehen des Verstehens wegen.. So wie ich das verstehe, kann halt ein kalibriertes HDR10-Bild im HGiG-Modus genau so viel wie Dolby Vision. Es liegt dann ja auch an den Spieleentwicklern, diese Bandbreite optimal und eben "dynamisch" zu nutzen, Frame für Frame, Pixel für Pixel.

Schau mal hier :

https://www.rtings.com/tv/learn/hdr10-vs-dolby-vision

Da bekommst du ganz viele Infos unter anderem auch das hier :

22.jpg



Und da haben wir glaub auch den Grund warum @Blackfirehawk Dynamisches Tone Mapping hat. Er hat einen Samsung G7 .. Samsung setzt auf HDR 10+ und HDR 10+ wird da in der Liste mit Dnymisch geführt.
 
Zuletzt bearbeitet:
Das ist eigentlich genau, was ich meine. Der Artikel ist für mich Schrott. Er macht nur scheinbar Aussagen, mit denen man etwas anfangen kann.

Fangen wir an mit der Bewertung der Peak Brightness, wo HDR10(+) mit Great, aber Dolby Vision mit Excellent angegeben wird. Das Excellent beruht darauf, dass DV das Tone-Mapping im Gerät übergehen kann, statisches und dynamisches Tone-Mapping aber die Spitzenhelligkeiten abdämpfen, um hartes Clipping zu verhindern. Doch was ist nun mit HGiG? Das wird offenbar völlig ignoriert, denn da müsste es dann ebenfalls Excellent heißen, da dabei eben das Tone-Mapping ebenfalls deaktiviert und der Software überlassen wird.

Zudem beziehen sich die Peak-Brightness-Angaben auch auf Videos, die "gemastert" wurden. Spiele werden nicht gemastert, sondern dynamisch berechnet. Und da kann ein Spiel eben auch Frame für Frame oder Szene für Szene sämtliche Pixel on-the-fly anpassen. Damit das passt, sind lediglich die statischen HDR-Metadaten nötig bzw. eine Kalibrierung. Ein Film wird von vornherein für einen bestimmten Nit-Bereich gemastert, ein Spiel kann aber auf jedem System individuell berechnet werden, eben auch basierend auf Metadaten oder Kalibrierung.

Bit-Tiefen finde ich ziemlich uninteressant. 12- statt 10-Bit? Mir völlig wurscht. Ich spiele eh in 8-Bit mit Dithering, vor allem zeigt mir die Kalibrierungssoftware da auch weniger (praktisch gar kein) Banding als mit 10-Bit. Und wenn das OLED-Panel eh nur 10-Bit hat, dann ist das nur noch Augenwischerei, wenn man da irgendwo 12-Bit einstellen kann.

Kurzum, der Artikel brachte mir überhaupt keinen Erkenntnisgewinn. Die Vorteile beziehen sich rein auf Videomaterial und werden unter der Prämisse gesehen, dass HDR10 immer irgendeine Form von Tone-Mapping im Gerät durchführt, was seit HGiG nicht mehr zwingend stimmt.

Aber wer das halt alles nicht weiß, der nimmt nur eine Botschaft mit: Dolby Vision ist "irgendwie besser". Heller, bessere Farben, bessere Abstimmung aufs Gerät. Dass das alles aber auch eigentlich mit HDR10 möglich ist, unterschlägt der Artikel komplett.

PS: Im Prinzip wäre es auch möglich, Dolby Vision rein per Software in HDR10 zu simulieren. HGiG einschalten, Peak-Helligkeit angeben (kalibrieren) und dann kann die Software den gleichen Algorithmus nutzen, um das DV-Tone-Mapping durchzuführen und schönstes Dolby Vision an den TV zu senden, im HDR10-Modus. Es ist eigentlich nur eine Form von dynamischem Software-Tone-Mapping, die ein spezieller Chip vornimmt. Das hat seine Daseinsberechtigung, vor allem weil es funktioniert, ohne dass der Konsument irgendetwas machen muss, aber technisch bessere Resultate erlaubt es nicht wirklich. Auf Videos bezogen müsste man bei HDR10 verschiedene Editionen für verschiedene Peak-Helligkeiten anbieten, was natürlich absurd wäre. Da liefert Dolby Vision wirklich ein nettes Feature, um den eigenen Bildschirm voll auszunutzen. Aber ich kann immer nur wiederholen, dass das alles bei Spielen keinerlei Relevanz hat, da diese sich auch mit HDR10 ebenso dynamisch an den Bildschirm anpassen können wie Dolby Vision das bezogen auf Videos ermöglicht.

PPS: Sorry, wenn das etwas bissig rüberkommt. Das gilt nicht dir, sondern dem Artikel. Wobei der auch nicht wirklich etwas dafür kann. Er behandelt eben das Thema auf ganz anderer Ebene. Gab es 2019 überhaupt schon HGiG? Und Gaming spielte da ja auch keine Rolle bei den Betrachtungen. Aber 2021 bezogen auf Gaming, wenn es um die Sachlage geht, dass die Xbox Dolby Vision unterstützt und man sich beim PC dann fragt, ob man etwas verpasst, dann wird so ein Artikel schnell irreführend, wenn man herausfinden möchte, welche (vermeintlichen) Vorteile Dolby Vision da bietet.
 
Zuletzt bearbeitet:
Das kann gut sein das dass ganze Hersteller spezifisch ist.. wobei alles offene Standarts sind

Dolby Vision nutzt die SMPTE ST 2094-10 dynamischen Metadaten

HDR10+ nutzt die SMPTE ST 2094-40 dynamischen Metadaten.


Ich hab im Moment wie gesagt nur noch die dynamischen HDR Metadaten aktiv (da gibt es 4 verschiedene) .. sowohl colormetrie als auch die statischen Metadaten in CRU gelöscht.
Und hab damit nach meinem Empfinden das tiefste kontrastreiche schwarz bei den hellsten Highlights.
Zumindestens hab ich immer wieder Momente wo ich in Filmen und spielen sogar geblendet werde.. und das trotz nur 600nits


Was das mir warm 1/2 ect angeht.. das hat was mit der Farbtemperatur zu tun.
In der graphischen Industrie (ich bin gelernter Siebdrucker also weis ich das aus erster Hand)
ist es so das alle Farben unter einer Normlicht Lampe betrachtet und gemischt werden.
und diese hat laut internationalen Industriestandard 5500K (Kelvin) Farbtemperatur.
die Farbe des indirekten Sonnenlicht zur Mittagszeit

nimmst du einen RAL oder HKS farbfächer um eine farbe zu bestimmen oder nach Augenmaß zu mischen wird diese je nach betrachtungslicht ganz anders dargestellt.

deswegen ist es wichtig das die Monitore dort kalibriert sind.. damit diese Farbe auf dem Monitor dem Druck bzw Ausgabemedium entspricht.

in der Regel bedeutet am Bildschirm warm/kalt eine Abweichung von diesen 5500Kelvin
eine höhere Farbtemperatur geht ins Warm rötliche..
eine niedrigere ins Kalt blaue.
kalibriert sind aber alle Geräte (Kameras, Schnittmonitore und CGI ect) auf 5500kelvin.
Klar kann man nach Wohlbefinden den Monitor auf warm oder kalt stellen.. akkurat ist aber in der Regel immer die NORMALE Farbtemperatur.

stellt ihr also auf Warm2 sieht das nach eurem empfinden vielleicht angenehmer und wärmer aus..ist aber absolut die falsche Farbdarstellung.
Jemand der sagt das Warm2 das maß der dinge ist.. hat absolut keine Ahnung.. er verändert damit die Farbtemperator, und dementsprechend auch Kontrast und Helligkeit.
was gerade in der Differenzierung von Farben auffällt..
bei Singleplayer Spielen und Filmen ist das noch eine Sache.. aber gerade bei Schnellen Egoshootern wo man den Gegner vom Hintergrund Blitzschnell unterscheiden muss (eventuell mit Camoflage Skins) macht das einen Tierischen unterschied.



auch die Kalibrierung der Farben hat Einfluss auf die helligkeit..
bei meinem Monitor ist es so das Rot,grün und Blau standartmässig auf 50 helligkeit stehen.
Setzt ich jetzt alles auf 100 und Regel den Kontrast dementsprechend runter habe ich ein bedeutend helleres Grundbild mit wesentlich knackigeren Farben... (also bereits übersaturiert) Aber ich verliere massiv an Peak brightness. Dann bin ich bei den ingame Kalibrierungsseiten nicht mehr bei 600nits (1200 mit tonmapping) sondern im 400er Bereich (700-900 mit tonmapping)
Klar sieht das ganze besser aus.. aber ich beraube mir sämtlicher Highlights
 
Zuletzt bearbeitet:
nur mal so als info..
Battlefield 1 Dolby Vision:

Ich kann es Aktivieren, Es funktioniert anscheinend auch.. (zumindestens soweit ich das beurteilen kann wegen den highlights bei explosionen und lichtern ect)
ABER
nur in FullHD und UltraHD und das nur bis 60Hz



IMG_20211208_105558.jpg


Offensichtlich hat Dolby Vision ein paar Limitierungen (Auflösung und Aktualisierungsrate)
Das würde erklären warum Spielentwickler es nicht implementieren.. und wenn nur für Konsolen die in der Regel ja sehr limitiert sind
 
Moin. Es passt nicht wirklich zum Thema, aber weil ihr es oben aufgegriffen habt werf es nur als Info ein. Ich bin mir der subjektiven Geschmäcker und Emotionen durchaus bewusst 😀.

Bei den LG Oled wird deshalb "allgemein" Warm2 (bis zum Modelljahr 2020) bzw. Warm50 (ab Modelljahr 2021) empfohlen, weil es bei den Kisten i. d. R. messtechnisch D65 also 6504 Kelvin am nächsten kommt. Und das war es dann auch schon. Es sind (mehr oder weniger sinnvolle) Farbtemperaturpreset-Bezeichnungen, die LG frei gewählt hat. Aber Warm2 bzw. 50 entspricht definitiv nicht 5.500K! Wenn dem so wäre, würden erfahrene Leute wie Vincent Teoh dies so auch niemals empfehlen. ,"Medium" sind ca. 9.300K, "Cool" etwa 11.000K.

https://www.lightillusion.com/forum...e-pre-calibration-using-service-menu-684.html

Wem das nicht gefällt wählt eine andere (kühlere) Farbtemperatur, die Freiheit besteht ja.

Übrigens sind die Panel ab Werk @ Warm 2 bzw. Warm 50 mal mehr/ mal weniger passend D65 voreingestellt. Da kann D65 durchaus auch etwas zu rotstichig ausfallen. Das beschreibt z.B. auch der US-YouTuber/ Kalibrierer Ninjician AV. Wobei die US-Geräte scheinbar von LG auch noch auf einen anderen Weißpunkt eingestellt werden (Stichwort Sony OLED Weißpunkt, der weicht etwas von klassisch D65 ab -> etwas mehr Grün + Blau). Und zwischen altem Panel und neuen EVO-Panel gibt es auch noch Unterschiede.

Ich habe meinen C1 die Tage mal mit einem EODIS3 und HCFR vermessen. Ich bin in der Hinsicht auch Amateur, messe 1x im Jahr meinen Sony-Beamer (weil die Kisten leider driften, Stand der Technik....) und eben die eigenen TV. Und dort dann mit Fokus auf Farbtemperatur/ greyscale/ Gamma @ SDR. Von Warm50 ausgehend (was mir auch erst zu rötlich erschien) habe ich mittels 2P/ 22P Kalibrierung dann D65 auf Kurs gebracht und musste dafür auch etwas anpassen. Der auffälligere Rotstich war dann schon deutlich besser. Darüber hinaus teste ich nun auch den alternativen Weißpunkt (s.o.), gefällt mir bis hierhin sehr gut.
 
Zuletzt bearbeitet:
Die internationale Norm für mittleres Sonnenlicht beträgt 5500 Kelvin;[4] es ist der Ton eines Sonnentages bei klarem Himmel am Vor- oder Nachmittag.

5000 KMorgen-/Abendsonne, D50-Lampe (Druckerei)
5500 KVormittags-/Nachmittagssonne
5500–5600 KElektronenblitzgerät
5500–5800 KMittagssonne, Bewölkung
6500–7500 KBedeckter Himmel




Normlichtart D65: Strahlungsverteilung mit einer Farbtemperatur von 6504 Kelvin (entspricht etwa einem grau verhangenen Himmel). Ebenfalls genormt sind D50 (bevorzugt in der Druckindustrie), D55 und D75; dabei wird die Farbtemperatur in 100 K zugesetzt, z. B. D50 = Tageslicht von 5000 K.


CIE-Normbeleuchtung D500,34570,3585Weißpunkt für Wide-Gamut-RGB und Color-Match-RGB
 
Alles schön und gut, ich bezog meinen Absatz ja auch nur auf die LG OLED Farbtemperaturpresets (inhaltlich) und warum das im www so mit Warm2/ Warm50 empfohlen wird.

Filme/TV werden per D65 gemastert, daher empfehlen die "Pro-User" D65-nahe Farbtemperaturpresets. Videospiele werden m. W. analog behandelt.
Wenn man das als Referenz betrachtet und es so wiedergegeben werden soll. Der gerne zitierte "Director's/ Filmmaker Intent".

Eine Diskussion, ob das sinnvoll ist oder man nicht andere Geschmäcker haben kann/ darf/ soll wollte ich damit eben explizit nicht anstoßen. Das führt auch zu nichts.

Bitte nicht als Angriff auf dich/ deine praktischen Erfahrungen verstehen!

EDIT: Ich spreche hier auch vom OLED als TV/ Wiedergabemedium für diverse Inhalte. Und nicht vom reinen Einsatz als PC-Monitor bzw. PC-Monitore allgm.
 
Zuletzt bearbeitet:
nein kein Problem @Iceman021 , ich nehme das ganze nicht Persönlich.. Deswegen diskutieren wir ja über das Thema

und nach Weiteren Googeln hast du zumindest Teilweise Recht.. am PC wird D65 ebenfalls benutzt


Aber du musst Folgendes Bedenken.. das mag vielleicht für Blueray player ect gelten. und D65 ist durchaus ein hier genutzer Standart..
ABER
am PC siehts folgendermaßen aus

GPU Anzeige Standart einstellung:
Screenshot 2021-12-08 125054.JPG

und bei Nvidia ist es auch Standartmässig 6500K


Die Standartfarbtemperatur ist bereits in der Ausgabe auf 6500K
-Normal Schleift das Signal so durch wie die Quelle es bestimmt


-Warm/Kalt legt ein Offset auf diese Farbtemperatur um es um einige KELVIN zu erhöhen oder zu verringern.

Sprich Warm2 wird die Farbtemperatur um 1000 Kelvin anhand des Quellsignales verringern (ins Rötliche)
und Kalt2 wird die Farbtemperatur um 1000 Kelvin anhand des Quellsignales anheben (ins bläuliche)

Du Tust dir also keinen gefallen ein bereits vorhandenes Signal vom Original weiter abzuändern..
Auch kann ich mir vorstellen das wenn D65 der Standart ist..
das Bluerayplayer und Fernsehen ect bereits in D65 gemastert ist.. das auch deren standart ausgabeformat ist.

Sprich das Quell-Signal deines Fernsehers ist bereits in der Farbtemperatur von 6500Kelvin..
auch hier haust du mit Warm2 eher ein Offset drauf wärend "normal" die original Farbtemperatur Durchschleift
 
Zuletzt bearbeitet:
Ach so! Ich glaube hier liegt einfach nur ein Missverständnis vor, weil du (noch? :) ) keinen LG OLED besitzt und dessen Menüführung/ Settings daher nicht kennst.

"Warm 2" bzw. "Warm50" ist eine bestimmte Farbtemperaturauswahl im LG TV-Menü. Wählt man diese gibt der TV eben in (annähernd) 6504K sein Bild aus. So wie ich die Ausgabe haben möchte, weil ich weiß das meine Quelle in 6504K anliefert (wie von dir geschrieben BD-Player oder aber PC). Es gibt dort kein "Normal" als Basis. Die TV-Presets sind z.T. zwar unterschiedlich vorkonfiguriert, dies äußert sich aber dann lediglich darin das etwa "Medium" voreingestellt ist (2021'er Modell "0") und der TV dann eben kühle ca. 9.300K ausgibt.

Möchte ich es kühler, wähle ich z. B. "Warm1" bzw. "Warm25" aus und dann gibt der TV irgendwas zwischen 6500 - 7000 K aus.

Da gibt es m. E. keinen zusätzlichen Offset - bzw. wie die das technisch lösen mit den Presets weiß ich natürlich nicht, ist am Ende des Tages ja auch irrelevant wenn ich mit der Wahl des Farbtemperatursettings im TV-Menü auf fix 6504K einstelle.

Das es auch beim PC so passt habe ich u. a. auch gemessen. Messcharts per BD-Player mittels HDMI2 zugespielt (IRE 0 - IRE 100, AVS-Testdisc) ist D65, diese Messcharts danach über den PC per HDMI1 zugespielt ist ebenso D65.

Es sieht bei mir so aus. Und hier nicht wundern - ich habe die Farbtemperatur direkt im Service Menü des TV angepasst und dafür das Preset "Cool" verwendet. Die Bezeichnung ist für Außenstehende also irreführend, denn ist ist tatsächlich nicht die kühlstmögliche Farbtemperatur sondern D65 kalibiert. So kann ich mit dem originalen "Warm" Preset schön vergleichen und Unterschiede im Content untersuchen. Die Werkseinstellungen vom "Cool"-Profil habe ich mir vor Änderung natürlich abfotografiert.

[IMG]https://abload.de/thumb/img20211208132311j7krn.jpg[/IMG]

[IMG]https://abload.de/thumb/img20211208132315kjjbg.jpg[/IMG]
 
Zuletzt bearbeitet:
und warum hat der LG OLED keine option mit "nutze die vorhandene Original Farbtemperatur"? (Standart/Normal)

denn wenn mein Ausgabemedium (PC/Blueray/Konsole wahrscheinlich auch) bereits 6500K im Originalsignal ausgibt.. weil das ja offensichtlich Internationaler Standart ist..
Warum muss das ganze dann beim Oled im Menü abgeändert werden.

Die Dinger müssten doch ebenfalls ab Werk auf D65 abgestimmt sein gerade weil es DER standart ist-

Das erscheint mir doch Sehr Unlogisch..

ausser ihr habt im Oled menü nur "WARM 1-100" als auswahl für die Farbtemperatur. wobei Warm50 = standart entspricht.. dann ist es mir logisch.. niedriegere Werte hauen dementsprechend n offset drauf
 
Zuletzt bearbeitet:
Naja, abgeändert werden müssen ist vielleicht nicht der richtige Ausdruck. Die brauchbaren Bildpresets die ein moderner (ordentlicher) TV mitbringt taugen out-of-the-Box ja schon durchaus. Dies betrifft nur gerne nicht das ab Werk eingestellte Preset.

In den brauchbaren Presets ist dann z.B. eine Farbtemperatur mit annähernd D65 eingestellt. Der Bildeindruck von D65 gefällt aber nicht jedem Anwender (so ist dieser Exkurs hier ja entstanden). Also steht jedem Anwender frei, da nach eigenem Geschmack abzuändern, z. B. eine kühlere Farbtemperatur. Und wie gut der eigene TV da letztlich die "Norm" z. B. D65 trifft ist dann ja auch fraglich, Stichwort Panelvarianzen.

Nein, die Skala reicht aktuell von Kalt 50 - Kalt 1 über = 0 (Farbtemperatur Medium ~ 9.300K) hin zu Warm 1 - Warm 50. Also grob ein Intervall zwischen bummelig 6.xxx - 11.xxx Kelvin. Das ist die Skala seitens LG. Sony hat z.B. bei seinen OLEDs (dessen Panel auch von LG Display stammen) eine gänzlich andere Skala/ Bezeichnung.

Naja, sehr OT das Ganze.
 
Ich empfinde die Mittelstellung halt als echtes Weiß und das wird nicht von ungefähr kommen, sonst wäre es keine Mittelstellung. Kalt wirkt bläulich, Warm wirkt gelblich. Sonnenlicht und Glühbirnen wirken gelblich. Ich möchte meinen Bildschirm aber neutral und nicht so gelblich wie Sonnenlicht oder eine Glühbirne. Meine präferierte Einstellung ist also zwangsläufig kälter als Sonnenlicht oder Glühbirnen. Das ist aber auch beabsichtigt, da Sonnenlicht eben kein neutrales Weiß ist.

Was Blackfirehawk wohl meint: Warum geht man bei Videos nicht von einem neutralen Weiß am Bildschirm aus und "färbt" das Videomaterial mit einer bestimmten Farbtemperatur ein, damit es dann bei einer neutralen Weißeinstellung am Bildschirm so "gelblich" aussieht wie gewünscht?
 
@VaniKa Nein was ich nicht verstehe ist warum Standart Mittelstellung was anderes sein soll als der Industrie Standart der ja 6500K ist.
Auch blueray und das normale Fernsehsignal sind in 6500k bereits gemastert als Industrie Standart.
Ergo ist es ja bereits der Fall das man von einem neutralen weiß ausgeht.. hierauf baut ja alles auf


bei meinen Monitoren ist warm immer rötlich.. kalt immer bläulich und normal/Standard das Original Signal ohne irgendwelche farbverschiebungen.

Wenn ich hier lese das der OLED standartmässig eine Farbtemperatur von 9300kelvin haben soll dann wäre eine weiße Fläche ja extrem bläulich..
Stell ich das mit meinem Monitor nach
(GPU Treiber auf 9300k.. Monitor OSD auf Standart) dann rollen sich mir die füßnägel hoch...

Und ich bezweifle das es standartmässig so bläulich ist am Oled

Selbst als absoluter Leihe der im Saturn/Mediamarkt vor dem Testgerät steht würde das auffallen und man würde das Gerät für defekt halten.
Ich stand schon im Mediamarkt davor und hatte beeindruckende Farben gesehen.. dieser Blauschimmer wäre mir aufgefallen weil's es durch die Bank durch alle anderen Farben versauen würde
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Ich stand schon im Mediamarkt davor und hatte beeindruckende Farben gesehen.. dieser Blauschimmer wäre mir aufgefallen weil's es durch die Bank durch alle anderen Farben versauen würde

Bei einem komplett weissem Bild hat mein 48CX OLED sowie viele andere 2020er CX einen Blaustich an den Rändern. Das sieht man aber nur bei Komplettem Weissbild und somit eigentlich nie. Und zumindest bei mir werden daruch keine anderen Farben versaut oder hat auch kein weiteren einfluss auf das Bild. Alles is tutti. Aber ich bin auch kein Profi Kalibrierer oder sowas sondern einfach nur Gamer.

222.jpg


https://www.avsforum.com/threads/20...-faq-posts-1-6-no-price-talk.3119288/page-890

Die 2021ger G1 mit EVO Panel haben ein Pink Stich mittig bei vollem Weissbild.
So erkennt man zb ob man bei einem C1 auch ein EVO Panel hat ( manche C1 haben ein EVO Panel bekommen zumindest laut annahmen mancher )

44.jpg

 
Zuletzt bearbeitet:
Mag sein. Aber 9300k ist nochmal n anderes blau..
Dieser leichte Blauschimmer ist ja okay und konnte paneltypisch sein.

Aber du werkskalibrierst doch nicht auf 9300k wenn der allgemein gültige Industrie Standart 6500k ist.

Allein von der Farbtemperatur her halte ich das für unwahrscheinlich.. Vorallem wenn du sagst das "normal" passt und warm viel zu rötlich rüberkommt.

Dein Quellmaterial ist 6500k am PC.. normal kommt dir als natürliches weiß rüber .. also denke ich das Normal am Fernseher auch 6500k sein müsste.

Mir geht einfach die Logik ab
 
Zuletzt bearbeitet:
Zurück
Oben