News Samsung Odyssey G9: Monitor-Flaggschiff nutzt Local Dimming auf 10 Zonen

Gut, dieses Teil kann man dann ja in die Tonne klopfen; was wäre dann aber Lösung für jemanden, der zwei 24-Zöller durch einen großen, gekrümmten Bildschirm ersetzen möchte (und wenn möglich an einen Arm hängen)?
Das Teil von LG?

Hintergrund: Möchte den "Luxus" eines zweiten Schirms nicht missen, will aber auch keine zwei unterschiedlichen Bildschirme (mit vielleicht unterschiedlichen Auflösungen und Hz) und liebäugle deshalb mit einem solchen extremen Ultrawide
 
  • Gefällt mir
Reaktionen: von Schnitzel
Als Besitzer des Vorgängers (C49RG90) kann ich nur sagen: 10 Zonen HDR taugt nicht. Und ob man wirklich mehr als die 120Hz des C49RG90 braucht bei schnellen Spielen, das sei auch mal dahin gestellt.

Als mehr als einen schlechten Refresh kann ich das neue Modell einfach nicht sehen.

Andererseits will ich jetzt auch nicht auf den Hatetrain hier aufspringen, ich bin insgesamt sehr zufrieden mit meinem C49RG90.
Gaming ist großartig damit, dank hoher Auflösung, Seitenverhältnis, Refreshrate und Freesync, zum Arbeiten taugt er auch, unterm Strich sind es dort eben 2xWQHD nebeneinander, mit mehr Nutzungsmöglichkeiten der Fläche, da nicht geteilt.
Ich würde mir das Ding wieder kaufen, auch wenn HDR nicht sinnvoll zu gebrauchen ist.
 
  • Gefällt mir
Reaktionen: Topi41, goldeye, m0bbed und eine weitere Person
Das was man momentan bei Monitoren an Technik geboten bekommt ist schon ein schlechter Witz, jedenfalls verglichen mit TVs. Während bei Fernsehern in der Preisklasse Full array local dimming mit >500 Zonen absolut standard ist, gibt es hier 10. HDR ist auch bei deutlich billigeren Fernsehen standard.

Gut, in diesem Fall ist die horizontale Auflösung jetzt etwas mehr als bei 4K Fernsehern, aber bei den meisten ultrawide monitoren habe ich das gefühl man könnte genausogut sich einen Fernseher auf den Tisch stellen und den nur einen Streifen Bild in der Mitte darstellen lassen. Bessere Bildqualität und HDR Möglichkeiten bei dem selben preis.

Das mit Abstand lächerlichste waren ja die zwei oder drei 'Big Format Gaming Displays' - Selbes format wie ein 65 Zoll Fernseher, aber selbst im Vergleich zum Ausstattungstechnisch komplett überlegenem Topmodel eines LG Oled doppelt so teuer.
 
  • Gefällt mir
Reaktionen: X79
hm da ich den HDR Effekt an meinem OLED LG wirklich sehr geil finde würde ich am nächsten PC Monitor ungern darauf verzichten. Es könnte durch mehr Max Helligkeit noch etwas "kräftiger" sein.

Was allerdings der Supergau bei den QLED Samsungs ist ist wirklich das Dimming. Selbst die normalen TVs mit vielen Zonen flackern teils da die Helligkeitsregulierung des Bildes Banane ist und man hat eben immer einen Halo Effekt in dunklen Szenen. Insgesamt ist das sicher besser als ohne, aber auch nur wenn die Anzahl der Zonen mindestens dreistellig ist.

Schon mein letzter LG TV 55" hatte Local Dimming, das erste seiner Art, aber mit mehr als 10 Zonen. Kostet damals auch 2k Steine. Wenn man relativ zentral davor ist funktioniert das auch super, insg. ist das Bild besser als bei jedem 500€ TV heute da deren Schwarzwert eig immer crap is.

Beim Odyssey hätten es ruhig 250+ Zonen sein dürfen. Man könnte meinen Samsung nutzt die gleiche Technik des Vorgängers und krümmt sie etwas mehr.
 
Topi41 schrieb:
Einfach einmal im Leben einen gescheiten Monitorarm kaufen, dann ist’s für alle Zeiten gut.
Da habe ich leider andere Erfahrungen gemacht.

Hatte 2 mal sehr teure Monitore und 2 mal sehr günstig.
Beide teuren waren nach 2-3 Jahren hin, der eine günstige hat immerhin erst nach ~4 Jahren angefangen rumzuzicken, und der aktuelle läuft (ist aber auch noch nicht so alt).

Lange Rede, kurzer Sinn:
Die Dinger gehen ständig kaputt. Hersteller egal (ok, vielleicht ist Eizo besser ... hatte ich noch nicht).
Und wenn da keine entsprechend lange Garantie mit dabei ist, ist man am Ende der Angeschmierte.
Ergänzung ()

Herdware schrieb:
Beim TV bin ich von HDR absolut begeistert. Das macht sich bei meinem 55B7 OLED-TV wesentlich mehr bemerkbar, als der Unterschied zwischen FullHD und UHD.
Das kann ich halt null nachempfinden.
Finde den Unterschied von HDR zu "gut ohne HDR" nicht so gravierend.
Wobei ich sagen muss, dass ich OLED bislang nur aus den Stores kenne. Gut möglich, dass die da nicht das richtige Material zeigen, damit die Dinger sich richtig abheben können.

Aber 1080p vs. 4K ist halt ein Unterschied wie Tag und Nacht.
1080p empfinde ich nicht mehr als scharf. 4K sieht wirklich eklatant besser aus.
Würde 4K SDR niemals gegen 1080p HDR tauschen wollen.
Ergänzung ()

Toni_himbeere schrieb:
3D ist doch nur an TVs gescheitert weil die Diagonale dafür zu klein ist.
Ne. 3D ist wegen fehlendem Material gescheitert.
Da gab's ja quasi nur (teils auch noch schlecht umgesetztes) 3D bei Filmen als 24fps Ruckel-Orgie.

60fps proper 3D sieht auch auf 23" 1080p schon atemberaubend gut aus.
99,9% der potenziellen Kunden haben sowas aber nie zu Gesicht bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: X79
Topi41 schrieb:
Wir reden hier von 32:9 - da macht das durchaus Sinn.
Mit vernünftigem Blickwinkel des Displays wird es das nie tun. Am Ende ist es immer ein Fischauge mit zerstörter Geometrie. Für jede Anwendung wo entfernt eine gerade Linie erkennbar sein soll wird so ein Gerät direkt unbrauchbar.
 
Wird mal Zeit für einen einfachen 4K Monitor mit 120hz und freesync in 32zoll. Aber irgendwie finde ich keinen Monitor der das bietet.

Mein tv hat 120hz 65zoll 4K hdr1000 mit 1000nits und freesync. Hab aber keine Lust ein 65zoll auf meinen Schreibtisch zu stellen :) , inputlag natürlich höher da kein Monitor aber hab schon drauf gezockt und da ich keine schnellen fps spiele ist mir das bisher nicht negativ aufgefallen.

Ist das so schwer momentan ein Monitor zu entwickeln in 4K mit anständigen spec‘s?
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Toni_himbeere schrieb:
Für mich liest sich das bei dir schon so wie ich schrieb.


„ ... Lediglich die LG Reihe ...“, eben nur diese HDMI 2.1 bieten würde.

Klar das es keine Grakas oder Monitore gibt ist ein anderes Thema, aber dort ist ja auch eher DisplayPort der Hauptanschluss.

Sei es drum.
Ergänzung ()



Kann man doch nicht vergleichen.

3D ist doch nur an TVs gescheitert weil die Diagonale dafür zu klein ist. Schau dir das mal auf einem 110“ Beamerbild an, dann wirst du das direkt anders sehen. Es erhöht die immersion extrem, viel mehr noch als im Kino.

Das wird wieder kommen falls das Bild irgendwann zu Hause im Schnitt 100“ beträgt und nicht wie heute 55-65“.


wenn du natürlich HDR mit den extremen übertrieben Farben von der Samsung TV Grundeinstellung meinst,kann ich dich etwas verstehen. Aber selbst da kann man es nachjustieren. Allgemein ist HDR wirklich toll und bietet mir persönlich einen höheren Mehrwert als ein mehr an Auflösung.

Aber klar der TV/Monitor muss es am Ende auch anzeigen können.
Hab HDR am Sony AG9 und LG B9 ausgiebig getestet. Mit der PS4 Pro und mit Film Material. Bin gelernter Radio TV Elektroniker, wie man ein Bild einstellt mit einem Testbild ist mir nicht unbekannt. HDR gefällt mir trotzdem nicht.

3D hat das Problem das die Inputs der Sinne für das Gehirn keinen Sinn ergeben was sich bei vielen in den unterschiedlichsten Symptomen erkennbar macht.

Siehst du so unterschiedlich sind die Bedürfnisse, ich habe mir den LG 5K Monitor gekauft, weil mir eine höhere Auflösung wichtig ist.
 
Stört es wirklich niemand hier, dass wieder eine VA Schlierenschleuder verbaut wurde?
 
  • Gefällt mir
Reaktionen: Blood011 und USB-Kabeljau
fox40phil schrieb:
Alle-HDR-Fans: >1000 Dimmingzonen!!
Samsung: hier bitte, ganze 10 Stück können wir euch anbieten! Das muss reichen! :evillol:

:freaky: HDR ist doch ein schlechter Witz oder? Bis das richtig ausgearbeitet und angeboten wird..klopft schon die nächste tolle Technik an der Tür!

HDR hat nichts mit der Anzahl der Dimmingzonen zu tun, sonder mit Nits.
 
USB-Kabeljau schrieb:
Das kann ich halt null nachempfinden.
Finde den Unterschied von HDR zu "gut ohne HDR" nicht so gravierend.
Wobei ich sagen muss, dass ich OLED bislang nur aus den Stores kenne. Gut möglich, dass die da nicht das richtige Material zeigen, damit die Dinger sich richtig abheben können.

Ein hell beleuchteter Laden ist schon eine sehr schlechte Umgebung für einen OLED. Jedenfalls verglichen mit einem guten HDR-LCD, denn was die Spitzenhelligkeit angeht, sind OLEDs schlechter. Sie gehören eher ins dunkle Heimkino, um ihre Stärken richtig auszuspielen.

Ansonsten ist es natürlich immer auch eine Frage der Qualität des Inhalts bzw. des Mediums und des Mastering. Egal ob Auflösung oder Dynamikumfang, eine sehr gute normale BluRay kann in jeder Hinsicht leicht besser aussehen, als eine sehr schlechte UHD-BluRay.

Und es gibt speziell bei HDR auch Beispiele für Filme, wo es kaum bemerkbar ist, und welche, wo es ein Unterschied wie Tag und Nacht ist. Ein positives HDR-Beispiel ist meiner Meinung nach z.B. Guardians of the Galaxy Vol.2. Die knallbunte, kontrastreiche Welt wird durch HDR erst so richtig lebendig. Dass der Film nur hochgerechnetes 2K ist, stört mich hingegen überhaupt nicht.

Aber 1080p vs. 4K ist halt ein Unterschied wie Tag und Nacht.
1080p empfinde ich nicht mehr als scharf. 4K sieht wirklich eklatant besser aus.
Würde 4K SDR niemals gegen 1080p HDR tauschen wollen....

Da geht es mir wie gesagt genau anders herum. Ein gutes Medium und gutes Mastering vorausgesetzt, muss ich meist schon sehr nah an den Fernseher heran, um den Unterschied zwischen FullHD und UHD zu erkennen, aber gutes HDR bemerke ich sofort auf jede Distanz.
Hätte ich die Wahl, würde ich ohne zu zögern auf 4K verzichten, wenn ich dafür immer alles in HDR haben könnte.
 
  • Gefällt mir
Reaktionen: X79 und Yibby
USB-Kabeljau schrieb:
Ne. 3D ist wegen fehlendem Material gescheitert.
Da gab's ja quasi nur (teils auch noch schlecht umgesetztes) 3D bei Filmen als 24fps Ruckel-Orgie.

60fps proper 3D sieht auch auf 23" 1080p schon atemberaubend gut aus.
99,9% der potenziellen Kunden haben sowas aber nie zu Gesicht bekommen.

Also ich finde das Material allgemein nicht so wenig. Aber gut das mag jeder anders sehen. War letztens nochmal in nem HIFI Laden und hab mir das mal wieder angeschaut. Und das ist auch mit dem vorhandenen Material auf 110" so ein "Gamechanger"... wird dir auch jeder bestätigen der sowas zu Hause hat.

Tomb Raider(die neuen Teile) hab ich schon von mehreren Leuten gehört, sollen auf nem Beamer in 3D absoluter hammer sein.

Ich denk halt für die "allgemeinheit" also keine Tech geeks, wird sich 3D wirklich erst dann zu Hause durchsetzen wenn man durch die Diagonale diese "besser als 3D Kino" Immersion hat. Und so schnell wie das mit den Diagonalen rauf geht wird das sicher in 5-6Jahren soweit sein.

Schau als Mittelklasse TV, bekommt man den Sony XH90 in 85" schon für 3.500Euro UVP... an einem BlackFriday oder ähnlichen Angebotstag wird der unter 2.000Euro liegen... und 85" das sind Welten zu einem 65" auch wenn man das nicht glauben mag. Ist auch nur ein Bsp. für jene die Probleme mit nem schwarzen Viereck an der Wand haben oder mit dem Transport gibts ja Laser TV´s die immer mehr Marktanteile gewinnen und auch bis 120" hoch gehen.

Aber klar am Ende sind das alles "Glaskugel" gedanken von mir.
 
jk1895 schrieb:
Ich weiß nicht was diese Hetze hier soll?!
Was die Hetze soll? Beide Vorgänger Modelle hatten genau das gleich Problem das HDR NICHT durch die verschiedenen Kontraste profitieren konnte weil es zu wenig Zonen hat!
Wenn Samsung die dritte Generation auf den Markt bringt die immer noch die genau gleichen Schwachstellen hat, dann ist das einfach peinlich und gehört gefälligst reklamiert. Wenn alle nur sagen "ehh... Ist doch egal" ist die Chance das die 4te Generation es wieder genau gleich schlecht macht sehr hoch.


Shririnovski schrieb:
Als Besitzer des Vorgängers (C49RG90) kann ich nur sagen: 10 Zonen HDR taugt nicht.
.....
Als mehr als einen schlechten Refresh kann ich das neue Modell einfach nicht sehen.
Ditto!
....
Naja, wenn das die neue Generation Panel ist die weniger Schlieren bietet und 240hz finde ich das einen sehr tollen refresh.
Zumal der 1440p CRG90 IMHO wesentlich schlimmere Schlierenbildung hatte als sein Vorgänger mir 1080p.

der_Schmutzige schrieb:
Stört es wirklich niemand hier, dass wieder eine VA Schlierenschleuder verbaut wurde?
Guck die ersten Tests/preReview zum G7 an.
Es gibt da ein paar Test UFO Fotos die gewaltige Verbesserungen zeigen.
Ich hoffe darauf das der G9 sich da auch verbessert.
 
  • Gefällt mir
Reaktionen: X79
Toni_himbeere schrieb:
Für mich liest sich das bei dir schon so wie ich schrieb.
„ ... Lediglich die LG Reihe ...“, eben nur diese HDMI 2.1 bieten würde.

Selbstzitat:
BTICronox schrieb:
Lediglich bei Glotzen (z.B. LG OLED X Reihe) wird schon HDMI 2.1 verbaut

Die Reihe von LG war nur spontan in meinem Kopf. Und selbst die sind ja erst seit Anfang 2020 auf dem Markt.
 
JDBryne schrieb:
Hab HDR am Sony AG9 und LG B9 ausgiebig getestet. Mit der PS4 Pro und mit Film Material. Bin gelernter Radio TV Elektroniker, wie man ein Bild einstellt mit einem Testbild ist mir nicht unbekannt. HDR gefällt mir trotzdem nicht.

3D hat das Problem das die Inputs der Sinne für das Gehirn keinen Sinn ergeben was sich bei vielen in den unterschiedlichsten Symptomen erkennbar macht.

Siehst du so unterschiedlich sind die Bedürfnisse, ich habe mir den LG 5K Monitor gekauft, weil mir eine höhere Auflösung wichtig ist.

Sei dir ja gegönnt. Dann ist halt HDR für dich nichts. Aber von sich selbst dann auf die Allgemeinheit zu schließen ist halt auch quatsch. Am Ende wirds die Zeit zeigen wer hier richtig lag.

Du springst grad zwischen TV und Monitoren hin und her wie es dir in deiner Argumentation am besten passt. Ob unabsichtlich oder nicht ist ja egal, aber das führt zu nichts.

Am Monitor mit 80cm Sitzabstand ist mir Auflösung auch lieber, besonders weil ich daran ja auch Arbeite.

Am TV/Beamer mit 3-5m abstand ist das aber bei mir gänzlich anders. Und bevor du verweist das wir hier über einen Monitorartikel diskutieren... du selbst hast ja auch selbst TV´s mit ins Gespräch gebracht und die grenzen verschwimmen da ja auch zunehmend.
Ergänzung ()

BTICronox schrieb:
Selbstzitat:


Die Reihe von LG war nur spontan in meinem Kopf. Und selbst die sind ja erst seit Anfang 2020 auf dem Markt.

Puh

https://www.wortbedeutung.info/lediglich/

Ist doch am Ende auch egal, aber lediglich bedeutet eben "bloß, nur, alleinig", also so wie ich es auch interpretiert hab. Wie ich sagte ist doch am Ende auch egal, vielleicht hast du dich falsch ausgedrückt, ich dich falsch verstanden... vielleicht auch beides gleichzeitig.

Und nein die LG TV´s haben schon seit über 1 Jahr HDMI 2.1 auch im Handel verfügbar. Aber worum diskutieren wir? Ich wollte eigentlich nur damit sagen, dass es mehr als 1 Hersteller und eine Technik mit HDMI 2.1 im Handel gibt.
Aber am Ende hat doch der HDMI 2.1 Anschluss am 2019er LG Modell bisher eigentlich niemanden wirklich genutzt und das wird mal von den Konsolen abgesehen noch recht lange so bleiben.

Ist doch auch total ok, mir kommen die LG´s auch immer als erstes in den Sinn wenns um HDMI 2.1 geht.

Ich sehe aber einfach auch nicht das große versagen der Industrie bezogen auf HDMI 2.1 so wie es oft auf Tech Seiten dargestellt wird. Denn mal von den Konsolen ab fällt mir grad nicht ein wozu ich zwingend an einem TV fürs TV/Film/Serien schauen diese Schnittstelle in den nächsten 4-5Jahren bei 4k bräuchte. Und natürlich besser haben als brauchen, keine Frage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: X79 und psyabit
Toni_himbeere schrieb:
Sei dir ja gegönnt. Dann ist halt HDR für dich nichts. Aber von sich selbst dann auf die Allgemeinheit zu schließen ist halt auch quatsch. Am Ende wirds die Zeit zeigen wer hier richtig lag.

Du springst grad zwischen TV und Monitoren hin und her wie es dir in deiner Argumentation am besten passt. Ob unabsichtlich oder nicht ist ja egal, aber das führt zu nichts.

Am Monitor mit 80cm Sitzabstand ist mir Auflösung auch lieber, besonders weil ich daran ja auch Arbeite.

Am TV/Beamer mit 3-5m abstand ist das aber bei mir gänzlich anders. Und bevor du verweist das wir hier über einen Monitorartikel diskutieren... du selbst hast ja auch selbst TV´s mit ins Gespräch gebracht und die grenzen verschwimmen da ja auch zunehmend.
Hab mit HDR nur beim TV Erfahrung. Aber klar HDR am TV und HDR am Monitor verfolgen das selbe Ziel. Mir gefällt der Effekt wie gesagt nicht sonderlich, zumindest bei bewegtem Bild. Bei Fotos kann mit einem hohen Kontrast je nach dem sehr schönes kreiert werden. Ich kann meinen Geschmack nicht objektiv mit Argumenten untermauern, glaube aber trotzdem das HDR beim Monitor keine Zukunft hat, genau wie 3D oder Curved am TV oder wie ANC bei Kopfhörern. In meinen Augen nichts langlebiges, nur temporäre Verkaufsargumente.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Calaphos schrieb:
Das was man momentan bei Monitoren an Technik geboten bekommt ist schon ein schlechter Witz, jedenfalls verglichen mit TVs. Während bei Fernsehern in der Preisklasse Full array local dimming mit >500 Zonen absolut standard ist, gibt es hier 10. HDR ist auch bei deutlich billigeren Fernsehen standard.

Gut, in diesem Fall ist die horizontale Auflösung jetzt etwas mehr als bei 4K Fernsehern, aber bei den meisten ultrawide monitoren habe ich das gefühl man könnte genausogut sich einen Fernseher auf den Tisch stellen und den nur einen Streifen Bild in der Mitte darstellen lassen. Bessere Bildqualität und HDR Möglichkeiten bei dem selben preis.

Das mit Abstand lächerlichste waren ja die zwei oder drei 'Big Format Gaming Displays' - Selbes format wie ein 65 Zoll Fernseher, aber selbst im Vergleich zum Ausstattungstechnisch komplett überlegenem Topmodel eines LG Oled doppelt so teuer.

Keine Ahnung wie du drauf kommst aber über 500 Zonen sind garantiert kein Standart.

Wenn man sich das Zonen Downgrade aller Hersteller für 2020 anguckt(Samsung, Sony, LG) erst recht nicht.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
MortalTeamwork schrieb:
HDR hat nichts mit der Anzahl der Dimmingzonen zu tun, sonder mit Nits.
HDR hat wie der Name schon sagt mit high Dynamic range zu tun. Zum einen also dem farbraum und zum anderen dem Kontrast von hellen zu dunklen Bereichen.
Das hat natürlich mit nits zu tun, aber eben auch mit den schwarzwerten. Beides muss passen.
Die beste hdr implementation hat nach wie vor oled da der Kontrast durch die schwarzwerte (erreicht durch abschaltbare Pixel) besser als irgendwo sonst ist.
Dimmingzonen können das nicht ersetzen, aber wenn es genug davon gibt lässt sich der Kontrast eben schon gut erhöhen.
Zu behaupten das hdr nur mit nits zu tun hat ist schlichtweg Quatsch.
Lies dich doch mal bitte ordentlich ins Thema ein.
 
  • Gefällt mir
Reaktionen: X79 und Herdware
Toni_himbeere schrieb:
Also ich finde das Material allgemein nicht so wenig. Aber gut das mag jeder anders sehen. War letztens nochmal in nem HIFI Laden und hab mir das mal wieder angeschaut. Und das ist auch mit dem vorhandenen Material auf 110" so ein "Gamechanger"... wird dir auch jeder bestätigen der sowas zu Hause hat.
Ich kann halt nur sagen, dass es keinen 3D-Film gibt, der mich in 24fps wirklich vom Hocker gehauen hätte. Mit Frame-Interpolation auf 60fps ist das deutlich besser (womöglich war diese auch im HiFi-Laden aktiviert). Nur gibt's da bei schnellen Szenen oft noch sehr störende Artefakte.

Dagegen steht dann das Erlebnis mit Trine 2 in 3D.
Das habe ich hier zu Hause auf 23" 1080p-Interlaced-3D gespielt und es war direkt 100 mal geiler als jeder 3D-Film im Kino.
Es lief in 60fps.


Jahre zuvor hatte ich auf der IFA mal einen riesigen (ich glaube 8K) 2D-Bildschirm gesehen.
Das war in dem Jahr, als 3D gerade in aller Munde war, und die Ausstellung voll davon war.
Es wurden also hunderte 3D-Fernseher, etc. gezeigt ... sogar schon damals einige wenige mit 240Hz-Shutter (die wohl aber nie erschienen) ... und es sah schon toll aus ... das 3D.
Aber der große 2D-Bildschirm hat viel krasser geballert, und man hatte fast den Eindruck, als würde man durch ein Fenster blicken ... trotz 2D! Das ist mir wirklich in Erinnerung geblieben.

Wieso das so war, wurde mir erst einige Zeit später klar, als ich anfing, Planet Erde per Motion-Interpolation in 60fps zu genießen.
Mir wurde klar, dass auch das Demo-Material auf diesem Bildschirm damals in 60fps lief ... im Gegensatz zu fast allen 3D-Demos auf der Messe.

Ich habe dann auch immer mal wieder 3D-Filme hochinterpoliert geguckt, und es ist ein noch eklatanterer Unterschied als in 2D.
2D-Filme in 24fps sind "ok", 3D in 24fps sieht in jedem Fall scheiße aus.
 
  • Gefällt mir
Reaktionen: X79 und Toni_himbeere
JDBryne schrieb:
Ich kann meinen Geschmack nicht objektiv mit Argumenten untermauern, glaube aber trotzdem das HDR beim Monitor keine Zukunft hat...

Es kommt darauf an. Wenn der Monitor als reines Daten-Anzeigegerät genutzt werden soll, braucht man natürlich kein HDR und käme wohl auch gut mit ein paar Hundert Farben aus usw.

Aber wenn es darum geht, ein Bild möglichst naturgetreu und/oder spektakulär darzustellen, hilft jedes bisschen mehr Dynamikumfang. Dynamikumfang/Kontrast sind einer der wichtigsten Faktoren, wenn es um subjektive Bildqualität geht.
Die Welt um uns herum und unsere Augen sind nicht in SDR. Selbst HDR1000 ist weit von den Werten entfernt, die unsere Augen verarbeiten können. In Zukunft wird es wohl eher in Richtung 10.000 nits gehen.

Mein Tipp ist, dass in ein paar Jahren auch bei Computer-Monitoren HDR der absolute Standard ist, abgesehen von speziellen Arbeitsgeräten. Alles wo Gaming und/oder Medienkonsum und -erstellung mitspielt, wird HDR sein.
Bei TVs ist es jetzt schon schwierig bis unmöglich, noch neue High-End-Modelle ohne HDR zu finden, und auch im unteren Preissegment ist es überall (oft leider eher nur auf dem Papier). Das ist gekommen um zu bleiben.
 
  • Gefällt mir
Reaktionen: X79
Zurück
Oben