News Samsung Odyssey G9: Monitor-Flaggschiff nutzt Local Dimming auf 10 Zonen

USB-Kabeljau schrieb:
Da habe ich leider andere Erfahrungen gemacht.

Hatte 2 mal sehr teure Monitore und 2 mal sehr günstig....
Ich bezog mich auf MonitorARMe, nicht auf Monitore!
—> sh. Ergotron HX zum Beispiel. Da kannst Du so einen 49“-Monitor dranhängen, das ist stabiler als der Original-Fuß und schafft Platz am Schreibtisch.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Herdware schrieb:
Es kommt darauf an. Wenn der Monitor als reines Daten-Anzeigegerät genutzt werden soll, braucht man natürlich kein HDR und käme wohl auch gut mit ein paar Hundert Farben aus usw.

Aber wenn es darum geht, ein Bild möglichst naturgetreu und/oder spektakulär darzustellen, hilft jedes bisschen mehr Dynamikumfang. Dynamikumfang/Kontrast sind einer der wichtigsten Faktoren, wenn es um subjektive Bildqualität geht.
Die Welt um uns herum und unsere Augen sind nicht in SDR. Selbst HDR1000 ist weit von den Werten entfernt, die unsere Augen verarbeiten können. In Zukunft wird es wohl eher in Richtung 10.000 nits gehen.

Mein Tipp ist, dass in ein paar Jahren auch bei Computer-Monitoren HDR der absolute Standard ist, abgesehen von speziellen Arbeitsgeräten. Alles wo Gaming und/oder Medienkonsum und -erstellung mitspielt, wird HDR sein.
Bei TVs ist es jetzt schon schwierig bis unmöglich, noch neue High-End-Modelle ohne HDR zu finden, und auch im unteren Preissegment ist es überall (oft leider eher nur auf dem Papier). Das ist gekommen um zu bleiben.
Damit die Gaming Monitore die Dunklen stellen aufhellen können damit mehr details sichtbar werden? Kann man ja gleich bei einem Bild mit wenig Kontrast bleiben... HDR hat nichts mit möglichst natürlich zu tun. HDR wirkt extrem Kitschig auf mich. Klar kann einem das gefallen, aber nur weil es dir gefällt macht es das Bild nicht zu einem Natürlichen Bild. Meine bearbeiteten Bilder die ich auf Wanderungen mache, sind auch Kitschig und Kontrastreich. Die Realität sah aber ganz anders aus.
 
Meine Erfahrung mit dem Vorgängermodell und den Dimmkacheln sagen mir nur eins: Finger weg. Lieber nur HDR 400 ODER 600, als diesen Stuss mit sichtbaren Zonen.
 
  • Gefällt mir
Reaktionen: X79 und Edelgamer
Bright0001 schrieb:
Hatte nach 40" auch nen Sprung gewagt und bin beim LG C9 mit 55" gelandet. Schon ziemlich groß, aber zumindest auch groß genug um Windows mit 100% Skalierung entspannt nutzen zu können, macht ordentlich Arbeitsfläche.
Und natürlich 8,3 Millionen Dimming-Zonen :p

Leider passt bei mir der 55" OLED nicht hin, sonst hätte ich mit den C9 bereits für 1000€ im Angebot gekauft. Echt schade... vorallem weil der 48" OLED so extrem teuer ist.
 
  • Gefällt mir
Reaktionen: X79 und Bright0001
Toni_himbeere schrieb:

https://www.wortbedeutung.info/Beispiel/

Ich habe geschrieben, dass nur Glotzen zzt. HDMI 2.1 haben, NICHT (!), dass nur LGs diese verbaut haben. Aber Danke für den Hinweis, dass bei Glotzen doch schon seit 2019 2.1 verbaut wird. Umso ärmlicher, dass es bei Receivern und Grafikkarten so auf sich warten lässt.

Toni_himbeere schrieb:
Ich sehe aber einfach auch nicht das große versagen der Industrie bezogen auf HDMI 2.1 so wie es oft auf Tech Seiten dargestellt wird.

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#diagramm-f1-2015-3840-2160

Die Grafikkarte kam wie auch HDMI 2.1 2017 raus. Und selbst diese 3 Jahre alte Karte kann einige der neuesten Titel in 4K bei über 60fps darstellen, ältere Titel auch locker mal im Bereich um 150-200fps. Von der RTX Reihe mal ganz zu schweigen. Bringt nur nix, wenn die Karte selbst durch ihren Anschluss limitiert ist. Gleiches gilt für Receiver... bei >1000€ für solche Receiver hätte man das damals schon erwarten dürfen. In solchen Preisbereichen sollte es nicht "entweder" 4K "oder" >100Hz/fps heißen, sondern "und". Vor allem wenn die Schnittstelle schon existiert hat.
 
JDBryne schrieb:
Damit die Gaming Monitore die Dunklen stellen aufhellen können damit mehr details sichtbar werden? Kann man ja gleich bei einem Bild mit wenig Kontrast bleiben...

Eben nicht. Das ist ja der ganze Witz an HDR. Man hat wesentlich mehr Dynamikumfang, das bedeutet, dass man überall mehr Details sieht und insgesamt mehr Abstufungen hat. Sowohl in dunklen auch auf im hellen Bildteilen. Bei SDR verschwinden Details in Schatten einfach komplett, wenn andere Bildteile hell sind, oder umgekehrt. Feine Farbübergänge sind stufig und unnatürlich. Bei HDR nicht.
Der Kontrast leidet dabei kein bisschen, sondern wird wesentlich besser als bei SDR. (Ein gutes Display wie z.B. OLED vorausgesetzt.)

HDR hat nichts mit möglichst natürlich zu tun. HDR wirkt extrem Kitschig auf mich. ...

Könnte es sein, dass du einfach an die kontrastarmen, "flachen" Bilder von SDR gewöhnt bist? So wie viele Kino-Enthusiasten an ruckelige 24 Bilder pro Sekunde gewöhnt sind und alles was flüssiger ist als Seifenoper empfinden.

Es ist jedenfalls eine Tatsache, dass die Realität und unsere Augen einen wesentlich größeren Dynamikumfang haben, als SDR-Videos und -Displays. Auch mehr als die besten HDR-Displays, die es derzeit gibt. Ein SDR-Video kann deshalb niemals so natürlich sein, wie ein gutes HDR-Video.
 
  • Gefällt mir
Reaktionen: X79, Larnak und Topi41
rvnbld schrieb:
Meine Erfahrung mit dem Vorgängermodell und den Dimmkacheln sagen mir nur eins: Finger weg. Lieber nur HDR 400 ODER 600, als diesen Stuss mit sichtbaren Zonen.

„Finger Weg“ ist wohl eine sehr auf einen einzelnen Makel fokussierte Aussage. Welche Erfahrungen hast Du denn gemacht? Der Monitor macht grundsätzlich nicht viel falsch, was auch zahlreiche (!!!) Testberichte belegen, wenn nicht gerade ausgerechnet HDR (Wir viele Titel können das überhaupt richtig?) das oberste Kriterium ist.

Beim Porsche 911er sagt ja auch keiner „Finger Weg, keine Anhängerkupplung“! Klar ist HDR hier Marketing-technisch ungünstig angepriesen. Aber wenn das gleiche Gerät unter der Devise „hier habt ihr das Ding, HDR haben wir auch ein bisschen versucht, ist aber nicht so toll“ angepriesen werden würde, wäre jeder damit zufrieden.

Wer nach einem 32:9 Ultrawide mit 1440p sucht und mehr als 60/70 Hz haben will, für den ist dieses Gerät die beste Wahl. Und er bleibt es vielleicht sogar für alle, denen beim neuen Modell die Krümmung zu krass ist. Der CRG9 geht halt auch im Office durch, der Odyssey ist m.E. schon wieder sehr „Gaming“.
 
Fraggball schrieb:
HDR hat wie der Name schon sagt mit high Dynamic range zu tun. Zum einen also dem farbraum und zum anderen dem Kontrast von hellen zu dunklen Bereichen.
Das hat natürlich mit nits zu tun, aber eben auch mit den schwarzwerten. Beides muss passen.
Die beste hdr implementation hat nach wie vor oled da der Kontrast durch die schwarzwerte (erreicht durch abschaltbare Pixel) besser als irgendwo sonst ist.
Dimmingzonen können das nicht ersetzen, aber wenn es genug davon gibt lässt sich der Kontrast eben schon gut erhöhen.
Zu behaupten das hdr nur mit nits zu tun hat ist schlichtweg Quatsch.
Lies dich doch mal bitte ordentlich ins Thema ein.
1. Habe ich nicht behauptet, dass hdr nur etwas mit Nits zu tun hat. Dimmingzonen sind kein per Definition essenzieller Bestandteil.
2. OLED Displays haben nicht automatisch die beste hdr Implementierung. Nur weil sie ein reines Schwarz darstellen können, zeigen sie nicht am anderen Ende der Skala ein grelles Leuchten. Deswegen sind die ganzen HDR 400 Monitore ein Witz, wenn man wirklich etwas von HDR haben möchte. Mittlerweile wird es aber sicherlich consumer OLED TV s mit 1000+ nits geben.

Wenn du 1000 Dimmingzonen hast, dann ist dort der Schwarzwert auch sehr gut. Natürlich nicht mit der Fläche von 4 oled Pixeln vergleichbar.

Lies dir mal die Beiträge ordentlicher durch, bevor du dich zu weit aus dem Fenster beugst.
 
MortalTeamwork schrieb:
1. Habe ich nicht behauptet, dass hdr nur etwas mit Nits zu tun hat. Dimmingzonen sind kein per Definition essenzieller Bestandteil.
2. OLED Displays haben nicht automatisch die beste hdr Implementierung. Nur weil sie ein reines Schwarz darstellen können, zeigen sie nicht am anderen Ende der Skala ein grelles Leuchten. Deswegen sind die ganzen HDR 400 Monitore ein Witz, wenn man wirklich etwas von HDR haben möchte. Mittlerweile wird es aber sicherlich consumer OLED TV s mit 1000+ nits geben.

Wenn du 1000 Dimmingzonen hast, dann ist dort der Schwarzwert auch sehr gut. Natürlich nicht mit der Fläche von 4 oled Pixeln vergleichbar.

Lies dir mal die Beiträge ordentlicher durch, bevor du dich zu weit aus dem Fenster beugst.

aber da lässt sich vorzüglich streiten😊

wenn man ein HDR Bild hat mit sagen wir 10-20% sehr heller Fläche und 80% eher Dunkel( Bsp. Eine Nachtszene mit einem Auto mit grellen Scheinwerfern die sich punktuell im Lack und Pfützen spiegeln)dann wird OLED das beste aktuelle Bild liefern.

Hat man eine, sagen wir Meerszene mit blauen hellen Himmel, also Gesamt sehr hell mit vielleicht einer kleinen dunklen Felsklippe dann wird OLED Nicht das beste Bild liefern. Auch ist die Länge der Szene entscheidend da,die Max Nits ja nur für xy Sekunden gehalten werden.

Weltraumfilme sind nunmal die Paradedisziplin von OLED, bei ner tollen Amazonas Doku seh ich den Vorteil bei OLED auch selbst nicht.

Am Ende ist es wohl sehr individuell.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Das hab ich, keine Sorge. Offensichtlich auch deutlich tiefer als du.
Allerdings ist diese diskussion off topic und ermüdend.
Viel spass hier noch.
 
Zuletzt bearbeitet:
Toni_himbeere schrieb:
aber da lässt sich vorzüglich streiten😊

wenn man ein HDR Bild hat mit sagen wir 10-20% sehr heller Fläche und 80% eher Dunkel( Bsp. Eine Nachtszene mit einem Auto mit grellen Scheinwerfern die sich punktuell im Lack und Pfützen spiegeln)dann wird OLED das beste aktuelle Bild liefern.

Hat man eine, sagen wir Meerszene mit blauen hellen Himmel, also Gesamt sehr hell mit vielleicht einer kleinen dunklen Felsklippe dann wird OLED Nicht das beste Bild liefern. Auch ist die Länge der Szene entscheidend da,die Max Nits ja nur für xy Sekunden gehalten werden.

Weltraumfilme sind nunmal die Paradedisziplin von OLED, bei ner tollen Amazonas Doku seh ich den Vorteil bei OLED auch selbst nicht.

Am Ende ist es wohl sehr individuell.

Mir geht es gar nicht darum, welche Technologie die Besser sei. Bisher haben alle verfügbaren Wege ihr Vor- und Nachteile, so wie du es eben mit den Szenen ansprichst. Micro-LED wird wohl den Markt aufmischen.


Fraggball schrieb:
Das hab ich, keine Sorge. Offensichtlich auch deutlich tiefer als du.
Allerdings ist diese diskussion off topic und ermüdend.
Viel spass hier noch.
Deswegen zitierst du dich selbst und beziehst dich darauf?;) Adieu!
 
lalanunu schrieb:
Leider passt bei mir der 55" OLED nicht hin, sonst hätte ich mit den C9 bereits für 1000€ im Angebot gekauft. Echt schade... vorallem weil der 48" OLED so extrem teuer ist.
Die Foristen wettern hier zwar gegen Preisverfall, aber ich mein der C9 ist auch irgendwo bei 2,5k gestartet und ist jetzt buchstäblich halb so teuer, und wie du schon sagst im Deal sogar noch günstiger. Ich glaub den CX wirds schnell zu 999€ ziehen.

Bei ner neuen Panelreihe vielleicht aber auch ganz sinnvoll erstmal ne Weile zu warten und zu schauen wie zufrieden die Leute damit eigentlich sind.
 
  • Gefällt mir
Reaktionen: lalanunu und von Schnitzel
Topi41 schrieb:
„Finger Weg“ ist wohl eine sehr auf einen einzelnen Makel fokussierte Aussage. Welche Erfahrungen hast Du denn gemacht? Der Monitor macht grundsätzlich nicht viel falsch, was auch zahlreiche (!!!) Testberichte belegen, wenn nicht gerade ausgerechnet HDR (Wir viele Titel können das überhaupt richtig?) das oberste Kriterium ist.

Beim Porsche 911er sagt ja auch keiner „Finger Weg, keine Anhängerkupplung“! Klar ist HDR hier Marketing-technisch ungünstig angepriesen. Aber wenn das gleiche Gerät unter der Devise „hier habt ihr das Ding, HDR haben wir auch ein bisschen versucht, ist aber nicht so toll“ angepriesen werden würde, wäre jeder damit zufrieden.

Wer nach einem 32:9 Ultrawide mit 1440p sucht und mehr als 60/70 Hz haben will, für den ist dieses Gerät die beste Wahl. Und er bleibt es vielleicht sogar für alle, denen beim neuen Modell die Krümmung zu krass ist. Der CRG9 geht halt auch im Office durch, der Odyssey ist m.E. schon wieder sehr „Gaming“.

Das ist ja das Problem, HDR ist eines der beworbenen Kernfeatures und mit dem mauen Dimmingzonenansatz definitiv enttäuschend gewesen. Da, ich das aber im Zug sitzend versendet habe,hier meine Erläuterung: Es wäre grade noch so zu verkraften gewesen, wenn da nicht die vielen qualitativen Mängel wären, die sich in Darstellungs- und Bildfehlern äußern,auch beim Austauschmodell. Alles in allem ernüchternd. Damals hatte ich das ebenfalls aufgrund von positiven Tests gekauft.

Ich schaue mir gerne die Tests an, aber noch genauer schaue ich mir die kritischen Tests an.
 
Zuletzt bearbeitet:
Warum ist so schwer Mal ein paar gute Monitore auf den Markt zu werfen? Sowas wie 3440*1440 @144hz mit HDR 600 oder so in die Richtung... Natürlich mit freesync und dem ganzen Kram, von mir aus auch ein TN Panel, stört mich nicht. Hauptsache nicht wieder für irgendwelche astronomischen Preise.
Wenn man vor ein paar Jahren für ~400€ einen sehr brauchbaren 1440p Monitor mit 144hz gekauft hat, sollte man doch erwarten können, dass es inzwischen das gleiche nur in ultrawide zu dem Preis gibt.
Oder sehe ich das falsch?
 
Herdware schrieb:
(Ein gutes Display wie z.B. OLED vorausgesetzt.)
Was bedeutet denn das nach aktuellem Stand für PC-Monitore? Dass OLED wegen der Einbrennproblematik noch nicht bedingungslos zu empfehlen sind, wurde ja schon gesagt. "local dimming" scheint mir selbst bei 100 oder 1000 Zonen noch nicht sinnvoll zu sein, das wird in solchen Größenordnungen nie scharf genug auflösen, um das Bild nicht zu versauen.

Hab ich dann von HDR bei Nicht-OLED-Monitoren trotzdem was? Oder ist das dann nur ein Marketing-Stunt?
Oder anders: Was bleibt von HDR bei einem Nicht-OLED-Monitor, wenn ich lokales Dimming und ähnlichen Unfug abschalte, und inwiefern unterscheidet er sich dann von einem "herkömmlichen" non-HDR-Monitor? Lohnt es, beim Neukauf darauf zu achten, oder ist man damit bei Monitoren einfach noch nicht weit genug?
 
@Larnak
Ich habe jetzt nicht alle aktuellen PC-HDR-Monitore auf dem Schirm (autsch 😉 ), aber mein Eindruck ist, dass man dem Stand bei HDR-TVs derzeit noch deutlich hinterher hinkt. Es sind alles Kompromisse. Wie gesagt muss da wohl noch eine geeignete Display-Technologie kommen, die die Vorzüge von OLED bietet, ohne Einbrennrisiko und am besten noch mit mehr maximaler Helligkeit.

Trotzdem ist der Bildeindruck bei einem nach heutigem Stand guten PC-HDR-Monitor (HDR1000) immer noch besser, als normales SDR. Nur halt nicht perfekt oder so gut wie bei einem modernen OLED-TV, z.B. wegen Lichthöfen durch Local-Dimming-Zonen und/oder vergleichsweise schwachem Kontrast.

Letztlich muss jeder selbst entscheiden, ob er jetzt schon zuschlagen will, oder warten, bis es Monitore gibt, die ein deutlich besseres HDR-Erlebnis bieten. Ich schätze, da wird sich in den nächsten 1-3 Jahren eine Menge tun.

Ich bin jedenfalls ganz froh, dass ich mir vor zwei Jahren einen recht guten SDR-LCD-Gaming-Monitor (LG 34GK950G) gekauft habe und jetzt erstmal abwarten kann, was sich da tut.
Da ich durch meinen OLED-TV verwöhnt bin, würde ich als meinen nächsten Monitor schon gerne etwas OLED-artiges haben (selbstleuchtende Pixel) und natürlich mit vollwertigem HDR.
 
  • Gefällt mir
Reaktionen: Larnak
Herdware schrieb:
Eben nicht. Das ist ja der ganze Witz an HDR. Man hat wesentlich mehr Dynamikumfang, das bedeutet, dass man überall mehr Details sieht und insgesamt mehr Abstufungen hat. Sowohl in dunklen auch auf im hellen Bildteilen. Bei SDR verschwinden Details in Schatten einfach komplett, wenn andere Bildteile hell sind, oder umgekehrt. Feine Farbübergänge sind stufig und unnatürlich. Bei HDR nicht.
Der Kontrast leidet dabei kein bisschen, sondern wird wesentlich besser als bei SDR. (Ein gutes Display wie z.B. OLED vorausgesetzt.)



Könnte es sein, dass du einfach an die kontrastarmen, "flachen" Bilder von SDR gewöhnt bist? So wie viele Kino-Enthusiasten an ruckelige 24 Bilder pro Sekunde gewöhnt sind und alles was flüssiger ist als Seifenoper empfinden.

Es ist jedenfalls eine Tatsache, dass die Realität und unsere Augen einen wesentlich größeren Dynamikumfang haben, als SDR-Videos und -Displays. Auch mehr als die besten HDR-Displays, die es derzeit gibt. Ein SDR-Video kann deshalb niemals so natürlich sein, wie ein gutes HDR-Video.
Wenn man ein überbelichtetes und unterbelichtetes Bild kombiniert (HDR) ist man näher an der Realität weder einfach das Licht einzufangen?
 
@JDBryne
Was hat eine mehrstufige Methode HDR-Bilder zu erzeugen, die teilweise verwendet wird, weil die Kameras selbst noch nicht genug Dynamikumfang dafür haben, damit zu tun, ob etwas näher an der Realität ist oder nicht?

Es gibt heutzutage meines Wissens auch schon Kameras, die in einem Schritt HDR-Aufnahmen (Bilder und Videos) machen können. (Mein Sony-Smartphone behauptet das auch zu können, aber angesichts der Ergebnisse bezweifle ich das etwas 😉 ).

Die Technik entwickelt sich ständig weiter. Ältere Kameras und Medien haben engere Grenzen gesetzt, neuere kommen näher an die Realität heran und eröffnen insgesamt mehr Möglichkeiten. HDR ist ein Teil davon.

Ich bin gerade noch dabei, mich durch das gewaltige Bonus-Material der Skywalker-Saga-Box durchzuarbeiten. (Ich habe mir natürlich die UHD-HDR-Version gegönnt😁.) Ich will jetzt nicht auf all die teilweise für mich überraschenden Aspekte z.B. der HDR-Qualität der verschiedenen Star Wars-Episoden eingehen. Allein darüber könnte ich einen kleinen Roman schreiben.
Aber eine Aussage von George Lucas bezüglich der Produktion der Prequels fand ich sehr interessant. Die Star Wars-Prequels gehörten zu den ersten Filmen, die (teilweise) nicht auf klassischem Film aufgenommen und bearbeitet wurden, sondern durchgehend digital. Das machte es erstmals möglich, bestimmte Farbtöne zu verwenden, die herkömmlicher, "analoger" Film wohl einfach nicht aufzeichnen konnte. (Ich bin kein Experte in Sachen Film-Chemie/Belichtung und muss Lucas da vertrauen.)

Was wir bisher in Sachen Kino-Filme gewohnt sind, ist also nicht wirklich eine getreue Reproduktion der Realität oder auch nur der künstlerischen Absichten der Filmemacher, sondern teilweise stark durch die Mittel beschränkt, die sie zur Verfügung hatten.
Moderne, digitale Filmtechnik und besonders auch HDR, lässt heutzutage viele dieser Beschränkungen wegfallen. Dadurch kann man viel näher an die Realität heran kommen, oder wenn man will auch beliebig unrealistische Effekte als Stilmittel erzeugen.
 
Zuletzt bearbeitet:
rvnbld schrieb:
Meine Erfahrung mit dem Vorgängermodell und den Dimmkacheln sagen mir nur eins: Finger weg. Lieber nur HDR 400 ODER 600, als diesen Stuss mit sichtbaren Zonen.
Wenn du Local Dimming ausschaltest beim CRG9, hast du ein HDR 600 Gerät. Inwiefern ist deine Aussage also sinnvoll?
10 Zonen einzubauen ist natürlich unnötig und wurde nur vom Marketing gemacht, um eine HDR 1000 Zertifizierung zu erhalten, das steht außer Frage. Aber solange man es abschalten kann, wo ist außer den unnötig zusätzlichen Kosten das Problem?
 
  • Gefällt mir
Reaktionen: GrumpyDude und Topi41
Ich hatte dazu mal ein Foto gesehen wo die Grenzen der Dimmzonen bei abgeschalteten Local Dimming sichtbar waren. In wieweit das praxisgerecht war kann ich nicht beurteilen.
 
Zurück
Oben