Test LG OLED 48CX im Test: 48-Zoll-OLED-TV mit HDMI 2.1 & 120 Hz als Gaming-Monitor

zu 1, hätte hätte fahrradkette, wenn man gsync oder freesync will über hdmi, geht nur earc und da ist man bezüglich dts beim cx in den popans gekniffen.

zu 2, nope. der neue dp hdmi adapter von club3d unterstüzt auch kein gsync und freesync.
 
mgutt schrieb:
Wenn der Monitor per EDID 10-Bit meldet, kannst du in in den NVIDIA Einstellungen keine 12-Bit auswählen. Also selbst wenn der CX 48 Gbit unterstützen würde, könnte man keine 120 Hz @ 4:4:4 darstellen, weil der nur 10-Bit akzeptiert. Daher verstehe ich dein Argument nicht.

Der TV meldet 10 und 12 Bit Support, siehe auch das EDID des C9. Du kannst ja heute schon den TV über HDMI 2.0 mit 12 Bit ansteuern, halt nicht in 4K120 oder 4K60 bei 4:4:4.
Ergänzung ()

Marcel55 schrieb:
Ich wär mir da nicht mal sicher, wenn der AVR das Bild ungesehen zum TV durchschleift und nur das Audiosignal extrahiert, kann ich mir schon vorstellen, dass Freesync/G-Sync trotzdem funktionieren werden.

Dazu brauchst Du einen der neuen AVRs von Denon/Marantz die VRR auch explizit supporten, sonst keine Chance. Ich glaube Yamaha wollte auch AVRs mit HDMI 2.1 Features rausbringen, da gibt es aber aktuell noch keine von zu kaufen.
 
Siran schrieb:
Dazu brauchst Du einen der neuen AVRs von Denon/Marantz die VRR auch explizit supporten, sonst keine Chance.

die neuen, zb der avr x4700h, supporten aber nur vrr des hdmi standards, nvidias gsync und amds freesync version nicht. 🤔🤔🤔
 
#Andreas# schrieb:
passthroughe lieber dts zum avr und lasse das dann von der auromatic verarbeiten statt pcm zum avr zu geben und das auromatisieren zu lassen.
Dürfte eigentlich keinen Unterschied machen, weiß nicht, mein AVR hat kein Auro3D, da nutze ich meist Dolby Surround weil DTS Neural:X irgendwie nie so wirklich zufriedenstellend ist. Es gibt ja das Problem, dass Cross-Upmixing teils nicht erlaubt wird, z.B. von DTS-HD mit Auro3D oder Dolby Surrond. Sowas kann man mit dem Weg über PCM umgehen.

#Andreas# schrieb:
nope. der neue dp hdmi adapter von club3d unterstüzt auch kein gsync und freesync.
Wurde der hier im Test nicht verwendet? Oder dand der Test ohne Sync statt? Zumindest bei 4K120, denn 4K60 mit Sync sollte ja laufen mit HDMI 2.0.

Siran schrieb:
Du kannst ja heute schon den TV über HDMI 2.0 mit 12 Bit ansteuern, halt nicht in 4K120 oder 4K60 bei 4:4:4.
4K60 12 Bit 4:2:0 geht über HDMI 2.0, richtg. Wobei ich da nicht weiß, ob es sinnvoll ist, das anstatt 10 Bit zu wählen. Die meisten Programme geben wohl eh nur 8 Bit aus. Zumindest habe ich es bisher nicht geschafft, ein Testbild anzuzeigen, wo ich wirklich den Unterschied zwischen 10 Bit und 8 Bit sehe.
Ich frage mich, ob man bei den ganzen Chroma-Subsamplings wirklich einen Unterschied sieht, oder ob das mehr fürs gute Gefühl ist, 4:4:4 nutzen zu wollen. Ich kann mir auch vorstellen, dass der Bildprozessor des TVs etwaige Nachteile dieser Übertragung automatisch wieder ausbügeln kann.
 
#Andreas# schrieb:
die neuen, zb der avr x4700h, supporten aber nur vrr des hdmi standards, nvidias gsync und amds freesync version nicht. 🤔🤔🤔
Oh, wieder was dazu gelernt, danke! Müsste man mal mit spielen, evtl. lässt sich da via CRU was drehen, denn soweit ich verstanden habe ist G-Sync Compatible nichts anderes als HDMI VRR das nvidia zertifiziert hat, dass es in betreffenden Endgeräten mit ihren GPUs geht.
 
@Marcel55

zu 1, jeder wie er mag.

zu 2, bestimmt haben die gsync benutzt, geht ja problemlos ohne avr dazwischen. wie dem auch sei. der neue adapter unterstützt weder gsync noch freesync. punkt. aussage des support.

zu 3, es geht sogar 4k60 12 bit 4:2:2 aktuell. du muss 12 bit auswählen, da du bei hdmi bei 4:4:4 und 4:2:0 nur 8 und 12 bit wählen kannst manuell.
 
Marcel55 schrieb:
4K60 12 Bit 4:2:0 geht über HDMI 2.0, richtg. Wobei ich da nicht weiß, ob es sinnvoll ist, das anstatt 10 Bit zu wählen. Die meisten Programme geben wohl eh nur 8 Bit aus. Zumindest habe ich es bisher nicht geschafft, ein Testbild anzuzeigen, wo ich wirklich den Unterschied zwischen 10 Bit und 8 Bit sehe.

Es ging mir nur um die Aussage, dass die LG TVs kein 12 Bit akzeptieren würden, was nicht stimmt. Ob es sinnvoll ist, da das Panel eh nur 10 Bit ist steht auf nem andren Blatt - zumindest hat man 12 Bit bei 4:4:4 4K120 beim C9 als Option, beim CX aufgrund der Bandbreite nicht mehr.
 
#Andreas# schrieb:
man erzählt leuten etwas aus eigener erfahrung und aus erfahrungen etlicher anderer und sie labern weiter sinnlos dagegen.

Siran hat geschrieben:
Mit einem C9 und 48Gbps hat man die Sorge gar nicht, da nimmt man einfach 12 Bit

Er setzt dabei folgende Dinge voraus, die rein gar nichts mit Erfahrungen zu tun haben, sondern mit hellseherischen Fähigkeiten:
1.) dass Nvidia die 12-Bit bei 4K und 4:4:4 bei HDMI 2.1 auswählbar macht
2.) dass Nvidia die 10-Bit bei 4K und 4:4:4 bei HDMI 2.1 nicht auswählbar macht

Und sein einziges Argument ist, dass das passiert, weil aktuell kein 10-Bit bei HDMI auswählbar sei, also der Eintrag im Dropdown fehlt. Das stimmt aber nicht. Denn wenn man die Frequenz auf 30 Hz reduziert, kann man bereits jetzt 10-Bit bei HDMI einstellen (erst dann, weil das eben das Maximum von HDMI 2.0b ist):

1418-gtx770_hdmi_12bit-gtx770_hdmi_12bit.jpg


Also warum sollte Nvidia 12-Bit bei 120 Hz freischalten, aber 10-Bit nicht? Meine Glaskugel sagt mir jedenfalls, dass die beides freischalten werden, weil es einfach alles in den HDMI 2.1 Standard passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Siran schrieb:
Oh, wieder was dazu gelernt, danke! Müsste man mal mit spielen, evtl. lässt sich da via CRU was drehen, denn soweit ich verstanden habe ist G-Sync Compatible nichts anderes als HDMI VRR das nvidia zertifiziert hat, dass es in betreffenden Endgeräten mit ihren GPUs geht.
ja, freesync is ja auch nix anderes als vrr eig, aber irgendwie auch nicht. alles echt unnötig kompliziert und undokumentiert bezüglich avrs.
Ergänzung ()

@mgutt

gott du unbelehrbares etwas, der nächste mit dem selben screenshot, der nicht aufmerksam lesen kann, wie paar seiten zuvor.
diese auswahl ist in dem test nur möglich gewesen, weil an der selben graka per displayport ein anderes display hing.
ich sitze hier vor meinem c9 und 10 bit geht über hdmi egal bei wieviel hz nicht bei 4:4:4 und 4:2:0, nur bei 4:2:2.
hast du es jetzt begriffen??? es geht nicht!!! ich sitze an der quelle!!! das inet ist voll mit threads zu genau diesem mangel!!!

ich zitiere extra für dich erneut den nvidia support:

Q: I have HDMI TV connected, I have lowered the resolution but cannot see 10bpc even though 12 bpc is available.
A: NVIDA GPUs for HDMI do not support 10bpc, you can use 12 bpc to enable 30-bit color.

gott, jedes mal wenn ich einen cx artikel sehe, beiße ich mir auf die zunge die leute über die 3 mängel des tvs hinzuweisen, tue es aber dann doch, obwohl ich weiß, dass ich mir damit seitenlang dumme diskussionen einbrocke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Siran
mgutt schrieb:
Siran hat geschrieben:


Er setzt dabei folgende Dinge voraus, die rein gar nichts mit Erfahrungen zu tun haben, sondern mit hellseherischen Fähigkeiten:
1.) dass Nvidia die 12-Bit bei 4K und 4:4:4 bei HDMI 2.1 auswählbar macht
2.) dass Nvidia die 10-Bit bei 4K und 4:4:4 bei HDMI 2.1 nicht auswählbar macht

Und sein einziges Argument ist, dass das passiert, weil aktuell kein 10-Bit bei HDMI auswählbar sei, also der Eintrag im Dropdown fehlt. Das stimmt aber nicht. Denn wenn man die Frequenz auf 30 Hz reduziert, kann man bereits jetzt 10-Bit bei HDMI einstellen (erst dann, weil das eben das Maximum von HDMI 2.0b ist):

Anhang anzeigen 945203

Also warum sollte Nvidia 12-Bit bei 120 Hz freischalten, aber 10-Bit nicht? Meine Glaskugel sagt mir jedenfalls, dass die beides freischalten werden, weil es einfach alles in den HDMI 2.1 Standard passt.

Du bist der erste bei dem es geht, vermutlich hat bislang noch niemand 30Hz ausprobiert. [edit]@#Andreas# hat es bereits widerlegt.

Andere haben es in niedrigeren Auflösungen probiert, wo 10 Bit in HDMI 2.0 auch gehen müssten und konnten dort kein 10 Bit auswählen, auch schreibt nvidia es ja selbst:
"Q: I have HDMI TV connected, I have lowered the resolution but cannot see 10bpc even though 12 bpc is available.
A: NVIDA GPUs for HDMI do not support 10bpc, you can use 12 bpc to enable 30-bit color. "

Natürlich sind die Diskussionen bis eine echte HDMI 2.1 GPU von nvidia draußen sind alle akademisch, weil es eben niemand 100% wissen kann was sie ermöglichen.
 
Zuletzt bearbeitet:
@Siran , der screen ist nicht von ihm, ist der selbe wie paar seiten zuvor, hab in meinem letzten post erklärt, woran das liegt.
 
  • Gefällt mir
Reaktionen: Siran
#Andreas# schrieb:
@Siran , der screen ist nicht von ihm, ist der selbe wie paar seiten zuvor, hab in meinem letzten post erklärt, woran das liegt.
Oh, entschuldige, das hatte ich nicht mitbekommen, habe die letzten Seiten meist nur reagiert, wenn Du mich erwähnt hast :D Langsam sind die Diskussionen auch mir zu müßig...
 
  • Gefällt mir
Reaktionen: xexex
mgutt schrieb:
In meinen Augen eine veraltete FAQ. Hier eine RTX 2080 verbunden mit einem Sony X900F:
https://www.reddit.com/r/bravia/comments/cr95b1/pc_gaming_on_x900f_at_1440p_422_10_bit_for_hdr/

das ist 4:2:2! ich sagte oben dass es nur mit 4:2:2 geht, aber nicht mit 4:4:4/rgb.
und 4:4:4/rgb ist das was wir wollen.
liest du überhaupt mal was man schreibt und begreifst das problem?
Ergänzung ()

@Siran

eben, hab es echt schon etliche male hier im thread detailiert wiederholt inkl screenshots und inkl nvidias eigenen aussagen.
aber nicht verzagen, der nächste cx artikel, in dem pcgh, computerbase etc nicht auf die 3 mängel hinweisen, kommt bestimmt!
Ergänzung ()

ich erkläre es noch einmal, oooh.

0. wenn nvidia nix an den grakas und treibern ändert, könnnen cx besitzer ihr display nicht ausfahren.

1. ausfahren wäre 4k 120hz 10 bit 4:4:4/rgb voll.

2. da 10 bit über hdmi bei 4:4:4/rgb aber nicht wählbar ist, müssten cx besitzer auf 4k 120hz 12 bit 4:4:4/rgb voll ausweichen.

3. das geht aber nicht, da diese konfig 48 statt 40 gbit bräuchte.

4. cx besitzer wären also auch bei hdmi 2.1 weiterhin zu chroma subsampling in form von 4:2:2 gezwungen um auf 10 bit stellen zu können.

jetzt verstanden?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Siran
KuroSamurai117 schrieb:
Sollte vollkommen ausreichen. Die werden auch nicht mehr als 10bit ausgeben. 4k/120 können die eh in keinem Game gleichzeitig. 120fps Mode bei Dirt 5 oder Forza 8 wird sich auf 1080-1440p beschränken.
Also bei Forza Motorsport 8 wäre ich vorsichtig. Auf der Xbox one X läuft FM 7 ja in UHD 60. Die neue Konsole ist ja doch ein ganzes Stück stärker und wenn nicht die MS eigenen Spiele, welche dann? sollten UHD 120 schaffen...
Liegt natürlich aber auch stark daran wie sehr die Grafik aufgebohrt wird.
 
@Blackvoodoo

Dann läuft es halt in 2160p, 120fps mit 10bit HDR und VRR. Passt doch für den CX.
 
#Andreas# schrieb:
das ist 4:2:2! ich sagte oben dass es nur mit 4:2:2 geht, aber nicht mit 4:4:4/rgb.
und 4:4:4/rgb ist das was wir wollen.
liest du überhaupt mal was man schreibt und begreifst das problem?

Natürlich kann man jetzt kein 10-Bit und 4:4:4 einstellen, weil HDMI 2.0b es mangels Bandbreite schlicht nicht hergibt.

#Andreas# schrieb:
2. da 10 bit über hdmi bei 4:4:4/rgb aber nicht wählbar ist, müssten cx besitzer auf 4k 120hz 12 bit 4:4:4/rgb voll ausweichen.

Nur weil etwas ausgegraut ist, heißt das doch nicht automatisch, dass es mit HDMI 2.1 nicht freigeschaltet wird. Genauso kann ich sagen, dass weil jetzt nicht 4K 120Hz 12-bit 4:4:4 ausgewählt werden kann, dass das in Zukunft auch nicht gehen wird.

Und nur mal so am Rande. Wenn man einfach 4K 90Hz 12-Bit 4:4:4 wählt, liegt man auch unter den 40 Gbit. Also selbst wenn wirklich dieser unwahrscheinliche Fall eintritt, dass kein 10-Bit auswählbar sein wird, kann ich gut mit 90 Hz leben.
 
mgutt schrieb:
Natürlich kann man jetzt kein 10-Bit und 4:4:4 einstellen, weil HDMI 2.0b es mangels Bandbreite schlicht nicht hergibt.
Dann probiere es mal bei 1080p, da sollte die Bandbreite ja locker reichen für 4:4:4 und 10 Bit. Geht nicht.

Nur weil etwas ausgegraut ist, heißt das doch nicht automatisch, dass es mit HDMI 2.1 nicht freigeschaltet wird. Genauso kann ich sagen, dass weil jetzt nicht 4K 120Hz 12-bit 4:4:4 ausgewählt werden kann, dass das in Zukunft auch nicht gehen wird.

Es behauptet ja auch keiner, dass es definitiv nicht gehen wird, wie auch. Aber man wird ja drauf hinweisen können, dass es eben aktuell diese Einschränkung mit 10 Bit 4:4:4 bei nvidia gibt und man nicht weiß ob sie bei zukünftigen Karten aufgehoben wird.

Und nur mal so am Rande. Wenn man einfach 4K 90Hz 12-Bit 4:4:4 wählt, liegt man auch unter den 40 Gbit. Also selbst wenn wirklich dieser unwahrscheinliche Fall eintritt, dass kein 10-Bit auswählbar sein wird, kann ich gut mit 90 Hz leben.

Das wäre dann wieder genau so eine Einschränkung wie 4:2:2 statt 4:4:4, andere werden damit vielleicht nicht leben können oder wundern sich weil sie doch ein 120Hz TV gekauft haben warum sie das nicht auch nutzen können, da dürften die Foren sicher wieder voll sein, sollte es wirklich so kommen.
 
Siran schrieb:
Das wäre dann wieder genau so eine Einschränkung wie 4:2:2 statt 4:4:4, andere werden damit vielleicht nicht leben können oder wundern sich weil sie doch ein 120Hz TV gekauft haben warum sie das nicht auch nutzen können, da dürften die Foren sicher wieder voll sein, sollte es wirklich so kommen.

Schauen wir erst mal ob die neue GPU Generation überhaupt 90 FPS liefert. Und dann eben die Frage wie viele sich bei einem 1.500 € TV für eine noch mal so teure (?) RTX 3080 Ti entscheiden werden. Ich bin jedenfalls davon überzeugt, dass wenn 4:4:4 und 12-Bit bei 120 Hz gehen, dass dann auch die 10-Bit freigeschaltet werden. Diese Einschränkung, die ja eigentlich nur aus Nvidia Studio / Quadro resultiert, macht dann ja keinen Sinn mehr.
 
Bietet es sich nicht eher an gleich einen 55er Zoll zu kaufen? Da machen die paar Euro auch nichts mehr aus. Und wegen der Abnutzung von OLED kann man sich ja einen zweiten Monitor kaufen, der vielleicht sogar noch ausfahrbar ist und den man eben nur fürs die PC-Nutzung verwendet, während man Gaming und Filme dann über den großen Bildschirm laufen lässt.
Sollte doch eigentlich kein all zu großes Problem darstellen oder?
 
Zurück
Oben