Test LG OLED 48CX im Test: 48-Zoll-OLED-TV mit HDMI 2.1 & 120 Hz als Gaming-Monitor

nein, das ist ein hardware feature. ähnlich wie pcie arbeitet die bandbreite beim tv mit lanes.
beim c9 sind es zb 4x12=48.

lg ist der meinung, dass die nachfrage zu gering ist, zu enthusiastisch...
der durchschnitts otto merkt nicht, ob 4:4:4/rgb oder nur 4:2:2 anliegt.
die eingesparte kohle wurde daher in andere dinge, wie zb bild ai investiert.
blablabla

und das ist ja eig auch gar nicht schlimm! die 40 gbit reichen komplett aus um das display komplett auszufahren.
der knackpunkt werden die neuen grakas ende des jahres.
dann wird man sehen, ob diese im gegensatz zu den aktuellen 10 bit bei 4:4:4/rgb über hdmi erlauben oder nicht.
hab ja oben erklärt was das problem ist.

2-2160.2717301493.jpg
 
Zuletzt bearbeitet:
Dachte ich mir schon, wäre auch zu schön gewesen. Neue Firmeware und die Bandbreiten Probleme sind behoben.
Wie sieht das mit den kommenden Konsolen aus, PS 5 und Xbox 4 haben ja auch HDMI 2.1, reichen da die 40 GBit aus oder ist das auch bei denen schon ein Problem?

Ich als User (der endlich mal den Perfekten Monitor will) kann nicht verstehen wie man bei so wichtigen Sachen Abstriche macht. Die Verdienen doch super an den Geräten.
 
hab bisher zumindest nix darüber gehört.
ich denke die konsolen werden dieses problem nicht haben.
aber ist alles spekulatius.
 
Floxxwhite schrieb:
Reflex -> will haben -> Preis -> OK irgendwann 😂
Stimmt. Allerdings ist der Preis ja OK für einen TV, auch wenn ich mir den lieber in 55" hinhängen würde. So wie mein jetziger auch.

Schon spannend das Teil. Und für die geplante PS5 sicherlich ein toller Partner. Hmmm, ich geh' mal gucken was die anderen Teile der Serie so draufhaben ... :D OLED ist halt schon leider geil.
 
Blackvoodoo schrieb:
Wie sieht das mit den kommenden Konsolen aus, PS 5 und Xbox 4 haben ja auch HDMI 2.1, reichen da die 40 GBit aus oder ist das auch bei denen schon ein Problem?
Ein Sound United Vertreter aus USA hat gesagt dass auch kommende Spielkonsolen nur 40Gbit haben werden, wir werden sehen ob es stimmt.
Ehrlich gesagt macht 48Gbit mit 10bit Panels auch überhaupt keinen Sinn von Nvidia Treiber Kuriositäten abgesehen.

Theoretisch bringt es etwas 12bit Inhalte mit einem 10bit Panel anzuzeigen (typisches Oversampling), laut einem Dolby Vision Whitepaper bringt das allerdings erst etwas ab 2000-3000+ cd/m² in der Praxis. Aktuell bietet das kein Display abgesehen davon dass oberhalb von 1500 cd/m² der sichtbare Vorteil sehr gering wird. Und die Hersteller müssen sich auch an Energieeffizienzrichtlinien halten.
Die aktuellen 8K LCD Topmodelle haben die schlechtesten Einstufungen und können gerade noch so verkauft werden.
Deswegen ist auch der Traum von diesen 2 LCDs aufeinander wie er in manchen Mastering Displays zum Einsatz kommt für den Massenmarkt ausgeträumt.
 
Daniel# schrieb:
Deswegen ist auch der Traum von diesen 2 LCDs aufeinander wie er in manchen Mastering Displays zum Einsatz kommt für den Massenmarkt ausgeträumt.
Glaube mit QDCC könnte Dual-Layer LCD ziemlich gut werden, durch die durch QDCC fast verdreifachte Effizient fällt der Extra Verlust des zweiten Panels weniger ins Gewicht. Außerdem kann das zweite Panel ja auch eine geringere Auflösung haben (z.B. Full HD mit 1 Subpixel wenn das erste Panel UHD mit 3 Subpixeln hat)
 
Beutelgnom schrieb:
Glaube mit QDCC könnte Dual-Layer LCD ziemlich gut werden, durch die durch QDCC fast verdreifachte Effizient fällt der Extra Verlust des zweiten Panels weniger ins Gewicht. Außerdem kann das zweite Panel ja auch eine geringere Auflösung haben (z.B. Full HD mit 1 Subpixel wenn das erste Panel UHD mit 3 Subpixeln hat)
Das 2. Panel dass die Helligkeit steuert hat bereits eine geringere Auflösung, bei den 4K Studio Monitoren hat das 2. Panel 1080p.
Abgesehen davon was sollen bitte Quantum Dots in diesem Szenario bringen? Quantum Dots wandeln zwar das Licht mit nahezu 100% Effizienz um aber deswegen haben sie nicht mehr als 100%.
Die 2 LCD Schichten schlucken immernoch soviel Licht dass es in TV Größen nicht zulassungsfähig wäre vom Stromvebrauch.
Warum auch solche Kuriositäten produzieren wenn QNEDs in den nächsten Jahren kommen, die noch viel mehr Vorteile haben als diese Dual Layer LCDs. Auch von den Kosten ist QNED sogar billiger als OLED von Dual Layer LCD sprechen wir lieber nicht.
 
Die neuen GPUs werden ja wohl HDMI 2.1 unterstützen. Alles andere macht keinen Sinn. Warum sollten PCs im Jahr 2021 schlechter dastehen als die neuen Konsolen. Daher verstehe ich auch die Diskussion nicht. Sobald die da sind, wird der OLED optimal bespielt und die 48 Gbit/s braucht dann auch keiner.
 
Daniel# schrieb:
Abgesehen davon was sollen bitte Quantum Dots in diesem Szenario bringen? Quantum Dots wandeln zwar das Licht mit nahezu 100% Effizienz um aber deswegen haben sie nicht mehr als 100%.
bisherige Farbfilter haben über den Daumen gepeilt eine Effizienz von 1/3 ersetzt man Farbfilter durch QDCC mit nahezu 100% Effizienz hat man die Effizienz insgesamt verdreifacht.
QNED ist glaube ich noch weiter in der Zukunft als QDCC. Dementsprechend könnte Duallayer LCD einen zwischenschritt darstellen. Natürlich ist die Frage ob Duallayer günstiger sein kann als OLED, wenn nicht hat es Wahrscheinlich keine Chance.
 
mgutt schrieb:
Die neuen GPUs werden ja wohl HDMI 2.1 unterstützen. Alles andere macht keinen Sinn. Warum sollten PCs im Jahr 2021 schlechter dastehen als die neuen Konsolen. Daher verstehe ich auch die Diskussion nicht. Sobald die da sind, wird der OLED optimal bespielt und die 48 Gbit/s braucht dann auch keiner.
lies nochmal meine beiträge, du hast da was ganz falsch verstanden. ;)
wurde überdeutlich erklärt, dass es nix mit hdmi an sich zu tun hat und niemand hat behauptet dass die neuen gpus kein hdmi unterstützen und warum die fehlenden 48 gbit für die cx reihe sehr problematisch werden können, wurde auch überdeutlich erklärt.
 
Zuletzt bearbeitet:
Beutelgnom schrieb:
bisherige Farbfilter haben über den Daumen gepeilt eine Effizienz von 1/3 ersetzt man Farbfilter durch QDCC mit nahezu 100% Effizienz hat man die Effizienz insgesamt verdreifacht.
QNED ist glaube ich noch weiter in der Zukunft als QDCC. Dementsprechend könnte Duallayer LCD einen zwischenschritt darstellen. Natürlich ist die Frage ob Duallayer günstiger sein kann als OLED, wenn nicht hat es Wahrscheinlich keine Chance.
Bei QD OLED kommt die QDCC Technik von Nanosys zum Einsatz, warum sollte man das mit LCD machen wenn es nur mehr Energieeffizienz verspricht? Samsung braucht eine Technologie gegen OLEDs woran sie ja auch arbeiten.

QNED basiert auch nur auf QD OLED. Es wird ja nur die Leuchtschicht ausgetauscht. Und im Gegensatz zu OLED/QD-OLED braucht QNED kein Vakuum was es wesentlich billiger macht.
QNED kommt 2021/22. Aktuell gibt es sogar Gerüchte dass Samsung QD OLED gar nicht auf den Markt bringt und gleich QNED einsetzt. Nachvollziehbar wäre es ja.
QD-OLED war ja ein Projekt von Samsung Display, Samsung Electronics will QNED machen.
Wir werden sehen was zuerst auf den Markt kommt bzw. welche Partei sich durchsetzt.
 
Daniel# schrieb:
Bei QD OLED kommt die QDCC Technik von Nanosys zum Einsatz, warum sollte man das mit LCD machen wenn es nur mehr Energieeffizienz verspricht? Samsung braucht eine Technologie gegen OLEDs woran sie ja auch arbeiten.
LCD wird auf jeden Fall mit QDCC gepaart werden, vielleicht nicht im High-End-Bereich (da man hier DualLayer bräuchte). QDCC bringt aber einfach zu viele Vorteile um es nicht zu benutzen: man braucht einen Produktionsschritt weniger da der QD-Enhancement-Film wegfällt, die Blickwinkel werden wahrscheinlich besser da die QDs selbstleuchtend sind und nach vorne rücken und die Effizient oder auch Helligkeitssteigerung.
Zudem ist Nanosys nicht an Samsung geknüpft und Jeder kann QDs benutzen.
 
Beutelgnom schrieb:
LCD wird auf jeden Fall mit QDCC gepaart werden, vielleicht nicht im High-End-Bereich (da man hier DualLayer bräuchte). QDCC bringt aber einfach zu viele Vorteile um es nicht zu benutzen: man braucht einen Produktionsschritt weniger da der QD-Enhancement-Film wegfällt, die Blickwinkel werden wahrscheinlich besser da die QDs selbstleuchtend sind und nach vorne rücken und die Effizient oder auch Helligkeitssteigerung.
Zudem ist Nanosys nicht an Samsung geknüpft und Jeder kann QDs benutzen.
Ja ich sehe gerade dass es auch für LCDs gedacht ist, hier ein relativ frischer Vortrag von diesem März zu QDCC:
Allerdings ist fraglich ob es sinnvoll ist LCDs weiter auszuschlachten, man sollte auf zukunftsfähigere Techniken als LCD setzen.
Erinnert sehr an diese ganze Entwicklung von Elektrofahrzeuge vs. Verbrennungsfahrzeuge.

Chinesische LCD Hersteller die in den nächsten Jahren dominieren werden sind sicherlich froh wenn die LCD Technik noch etwas durch neue Innovationen weiterlebt aber die Zukunft wird sicher nicht mit LCD gemacht.
Trotzdem müssen sich deren massenhaft gebauten LCD Fabriken natürlich rechnen, ich frage mich nur wo man bei den niedrigen Panelkosten noch Platz für QDCC LCD hat.
 
  • Gefällt mir
Reaktionen: BGnom
Der optimale Monitor für die kleine Sofaecke im Büro wenn man mal kurz eine Stunde abschalten will bei der Arbeit.
Der C7 55" läuft übrigens seit 3 Jahren als Monitor. Habe vor 1-2 Monaten mal einen kleinen Test gemacht ob Burn-Ins sichtbar sind, nix.
Ich muss dazu aber auch sagen meine Taskbar bei Windows 10 ist Schwarz, angepinnte Anwendungen habe ich nicht und ich habe auch keine Störung die mich dazu zwingt jedes nicht benutzte Gerät über den Stromschalter auszuschalten, daher kann der TV seine Refresh Programme durchführen wie er fröhlich ist.
 
  • Gefällt mir
Reaktionen: mgutt
#Andreas# schrieb:
wurde überdeutlich erklärt, dass es nix mit hdmi an sich zu tun hat und niemand hat behauptet dass die neuen gpus kein hdmi unterstützen und warum die fehlenden 48 gbit für die cx reihe sehr problematisch werden können, wurde auch überdeutlich erklärt.

Wenn der Monitor per EDID 10-Bit meldet, kannst du in in den NVIDIA Einstellungen keine 12-Bit auswählen. Also selbst wenn der CX 48 Gbit unterstützen würde, könnte man keine 120 Hz @ 4:4:4 darstellen, weil der nur 10-Bit akzeptiert. Daher verstehe ich dein Argument nicht.
 
Blackvoodoo schrieb:
Wie sieht das mit den kommenden Konsolen aus, PS 5 und Xbox 4 haben ja auch HDMI 2.1, reichen da die 40 GBit aus oder ist das auch bei denen schon ein Problem?

Sollte vollkommen ausreichen. Die werden auch nicht mehr als 10bit ausgeben. 4k/120 können die eh in keinem Game gleichzeitig. 120fps Mode bei Dirt 5 oder Forza 8 wird sich auf 1080-1440p beschränken.
 
mgutt schrieb:
Die neuen GPUs werden ja wohl HDMI 2.1 unterstützen. Alles andere macht keinen Sinn. Warum sollten PCs im Jahr 2021 schlechter dastehen als die neuen Konsolen. Daher verstehe ich auch die Diskussion nicht. Sobald die da sind, wird der OLED optimal bespielt und die 48 Gbit/s braucht dann auch keiner.

mgutt schrieb:
Wenn der Monitor per EDID 10-Bit meldet, kannst du in in den NVIDIA Einstellungen keine 12-Bit auswählen. Also selbst wenn der CX 48 Gbit unterstützen würde, könnte man keine 120 Hz @ 4:4:4 darstellen, weil der nur 10-Bit akzeptiert. Daher verstehe ich dein Argument nicht.
ich hab das hunderte male durchgekaut und in diesem thread mehrmals erklärt, hab keinen bock mehr.
man erzählt leuten etwas aus eigener erfahrung und aus erfahrungen etlicher anderer und zitiert sogar wortwörtlich ein nvidia q&a dokument und sie labern weiter sinnlos dagegen.

@Siran hast du lust es nochmal zu erklären, obwohl es etliche male im thread steht?
ich werds nämlich von nun an ignorieren.
wüsste auch gar nicht wo ich bei seinen falschen aussagen und annahmen anfangen sollte.
noch deutlicher erklären geht nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
#Andreas# schrieb:
- kein dts decoder (dts mkv über usb oder dts über andere interne apps kann man also vergessen.)

- kein dts passthrough über (e)arc (die cx dürfen warum auch immer kein dts per (e)arc durchschleifen.)

lange rede, kurzer sinn, seid euch dem bewusst vor dem kauf.
Das sind Punkte, denen man entgegenwirken kann, wenn man den Ton und Bild über den AV-Receiver laufen lässt. Wenn man DTS nutzen will braucht man ja eh einen sonst braucht man auch kein DTS.
Für meinen nächsten AVR steht neben HDMI 2.1 auch Auro3D oben auf der Wunschliste, da ist DTS auch nicht so wichtig, wenn man per eARC 7.1 PCM Durchschleifen kann und das dann durch die Auromatik haut, hat man wahrscheinlich ein besseres Ergebnis, als wenn man DTS direkt verwendet.
 
das ist natürlich richtig
Marcel55 schrieb:
Das sind Punkte, denen man entgegenwirken kann, wenn man den Ton und Bild über den AV-Receiver laufen lässt. Wenn man DTS nutzen will braucht man ja eh einen sonst braucht man auch kein DTS.
das stimmt natürlich, allerdings unterstützen avrs kein gsync und kein freesync.
die lg 9 und x modelle sind gsync kompatibel.
wer dies nutzen will, muss den pc also direkt an den tv anschließen und mit einem (e)arc setup arbeiten.
da geht also kein weg dran vorbei bei besagten tvs, sofern man nicht auf gsync verzichten möchte.
deswegen ist es sehr wichtig zu erwähnen, dass die x modelle kein dts per (e)arc passthroughen dürfen.
Ergänzung ()

Marcel55 schrieb:
per eARC 7.1 PCM Durchschleifen kann und das dann durch die Auromatik haut, hat man wahrscheinlich ein besseres Ergebnis, als wenn man DTS direkt verwendet.

ich habe meinen c9 per gsync und (e)arc am laufen und passthroughe lieber dts zum avr und lasse das dann von der auromatic verarbeiten statt pcm zum avr zu geben und das auromatisieren zu lassen.
aber muss jeder selbst wissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere
#Andreas# schrieb:
wer dies nutzen will, muss den pc also direkt an den tv anschließen und mit einem (e)arc setup arbeiten.
Nunja da kann man ja wie gesagt PCM 7.1 nutzen, denn sämtliche Player am PC können säntliche Formate in PCM 7.1 umwandeln. Außer vielleicht DTS:X, aber, bei dem hat man meine ich auch immer eine DTS-HD Tonspur dabei, die man wieder in PCM 7.1 umwandeln kann. Und Dolby Atmos untersützt der Fernseher ja nativ. Das heißt alternativ zu PCM 7.1 kann ich in Windows 10 die Tonausgabe auf Dolby Atmos umstellen und das durchschleifen.

Auch gibt es die Möglichkeit, den Fernseher und den AVR mit 2 HDMI-Kabeln getrennt anzuschließen. Windows ist leider nicht darauf ausgelegt, über einen HDMI nur Sound auszugeben, somit hat man quasi immer einen toten Zweitbildschirm angeschlossen, aber technisch ist es möglich. Und dazu könnte man auch die IGP nutzen wenn vorhanden.
Theoretisch wäre es auch möglich, einen HDMI-Port des Mainboards so anzusteuern, dass dieser eben nur Audio ausgibt. Das ist bisher alles nie so vorgesehen gewesen, aber ich denke das ist alles Treibersache, wenn man wollte könnte man sowas auf bestehender Hardware programmieren. Dann könnte man die Soundausgabe über HDMI sogar dann nutzen, wenn man keine IGP hat, wie z.B. die meisten AMD-Mainboards mit Ryzen tote Anschlüsse für sowas haben, obwohl der Onboard-Audiochip eigentlich immer damit verbunden ist.

#Andreas# schrieb:
das stimmt natürlich, allerdings unterstützen avrs kein gsync und kein freesync.
Ich wär mir da nicht mal sicher, wenn der AVR das Bild ungesehen zum TV durchschleift und nur das Audiosignal extrahiert, kann ich mir schon vorstellen, dass Freesync/G-Sync trotzdem funktionieren werden.
 
Zurück
Oben