Notiz Firmware-Update: OLED-TVs von LG erhalten FreeSync

DenMCX schrieb:
Außerdem habe ich noch niemanden (mit Ausnahme von dir jetzt) die CX-Generation jemals "CX9" nennen hören...
Es gibt Produktendungen namens -9LA, dann wird mit CX davor ein CX9 draus.

Als Modellbezeichnung genauso falsch wie C97.
 
  • Gefällt mir
Reaktionen: p4z1f1st
Nova eXelon schrieb:
Was heißt das "O" in OLED :) ?
Organic = organisch = nicht künstlich = nutzt mit der Zeit ab = brennt ein!

Da gibt es eigentlich gar keine zwei Meinungen. Wie schnell oder langsam das passiert, hängt von der Nutzung ab. Stelle ich Helligkeit schön runter und vermeide um jeden Preis statische Elemente, kann man dem vielleicht sogar komplett aus dem Weg gehen.
Warum aber hat ein C9 ~750 Nits bei normalen Bildern, aber dank ABL nurnoch schlappe ~130, wenn man ein komplett weißes Bild anzeigt? Pixel Refresher? Screen Shift?
Es ist alles nur ein Gegenankämpfen des Abnutzens. Warum kann überhapt was abnutzen? Weil OLED.

Ich will niemanden anfahren, aber ich entscheide garantiert nicht für Andere, ob denen das passieren wird oder nicht, noch sage ich ihnen hinterher "selber Schuld".

Und wann passieren die Abnuztungerscheinungen? Mit jeder Panelgeneration wird es besser...es gibt genügend Oled Nutzer die nach vielen Jahre immer noch keine Abnutzungserscheinungen haben ;-) Oled hat seine Probleme keine Frage, die hatten Plasmas auch und die wurden auch schlimmer geredet als sie schlussendlich waren ;-)
 
DenMCX schrieb:
Außerdem habe ich noch niemanden (mit Ausnahme von dir jetzt) die CX-Generation jemals "CX9" nennen hören...

Machen leider viele z.B. im HiFi-Forum und dann denken manche es wäre ein 2019er Modell weil ja eine "9" im Namen vorkommt und es kommt zu Verwirrungen. Dabei ist die 9 bei CX9 einfach nur eine bestimmte Variante und hat nichts mit dem Modelljahr zu tun. Wenn man nur über die Modelljahre spricht sollte man daher in der Tat besser nur die ersten beiden Zeichen nehmen, sonst verwirrt es bloß.
 
  • Gefällt mir
Reaktionen: Deinorius und p4z1f1st
KuroSamurai117 schrieb:
Naja, schwieriger wird es aber wenn du Szenen hast wo sich kleine helle Bildinhalte vor schwarzen Hintergrund verteilen. Berühmt ist jede Weltraumzeme wo dann Logal Dimming mit zu wenig Zonen, selbst bei Spitzengeräten, ihre Probleme bekommen. Entweder entstehen Haloeffekte oder Details wie Sterne werden verschluckt.
Wobei das tatsächlich eher ein Problem bei den Samsung-Geräten zu sein scheint.
Local Dimming bringt noch mal etwas zusätzlichen Kontrast, aber auch wenn ich das ausschalte, macht das jetzt keinen all zu großen Unterschied, da der native Kontrast bereits entsprechend gut ist. Wenn das Local Dimming einen so massiven Einfluss hat, würde man ja rund um die hellen Elemente Kanten sehen, in denen man das Backlight durchschimmern sieht, zumal der TV gar nicht so viele Dimming Zonen hat. Aber das ist ja nicht der Fall.
Das Local Dimming ist eher für HDR Relevant um einzelne Bildbereich noch mit einer deutlich höheren Sitzenhelligleit als den Rest ansteuern zu können.

Was die maximale Helligkeit angeht, HDR braucht ja primär diese Werte um Spitzenhelligkeiten abzubilden. Blendeffekte sind teils gewollt, z.B. wenn dir mit ner Taschenlampe ins Gesicht geleuchtet wird, aber in einem abgedunkelten Raum, braucht man tatsächlich gar nicht so viel Helligkeit, um das erzeugen zu können.
Ein Mastering von HDR Material findet aber noch meist mit deutlich höheren Werten statt die aktuell kein Consumer-Tab erreichen kann. Ob das wirklich sinnvoll ist, ist eine andere Frage, aber ich würds gerne mal ausprobieren.
Jedenfalls macht HDR mit 1000nits Spitzenhelligkeit einen ganz anderen Eindruck als mit den 400nits die ich vorher hatte.

IXI_HADES_IXI schrieb:
Am TV beim Zocken muss man sämtliche Bildverbesserungen deaktivieren um gute Zeiten zu bekommen. Spielemodus aktivieren zum Beispiel. Viele TV´s sind dann aber trotzdem noch relativ langsam im LCD Bereich, da die meisten VA-Panels haben.
Natürlich haben OLEDs deutlich bessere Reaktionszeiten, aber das heißt nicht, dass die anderen nicht zum zocken geeignet wären.
Die meisten Bildverbesserungen haben keinen Einfluss auf den Inputlag, einzige Ausnahme ist hier die Zwischenbildberechnung, diese steigert den Inputlag massiv um etwa 80ms und das merkt man dann auch. Das ist beim OLED genau das gleiche, wenn man TruMotion/Motionflow einschaltet sind es auch 80ms mehr, kannste dir in den Messungen ja angucken. Deshalb muss auch dort der Spielemodus eingeschaltet werden.
Der Inputlag ist in einem Bereich wo ich keinen Unterschied zum Monitor bemerke, das reicht mir. Mausbewegungen werden ohne spürbare Verzögerung umgesetzt.
Bei Konsolenspielen kann man teils sogar auf Motion Flow setzen um die 30fps zu glätten. Dann hat man zwar diese knappen 100ms Inputlag, aber je nach Spiel stört es nicht.
 
Marcel55 schrieb:
Wobei das tatsächlich eher ein Problem bei den Samsung-Geräten zu sein scheint.
Local Dimming bringt noch mal etwas zusätzlichen Kontrast, aber auch wenn ich das ausschalte, macht das jetzt keinen all zu großen Unterschied, da der native Kontrast bereits entsprechend gut ist. Wenn das Local Dimming einen so massiven Einfluss hat, würde man ja rund um die hellen Elemente Kanten sehen, in denen man das Backlight durchschimmern sieht, zumal der TV gar nicht so viele Dimming Zonen hat. Aber das ist ja nicht der Fall.
Das Local Dimming ist eher für HDR Relevant um einzelne Bildbereich noch mit einer deutlich höheren Sitzenhelligleit als den Rest ansteuern zu können.

Willst jetzt nicht wirklich Local Dimming etwas kleinreden? Gerade sehr viele Dimmingzonen sind wichtig für LCD Technik um auf sehr guten Kontrast zu kommt. Warum will man wohl zu pixelgenauer LED-Ansteuerung hin?
Gerade dadurch hat doch OLED oft besseren Inbildkontrast.
Schon mal dürstere Games wie Resident Evil, Dark Souls oder Spiele im All wie Star Citizen, Everspace usw gezockt?
Gerade da macht sich fehlendes Local Dimming bemerkbar im Spielmodus.
Selbst in Nachtszenen von Assassins Creed, Renngames und Co.

Beim Spielen hat man gerade auch länger mit düsteren Inhalt zu tun als in einem Film wo es nur ab und an Teil ist.

HDR Drastellung ist ja auch nicht gerde unwichtig geworden im Gaming. Wenn man mal Gears 5, AC Odyssey, GT Sport usw mit guten HDR gesehen hat will man ja ungern darauf verzichten.
Hilft es einem LCD auch nicht wenn das Local Dimming im PC/Spielmodus fehlt.


Wenn du zufrieden bist ist es gut für dich. Soll dir auch nicht die Freude an deinem TV nehmen.
Aber gerade beim Gaming hat halt OLED systembedingt vorteile weil es weniger technische Hilfsmittel braucht um bei geringem Input-Lag ein gutes (HDR) Bild zu erzeugen.
 
  • Gefällt mir
Reaktionen: IXI_HADES_IXI
@Sa.Lt Ich gehe mehr unter Menschen, wenn du lernst Modellbezeichnungen richtig zu lesen ;)
(So wie diese "Menschen", unter die ich gehen soll und von dem diese Tests aus deinem Screenshot stammen...)

Aber wenigstens gibt es einige, die das verstehen, wie @Colindo und @Siran :D
 
DenMCX schrieb:
@Sa.Lt Ich gehe mehr unter Menschen, wenn du lernst Modellbezeichnungen richtig zu lesen ;)
jetzt kommst du mit lesen ;)
dann hast du ja gelesen, dass ich "CX geschrieben hatte + manche nennen es auch CX9"
somit q.e.d. du kannst nicht richtig lesen ;) ;), aber dichtest mir es an + du gehst nicht unter Menschen :p

Außerdem haben dir dann auch genug Leute noch gesagt, dass es genug Leute gibt, die CX9 sagen ;). Hast du wohl auch scheinbar überlesen.

so genug davon.

Die ganzen sub CX Bezeichnungen und Unterschiede bei den TVs kenn ich noch nicht.
Kenn bisher nur die CX9 Modelle / hab nur tests von denen gesehen, evtl. noch einen von nem CX8 48"
 
  • Gefällt mir
Reaktionen: p4z1f1st
KuroSamurai117 schrieb:
Hilft es einem LCD auch nicht wenn das Local Dimming im PC/Spielmodus fehlt.
Wie kommst du darauf, dass Local Dimming im Spielemodus fehlen soll? Wie gesagt, das einzige was da fehlt ist Motion Flow, allerdings auch nicht komplett, denn die Black Frame Insertion ist weiterhin nutzbar, und das auf Stufe 1 eine große Helligkeitsverluste.

Ganz ehrlich, ich weiß nicht, was der Fernseher so alles im Hintergrund macht. Aber ich sehe, dass das Bild gut ist inkl. guten Schwarzwerten und das auch in Grenzfällen. Habe gestern erst ne Runde Forza Horizon 4 gespielt, mit HDR, auch in der Nacht, aufm PC in 4K mit 60fps. Da ist mir nichts negativ aufgefallen. Und ich schaue auch gerne Filme die im Weltraum spielen, deswegen ist mir eine gute Performance in diesem Bereich auch wichtig.

Ich wollte ja eigentlich auch nur sagen, dass man auch mit LCDs mittlerweile eine gute Bildqualität erreichen kann und nicht auf perfektes schwarz verzichten muss, weil hier einige so tun würden als wären sämtliche LCD Panel gegenüber OLED der letzte Mist. Das ist halt Quatsch.
 
Atent123 schrieb:
Der Markt ist einfach nicht so weit, bzw. die Hersteller sehen den Markt noch nicht als groß genug an, als das sich das Tape Out lohnen würde.

Milliarden an TV , AVR , Playern aller Art, Digital Kameras, Mobilen Geräten usw. von den zig Herstellern die HDMI nutzen sind nicht genug? Nochmal die Spezifikation ist weiter als die Technik! Sie bekommen es aktuell nicht in günstig gebaut denn da fließt einfach zu schnell zu viel Strom. Die Schnittstellen fangen an zu glühen wenn diese Bandbreite auch genutzt wird. In einem Rechenzentrum mit extra verbauter Kühlung kein Problem aber zuhause in den eigentlich kleinen Geräten schon!

Aktuell hat die Digital Technik was die Masse an Daten angeht einen enormen Sprung gemacht dadurch das die Digital Kameras nun eine Weile auf den Markt sind. Das ergab zuerst den Flaschenhals Speicherplatz IN den Kameras weil nur die neusten FLASH Karten die MASSE an Informationen Speichern konnten aber gleichzeitig diese viel zu schnell voll sind und praktisch mit 2 Steckplätzen die laufend im wechsel getauscht werden müssen gearbeitet wird. Das ergab wiederum einen Flaschenhals was die Übertragung dieser Menge an Daten wenn es LIVE ist angeht. Man nutzte bei den ersten UHD Übertragungen Konstrukte aus 4x HDMI die aus den ersten Kameras in die Live Mischer gingen. Nur um der NATIVEN also unkomprimierten Datenmasse Herr zu werden. Deswegen musste auch erstmal HDMI 2.0 her. Und da reden wir noch von DIGITALEN Rohdaten mit "nur" 24p bzw. maximal 48p ! Kein HDMI 2.1 das UHD in 60HZ oder 120HZ transportieren will! Deswegen ist 8k auch noch so in weiter Ferne weil du da ja ohne HDR und hoher Framerate schon das 4 fache von UHD hast wodurch die Datenrate nochmals explodiert.

Der Standard BT2020 der diese 4k und 8k (und höher...) Norm definiert , ist höher ausgelegt als die aktuelle Technik (Aufnahme, Übertragung, Verarbeitung und Wiedergabe) es überhaupt verarbeiten kann! (Man wollte nicht wie bei der BT 709 Norm die für Analoge Röhren TV Technik definiert war und sogar noch auf der BluRay genutzt wird, zu schnell wieder veraltet sein...)

Daher nochmals: Hier geht es nicht darum was die Hersteller wollen sondern überhaupt in Bezahlbar UND von der Praktikablen Nutzung (nicht das es im Labor durch ein wirres Konstrukt wie zuvor mit man geht erstmal weil es nichts anderes gibt mit 4x HDMI raus) umsetzbar bauen können!
 
Zuletzt bearbeitet:
Sa.Lt schrieb:
Kenn bisher nur die CX9 Modelle
Da ist schon der Fehler, bezüglich der Diskussion zu den Typen. Es gibt nur ein CX Modell, kein CX9. Die 9 ist bereits ein Subtyp.

Es gibt C7, C8, C9 und jetzt 2020 CX (C + römisch zehn)

D.h. im Kern sind alle CX egal welcher größe gleich. Die unterscheiden sich maximal beim Design des Standfuß oder der Anzahl der Tuner. Teilweise auch gar nicht und es ist nur eine Kennung für ein bestimmtes Vertriebsland.
 
Gamefaq schrieb:
Milliarden an TV , AVR , Playern aller Art, Digital Kameras, Mobilen Geräten usw. von den zig Herstellern die HDMI nutzen sind nicht genug? Nochmal die Spezifikation ist weiter als die Technik! Sie bekommen es aktuell nicht in günstig gebaut denn da fließt einfach zu schnell zu viel Strom. Die Schnittstellen fangen an zu glühen wenn diese Bandbreite auch genutzt wird. In einem Rechenzentrum mit extra verbauter Kühlung kein Problem aber zuhause in den eigentlich kleinen Geräten schon!

Gibt es dazu irgendeine Quelle ?
Es wäre mir neu, dass Spannung oder Stromstärke sich bei HDMI 2.1 gegenüber 2.0 verändert haben.

Rechenzentren haben auch nur in manchen Bauweisen eine Schnittstellen Kühlung. Das wird meist nur im Zusammenhang mit externen PCI-E Leitungen genutzt.

Ansonsten klingt dies wie gesagt nach einem klassischen FPGA Problem.
Nach Faustformel kann man bei größeren Schaltungen davon ausgehen, dass der FPGA um die 8-10 mal so viel verbraucht, wie die selbe Schaltung als ASIC.
Nur muss es für einen ASIC nun mal genug Kunden geben, dass man die enormen Kosten für die Maske umlegen kann. Scheinbar gibt es den (noch) nicht. Wie viele Leute sind momentan von einem Fernseher kauf abgeschreckt, weil ihnen nicht die volle Bandbreite für HDMI 2.1 zur Verfügung steht ? Wie viele würden diese überhaupt nutzen wollen ? Das sind alles wichtige Fragen, die die Marktforschung der entsprechenden Unternehmen erstmal ausklamüsert. Bis dahin gibt es das Produkt halt nur als FPGA. Wird gerade wenn es um Nischenmärkte oder den Audio und Video Bereich geht, häufig gemacht.
 
Marcel55 schrieb:
Wie kommst du darauf, dass Local Dimming im Spielemodus fehlen soll? Wie gesagt, das einzige was da fehlt ist Motion Flow, allerdings auch nicht komplett, denn die Black Frame Insertion ist weiterhin nutzbar, und das auf Stufe 1 eine große Helligkeitsverluste.

Local Dimming arbeitet geräteabhängig durchaus weniger effektiv, siehe die Tests von FlatPanelsHD oder Digitalfernsehen. Macht auch Sinn, denn dahinter muss der TV ja das Bild analysieren wo was gedimmt werden muss, was Zeit kostet und zu weiterem Lag führt.
 
  • Gefällt mir
Reaktionen: KuroSamurai117
Atent123 schrieb:
Wie viele Leute sind momentan von einem Fernseher kauf abgeschreckt, weil ihnen nicht die volle Bandbreite für HDMI 2.1 zur Verfügung steht
Wenn man realisitsch bleibt gibt es vermutlich nur 0,5% der "normalen" TV Nutzer weltweit die überhaupt von der Existenz von HDMI 2.1 wissen. Und selbst von den kommenden PS5 oder Series X Käufern sind sicherlich überraschend wenige an HDMI 2.1 interessiert oder wissen ebenfalls um dessen Vorteile.

Ich will echt nicht wissen, wieviele 5000 Euro TV Geräte in deutschen Haushalten noch nie mehr als ein 720p/1080i Signal erhalten haben... ;)
 
  • Gefällt mir
Reaktionen: Zitterrochen
Gamefaq schrieb:
Milliarden an TV , AVR , Playern aller Art, Digital Kameras, Mobilen Geräten usw. von den zig Herstellern die HDMI nutzen sind nicht genug? Nochmal die Spezifikation ist weiter als die Technik! Sie bekommen es aktuell nicht in günstig gebaut denn da fließt einfach zu schnell zu viel Strom. Die Schnittstellen fangen an zu glühen wenn diese Bandbreite auch genutzt wird. In einem Rechenzentrum mit extra verbauter Kühlung kein Problem aber zuhause in den eigentlich kleinen Geräten schon!

Also mein LG C9 mit 4xHDMI 2.1 Schnittstellen mit vollen 48Gbit/s muss da nichts aktiv kühlen, das würde mir auffallen.
 
@Siran Davon gehe ich auch aus, aber fairerweise muss man sicherlich sagen, dass aktuell noch Niemand seine HDMI 2.1 Schnittstellen wirklich ausgelastet hat.

Selbst die derzeit maximal möglichen 1440p mit 120 Hz HDR etc. bleiben ja im Rahmen der HDMI 2.0 Spezifikationen.
 
  • Gefällt mir
Reaktionen: Siran
Marcel55 schrieb:
Wie kommst du darauf, dass Local Dimming im Spielemodus fehlen soll? Wie gesagt, das einzige was da fehlt ist Motion Flow, allerdings auch nicht komplett, denn die Black Frame Insertion ist weiterhin nutzbar, und das auf Stufe 1 eine große Helligkeitsverluste.

Weil er bei vielen LCDs im Game Mode bisher abgeschaltet wurde die auch mal getestet habe. Mag sein dass neuere Modelle es zuschalten können aber dann steigt der Input-Lag logischweise wieder über OLED an.

Siehe auch Abschnitt "Bildqualität im Spielmodus":

https://www.zambullo.de/fernseher/g...tworten-auf-deine-fragen-zum-spielemodus.html

Auszug:

"In dem Vergleich zwischen dem Samsung Q90R und dem LG C9 zeigt sich, dass die Verschlechterung der Bildqualität aber auch von der Bildschirmtechnologie sowie dem jeweiligen Gerät ab. So zeigten sich die oben beschriebenen Effekte auf einem QLED-TV von Samsung recht deutlich. Dies liegt unter anderem an der Technik des Local Dimming. Auf einem OLED-TV von LG waren hingegen kaum Unterschiede in der Bildqualität auszumachen.

Hier sorgt das OLED-Panel selbst für die gute Bildqualität, sodass keine großen Einbußen hinzunehmen sind. Der QLED-TV Q90R von Samsung schafft nur ohne aktivierten Game Mode eine vergleichbare Qualität in der Darstellung – dann aber mit einem zig-mal höheren Input Lag. Im Gaming-Mode lag er bei beiden Geräte um die 15 ms, ohne beim Q90R bei 70 ms und beim C9 bei 50 ms. Der Gaming Mode funktioniert also bei den beiden genannten Modellen hinsichtlich der Reduzierung des Input Lags wunderbar – allerdings mit unterschiedlichen Auswirkungen auf die Qualität der Darstellung."



-------


Muss Jeder selber wissen. Wenn es irgendwann Mirco-LED gibt werden eh viele Nachteile beider Techniken langsam fallen. Dauert wohl noch paar Jahre.
 
Siran schrieb:
Also mein LG C9 mit 4xHDMI 2.1 Schnittstellen mit vollen 48Gbit/s muss da nichts aktiv kühlen, das würde mir auffallen.

Er hat keine vollen 48GB/s Er ist beschränkt auf 40GB/s weil es keine Hardware dafür gibt. (erst gestern darüber jemand anders aufgeklärt weil er sich wunderte das sein C9 keine 48GB/s Buchsen hat...) Der Hintergrund ist der gleiche...und wo wir schon mal dabei sind. Das gleiche Problem haben aber aktuell ALLE Hardware Hersteller!

Zuletzt Sound United. Unbekannt? Mutterfirma hinter Denon , Marantz , Polk Audio , Definitive Technology , Classé Audio , Boston Acoustics , HEOS. Bei der Vorstellung der Generation 20/21 ihrer AVR (egal ob Denon oder Marantz) gab es genauso die Diskussionen warum da nur 40GB/s verbaut ist und warum sie es nicht offiziell HDMI 2.1 nennen wenn es doch verbaut ist...

Es sind offiziell keine HDMI 2.1 Buchsen. Weil die komplette Zertifizierung dafür noch nicht mal definiert ist. Und solange die nicht definiert ist kann kein Hersteller HDMI 2.1 drauf schreiben da er ja die Zertifizierung noch nicht durchlaufen ist. Logisch oder? Er kann nur schreiben das sein Gerät "8k unterstützt"...schreibt er es jetzt und sollte die Zertifizierung später warum auch immer scheitern macht er sich rechtlich angreifbar...

EDIT: Wobei bei HDMI 2.1 muss man da noch etwas unterscheiden...(Scheiss Technik... :rolleyes: ;) ) Im Fall von AVR geht es hier um HDMI 2.1 Repeater also Geräte die das HDMI 2.1 Signal aufnehmen , verstärken und weiterleiten. Sprich auch da wird nochmals einzeln Zertifiziert = Unterschieden ob es Ausgang, Repater oder Eingang ist....
 
Zuletzt bearbeitet:
Sa.Lt schrieb:
der Q80R ist doch genau dasselbe, nur halt keine one-connect-box. Zumindest hab ich das so in Erinnerung.
Hab nachgeguckt. Korrekt, der Q80R war das Minimum. Es kann auch sein, dass entweder kaum ein Preisunterschied da war, oder aber ausgerechnet der Q80R kaum zu bekommen war. Ich blickte jedenfalls vor maximal 200€ Preisunterschied zwischen LCD (Q80R oder besser) und OLED (C9). Bei LG war der B9 lustigerweise zu dem Zeitpunkt kein Stück günstiger als der C9, daher fiel der raus.
 
cvzone schrieb:
Da ist schon der Fehler, bezüglich der Diskussion zu den Typen. Es gibt nur ein CX Modell, kein CX9. Die 9 ist bereits ein Subtyp.
..

soso, also ist ein subtyp-modell kein modell ;)

77" 65" 55" 48"
 
Atent123 schrieb:
Gibt es dazu irgendeine Quelle ?
Es wäre mir neu, dass Spannung oder Stromstärke sich bei HDMI 2.1 gegenüber 2.0 verändert haben.

Ja , diverse Videos zuletzt von Denon/Marantz auf YouTube in English oder Deutsch wo die Techniken in HDMI 2.1 erläutert werden bzw. warum die aktuellen AVR nur EINEN "8k tauglichen" Eingang besitzen und dieser "nur" mit 40GB/s verbaut ist.

EDIT: Die Videos dazu in Deutsch:

Thema HDMI 2.1

Thema: Denon AVR 20/21

Thema: Marantz AVR 20/21
 
Zuletzt bearbeitet:
Zurück
Oben