News Technik weiter viel zu teuer: LG und Samsung zügeln ihre MicroLED-Ambitionen

Floppy5885 schrieb:
Ergänzung;
und das währe nicht mal gelogen.... 1 Nit = 3,426 Lumen, 20.000 Nits x 3,426 Lumen = 68.520 Lumen

Google: Ab wie viel Lumen wird man Blind;
Antwort: Im Tierversuch hatten die Studienleiter nachgewiesen, dass bei hoher Lichtintensität von 6.000 Lux sowohl LED-Lampen als auch herkömmliche Glühlampen und Leuchtröhren Entzündungsprozesse im Auge auslösen, die das Absterben von Sehnerven zur Folge haben können.
Lumen und Lux sind ja unterschiedliche Dinge, bin da aber auch kein Experte:
https://www.licht.de/de/grundlagen/lichtlexikon/details-lichtlexikon/lux-und-lumen

Dazu kommt, dass die 20000 nits sich wohl auf Spitzenhelligkeiten beziehen, also nur für sehr kleine Bildbereiche gelten. Wie viel Lux dann tatsächlich zu einem bestimmten Zeitpunkt auf das Auge einwirken wäre erstmal zu zeigen.

Interessant ist hierzu auch ein Post aus dem AVS-Forum: https://www.avsforum.com/threads/whats-the-limit-nit-wise-for-humans-for-hdr.2912058/

"The ambient brightness of a sunny day with clear blue skies is between 7000-10,000 nits (between 3000-7000 nits for overcast skies and indirect sunlight).

A bright sunny day can have specular highlights that reach over 100,000 nits. Direct sunlight is around 1,600,000,000 nits.

10,000 nits is also the typical brightness of a fluorescent tube - bright, but not painful to look at."


20000 nits sollten, vor allem für kleine Bildbereiche, also eigentlich kein Problem für die Augen darstellen. Ansonsten würde man jedes Mal blind, sobald die Sonne scheint. Den meisten Leuten würden aber z. B. 4000 nits mehr als ausreichen für sehr gutes HDR.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bccc1 und MeisterOek
Chilisidian schrieb:
War vor Jahren schon absehbar, dass das kurzfristig nichts wird. Während andere noch am Träumen waren, hab ich damals schon gesagt, dass das vor 2030 nicht realistisch ist.
Es ist schlimmer MicroLed wird man vermutlich nicht brauchen - ausser dem Profiberreich eventuell.
Sony hat ja dieses Jahr gezeigt was mit Miniled und erweiterter Ansteuerung geht. Das wird selbst OLED gefährlich.
 
Der OLED Hype ist einfach so gross inzwischen. Ich persönlich trau dem brsten für einen Gaming Monitor nach wie vor nicht. Kollege der nur Rennspiele spielt, hat bereits sein Dashboard eingebrannt, nach nichtmal nem Jahr. 2x eingeschickt, beim 1x. getauscht, beim 2x. weigert man sich nun, da es ja "eigenverschulden sei"

Obsoleszenz hin oder her, aber ich find natürlkiche, sich abnutzende Dinge bei solchen Sachen zu solchen Preisen echt unverschämt. Sogar bei SSDs hab ich immer noch Magenschmerzen, aber die sind inzwischen wenigstens erschwinglich.
Ergänzung ()

lynx007 schrieb:
Ist ja leider nicht das erste mal... Ich mein Sony Triniton kennt auch keine Sau mehr und so wirds vermutlich auch bei Samsung, LG sein, wen MicroLED kommen sollte, das auf den geräten weder LG noch Samsung stehen wird. Mir egal, solange Fabriken gebaut werden, vom wem das vom Fließband fällt.
Nur weil sie den Markt dafür nicht weiter mit Masse bedienen heißt das ja nicht, das sie nicht weiter F&E investen. Grad bei Samsung kann ich mir das beim besten Willen nicht vorstellen. Auch LG wird das machen, bei dem Stand den sie inzwischen haben können die sich das gar nicht erlauben.

Aber wie du schon sagst .... Bei Sony hat man das seinerzeit auch erwartet. Inzwischen versinken die auch im Niemansland. Wobei ich mit meinem 75" Sony TV immernoch mega Happy bin ^^ Aber damit bin ich halt eine Minderheit inzwischen. Auch der Smartphone Markt ist ja bei unter 1% inzwischen von Sony. Und das obwohl die XPerias echt gute Geräte sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rorian
@TigerNationDE

Also die Masse haben sie noch nie bedient. Und so wie sich der Artikel liest, heißt es für mich schon, dass für mich schon, dass sie dort nicht mehr (groß) weiter investieren.

Denn wie schon angemerkt. Samsung und LG verdienen sich mit Ihren vorhandenen Marken und Sparten, dumm und dämlich. Während Sie jetzt schon Probleme haben, in uLED zu konkurrieren. Da fließen die Gelder in der Regel in die Bereiche, wo der ROI stimmt.

Wen aber nicht mehr gewaltig in einen Bereich investiert wird, dann läuft einem die Konkurrenz oft davon. Soll man sehr gut bei E-Mobilität sehen, wo die Verbrennerhersteller China in allen Punkten hinterherlaufen sollen. China ist da halt noch nen Sonderfall, weil die ja extrem subventioniert werden. Aber das könnte bei uLED ähnlich laufen.
 
lynx007 schrieb:
China ist da halt noch nen Sonderfall, weil die ja extrem subventioniert werden. Aber das könnte bei uLED ähnlich laufen.
Extrem subventioniert, und sich an der Technik anderer bedienen. Wenn die Chinesen anfangen müssen selbst zu entwickeln wirds ja zumeist schwierig. Wie man bei den chinesischen GPU Chips sieht.

So ganz ohne Kopieren ist in China halt nich. Aber da in China kopieren halt als Lob ggü. dem original gilt, ist das halt für den westen schwer nachzuvollziehen :D

Es ist aber am Ende wie immer im Leben. Wenn eine Firma nicht mehr mithalten kann, übernimmt eben eine andere. Wie lang war Intel nun spitzenreiter bei CPUs und hat sich ausgeruht?

Schwierig wirds immer nur für Fanboys wenn so ein großer Konzern es verbockt. Alle anderen freuen sich halt ;)

Also die Masse haben sie noch nie bedient. Und so wie sich der Artikel liest, heißt es für mich schon, dass für mich schon, dass sie dort nicht mehr (groß) weiter investieren.

Samsung und LG sind momentan die Panelhersteller die die Masse versorgen, oder verstehe ich deinen Satz falsch?
 
Kenjy schrieb:
VRR-Flickering und OLED ist keine gute Kombi. "Es gibt nichts besseres als OLED" ist daher nur halb richtig.
Dann schalt es doch aus. Wozu gibt's FPS-Limiter?

Glaub das VRR Flickern tritt nur bei starken FPS Schwankungen auf.

Da ich die FPS bei meinen neuen glossy WOLED auf 220 gelockt habe(240Hz) bin ich da jetzt schon nahe an perfekt. Bisher kein Flickern gesehen.

Das Glossy spiegelt auch nicht ganz so stark wie befürchtet. Tick weniger, als mein LG OLED TV.

Was mir jetzt noch als kleiner Kritikpunkt bleibt, ist die Grundhelligkeit. Die könnte noch etwas höher sein.

Aber ich hab die Funktion "gleichbleibende Helligkeit" bei mir ausgeschaltet, welche die Grundhelligkeit insgesamt noch mal runtergeregelt hat, um nicht dimmen zu müssen, in bestimmten Situationen.

So bin ich insgesamt jetzt schon mal ganz zufrieden, mit allem an Helligkeit, was ich da rausholen konnte. Hab Helligkeit auf 100% und noch etwas an der Farbsättigung eingestellt(war zu fett) und jetzt geht's.

Hab jetzt meinen 27" WQHD 240Hz WOLED (glossy coating). Hatte keine Lust mehr auf die neuesten Teile Ende des Jahres zu warten.

Schwarzwert/Kontrast sind natürlich mega. :)
Typisch WOLED.

Aber wie jemand oben schon schrieb: Für Exel Tabellen/Arbeiten würd ich vom OLED noch weiter absehen.

Für Zocken/Glotzen = super.
Mit Taskleiste und Desktopsymbole ausgeblendet, kein Hintergrundbild (komplett schwarz) und dem Win Screensaver nach bereits 2 Minuten nix tun, hab ich auch Null Bedenken was Einbrennen angeht. 👍
 
Zuletzt bearbeitet:
Pyrosphere schrieb:
Same here.

Ich denke die Leute, die bei OLEDs keine Probleme sehen, sprechen von TVs. Da würde ich auch mitgehen. Der primäre Anwendungszweck von Bildschirmen, die größer als ein Handy/Tablet sind, ist in unserer Zeit aber nunmal Büroarbeit (=PC-Monitor) und nicht Entertainment (TV). Wobei letzteres für viele bei CB ja oft noch erschwerend hinzukommt, dass das auch auf dem PC-Monitor betrieben wird.
Von daher verstehe ich nicht, warum die Hersteller bei neuen Display-Technologien immer mit TVs anfangen...
Aber wozu sollte man einen OLED als Monitor haben wollen wenn man damit primär arbeitet? Macht halt null Sinn.
 
  • Gefällt mir
Reaktionen: ChrisMK72
@scuba2k3 Ich bezog mich in meinem Beitrag nicht auf OLEDs, sondern neue Technik im Display-Bereich allgemein.
Der erste Satz war zur Abgrenzung. Bei TVs ist OLED ja kein Problem; im Monitor-Bereich hingegen schon, was es umso unschöner macht, wenn bei der Nachfolgetechnik microLED jetzt auf die Bremse getreten wird.
 
  • Gefällt mir
Reaktionen: scuba2k3
Ich nutze seit 3 Jahren einen Oled TV auch am PC. Der läuft täglich 8h+, ich hab nichts ausgeblendet oder versteckt und dazu zocke ich halt wie verrückt mit der Konsole darauf.
Games mit dem Bildschirm voll mit HUD Elementen für hunderte Stunden manchmal.
Ich hab nicht ein Problem was Burn in betrifft.
Und gerade die Taskleiste ist halt seit 3 Jahren täglich 8h+ auf dem Oled aktiviert und selbst da nichts.
Daher wird es für mich nur noch Oled geben, außer irgendwann gibts halt eine bessere! Alternative zum maximal gleichen Preis.
Die Schutzfunktionen sind halt an und der TV macht beim ausschalten sein Refresh. Nach 15min inaktivität kommt ein Bildschirmschoner. Reicht offenbar völlig aus.
Ich hatte Anfangs auch bedenken aber offenbar total umsonst ¯⁠\⁠⁠(⁠ツ⁠)⁠⁠/⁠¯
 
  • Gefällt mir
Reaktionen: ChrisMK72
Terabyte100 schrieb:
Durch Backlight Strobing ist die Bewegtbild Darstellung sogar besser als bei einem CRT (am ende wird damit auch nur ein CRT imitiert und bei geringeren Billdwiederholraten führt das auch zu sichtbaren flimmern und niedriger Helligkeit) da hier keine Phosphor Schicht bei straken Helligkeitsunterschieden nachleuchtet.
Das Nachleuchten des Phosphors hat im Gegenteil den vorteilhaften Effekt die Kurve des Helligkeitsverlaufs abzurunden (siehe square-waved strobing vs curved strobing, https://blurbusters.com/blur-buster...000hz-displays-with-blurfree-sample-and-hold/) und damit das wahrgenommene Flimmern massiv zu reduzieren. 1 ms MPRT mit Backlight Strobing müsste flimmern wie die Hölle.
Zudem ist Crosstalk ein ziemlich großes Problem.

LCDs mit Backlight Strobing auf CRT-Niveau gibt es deshalb nicht.

Terabyte100 schrieb:
Moderne VA penal haben um Welten bessere schwarzwerte Als die LCD monitore von vor 20 Jahren.
Das stagniert doch schon seit Jahren (schätzungsweise 2008) bezogen aufs reine Panel.
Ich habe das nur oberflächlich verfolgt, aber das letzte VA-Panel mit einem Kontrastsprung, das ich mitbekommen habe, war vom Samsung LE40B650. Leider sind die Legacy-TV Reviews bei HDTVTest UK mittlerweile offline, sonst hätte man die Zahlen mit modernen Displays vergleichen können.
 
Haben die denn keine Angst, dass sie später technologisch ins Hintertreffen geraten?
 
Kaboooom schrieb:
Das Nachleuchten des Phosphors hat im Gegenteil den vorteilhaften Effekt die Kurve des Helligkeitsverlaufs abzurunden (siehe square-waved strobing vs curved strobing, https://blurbusters.com/blur-buster...000hz-displays-with-blurfree-sample-and-hold/) und damit das wahrgenommene Flimmern massiv zu reduzieren. 1 ms MPRT mit Backlight Strobing müsste flimmern wie die Hölle.
Zudem ist Crosstalk ein ziemlich großes Problem.
Lieder ist je nach Saturation das Gegenteil der fall. Dadurch zieht das Bild teilweise noch stärker nach als bei meinem larmen VA panel aus meinen 2. monitor. Z.b wenn man einen weißen Mauszeiger auf einer schwarzen Fläche.

Natürlich ist Backlight Strobing nur was für sehr schnelle Monitore bei z.b 60 HZ wäre das flimmern massiv dazu muss der Monitor über eine potente Beleuchtung verfügen. Auch für oled Bildschirme kann das interessant sein (auch wen Backlight Strobing da der falsche begriff wäre) um so ein scharfes Bild in Bewegungen zu erzeugen ohne extrem hohe framerate erreichen zu müssen, Aber Dafür müssen die teile erstmal deutlich heller werden. Ein 240 Hz Penal könnte so 120 Hz mit extrem wenig moniton Blur darstellen.

Ich persönlich kann damit nix anfangen da ich nur mit 60 bis 120 Hz spiele und der Helligkeit Verlust schon massiv ist, aber die bewegungsschärfe ist vergleichbar mit einem Oled geräten.
 
duskstalker schrieb:
micro LED kann genau so einbrennen wie oled. Jede Lichtquelle altert und verschließt, und je granularer die einzelnen Lichtquellen sind und je unterschiedlicher sie belastet werden, desto größer ist das Potential einzubrennen.

Die Haltbarkeit steht und fällt mit der Belastbarkeit und der Verschleißcharakteristik der Lichtquelle. Und ob da microled so viel besser als oled ist, sei mal dahingestellt.

microLEDs werden wie bislang aus anorganischen Halbleitern hergestellt (derzeit Galliumnitrid) weswegen sie eine deutlich bessere Ausbeute (Lux pro Watt) haben - und deutlich langsamer altern. Da können wir auch über Alterungsprobleme im Lötzinn reden, das ist bei solchen großen Displays auf - in Massenproduktion dann - dünnen und großen Leiterbahnen eher das Problem. Denn da sind Verwindungskräfte vorprogrammiert. Sieht man schon bei bisherigen TFTs großer Diagonale, Materialeinsparung trifft solche Systeme an der Achillesferse.
 
Habe mir erst ein Samsung S90C Gekauft und denke an OLED kommt man heut zu Tage nicht mehr vorbei.
 
MeisterOek schrieb:
Mir scheint, dass du komplett außer Acht lässt, dass sich aus einem Wafer weitaus mehr Monitore als TVs ausschneiden lassen.
Aus dem Wafer schneidest du bei MircoLED höchstesns die Subpixel aus. Du verwechselst dass mit dem Mutterglas

https://www.radiantvisionsystems.co...lic/2021-03/rgb_microleds_0.jpg?itok=pOGLuRtN
https://www.microled-info.com/sites...roLED-transfer-process-img_assist-400x185.jpg


Derzeit werden halt die Subpixel noch einzeln von den Wafern per Pick & Place auf die Matrix aufgebracht, jedes andere Package Verfahren hat eine noch miserablere Ausbeute. Dementsprechend sehr hoher Aufwand in der Fertigung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cartridge_case
Kenjy schrieb:
VRR-Flickering und OLED ist keine gute Kombi. "Es gibt nichts besseres als OLED" ist daher nur halb richtig.

Ich habe den Eindruck, dass man bei Fernsehern sogar VA-Panels nehmen kann, ohne dass man sich Müll ins Haus holt. Ich habe hier neulich einen Sony KDL-40R555C bekommen. Zwar auch schon vor 9 Jahren rausgekommen, aber geschenkter Gaul und ist trotzdem besser als die Changhong-Gurke, die ich ebenfalls 9 Jahre genutzt habe. Blickwinkelstabilität wirkt für mich eher wie IPS und Schaltzeiten sind auch besser als bei üblichen VA-Krücken, die man als PC-Monitore bekommen hat, selbst in der Zeit danach. Irgendwas müssen die Hersteller bei Fernseh-Panels besser machen. Wobei der Fernseher aus der Generation 2015 natürlich lediglich 60Hz hat, auch nur Full-HD und kein VRR. Trotzdem am Rechner durchaus nutzbar, weil keine Ränder abgeschnitten werden und sich das Bild halbwegs an PC-Monitoren angleichen lässt, wenn auch nur SRGB-like. Der Inputlag ist auch nicht schlechter oder besser als bei 60Hz-PC-Monitoren.

Ripcord schrieb:
Schlimmste Erfahrung was OLED betrifft war noch die Zeit zwischen Galaxy S3 und S10, da konnte ich nach 2 Jahren den Browser sehen ohne ihn geöffnet zu haben, danach wurde es spürbar besser.

S8+ meiner Mutter damals war massiv betroffen, Xiaomi Lite 11 NE und Samsung S21 FE hatten gar nichts. Letzteres nutze ich noch weiter erstmal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ripcord
Zurück
Oben