Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSamsung QD-OLED 2025: LGs Konkurrent nutzt fünf OLED-Layer für bis zu 4.000 Nits
Wann hat man denn auch mal 100 % Window also Vollflächig weiss ? Vielleicht mal bei Counter Strike
wenn man ne Flash Bang abbekommt aber selbst auf ner Sonnigen Schnee Map is das die Ausnahme weil man da immernoch mal Häuser oder Bäume hat somit is man eher im 75 % Window Bereich
2024er Pansonic High End OLED TV ( gleiches Panel wie im 2024er LG G4 High End OLED TV )
HDR :
MaverickM schrieb:
HDR hat ja nicht ohne Grund auch eine Ziel-Helligkeit als Basis
Ich weiss grad nich was mit Ziel Helligkeit gemeint ist
Die Helligkeiten und Helligkeitsbereiche auf dem Bild varieren ja je nach Scene
MaverickM schrieb:
... Wenn ich mich recht erinnere 250cd bei HDR10, entsprechend dynamisch mehr/weniger bei HDR10+/Dolby Vision etc. Was in meinen Augen mehr als ausreicht. Ist eh schon heller als ich meine Bildschirme und den TV einstellen würde.
Die Fakel is hier das HDR Highlight nur die hat 850 Nits der Rest des Bildes is halt eher im Bereich
0-100 Nits ... das Game hab ich auf 1.000 nits gecappt und das Helligkeits Histogramm unten auch
Dann... tu es nicht!? Wenn der Körper mir sagt, es ist unangenehm, ich Kopfschmerzen kriege oder es sogar "weh tut", dann kann das nicht richtig sein. Die Empfindlichkeit dahingehend ist natürlich von Mensch zu Mensch unterschiedlich. Aber sich die Augen mit voll aufgedrehter Helligkeit bei den Geräten (Und es gibt so manchen, der das macht!) zu ruinieren kann wohl kaum sinnvoll sein... Und genau von mehr vollflächiger Helligkeit war weiter vorne im Thread die Rede. Nicht von Peak-Brightness in ein paar Prozent des Bildschirms.
Das sind Heatmaps sie zeigen die Helligkeit unter HDR der jeweiligen Objekte auf dem Bild da ja manche
weiterhin denken das die 4.000 nits immer und überall auf dem Bild sind aber das sind sie eben nich
Hier nochmal 3 : ( Ohne Nit Cap )
MaverickM schrieb:
Die Empfindlichkeit dahingehend ist natürlich von Mensch zu Mensch unterschiedlich.
Das sind Heatmaps sie zeigen die Helligkeit unter HDR der jeweiligen Objekte auf dem Bild da ja manche
weiterhin denken das die 4.000 nits immer und überall auf dem Bild sind aber das sind sie eben nich
Andere dafür nicht das wurde ja im LG und im Samsung Thread mehrmals unter beweiss gestellt
diese Heatmaps gingen nun nich direkt an dich sondern vornnämlich an die allgemeinheit
hatte sie halt mit zu meiner Antwort dazu gepackt weils grad gepasst hatte
Aber wir haben ja nun geklärt das dir die Helligkeit ausreicht aber eben anderen nicht
Ich hoffe nur das langsam das auch mal alle Menschen hier verstehen das eben da nich jeder gleich is
und auch nich gleich empfindet weil dann würde es viel weniger solcher unnötigen Diskussionen geben
Du sagtest mir aber immernoch nich was eine Ziel Helligkeit ist
Ja. Mir ist auch Wurst, ob die Dinger immer noch heller werden. Ich werde sie deswegen definitiv nicht heller einstellen.
Das einzige, was ich mir wünschen würde, wäre, dass man irgendwann, wenn die Dinger 10k, 20k oder noch heller... Peak Brightness beherschen, dass ich diese begrenzen kann/darf.
Das einzige, was ich mir wünschen würde, wäre, dass man irgendwann, wenn die Dinger 10k, 20k oder noch heller... Peak Brightness beherschen, dass ich diese begrenzen kann/darf.
Games werden nur in den seltensten Fällen gemastert ( wenn überhaupt )
das gibts ja eher im Film Bereich daher spielt das im Gaming Bereich keine große Rolle
da Mastert man ja selbst im Game Menu bei der dort im Game Menu befindlichen HDR Kalibration
passend auf sein eigenes Anzeigegerät
Diablo 4 und Metro Exodus geht zb bis auf 10.000 Nits hoch wenn man es bei der Kalibrierung so einstellt
da brauch man dann natürlich auch ein Anzeiggerät das 10.000 Nits kann sonst gibts HDR Highlight Clipping
Blade Runner 2043 wurde zb mit 10.000 nits gemastert.
Was denn für eine Zielhelligkeit, hdr arbeitet im Gegensatz zu sdr nicht relativ zur Maximalhelligkeit.
Die Grundhelligkeit der Szene sollte 200 cd/m2 nicht überschreiten, da sich sonst Spitzlichter weniger effektiv absetzen.
Aus diesem Grund ist der Bereich z.B. auch bei rtings markiert
Mit dem hdr Format steht das in keinerlei Zusammenhang
The PQ based ST2084 HDR specification originally defined expected reference white (nominal diffuse white) as being around 100 nits, which is basically the same as for SDR (Standard Dynamic Range) displays, as specified for mastering (grading) grade-1 applications. With PQ HDR, brightness above 100 nits was expected to be used for spectral highlight detail only. This meant that the Average Picture Level (APL) of a PQ HDR display would not be significantly different to a SDR display for most imagery.
However, subsequent evaluation of PQ based HDR imagery showed a better relative image was attained with a diffuse white around 200 nits. This has since been adopted by the ITU's BT.2408 specification (actually 203 nits), which is 58% of the full PQ signal (input) level. https://lightillusion.com/what_is_hdr.html
Ergänzung ()
MaverickM schrieb:
Das einzige, was ich mir wünschen würde, wäre, dass man irgendwann, wenn die Dinger 10k, 20k oder noch heller... Peak Brightness beherschen, dass ich diese begrenzen kann/darf.
HDR arbeitet mit absoluten Werten und ermöglicht maximal 10.000 cd/m2, was dem höchsten Bitwert (1023) zugewiesen ist.
Einen reinen Peakhelligkeitsregler besitzt kaum ein Monitor/ TV, denn deren hdr Helligkeitsregler verändern meistens auch die eotf (quasi das Gamma) und reduzieren somit auch die Grundhelligkeit.
Nur panasonic bietet m.W.n. einen reinen Peakregler ohne diesen an die Grundhelligkeit zu binden
Bei lg tvs kann man allerdings mittels LUT Kalibrierung auch eine reduzierte Spitzenhelligkeit festlegen
Das menschliche Auge kann - je nach Iris-Öffnung - bereits Helligkeitsunterschiede von weit unter 0,01 Nits wahrnehmen, du erkennst also den Unterschied zwischen 0; 0,01; 0,02; 0,03; 0,04; … 99,95; 99,96; 99,97; 99,98; 99,99; 100 Nits.
Das Auge kann je nach Iris-Öffnung sogar noch kleinere Helligkeitsänderungen wahrnehmen. Ein Problem ist nur, dass ein TV/Monitor das auch "schaffen" muss bei den einzelnen Subpixeln. Schaffen die Subpixel nur, mit 0,5 Nits anzupassen, dann ist das zu wenig und Informationen gehen verloren, da jedes Subpixel so nur 200 Helligkeitsstufen kennt und damit zu wenig.
Bei 1000 Nits wären es bei 0,5 Nits 2000 Stufen pro Subpixel und entsprechend genug Spielraum. Gleichzeitig muss der Unterschied der Stufen auch so gewählt werden, dass das menschliche Auge die Unterschiede auch wahrnehmen kann je nach Iris-Öffnung.
@Stagefire
und weiterhin verbreitest du dein Halb- und Pseudowissen über HDR und schreibst nun davon, dass man Helligkeiten realistisch darstellen will, was aber weitgehend nur falsch ist und überhaupt nicht das Ziel von HDR ist.
Jetzt kommst du sogar mit 10.000 Nits als "Endziel", weil es "realistisch" ist. Mit 10.000 Nits von einem Monitor, kannst du dich sogar bei einem Raum bei Tageslicht bereits blenden und damit die Augen zumindest temporär schädigen, und auch da reden wir nicht von einer vollflächigen Darstellung, sondern von nur kleinen Bereichen. Und da reicht auch bereits nur wenige Augenblicke für.
Solange du hier HDR weiterhin mit der maximalen Helligkeit gleich setzt und solange du hier etwas von realistischer Helligkeitsdarstellung schreibst, sind deine Beiträge nur eines: Voller Pseudo- und Halbwissen, dass den Megapixel-Wahn der Digitalkameras in den 00er Jahren und frühen 10er Jahren im Nichts nachsteht.
Und so lange du dich auf die "realistische" Helligkeitsdarstellung, maximale Nits und Co versteifst, wirst du dich weiterhin zig hundertfach wiederholen und deine Aussage werden dadurch auch nicht besser oder richtiger.
Alleine, dass du erneut die Helligkeitswerte von Gegenständen anbringt, zeigt wieder, dass du viele Sachen überhaupt nicht verstanden hast, hier aber eines auf wissend machen willst. Daher noch mal: Iris-Öffnung des Auges! Von den 10.000 Nits, du hier in dem einen Bild darstellst, kommen auf der Netzhaut weit weniger an, weil die Iris weit geschlossen ist zur Mittagszeit.
Selbst in deinem Bild kann es bereits am Tag zu temporären Verblendungen kommen, wenn man zum Beispiel aus einem dunkleren Bereich plötzlich in den helleren Bereich kommt und die Iris erst reagieren muss, dann kann die "braune" Fläche, die hier mit 10.000 Nits das Sonnenlicht reflektiert, das Auge für kurzen Moment blenden und für Geistbilder für einige Zeit sorgen.
Das Ziel von HDR ist nicht, dass man "realistische" Helligkeitswerte erreicht, sondern dass ein entsprechender Dynamik-Umfang des Bildes erreicht wird und daher sowohl dunkle als auch helle Bereiche gleichzeitig dargestellt werden können, ohne dass ein Bereich dafür entweder abgedunkelt oder eben aufgehellt werden muss und damit die Dynamik verloren geht. HDR soll bei Filmen und ebenso bei Fotos und auch bei Spielen genau das ermöglichen, wozu das menschliche Auge bereits fähig ist: Details erkennbar machen.
Leider wird HDR durch Menschen wie dich, aber teilweise auch die Werbematerialien der Firmen, auf die Helligkeit und damit auf die Nits reduziert, wodurch all die Vorteile von einem erweiterten Farbraum und Co verloren gehen.
Wie geschrieben, gut gemachtes HDR bedeutet nicht, dass man 1000, 2000, 5000 oder 10000 Nits erreicht, sondern gut gemachts HDR und ein guter HDR-Montitor/Fernseher kann HDR entsprechend der gewählten maximalen Helligkeit jederzeit optimal darstellen. Dabei wird die maximale Helligkeit des Monitors dem Umgebungslicht angepasst.
@Stagefire
und weiterhin verbreitest du dein Halb- und Pseudowissen über HDR und schreibst nun davon, dass man Helligkeiten realistisch darstellen will, was aber weitgehend nur falsch ist und überhaupt nicht das Ziel von HDR ist.
Jetzt kommst du sogar mit 10.000 Nits als "Endziel", weil es "realistisch" ist. Mit 10.000 Nits von einem Monitor, kannst du dich sogar bei einem Raum bei Tageslicht bereits blenden und damit die Augen zumindest temporär schädigen, und auch da reden wir nicht von einer vollflächigen Darstellung, sondern von nur kleinen Bereichen. Und da reicht auch bereits nur wenige Augenblicke für.
Auch einige Games gehen hoch auf 10.000 Nits ( Diablo 4 und Metro Exodus zb ) wenn man kein Nit Cap im Game Menu setzt aber da brauch man eben auch ein 10.000 Nit Anzeigegerät für um das dann auch
mit 10.000 Nits darstellen zu können
Und der Grund warum 10.000 nits das Ziel von HDR ist liegt darin das man dann kein Tone Mapping mehr brauch und die Helligkeit der dargestellten Welt auf dem Anzeigegerät realistischer darstellen kann
--
--
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wenn man sich nur den Rauspickt wie du gemachst ja absolut aber ich hatte ja noch andere sachen gepostet
eben die 10.000 Nit TVs von Hisense und TCL ... und nein da wird man nich Blind von
also mein Beitrag is da als ganzes zu sehen es geht in dem Beitrag von mir um Geräte , Panels und Games
die eben 10.000 Nits und mehr können
Die 200.000 Nit AR Sache diente nur zu zeigen das da auch noch mehr geht als 10.000 Nits TVs
10.000 Nits Geräte sind Heute schon Realität allein das wollte ich zeigen und da bekommt man keine Schäden
von wie manche leider weiterhin noch zu denken scheinen
Wenn es Schädlich wäre wie ihr hier vorgebt würden die Hersteller das garnicht entwickeln und es würde auch nich gekauft werden und alle Hersteller die diese Geräte bauen wären nun Blind weils ja laut
euch so schädlich is selbst wenn man nur ein paar Sekunden drauf schaut ... und wir hätten schon zig Leute die nun Augen schäden durch diese TVs hätten aber das haben wir nicht ... auch haben schon viele viele Besucher der CES 2024 und CES 2025 diese 10.000 Nit Geräte auf der CES Live gesehen auch für mehr als ein paar Sekunden ... und was soll ich sagen ... und da sind die Leute nich reihenweise die Augen ausgefallen weils so hell war und musste auch nich deswegen ins Krankenhaus / Augenarzt
.. total absurd.
Aber man kann natürlich vor der Realität weiterhin die Augen verschliesen und alles verteufeln was nicht
zu den eigenen Vorstellungen passt
Ich frag mich was diese ganze Unnötige diskutiererei dauernt soll ... wenn ihr halt kein Bock auf solche Geräte habt dann geht doch auch nich in diese Threads rein wo es um diese Geräte geht
Ich geh doch auch nich in einen Film im Kino wo ich vorher weiss das der Film mir nich Gefällt ... das is doch
total absurd was hier passiert
Zieht weiter dieser Thread is nix für euch und lebt ihn eurer Scheuklappen Welt weiter .... Have Fun !
Ich habe nur den Part rausgepickt den du selbst kommentiert hast
Oder du trennst einfach die entsprechneden Themen mit "----------------", damit klar wird das man diese getrennt betrachten soll, mit Absätzen wird das nicht klar, gerade wenn man soviel Zeug querbeet postet
Das menschliche Auge kann - je nach Iris-Öffnung - bereits Helligkeitsunterschiede von weit unter 0,01 Nits wahrnehmen, du erkennst also den Unterschied zwischen 0; 0,01; 0,02; 0,03; 0,04; … 99,95; 99,96; 99,97; 99,98; 99,99; 100 Nits.
Bei welcher Pupillenweite soll man bitte den Unterschied zwischen 99,95/ 99,96/99,97 cd/m2 wahrnehmen, mal bitte den eotf Kurvenverlauf (egal ob sdr gamma oder hdr10 pq st.2084) zu Gemüte führen und den Sinn der Aussage überdenken.
Allein die ersten 200 der insgst. 1024 Bitwerte von hdr (10 bit) entfallen auf den Bereich 0-2,258cd/m2, nach oben hin wird immer weiter abgestuft.
HDR10 ermöglicht von sich aus keine Ansteuerung auf 0.01 nits genau im genannten Bereich von um die 99 cd/m2, weil wortwörtlich der Sinn dazu fehlt.
Wer behauptet, der Mensch könne beispielweise einen Unterschied zwischen 99,99 u. 100 nits wahrnehmen, hat sich eh für das Thema disqualifiziert und die Bedeutung von 100 nits Helligkeitseindruck komplett verfehlt.
DevPandi schrieb:
Das Auge kann je nach Iris-Öffnung sogar noch kleinere Helligkeitsänderungen wahrnehmen. Ein Problem ist nur, dass ein TV/Monitor das auch "schaffen" muss bei den einzelnen Subpixeln. Schaffen die Subpixel nur, mit 0,5 Nits anzupassen, dann ist das zu wenig und Informationen gehen verloren, da jedes Subpixel so nur 200 Helligkeitsstufen kennt und damit zu wenig.
Wir sind hier im qd-oled Thread, es handelt sich um 10 bit Panels, also 2^10=1024 Helligkeitsabstufungen verteilt auf den Helligkeitsumfang des Panels - feiner kann das Panel von sich aus nicht abstufen.
HDR10 arbeitet mit absoluten Helligkeitswerten und quantisiert einen Helligkeitsumfang von 10.000 nits mit besagten 1024 Abstufungen.
200 Helligkeitsstufen vertragen sich nicht mit der Darstellung von hdr und der dazu notwendigen 10 bit Genauigkeit
DevPandi schrieb:
Bei 1000 Nits wären es bei 0,5 Nits 2000 Stufen pro Subpixel und entsprechend genug Spielraum. Gleichzeitig muss der Unterschied der Stufen auch so gewählt werden, dass das menschliche Auge die Unterschiede auch wahrnehmen kann je nach Iris-Öffnung.
da haben sich ja auch die richtigen im Forum gefunden, viel Spaß euch noch.
DevPandi schrieb:
Mit 10.000 Nits von einem Monitor, kannst du dich sogar bei einem Raum bei Tageslicht bereits blenden und damit die Augen zumindest temporär schädigen, und auch da reden wir nicht von einer vollflächigen Darstellung, sondern von nur kleinen Bereichen. Und da reicht auch bereits nur wenige Augenblicke für.
Von den 10.000 Nits, du hier in dem einen Bild darstellst, kommen auf der Netzhaut weit weniger an, weil die Iris weit geschlossen ist zur Mittagszeit.
aber immer noch genug, um sich auch bei Tageslicht damit die Augen "kurzzeitig zu schädigen" 🤣
DevPandi schrieb:
Wie geschrieben, gut gemachtes HDR bedeutet nicht, dass man 1000, 2000, 5000 oder 10000 Nits erreicht, sondern gut gemachts HDR und ein guter HDR-Montitor/Fernseher kann HDR entsprechend der gewählten maximalen Helligkeit jederzeit optimal darstellen.
was bei Filmen mit hohen Peakhelligkeiten eben auch die korrekte Darstellung genau dieser mit einschließt
Stagefire nervt nur schon seit Jahren mit dem angeblichen Vorteil von höherer Flächenhelligkeit in HDR rum, weil er irgendwelche Schneeszenen gerne blendend weiß hätte und ein oller cx o. c1 in 42" da dank aggressiverem ABL versagt.
Ein qd-oled tv mit min. 220nits ist aber nicht ansatzweise im gleichen Maße betroffen, dennoch wird natürlich wieder auf irgendwelche Fenstermessungen von rtings inkl. Vergleich zu miniled verwiesen, weil in einer solchemn Szene 500 nits+ möglich wären.
Hat zwar mit korrekt dargestelltem HDR kaum was zu tun, aber scheint auch nicht sein Ziel zu sein.
Ingame Helligkeitsregler auf MAximum , DTM einschalten und ABL Dimming beklagen
DevPandi schrieb:
Dabei wird die maximale Helligkeit des Monitors dem Umgebungslicht angepasst.
nope, die Werte gelten stets absolut und ausschließlich für den abgedunkelten Raum, auch wenn DV IQ und ähnliche Hilfsmittel die EOTF entsprechend der Umgebungshelligkeit anpassen
Ergänzung ()
DevPandi schrieb:
Das menschliche Auge kann - je nach Iris-Öffnung - bereits Helligkeitsunterschiede von weit unter 0,01 Nits wahrnehmen, du erkennst also den Unterschied zwischen 0; 0,01; 0,02; 0,03; 0,04; … 99,95; 99,96; 99,97; 99,98; 99,99; 100 Nits.
Bei welcher Pupillenweite soll man bitte den Unterschied zwischen 99,95/ 99,96/99,97 cd/m2 wahrnehmen, mal bitte den eotf Kurvenverlauf (egal ob sdr gamma oder hdr10 pq st.2084) zu Gemüte führen und den Sinn der Aussage überdenken.
Allein die ersten 200 der insgst. 1024 Bitwerte von hdr (10 bit) entfallen auf den Bereich 0-2,258cd/m2, nach oben hin wird immer weiter abgestuft.
HDR10 ermöglicht von sich aus keine Ansteuerung auf 0.01 nits genau im genannten Bereich von um die 99 cd/m2, weil wortwörtlich der Sinn dazu fehlt.
Wer behauptet, der Mensch könne beispielweise einen Unterschied zwischen 99,99 u. 100 nits wahrnehmen, hat sich eh für das Thema disqualifiziert und die Bedeutung von 100 nits Helligkeitseindruck komplett verfehlt.
Zielhelligkeit wird als Begriff üblicherweise für SDR verwendet, weil dort das Gamma sich stets relativ zur Maximalhelligkeit verhält, was mit hdr entfällt.
Gemeint ist vermutlich der nach Möglichkeit nicht zu überschreitende "diffuse white" Wert von 200 nits, aber der stellt auch keine allgemeine Zielhelligkeit dar, weil diese je nach Film bzw. Szene festgelegt wird.
MaverickM schrieb:
Nochmal: Ich weiß, wie HDR funktioniert... Danke...
HDR hat ja nicht ohne Grund auch eine Ziel-Helligkeit als Basis... Wenn ich mich recht erinnere 250cd bei HDR10, entsprechend dynamisch mehr/weniger bei HDR10+/Dolby Vision etc.
Stagefire nervt nur schon seit Jahren mit dem angeblichen Vorteil von höherer Flächenhelligkeit in HDR rum
Ingame Helligkeitsregler auf MAximum , DTM einschalten und ABL Dimming beklagen
Der HDR Helligkeitsslider bei der HDR Kalibrierung im Game Menu wird logischerweise auf Max Nits
gestellt die das Anzeigegerät kann in meinem Fall auf den 800 Nit Cap da mein OLED nur
800 Nits kann bei 2 % Window aber eben nich auf das Max was die Games können also nich
auf 4.000 nits oder 2.000 nits oder 10.000 Nits sondern eben auf 800 Nits da mein OLED jene
800 Nits max nur kann.
DTM mach ich an ja um etwas die niedrigere Helligkeit meines 800 Nit CX OLEDs auszugleichen
dadurch push ich etwas die gesamthelligkeit und nehme halt das leichte HDR Highlight Clipping
in kauf was dadurch entsteht da ich lieber etwas clipping habe als ein zu dunkles gesamt Bild
Und es is auch wurscht ob ich nun DTM an oder aus hab oder HGIG nutze das ABL greift so oder so ein
Ich versteh absolut nicht was diese dauernden frotzelein der Leute soll
Es gibt nunmal Menschen auf der Welt die die Dinge nunmal anders sehen als ihr kommt darauf klar !!
Das menschliche Auge kann - je nach Iris-Öffnung - bereits Helligkeitsunterschiede von weit unter 0,01 Nits wahrnehmen, du erkennst also den Unterschied zwischen 0; 0,01; 0,02; 0,03; 0,04; … 99,95; 99,96; 99,97; 99,98; 99,99; 100 Nits.
Das Auge kann je nach Iris-Öffnung sogar noch kleinere Helligkeitsänderungen wahrnehmen. Ein Problem ist nur, dass ein TV/Monitor das auch "schaffen" muss bei den einzelnen Subpixeln. Schaffen die Subpixel nur, mit 0,5 Nits anzupassen, dann ist das zu wenig und Informationen gehen verloren, da jedes Subpixel so nur 200 Helligkeitsstufen kennt und damit zu wenig.
Bei 1000 Nits wären es bei 0,5 Nits 2000 Stufen pro Subpixel und entsprechend genug Spielraum. Gleichzeitig muss der Unterschied der Stufen auch so gewählt werden, dass das menschliche Auge die Unterschiede auch wahrnehmen kann je nach Iris-Öffnung.
Wenn das Zeil ist, möglichst realistisches HDR darzustellen, Ist dann die Enticklung neuer TVs im Hinblick auf immer größere nit-Zahlen fehlgeleitet? Natürlich wird es ein Mindestmaß an benötigter nit-Zahl brauchen, damit Bereiche auch in dunklen Szene am hellichten Tag darstellbar sind.
Sollten TV-Hersteller deiner Meinung nach eher darauf hinarbeiten, dass einzelne Pixel möglichst viele nit-Zwischenschritte darstellen können?
Da die Enticklung bisher wohl eher Richtung hohe Helligkeit anstatt "Pixel-Granularität" geht, scheint zweiteres deutlich schwieriger für Hersteller umsetzbar zu sein.