News LG OLED-TV G5: So viel Strom benötigen die neuen Fernseher laut EU-Kennzeichnung

onetwoxx schrieb:
Und dass ist halt das Problem, man hat keinerlei Vergleichsreferenzwert, die Angaben beim Label beziehen sich einfach nur auf den Auslieferungszustand -> eingestellte Helligkeit/Backlight unbekannt, Testvideo unbekannt, usw

Das ist so wohl nicht korrekt. Die Testverfahren sind zu einem guten Teil (minus Schmu den die Hersteller treiben um im Test gut abzuschneiden) schon standardisiert - kannst Dich ja mal durch die Vorgaben wühlen. Mit dem tatsächlichen Verbrauch beim Nutzer hat das ganze aber - wie meist bei sowas - aber vermutlich wenig zu tun. Wobei das Verhältnis der Geräte zueinander vergleichbar bleiben dürfte. Sprich: Ein Gerät mit SDR A wird immer weniger verbrauchen als ein Gerät mit SDR B (bei gleichen Rahmenbedingungen).
 
Ich habe gar keinen Plan was mein TV so verbraucht, ist mir aber auch egal.
Der Läuft paar mal die Woche für ein paar Stunden.
Das wird sich sicherlich beim nächsten TV mit 85-98 Zoll bemerkbarer machen, aber ob ich nun 3500 kWh oder 3800kWh pro Jahr verbrauche (Gesamthaushalt), macht den Kohl in Summe nicht mehr Fett.
 
  • Gefällt mir
Reaktionen: masterkruk
mehr als 32" braucht doch kein Mensch. hoffe dass die bald EU weit verboten werden.

und der schwachsinn wie grafikkarten die mehr als 100w nehmen gleich mit
 
mannefix schrieb:
Ist das HDR standardmäßig eingeschaltet?


Erstmal .... Willkommen in 2010 !!! :D


Screenshot 2025-01-28 203939.png




Und zu deiner Frage : Nein !


mannefix schrieb:
Und schaltet sich auch automatisch ab, wenn kein HDR Signal am TV ankommt?

Im Bereich Film und Serien und TV ja bzw schaltet es sich dann ja erst garnicht ein wenn kein HDR Content anliegt sondern SDR Content

Im Bereich PC nein da man dort das HDR nochmal gesondert in Windows anschaltet und
ausschaltet

mannefix schrieb:
Wann erkennt man, dass die Kiste mit HDR läuft?

Wenn Rechts oben für so 2 Sekunden das HDR oder Dolby Vision Symbol sichtbar wird und danach wieder verschwindet



Screenshot 2025-01-28 203716.png
--
Screenshot 2025-01-28 203750.png
 
  • Gefällt mir
Reaktionen: Romanow363
Ich habe seit vorgestern von einem 46" Panasonic Neo Plasma auf einen 77" G4 umgestellt.
Ich bin wirklich überrascht, wie viel weniger der wesentlich größerer Fernsehr bei gleichem Inhalt verbraucht. Ich dachte zuerst, dass unser Smart Meter kaputt sei. Und wenn der G5 jetzt nochmal einen Tuck weniger braucht - schön. Das ist dann ein nice to have. Die Bildqualität ist wirklich gut.
 
  • Gefällt mir
Reaktionen: Romanow363
Child schrieb:
Das ist so wohl nicht korrekt. Die Testverfahren sind zu einem guten Teil (minus Schmu den die Hersteller treiben um im Test gut abzuschneiden) schon standardisiert - kannst Dich ja mal durch die Vorgaben wühlen. Mit dem tatsächlichen Verbrauch beim Nutzer hat das ganze aber - wie meist bei sowas - aber vermutlich wenig zu tun. Wobei das Verhältnis der Geräte zueinander vergleichbar bleiben dürfte. Sprich: Ein Gerät mit SDR A wird immer weniger verbrauchen als ein Gerät mit SDR B (bei gleichen Rahmenbedingungen).
Ich gaube du solltest dir selbst mal die EU Verordung durchlesen.
https://eur-lex.europa.eu/eli/reg/2019/2021/oj?locale=de (ab Anhang I (1))

Die Hersteller müssen im Verkaufszustand nur die Referenzwerte gemäß des Max Verbrauchs der Energieklasse einhalten.
Anhand welches Content da gemessen wird, kann der Hersteller selbst entscheiden, es darf nur eine gewisse Helligkeit bei der Messung (ca 220 cd/m²) nicht unterschritten werden, dass war es dann Großteils auch schon

TV ABC mit F/80 Watt kann auf 500 Nits voreingestellt sein, TV XYZ bei mit den gleichen Verbauchs/EEK Werten nur auf 350 Nits
Mit Verbrauchswerts oder EEK aud dem Label kann kein Verbraucher direkt auf die vorkalibrierten Helligkeiten schließen, somit ist keine wirkliche Vergleichsmöglichkeit bzgl der wahren Effizenz gegeben.
 
Kraeuterbutter schrieb:
trifft ja dann nur auf die zu, die sich bei jeder Grafikkartengeneration eine neue kaufen müssen..
Nicht ganz. Auch dem Upgrader von einer 2080 Ti zB entgehen dann einfach weitere 20-30% Mehrleistung die er jetzt normal bekommen hätte wenn nVidia Gas gegeben hätte.

Klar ist der dann schon über den 250% Gain happy aber 280% wären halt immer noch besser.
 
onetwoxx schrieb:
Ich gaube du solltest dir selbst mal die EU Verordung durchlesen.
https://eur-lex.europa.eu/eli/reg/2019/2021/oj?locale=de (ab Anhang I (1))

Hab ich damals schon quergelesen. Da steht auch nichts drin bzgl. der Sequenz für die Verbrauchmessung. Da hast Du recht. Allerdings ist das Prüfverfahren auch gar nicht In der Verordnung definiert. Zumindest nicht komplett. Mit der Verordnung wurde folgendes veröffentlicht: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:52010XC0504(02).

Da geht es um die konkrete Durchführung. Wenn ich es richtig verstehe dann wäre IEC 62087 für die Verbrauchmessung heranzuziehen. Was da genau drin steht ... keine Ahnung. Ist nicht frei verfügbar und für mich persönlich führt das auch zu weit.
 
Auf das Siegel am TV schau ich nicht, halte mich lieber an die gemessenen Verbrauchswerte in entsprechenden Tests. In der audiovision z.B. sieht man sehr schön den Unterschied der verschiedenen Systeme (OLED/LCD/Mini-LED).
Sicherlich sind die eigenen Sehgewohnheiten dann nochmal anders als in den Tests, aber ein Anhaltspunkt sind sie allemal.
 
Zuletzt bearbeitet:
Irgendwie denke ich da wie bei den Waschmaschinen... Als wir unsere (vor paar Jahren) gekauft haben war auch die Entscheidung zwischen A+++ und A++... Es wurde die A++, weil bei knapp 150€ Unterschied es dann doch echt lange dauert um bei den rund 20kWh Mehrverbrauch im Jahr wieder rein zu bekommen. Und heutzutage glaube ich auch nicht, dass ich eine Maschine kaufen werde, die dann 20Jahre+ durchhalten wird.
 
Deinorius schrieb:
Wenn der max. Wert bei über 200 W liegt, der durchschnittliche bei einem durchschnittlich hellen Film/Spiel aber dennoch bei nur 100 W (reine Annahme, muss ich selber testen) liegt, sind das völlig andere Annahmen.
Hängt auch stark davon ab, was man schaut: Wer viel Weltraumfilme schaut, wird mehr schwarz haben, als jemand, der viele Filme mit viel Sonne schaut. Es gibt zu viele Faktoren, die das beeinflussen, auch der eigene Aufstellort und die dort befindliche Lichtsituation: Bringt ja nichts, einen "sparsamen" TV zu kaufen, der dann in einem hellen Wohnzimmer steht und die Helligkeit dann auf Max gestellt wird.
 
  • Gefällt mir
Reaktionen: onetwoxx und JMP $FCE2
Child schrieb:
Da geht es um die konkrete Durchführung. Wenn ich es richtig verstehe dann wäre IEC 62087 für die Verbrauchmessung heranzuziehen. Was da genau drin steht ... keine Ahnung. Ist nicht frei verfügbar und für mich persönlich führt das auch zu weit.
Ich habe die 2023 mal überflogen, Änderungen sind da auch aufgeführt (siehe darunter )
zu 99% steht da dasselbe drin
a) it introduces measuring procedures for the determination of power consumption in the On mode while viewing static metadata HDR video content;
b) all tests for On mode power determination are performed with MDD disabled;
c) only progressive video signals are used for testing;
d) a dimmable LED reflector lamp is used as a light source for illuminating the ABC sensor to achieve specific illuminance levels;

e) a dynamic box and outline video signal is used for determining the ratio of peak luminance.
Diese exkaten DurchführungenÄnderungen sind schon ausführlich in der EU Verordung aufgeführt, das sind diese IEC Normen, etc
Exakten Änderungen sind immer im Anhang zu finden, egal welche Verordnung, damit man sieht was sich geändert hat. So blöd sind die EU Beamten da auch nicht, da sonst jeder erstmal beide Versionen vergleichen muss umd erstmal zu wissen wo was geändert wurde

Das Lustige an der ganzen Sache ist auch, das diese Testlabore in Taiwan und China sind, nichtmal in der EU selbst
 
Zuletzt bearbeitet:
DarkSoul schrieb:
Hängt auch stark davon ab, was man schaut: Wer viel Weltraumfilme schaut, wird mehr schwarz haben, als jemand, der viele Filme mit viel Sonne schaut.
Deshalb habe ich von "durchschnittlich hellen Film/Spiel" geschrieben. Was dieses durchschnittlich sein kann, wäre mit einer größeren Anzahl an Testfilmen/-serien ermittelbar. Es ginge dabei um eine Annäherung, aber das wäre so viel mehr wert. Dass ein Weltraumfilm weniger verbraucht, ist doch klar und wäre als zusätzliche Info interessant (Interstellar wäre interessant, weil Weltraum, Erde und auch ein Planet mit viel Weiß vorhanden sind.), aber im Grunde sind Werte von hellen Medienbeispielen wichtiger, dann weiß man, dass dunklere weniger verbrauchen. Es ist besser, wenn der ermittelte Durchschnittswert kein Best-case-Szenario darstellt, ein Worst-case-Szenario würde die Realität ja auch nicht vernünftig darstellen.
 
Deinorius schrieb:
Es ist besser, wenn der ermittelte Durchschnittswert kein Best-case-Szenario darstellt, ein Worst-case-Szenario würde die Realität ja auch nicht vernünftig darstellen.
Ist wie beim Spritverbrauch beim Auto, es gibt keinen echten Durchschnittswert. Daher sind die maximalen Verbräuche auf jeden Fall ein Anhaltspunkt, und man kann mit weniger rechnen als wenn man angebliche Durchschnittswerte angibt, die dann doch nicht eingehalten werden, da die Hersteller ja auch nicht blöde sind und versuchen werden diese Werte so weit wie möglich zu drücken.
 
Amelie5000 schrieb:
meiner verbraucht mit Soundbar 150 watt, ist das viel altes LED ca. 46 zoll ????
Ohne Soundbar messen.
Die könnte ja alles möglich verbrauchen, je nach Verstärker.
 
Zurück
Oben