Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSchnittstelle: HDMI 2.0a ermöglicht Übertragung von HDR-Formaten
Also ich spiele durchaus mit dem Gedanken, ein 40" TV mit 4K Auflösung als TV und Monitor zu benutzen. Denn das sind dann noch immer um die 110 PPI bei 40", gut also.
Wenn Du von Dimensionen mit 3,6 KW sprichst, muß ich wohl auch davon ausgehen,dass Du mit diesen Dimensionen rechnest.
Die Panas sollen durch Phosphor Panels mehr Leuchtkraft besitzen als Ihre Vorgänger.
Speziel der CXW804 hat HDR und eben Energieeffizienz Klassse B.
Ob daS jetzt den gewünschetn Effekt bringt oder nicht sei mal dahin gestellt.
Aber Deine befürchtete Steigerung der Leistungaufnahme findet schon mal in 2015 nicht statt.
Viel schlimmer finde ich, dass man den Kunden mit immer Grösseren Displays lockt.
Was den Flottenerbrauch in der Praxis steigert.
Und wenn für ein dann irgend wann das Limit einer vernünftigen Display Grösse erreicht ist (Platzbedarf), dann muß man ab einem bestimmten Punkt qualitative abstriche machen, wenn man nicht zu den grösseren M;odellen greifen will/kann.
Jetzt nochmal die Frage,wie groß ist den Dein Plama Display?
Ich bezweifle, dass es zum Beispiel 85" hat
Die Plama Technik würde nämlich mit zunehmender Display Grösse und Andere Mehrverbraucher ganauso im Umfang zu nehmen.
Es geht ja um Energieeffizienz da darf ein grösseres Display ja auch mehr verbrauchen.
Sogar noch deutlich mehr. Genau das ist ja der Grund warum es keine Plasmas mehr gibt, zumidnest bei Panasonic. Mit UHD und Plasma hat die EU gesagt nope nicht erlaubt was ich nach wie vor nicht verstehen kann. Wenn jemand das Geld hat warum nicht?
Das ist mir auch klar, in der Küche hat man schließlich mit dem Herd ähnliche Verbraucher.
Aber Lieschen Müller läßt bestimmt keinen Elektriker kommen nur, dass der neue Tv auch tatsächlich an der vorhandenen Steckdose betrieben werden kann.
mal davon abgesehen, dass man TV mit solchen Verbräuchen im Markt so gut wie nicht absetzen kann.
Das hat ja Plasma im Prinzip ja schon gezeigt.
Selbst bei UHD Modellen müssen die Hersteler aufpassen, dass durch den höheren Stromverbrauch der Otto Normal Verkäufer nicht zu verhalten reagiert.
Und tatsächlich gibt es dieses Jahr teilweiße UHD TV, welche deutlich weniger verbrauchen.
Auch wenn Sie unterm Strich, vielleicht den einen oder anderen Rotstift gesehen haben.
Habe ich wohl übersehen.
50" also mit 250 Watt
Und was würde wohl ein Plama Tv mit 65" 77" 85" Zoll verbrauchen und mit UHD Display
Oder sämtliche Neuerungen, welche bei Dir noch nicht integriert waren?
Jetzt nochmal das ist ein Prototyp, außerdem mit 77"
Auch ist mir nicht ganz klar, wie diese Biegung von statten geht, manuel oder wahrscheinlich motor gesteuert?
In der Serie wird das Ding auf jedenfall keine 3600 Watt fressen.
Und das man bei einem 77" mit mehr Strombedarf rechnen muß, als mit einem 50" dürfte wohl auch klar sein.
Wie gesagt der PAnasonic mit 85" hatte kein HDR und verbraucht auch schon maximal 560
Klar, das Problem ist halt auch noch man vergleicht UHD mit FHD. UHD auf der eine Seite ist praktisch frisch und neu und die Erfahrungen sind noch nicht da. FHD hat man schon so weit optimiert das es nicht mehr schön ist
Und was ist Dolby Vision jetzt genau? Das selbe wie HDR oder wie soll man es sich vorstellen?
Und ich dachte eigentlich immer, das Dolby nur für Ton zuständig ist wie DTS. Obwohl bei Dolby und DTS vieles das gleich ist. Nur andere Technik und Namen.
Es reicht doch vollkommen aus wenn man den erhöhten Objektkontrast via Tonmapping an die Wiedergabegüte anpasst. DAzu bedarf es keinen neuen Standart.
Ich möchte keinen TV der mich 40mal heller als bislang in maximal Hellen Szenen blendet, sondern entspannt einen Film schauen, denn man sollte auch nicht vergessen das die augen bei gedimmten Licht was üblicherweise beim Filmkonsum vorliergt deutlich lichtempfindlicher sind und somit schon deutlich geringere Helligkeiten ausreichen um einen Blendeffekt oder leuchtend blauen Himmel zu erzeugen, nicht auszudenken wie unangenehm das sein müsste wenn man aus einer dunklen Szene heraus, tageslichthellen Himmel in die Augen projeziert bekommt.Solche Helligkeitsschwankungen sind selbst im realen Leben selten und sehr unangenehm und nun sollen wir das also alse angehende Innovation feiern, weil Apps und weiterer SChnullifax im Tv Sektor nicht für reißenden Absatz sorgen.
dazu haben fernseher ja einen helligkeitssensor der die helligkeit automatisch je nach umgebungslicht regelt.
mein philips 6000 hat so einen und der funktioniert wirklich sehr gut.
Immer her mit den neuen Techniken, vor allem wenn es den Farbraum oder allgemein die Qualität verbessert.
Ne die gibt es meines Wissens nicht.
Ich hab darum gefragt,weil ich nicht wußte auf was genau Du geantwortet hast.
Da wir ja um den Mehrstromverbrauch wegen HDR diskutiert haben.
Aber ein 50" Plasma mit Full HD und einem verbrauch von 250 Watt,
würde sicher mit UHD und anderen Features heute auch mehr verbrauchen.
Dahingegen dürfte der Mehrverbrauch durch HDR bei einem LCD auch nicht wirklich mehr verbrauchen.
Wie es ein Plasma mit UHD und dementsprechende Display Grösse täte.
Ergänzung ()
bringt nur nichts bei aktuellen blue rays.
8 bit farbtiefe - filme sind noch dazu im begrenzten farbraum gemastert (16-235).
schön das der monitor bzw. fernseher mehr kann - ohne entsprechendem ausgangsmaterial jedoch nahezu sinnlos.
Darum sollen die Fernseher ja auch auf 4K BD, die diese Möglichkeit in der Spezifikation haben, vorbereitet sein.
Panasonic hatte ja schon ein 4K Player mit 10 Bit und HDR in Ausicht gestellt.
Zwar war das erst ein Prototyp, aber erste Player sollen noch gegen Ende des Jahres kommen.
Und der LCD CXW804 mit HDR kommt ja auch erst frühstens im Juni
Irgendwann muß man halt irgendwo anfangen.
Was ich viel schlimmer finde,dass die 4K Player im Jahr 2015/16 raus kommen.
und die UHD TV`s schon bereits seit Mitte 2013 verfügbar sind.
Und auch wenn nicht jeder Film über HDR verfügt, so bietet die 4K BD zumindest mehr Kapazität und somit mehr Möglichkeiten
Was hier wieder an Halbwissen oder eher Halbaberglauben kursiert ...
Das gibt noch lustige Diskussionen wenn jetzt die ganzen Leute die die erste 4k Generation mit gemacht haben, dann wegen HDMI 2 auf die zweite Generation umgestiegen sind in der Hoffnung dass damit 4k Blurays laufen, sich jetzt mindestens nochmal ne neue Glotze holen dürfen bevor sie endlich zum ersten Mal eingeschränkt 4k Filme damit schauen können. Naja irgendwer muss ja die Wirtschaft ankurbeln
und wer hat für sowas Platz?
Bei einem 21:9 Bildverhältnis ist die länge im verhältnis zur Höhe ja noch breiter
Ein 77" im 16:9 Format hat ja schon folgende Abmessungen
171.8x106.4 ohne Standfuß
171.8x111 mit Standfuß
Bei einem 21:9 Format wäre er bei gleicher höher, ja nochmal um einiges breiter
Außerdem sieht das irgend wie auch ziemlich seltsam aus.
Ich würde mir sowas nicht kaufen wollen.
Kinobalken hin oder her.
Ergänzung ()
Das gibt noch lustige Diskussionen wenn jetzt die ganzen Leute die die erste 4k Generation mit gemacht haben, dann wegen HDMI 2 auf die zweite Generation umgestiegen sind in der Hoffnung dass damit 4k Blurays laufen
Dann sag mir mal wie man mit HDMI 1.4 die Datenmenge von UHD + HDR bewältigen soll
HDMI 1.4 bietet 4K Auflösung nunmal nur mit 24Hz
HDR ist sogar nur mit HDMI2.0a möglich
Ist ja toll, wenn die 4K BD auch mit minimal Voraussetzung unter HDMI 1.4 laufen wird, nur will ich nicht schon bei der ersten möglichen 4K BD schon gleich am Anfang abstriche machen.
Dafür waren die ersten 4K Generationen schlicht weg zu teuer.
Und die ersten 4k Player werden sicher auch einen netten Aufschlag kosten,dann soll sich die Investition auch bitte im vollem Umfang bemerkbar machen.
Man muß sich umgekehrt mal die Frage stellen, in welchem Einsatzgebiet die 4K Besitzer der ersten Generation Ihre höhere Auflöung überhaupt nutzen konnten.
Und welche kosten dafür aufgewendet werden mußte.
Die 4k Player kommen einfach viel zu spät.
Hätte man Sie zusammen mit den ersten 4KTV rausgebracht, würde ich sagen scheiß drauf, es gibt immer eine Weiterentwicklung.
Aber, wenn ich erst 2016 den ersten 4K Player kaufen kann, dann will ich ihn auch mit all den Features,die er mir zum Zeitpunkt des KAufs bietet nutzen.
Wenn ein JAhr später wieder was dazu kommt, ist es mir Wurst,dann bin ich versorgt.
Und darum kauf ich mir auch erst ein 4K TV,wenn ich ein 4k Player dazu kaufen kann.
Die TV Austrahlung in 4K muß man ja ohnehin noch länger warten.
Dann sag mir mal wie man mit HDMI 1.4 die Datenmenge von UHD + HDR bewältigen soll
HDMI 1.4 bietet 4K Auflösung nunmal nur mit 24Hz
HDR ist sogar nur mit HDMI2.0a möglich
Ist ja toll, wenn die 4K BD auch mit minimal Voraussetzung unter HDMI 1.4 laufen wird, nur will ich nicht schon bei der ersten möglichen 4K BD schon gleich am Anfang abstriche machen.
Dafür waren die ersten 4K Generationen schlicht weg zu teuer.
Und die ersten 4k Player werden sicher auch einen netten Aufschlag kosten,dann soll sich die Investition auch bitte im vollem Umfang bemerkbar machen.
Man muß sich umgekehrt mal die Frage stellen, in welchem Einsatzgebiet die 4K Besitzer der ersten Generation Ihre höhere Auflöung überhaupt nutzen konnten.
Und welche kosten dafür aufgewendet werden mußte.
Die 4k Player kommen einfach viel zu spät.
Hätte man Sie zusammen mit den ersten 4KTV rausgebracht, würde ich sagen scheiß drauf, es gibt immer eine Weiterentwicklung.
Aber, wenn ich erst 2016 den ersten 4K Player kaufen kann, dann will ich ihn auch mit all den Features,die er mir zum Zeitpunkt des KAufs bietet nutzen.
Wenn ein JAhr später wieder was dazu kommt, ist es mir Wurst,dann bin ich versorgt.
Und darum kauf ich mir auch erst ein 4K TV,wenn ich ein 4k Player dazu kaufen kann.
Die TV Austrahlung in 4K muß man ja ohnehin noch länger warten.
Ja sehe ich genauso.
Meine Aussage war eher darauf gemünzt, dass ich bei der ersten 4K Generation von vielen Leuten gehört hab wie toll 4K ist und dass sie sich jetzt so nen TV geholt haben. Wohlgemerkt als die Dinger noch 2k+ gekostet haben.
4k Material gibts bis heute nix -> TV Anschaffung war überflüssig.
Dann kamen die HDMI2.0 TVs und entsprechende Leute haben sich nochmal so nen TV zugelegt.
Bis es dann wirklich Filmmaterial gibt, unterstützen die TVs schon wieder über die Hälfte aller Technologien nicht mehr, die von der BDA wohl vorgesehen sind.
Deswegen ist es in meinen Augen auch Blödsinn jetzt 4k Displays zu kaufen. Games laufen nicht ruckelfrei, weil die GPUs mit 28nm Prozess an der Grenze des Machbaren momentan sind - Hardwaredekodierung von h.265 ist auch noch nicht flächendeckend verfügbar - und Filme gibts noch nicht.
4K wird erst interessant wenn es erste Filme gibt oder Grafikkarten, die bei entsprechender Auflösung auch ordentlich Leistung rüber bringen und bis das so weit ist gibt es noch einige Neuerungen im Displaysektor, die ich gerne noch abwarten würde, wie HDR oder 10 bit Farbtiefe.
Ich denke 2016 wird das 4k Jahr. Pascal, 4k BD und mit viel Glück vielleicht auch endlich eine anlaufende Massenproduktion an OLED Displays ... Daumen drücken
Mein nächstes Display wird ein faltbares 4k TrueOLED 12bit HDR mit 200Hz über HDMI 3.0abc, 3D-Vision und G-Sync
Nur bei Kameras lohnt sich 4k auch heute schon, weil man da dank oversampling auch am FullHD Display was von hat.
Ständig fuddeln die am Standard herum, ständig passt irgendetwas dann doch nicht.
Wie stellt der Standard-Body sich dass denn vor?
Der Konsument soll a la Mobilfunkvertrag alle zwei Jahre
sein komplettes Equipment
auf den gerade aktuellen HDMI-Standard umstellen
und dabei das Alphabet durchdeklinieren?
Ich hoffe die Industrie tritt HDMI endlich mal in die Tonne, da wo es mittlerweile hingehört.
Schluss mit dem HDMI-Salat, hau wech den Sch....
Die Industrie sollte nun einen Standard definieren
der auf einem optischen Übertragungsmedium basiert
und einen 10-fachen Headroom bietet.
Es muss ja mal eine Weile reichen.
Wer sich einen AVR zulegt und/oder andere Geräte zulegt
kann nicht ständig seine Gerätschaften auswechseln.
Das Affentheather von HDMI (und auch HDCP) geht mir auf den Keks.
Macht es einmal richtig, nervt uns noch einmal,
und dann lasst es mal gut sein für die kommenden 20 Jahre.
DisplayPort ist da schon etwas besser.
Aber wo gibt es AVR mit DisplayPort-Anschlüssen?
Und auch DisplayPort wäre gut beraten den Standard nicht via Salami-Taktik zu verbessern
sondern mal ordentlich zuzulangen und ebenfalls eine Version definieren
die alles bislang erdenkliche für die kommenden 20 Jahre mit abdeckt.
Zumindest die AVRs sollten/müssten diese "abschließenden" Standards in ihre Gerätschaften integrieren,
die Zuspieler können ihre Inhalte ja mit einem minderen Sub-Standard liefern
der gerade ausreichend ist um etwas Kosten zu sparen.
Geräte jedoch, die Inhalte annehmen oder aggregieren,
müssen mit einem Connection Standard ausgestattet werden
der (mindestens) die nächsten 20 Jahre gut ist.
Ein guter AVR kostet heute €600 aufwärts,
€4000 sind da auch schnell mal erreicht.
Solche Investitionen müssen eine Weile Bestand haben können.
HDMI und DisplayPort müssen sich auf den Hosenboden setzen
und endlich mal ihre Hausaufgaben machen
anstatt Murmeln zu spielen.
Insbesondere HDMI hält die Industrie ja mehr auf als dass sie diese fördert.
Es ist vielleicht auch an der Zeit dass eine Firma Intel
mal einen offenen "abschließenden" (optischen) Connection-Standard definiert.
Und IP, Technologie und Produkte dafür anbietet
damit die Industrie in die Gänge kommt.