Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKompatibilitätstest für HDMI 2.0 ist fertiggestellt
Also irgenwie schon etwas enttäsuchend 0.o warum ist Uhd nur mit 30 fps möglich und 4k nicht mal genauer spezifiziert? Sowie UHD und 4k in voller auflösung auf 3d wäre auch wünschenswert.
Da gehts weniger drum dass man sowas braucht, als dass es nichts ausmacht, soviel zu übertragen. Ein Audiodatenstrom ist lächerlich im Vergleich zu Bilddatenströmen. Das bischen Audio fällt kaum auf in der Gesamtbetrachtung.
Hab einen LG 47LW650S, also noch ziemlich aktuell. Der DeInterlacer von dem Gerät ist halt 1A.
Keine Ahnung wieso du behauptest, dass mein TV-Gerät Müll ist.
Aber OK.
Sehr wahrscheinlich ist es sogar völlig egal welches HDMI-Kabel. Ist ja nur Geldmache mit den unterschiedlichen Kabelarten. Wer unter 100m, ok sind wir freundlich und sagen 50m, ist sollte mit jedem HDMI-Kabel zurecht kommen. Nicht getestet, aber ich vermute es einfach mal aufgrund meines Wissens in Sachen Kabel.
HDMI with Ethernet ist auch ein denkbar blöder name.
dabei geht es nur darum, dass der HEAC Kanal als Twisted Pair Leitung ausgelegt wurde und damit bis zu 100MBit/s schaft. Kostet nicht mehr, Schadet nicht, also wieso aufregen?
Die wichtigste Neuerung von HDMI 2.0 ist die im Hinblick auf steigende Bildschirmauflösungen von 10,2 auf bis zu 18 Gbit/s erhöhte Datenrate, mit der 4K-Auflösungen (2160p) auch mit 50 und 60 Bildern pro Sekunde dargestellt werden können
Ja hast du, was ist dein Problem? Wieso muss es immer englisch sein?
Kenneth schrieb:
[...] Rechnerisch
720p mit 25fps gleich 720p mit 25fps
1080i mit 50fps gleich 1080p mit 25fps (1 Vollbild halt nur in 2 Schritten übertragen, theoretisch hat das Bild ja eh nur 24fps was das eigentlich viel grössere Problem ist)
Ich sehe in der Praxis zwar keinen Unterschied bei beiden Auflösungen, aber würde rein Mathematisch das 1080i vor ziehen. Wie gesagt, alle Nachteile die Interlaced auf dem Papier hat ist bei meinem 2 TV's und dem von meinem Dad nichts zu sehen. [...]
Die Rechnung stimmt zwar, nur sind die Angaben falsch. Die öffentlich rechtlichen übertragen nämlich 720p mit 50fps.
Die Datenrate ist bei beiden Übertragungen gleich.
Mir ist auch kein Fernseher bekannt der das deinterlacing nicht anständig hinbekommt. Daher sieht ein 1080i Bild wirklich schärfer aus. (Vorrausgesetzt man hat einen Full HD Fernseher)
720p bei 50fps hat aber auf jeden Fall auch seine Vorteile. Die Bildübergänge sind ja viel flüssiger. Da wird aber von Hollywood und co nur diese Ruckelorgien gewohnt sind die wir auf den DVD's und BluRays und im Kino zu sehen bekommen fällt es aber wohl nicht wirklich ins Gewicht.
Wenn HDMI erst mit Version 2.0 das 21:9 Cinemascope Format unterstützt, wieso haben die 21:9 Monitore dann schon seit einem Jahr auch HDMI Anschlüsse?
Wie passt das zusammen?
Kann mir das jemand erklären?
Was bedeutet es, dass erst jetzt mit HDMI 2.0 das 21:9 Format unterstützt wird? Wenn man den 21:9 Monitor schon lange per HDMI an den PC anschließen kann.
Sehr wahrscheinlich ist es sogar völlig egal welches HDMI-Kabel. Ist ja nur Geldmache mit den unterschiedlichen Kabelarten. Wer unter 100m, ok sind wir freundlich und sagen 50m, ist sollte mit jedem HDMI-Kabel zurecht kommen. Nicht getestet, aber ich vermute es einfach mal aufgrund meines Wissens in Sachen Kabel.
Stimmt nicht, um 15m (ausserhalb der Spezifikation) musste ich bereits einen 3-Stelligen Bertrag in das HDMI Kabel investieren. Was ich nicht verstehe ist wieso man da nicht längst Ethernet Kabel verwendet, da wären die 100m wahrscheinlich kein Problem.
karod3 schrieb:
Kann mir das jemand erklären?
Was bedeutet es, dass erst jetzt mit HDMI 2.0 das 21:9 Format unterstützt wird? Wenn man den 21:9 Monitor schon lange per HDMI an den PC anschließen kann.
Vllt weil es einfach nur Marketingschwachsinn ist?
Ergänzung ()
c2ash schrieb:
@Kenneth
Hab einen LG 47LW650S, also noch ziemlich aktuell. Der DeInterlacer von dem Gerät ist halt 1A.
Keine Ahnung wieso du behauptest, dass mein TV-Gerät Müll ist.
Aber OK.
Ist halt eben nichts besonderes, und dann noch LG (oder "geklaut bei Samsung" wobei Samsung auch schon seit längerem nur noch Schrott produziert).
Fernglotzen ist aber so oder so völlig uninteressant und das wird sich mMn. auch nie ändern.
Willst du einen guten TV sehen? Schau dir mal die Kuro Plasmas an, vor allem im Vergleich zu aktuellen "Topmodellen" anderer Hersteller (Pioneer hat damals praktisch alle anderen wie blutige Anfänger aussehen lassen, ist wohl das einzige TV-Gerät ohne nennenswerten Wertverfall in der Geschichte ), da man diese aber heute auch kaum noch gebraucht bekommt führt kein Weg an der mittlerweile auch eingestellten VT Serie von Panasonic vorbei.
Zumindest solange es keine Pioneer/Panasonic OLEDs aufm Markt gibt.
Hollywood steht halt hinter HDMI (auch teils wegen HDCP usw.) und nicht hinter DisplayPort, welches der offizielle Nachfolger von DVI ist. HDMI ist quasi der Nachfolger von Scart. Ich setze bei PCs ausschließlich auf DisplayPort
Hab einen LG 47LW650S, also noch ziemlich aktuell. Der DeInterlacer von dem Gerät ist halt 1A.
Keine Ahnung wieso du behauptest, dass mein TV-Gerät Müll ist.
Aber OK.
Ja war nur ne Vermutung. Wenn der 1A ist und trotzdem Streifen bei Bildschwenks Verursacht dann ist 1A nicht gut genug. Was wäre denn die Steigerung von 1A DeInterlacer?
Diesen hätten dann mein Samsung 63" Plasma, mein Toschiba 40 LED" und mein Dad's Philips 47 LED" Sind fast alles Modelle die 1 oder 2 Hauptnummern hinter dem High End Modellen liegen. Bzw ca. 5 über den billigsten.
Vor 3 Jahren Jahren war ich jetzt nicht von LG Überzeugt. Auch Samsung hat mich damals nur mit dem Preis zur Leistung überzeugt. Aber seit der IFA 2013 würde ich pauschal nicht behaupten das LG schlecht ist. Im Gegenteil, ich würde sogar sagen das mein Plasma als auch der von Panasonic nicht mehr das Beste Bild gegen aktuelle LED/OLED bietet. Bei den OLED Teilen waren LG auf der Messe ganz vorne im High End (inkl High End Preis) mit dabei und würde mich gegen LG nicht versperren. Allein schon wegen der Passiven 3D Technik.
Das HFR +3D in die Wohnzimmer kommt finde ich schon mal Super. Aber ich werd mein Teuren erst rausschmeissen wenn der TV sich selber das Datum aussucht.
Stimmt nicht, um 15m (ausserhalb der Spezifikation) musste ich bereits einen 3-Stelligen Bertrag in das HDMI Kabel investieren. Was ich nicht verstehe ist wieso man da nicht längst Ethernet Kabel verwendet, da wären die 100m wahrscheinlich kein Problem.
Ja natürlich, auch wenn da bei Vollausbau schon Gigabyte pro Sekunde übers Kabel sollen: Dicke Kabel sind bäh, sehen bäh aus, lassen sich bäh verlegen. Der typische Nutzer (jedenfalls bevor er an Monster oder andere Voodooläden gerät ) würd seine Glotze am liebsten mit nem Klingeldraht anschließen. Reicht doch, is doch auchn Kabel, mit dem man was übertragen kann.
Es liegt nicht nur an der Abschirmung, je nach Gerät scheint die Spannung zu variieren, die PS3 scheint zb: überdurchschnittlich viel zu liefern, vllt um auch mit schlechteren Kabeln zurecht zu kommen.
Kenneth schrieb:
Im Gegenteil, ich würde sogar sagen das mein Plasma als auch der von Panasonic nicht mehr das Beste Bild gegen aktuelle LED/OLED bietet.
Ich will nicht klugscheissen aber die Bezeichnung LED-TV bezieht sich nur auf die Hintergrundbeleuchtung, was auch der Grund ist wieso man diese Geräte meiden soll. Selbst die besten LCD-TVs sind nur Edge-lit was unweigerlich zu clouding führt. Es gab zwar Ansätze dies zu verbessern (zB Samsung A9) aber der 0815 Verbraucher wollte nicht für etwas zahlen was er nicht versteht.
Man sollte auch beachten dass Plasma-Geräte in einer Ausstellung aufgrund der Lichverhältnisse immer unterdurchschnittlich aussehen.
Ausserdem ist der Vergleich nicht gerade fair, solange du nicht einen der neusten Plasmas zuhause stehen hast.
Nun, von Berufs wegen darf ich öfters digitale Bildformate über längere Strecken übertragen.
Wir reden hier bei 4K von Bildraten über 15GBit/s. Kennst du ein Ethernet-Kabel, das zuverlässig diese Datenmenge über 100m überträgt?
Zum Verlustfreien Umsetzen gibt es teure Spezialgeräte, die dann meist im HDBaseT Standard oder im DGKat Standard übertragen. Das sind aufwendige und immernoch anfällige Protokolle. Zudem lassen sich damit nur Punkt zu Punkt Verbindungen aufbauen. Durch die höhere Latenz aufgrund der Umsetzung und der Kabellänge spielt dann auch noch unter Umständen der HDCP Handshake mit rein und wird zum Problem, je nach Gerät.
Auch diese Standards sind nicht pèr sé kompatibel untereinander. Sender von Hersteller A funktioniert oft nicht mit Empfänger von Hersteller B.
Und genau das muss HDMI bewerkstelligen. Kompatibilität über alles.
Auch wenn ich persönlich DP bevorzuge, es gibt nahezu keine Geräte mit DP außer Grafikkarten und PC-Bildschirme.
Leider ist es so, dass HDMI Müll ist und mit höherer Bandbreite scher noch anfälliger wird.
Das fängt schon damit an, dass das Signal ( Dfferenz zwischen "0" uns "1" ) bei HDMI sehr gering ist und setzt sich bei Toleranzen von Sender und der Empfänger fort was sich oft dadurch bemerkbar macht, dass bei einigen Gerätekombinationen schon bei <10m schluss ist und bei anderen nicht.
HDCP Handshake setzt dem ganzen die Krone auf^^