News HDMI 2.1: 8K bei 60 Hz über Ultra-High-Speed-Kabel mit 48 Gbit/s

d169 schrieb:
Stimmt, denn DP unterstützt 10 bit pro Farbkanal, aber selbst HDMI 2.1 bleibt bei 8 bit hängen:evillol:.

Ich habe Witcher 3 auch mit 10Bit auf meinem UHD TV gespielt. :) Der hat nur HDMI 2.0 ;)
 
Finde ich gut. Jetzt muss HDMI nur noch royalty free sein, so wie Display Port. Abgesehen von dem ganzen HDCP und DRM kack

Kann man mit HDMI dann auch mehrere Bildschirme anschliessen an einen port? USB passt auch, ja?
 
Zuletzt bearbeitet:
venom667 schrieb:
Bei TVs könnte man evtl Glück haben da der Markt größer ist und die Leute da gerne tausende € für rauswerfen, obwohl es bei TVs wesentlich uninteressanter ist als bei Monitoren.

Bei TVs ist der neue Standard alles andere als uninteressant. 8K mal außen vor, ist vor allem der Game Mode VRR und eARC wichtige Faktoren für eine breite Unterstützung. Dolby Atmos ist nun mal in aller Munde, mit eARC lassen sich nun die beliebten Soundbars bequem an TVs anschließen und mit dem Game Mode kann Freesync bei den Konsolen Einstand feiern.

Alles lässt sich von den TV Herstellern wunderbar vermarkten. 8k, Game Mode, eARC gleich mit passenden Soundbars. Im Vergleich dazu bietet DP1.4 wenig, was mit bisherigen Mitteln nicht schon möglich wäre.
 
d169 schrieb:
Weil DP 1.2 sogar für 4K UHD + HDR10 ausreicht? Was ist jetzt daran veraltet? Weil 1.4 besser als 1.2 klingt, aber nirgends ausgereizt wird?

Klar aber das ganze dann bitte mit 120 oder 144Hz und dann ist DP1.2 aber mal ganz schnell am Ende. Und da die Monitorentwickler ja so ein wahnsinns Tempo vorlegen bekommen wir solche Monitore erst wenn wir alt und grau sind.

Und jetzt komm nicht wieder mit dem Quatsch bei 4K eh keine Karte 144fps schafft. Denn das ist mal vollkommen egal, denn man profitiert von 144Hz auch schon bei 60fps. Und selbst auf dem Desktop ist 144Hz besser als 60Hz.
Und 4K muss auch nicht nur zum zocken benutzt werden, das ist zum arbeiten auch einfach nur super toll. Und wenn ich einen Monitor kaufe dann bleibt der auch für ne ganze Weile, also habe ich die GPU mit der ich auf 4K und 144Hz spielen kann auch früher oder später.
G-Sync oder Freesync hilft dann auch noch was.

Also DP1.2 ist schon so ausgereizt das es vollkommen unnütz für 4K Gaming Monitore ist.
Und ist ja schön das Du das nicht brauchst dann bleib halt bei DP 1.2 wenn dir das reicht, aber mir nunmal nicht.

@xexex
Na dann hoffen wir mal das es für HDMI 2.1 dann auch bald mal was Sinnvolles gibt. Trotzdem wäre das einfach nur peinlich das ganze, dann gäbe es schneller Gaming taugliche 4K TVs mit Freesync2 als es die Hersteller schaffen Gaming taugliche 4K Monitore auf den Markt zu bringen.
Naja PC-Gamer sind halt uninteressant für den Massenmarkt.
 
Zuletzt bearbeitet:
venom667 schrieb:
Klar aber das ganze dann bitte mit 120 oder 144Hz und dann ist DP1.2 aber mal ganz schnell am Ende. Und da die Monitorentwickler ja so ein wahnsinns Tempo vorlegen bekommen wir solche Monitore erst wenn wir alt und grau sind.

Niemand behauptet DP1.4 hätte keine Vorteile. Die Vorteile von DP1.4 ergeben sich aber wie du selbst sagst nur bei 4K Spielemonitoren und der Markt dafür ist schlichtweg gering.

HDMI2.1 ergibt in erster Linie die Unterstützung von eARC selbst mit bestehenden Kabeln und wird deshalb vermutlich eine breite Unterstützung in allen aktuellen TVs bekommen, weil die Hersteller auch gerne ihre Soundsysteme gleich dazu verkaufen möchten.

Game Mode VRR dürfte wegen der geringen Verbreitung der Xbox One X vermutlich noch etwas auf sich warten lassen. Strategisch günstig wäre es solche TVs dann für die breite Masse anzubieten, wenn neue Konsolen im Anmarsch sind. Es ist aber auch eine gute Möglichkeit die High-End Geräte zu diversifizieren. Das der Inputlag den Herstellern wichtig geworden ist, sieht man gut an den aktuellen Geräten von LG.
https://displaylag.com/display-database/

Das verbesserte HDR wird sowieso gross beworben werden.
 
Zuletzt bearbeitet:
Naja also ich empfinde auch 144Hz im normalen Office Betrieb schon wesentlich angenehmer als 60Hz. Alles ist wesentlich angenehmer für die Augen auf dauer. Aber klar der Hauptvorteil liegt beim Spielen.
Ich meine mir soll es ja egal sein von welchem Hersteller und mit welchem Anschluss ich dann irgendwann mal einen guten 4K Monitor oder TV bekomme. DP 1.4 wäre halt schön weil die aktuellen GPUs da schon passende Anschlüsse haben. Bei HDMI 2.1 wird sich dann zeigen ob es das schon bei den nächsten Generationen der GPUs geben wird.
Und etwas traurig finde ich die ganze Entwicklung trotzdem denn so wie es im Moment aussieht wird man sich als PC-Gamer dann demnächst besser einen TV kaufen, denn bei Monitoren geht es gefühlt eher Rückwärts als Vorwärts. Wenn gute Specs dann schlechte Displays, oder gute Displays aber untauglich zum spielen. Die neuesten Vorstellungen sind hier immer noch DP1.2 Dinger mit 100Hz bei 3440x1440 und so ein kram den wir schon seit zwei Jahren auf dem Markt haben. Gute Monitore mit 4K gibt es auch heute nur mit 60Hz, dazu Sync nur bei ein paar Modellen.
Ist halt wie du sagst der PC-Markt interessiert anscheinend keine Sau mehr.
 
venom667 schrieb:
Naja also ich empfinde auch 144Hz im normalen Office Betrieb schon wesentlich angenehmer als 60Hz.

Im "normalen Office Betrieb" wird die Onboardgrafik verwendet mit FullHD Auflösung und einem Monitor der höchstwahrscheinlich noch einen VGA Eingang hat. Mit viel Glück nutzt man dabei DP oder HDMI und DVI ist noch weit verbreitet.

Hochwertige Monitore sind eine Nische und bis heute funktioniert ein grosser Teil von Büroanwendungen sehr schlecht mit hohen DPI Werten.
 
Zuletzt bearbeitet:
Sehr gut. Ich hoffe LG (OLED TV) und Denon (X1300W AVR) veröffentlichen zeitnah neue Firmwares um TrueHD/Atmos über eARC zu supporten.

Das ist bisher echt ein dicker negativpunkt das der Sound auf DD+ runtergerechnet werden muss (lossy) statt das Lossless Format zu benutzen das der AVR doch auch decoden kann...
 
Sehe ich das richtig, dass HDMI 2.1 demnach nicht reichen würde für den 8k-TV-Standard, an dem NHK derzeit arbeitet?
Der beschreibt eine Auflösung von 7.680 × 4.320 Bildpunkten (8k), 120 Hz (Progressive), 12 Bit Farbtiefe, einen erweiterten RGB-Farbraum sowie HDR.
 
Verstehe ich das jetzt richtig das ich mit meinen Bestehenden HDMI 2.0 Geräten die Bandbreit erhöhen kann indem ich HDMI 2.1 Kabel nutze?!
 
Würde mich freuen, wenn alles auf USB Type C 3.1 umsteigen würde. Dieses ständige Adapter-
und Kabelgewirr erscheint etwas unökonomisch.
 
kein 144hz bei 4k und hdr ist schon traurig auch die fehlenden angaben zur kabellänge. Für VR wären 10 Meter wünschenswert
 
Also die paar Hz kann ich mir auch schenken, solang der neue Standart 4k@120Hz mit HDR mitmacht. Braucht man erstmal ein System, dass 120Hz schafft, bzw. 144 schaffen würde.
 
xexex schrieb:
Alles lässt sich von den TV Herstellern wunderbar vermarkten. 8k, Game Mode, eARC gleich mit passenden Soundbars. Im Vergleich dazu bietet DP1.4 wenig, was mit bisherigen Mitteln nicht schon möglich wäre.
Naja, Soundbars sind auch nur bessere TV Lautsprecher. Ein AVR mit richtigen Lautsprechern sollte es schon sein.

Col.Maybourne schrieb:
Nein, bei größeren Kabellängen wird HDMI 2.1 sehr wohl auch für 4k (60Hz und 10 bzw. 12 Bit) interessant!
Bei geringen Kabellängen hast du aber natürlich recht.
Macht das was aus? Will demnächst eine Xbox One X über ein 15m HDMI Kabel anschließen, natürlich sollen UHD@60Hz und HDR damit laufen.

GregoryH schrieb:
Sehr gut. Ich hoffe LG (OLED TV) und Denon (X1300W AVR) veröffentlichen zeitnah neue Firmwares um TrueHD/Atmos über eARC zu supporten.

Das ist bisher echt ein dicker negativpunkt das der Sound auf DD+ runtergerechnet werden muss (lossy) statt das Lossless Format zu benutzen das der AVR doch auch decoden kann...
Ach, komm, den Unterschied zwischen Dolby True HD 7.1 und Dolby Digital Plus 7.1 hört man doch eh nicht wirklich. Die Kompression ist nicht das Problem, mir geht es da eher um das mögliche 7.1 Signal statt 5.1 und 3D Tonformate die unabhängiger von der Kanalzahl sind. Lossless nimmt man immer gerne mit, aber im Gegensatz zu DAB+ und Internetradio habe ich bei Filmen/Musik in DD5.1 noch keine Kompressionsartefakte gehört.

Ich bin auch gespannt ob es Updates geben wird. Ich glaube fast nicht dran, schließlich sollen die ja verkaufen. Aber da mein TV erst 6 Wochen alt ist wird da erst mal gar nix gekauft.
 
Die FAQ auf HDMI.org geben noch ein paar weitere Infos. Da wird auch die Frage nach der Kabellänge gestellt. Allerdings ist die Antwort nicht gerade konkret:

Q: What is the maximum length of this cable?
A: The specification does not indicate a cable length. Cable length depends on the cable manufacturer. It is likely the maximum lengths for passive cables will be approximately 2 to 3 meters.
 
warum wir hier bei 3840x2160p immer 4K (eigentlich UHD) explizit genannt, aber bei 7680x4320 sprechen alle von 8K.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Ach, komm, den Unterschied zwischen Dolby True HD 7.1 und Dolby Digital Plus 7.1 hört man doch eh nicht wirklich. Die Kompression ist nicht das Problem, mir geht es da eher um das mögliche 7.1 Signal statt 5.1 und 3D Tonformate die unabhängiger von der Kanalzahl sind. Lossless nimmt man immer gerne mit, aber im Gegensatz zu DAB+ und Internetradio habe ich bei Filmen/Musik in DD5.1 noch keine Kompressionsartefakte gehört.

Ich bin auch gespannt ob es Updates geben wird. Ich glaube fast nicht dran, schließlich sollen die ja verkaufen. Aber da mein TV erst 6 Wochen alt ist wird da erst mal gar nix gekauft.

Trotzdem würde ich das Decodieren lieber meinem AVR überlassen der genau dafür gedacht ist und nicht dem TV.

Ich bin da relativ zuversichtlich, die 2016er OLEDs bekommen ja auch aktuell noch Updates.

eARC und dann noch TrueHD Support für die Media App (ist lt. Twitter von LG schon in Planung) dann bin ich 100% glücklich mit meinem 55C7D.
 
Marcel55 schrieb:
Naja, Soundbars sind auch nur bessere TV Lautsprecher. Ein AVR mit richtigen Lautsprechern sollte es schon sein.

Mit Soundbars machen die TV Hersteller Millionenumsätze und für die breite Masse sind sie auch mehr als ausreichend, hier zählt vor allem die Einfachheit in der Handhabung. Ein AVR wird man in vielen Fällen auch ohne (e)ARC betreiben können.

MichaG schrieb:
Da wird auch die Frage nach der Kabellänge gestellt. Allerdings ist die Antwort nicht gerade konkret:

Die Antwort ist genauso "konkret" wie bisher. Kabellängen werden für HDMI nicht zertifiziert und hängen von der Qualität der Kabel und der Empfänger und Sender der angeschlossenen Geräte. Glückssache also.

Zum Glück gibt es mittlerweile einige HDMI Glasfaser Kabel womit auch größere Längen problemlos überbrückt werden können.
https://www.dimedtec.de/audio-video/HDMI_12
 
Zuletzt bearbeitet:
ExigeS2 schrieb:
8k auf 20 cm oder wie?

HDMI schaffts doch nichtmal 3D oder 4k über 10m zu senden.

Ich frage mich auch immer, was bei HDMI falsch läuft, dass die Kabellängen so beschränkt sind. Schon bei 1080p wird es ja mit HDMI bei 15m eine wackelige Angelegenheit, wenn ich dagegen Profi-Equipment mit SDI-Anschluss vergleiche, da kann ich locker 1080p mit BNC-Kupferkabel über 100m übertragen. Und der Kabelpreis für so ein hochwertiges SDI Kabel liegt auch gerade mal bei 1 Euro/Meter, wenn man einen 100m Ring nimmt (Sommer Cable Vector, also gute Markenqualität).

Auch bei UHD/4K sind die Kabellängen mit SDI wesentlich höher, als bei HDMI, auch da kann man 30-40m mit einfachem Kupferkabel überwinden, erst bei längeren Strecken muss man auch bei SDI auf Glasfaser umsteigen.

SDI ist im Übrigen für Consumer Geräte deshalb für die Hersteller ein NoGo, weil es keinerlei DRM vorsieht. Im Gegensatz zu HDMI ist es allerdings eine wahre Freude, SDI zu benutzen.
 
Zurück
Oben