News Irreführend: „HDMI 2.1“ heißt im Grunde Alles oder Nichts

Ich hatte naiverweise auch angenommen, dass zumindest die Bandbreite ein nicht optionales Feature von HDMI 2.1 ist.

Dass z.B. die Gaming-Features nur optional sind, kann man sich ja noch damit erklären, dass nicht jedes Gerät sowas braucht. Z.B. für ein 8K-Display, das nicht für Spiele gedacht ist, aber die höhere Bandbreite braucht.

Aber wenn das Minimum von HDMI 2.1 auch was die Bandbreite angeht komplett HDMI 2.0 entspricht, dann wird es sinnlos bzw. wohl gezielt irreführend.
 
  • Gefällt mir
Reaktionen: cbmik und Banned
Ich möchte mich an dieser Stelle ausdrücklich beim Standardisierungsgremium bedanken, dass sie mein HDMI 2.0 Fuhrpark so unkompliziert auf den neuen Standard 2.1 angehoben haben.

:volllol:
 
  • Gefällt mir
Reaktionen: JanJ, knoxxi und rentex
ThirdLife schrieb:
Also ein "Standard" an den sich keiner halten muss, jeder macht wie er Bock hat und es daher auch de facto kein fucking STANDARD ist.

Bin ich absolut bei dir. Gerade die Vereinheitlichung von relevanten Eigenschaften macht ja einen Standard aus.
Heißt für mich als Kunden im Umkehrschluss es ist völlig egal was drauf steht, wichtig sind die explizit erwähnten Features auf dem Datenblatt.
Toni_himbeere schrieb:
War es denn jemals anders? Also eigentlich kann seit HDMI 1.4 Ethernet per HDMI übertragen werden... nur kenn ich kein Gerät das dieses feature je unterstützt hat.
Ich finde hier muss man schon nochmal unterscheiden. Wenn eine gewisse Auflösung/Refresh Rate bei einem MONITOR nicht erreicht wird, der eigentlich laut Standard vorgesehen ist, ist das schon etwas anderes, als wenn Features - die zugegeben nice to have sind und auch im Standard vorgesehen sind - nicht erreicht werden, als Kernelemente, die ein Monitor leisten können sollte.
 
  • Gefällt mir
Reaktionen: ThirdLife
KurzGedacht schrieb:
HDMI ist einfach so ein unfassbar schlechter Standard... Können wir uns einfach einigen diesen Mist zu beerdigen?
Wieso zahlt überhaupt irgendwer für diesen Schrott Lizenzgebühren?

Ich bin auch dafür.
Bei mir zuhause steht eine recht teure Kette aus 4k Sat-Receiver, 4k AVR und 4K TV. Ich hatte noch nie eine so schlechte Kette und ich kaufe seit 15 Jahren jedes Jahr einen neuen AVR/TV.

Seit den neuen HDMI Funktionen habe ich diese Probleme:

  • Geräte gehen wie von Zauberhand nachts an.
  • Mal schalten sich nicht alle Geräte über HDMI CEC an.
  • Wenn ich auf HDMI ARC anschalte, habe ich nach dem Umschalten auf eine x-beliebige andere Quelle keinen Ton mehr bei HDMI Zuspielern

Ganz schwach was da entwickelt wurde.
 
Kloin schrieb:
Jetzt darf man sich beim Displaykabel Kauf erstmal Tests durchlesen um zu sehen wer die Specs einhält. Mal sehen was ich heute für ein DP 1.4 Kabel bekomme für WQHD 160Hz und ob es funktioniert.
Das ist das "Schöne" an HDMI und bisherigen reinen DP oder USB(DP alternate mode) Kabeln - wenn die kurz genug sind können die alles mögliche übertragen. Wenn sie lang sind halt nur die weniger hoch aufgelösten Bilder. Und keiner weiß es vorher - außer dem Hersteller - und der verrät es in der Regel nicht.

Ist aber ein anderes Thema als die Gerätekompatibilität .. ;)

Bei beiden (HDMI, DP) sind die Übertragungsfrequenzen variabel und werden vom Sender passend zur notwendigen Datenrate (sprich Bildauflösung und Bildfrequenz) gewählt. Das ist Fluch und Segen zugleich - man kann auch viele Meter lange passive Kabel machen - wenn man z.B. nur HD übertragen will, aber bei höheren Raten hilft dann nur ausprobieren ob bei einem konkreten Kabel dann schon Pixelfehler auftreten oder gleich das ganze Bild zusammenbricht. Bei HDMI Kabel hab ich auch schon oft erlebt das irgendwelche der vielen vielen Adern und damit die dazugehörigen Übertragungsmodi fehlen, mal geht ARC nicht mal CEC mal .. - aber Amazon nimmt die ja zurück bis es weh tut ..

Bei USB und neuerdings auch DP2.0 sind die Datenraten festgeklopft - wobei bei DP2.0 wie es dann mal kommen soll allerdings wohl 3 verschiedene feste Raten existieren - (bei Thunderbolt3 und 4 gibt's nur 20G Taktraten, bei USB3 allerdings immerhin 5G und 20G ..) Bei den festen Raten ist dann auch von vornherein klar(er) was das Kabel kann .. auch wenn's Video überträgt ..

Ich hoffe ja das gibt sich dann mit USB5 - und es gibt dann vielleicht wirklich nur noch Kabel die auch die 80G wirklich können .. wobei man die aktiven mit Signalauffrischung dann ja vielleicht sogar hintereinanderstecken kann ? Oder gleich entsprechend lange optische Kabel (mit Transceivern and den Enden) kaufen kann. Wobei das dann ja vielleicht auch endlich einen hinreichen großen Markt definiert (ein und das gleiche Kabel für USB, Netzwerk, Video, und last but not least funktioniert zuverlässig) der die Dinger preiswerter werden läßt.
 
Zuletzt bearbeitet:
Wozu noch Standards definieren, wenn deren Inhalt Optional ist. Das darf nicht sein und muss dringend so schnell als möglich aufhören, egal ob HDMI, USB oder sonst was ...
 
  • Gefällt mir
Reaktionen: Hatch und krucki1
Also geht das Rätselraten weiter... Es wäre ja alles halb so wild wenn man klar bei der Produktbeschreibung oder auf der Verpackung erfahren könnte was man genau bekommt. Doch das ist leider sehr selten der Fall. Manchmal steht es noch nicht mal in den Produktinformationen und man kann den Support bemühen. Absolute miese Entwicklung das sowas dann noch per se als "Standard" gilt.
 
mRcL schrieb:
Ich finde hier muss man schon nochmal unterscheiden. Wenn eine gewisse Auflösung/Refresh Rate bei einem MONITOR nicht erreicht wird, der eigentlich laut Standard vorgesehen ist, ist das schon etwas anderes, als wenn Features - die zugegeben nice to have sind und auch im Standard vorgesehen sind - nicht erreicht werden, als Kernelemente, die ein Monitor leisten können sollte.
Kann man sicher diskutieren.

Aber, wer schließt denn einen 120/144hz Monitor per HDMI an seiner Graka an(und dann ist auch die Frage ob der Standard bei Monitoren nicht eher 60hz ist... und dann musst du ja auch erstmal einen Monitor mit 120/144hz finden der HDMI 2.1 hat aber diese nicht unterstüzt... und selbst dann bleibt dir DP)? Und für einen TV ist 100hz Übertragung von 4k Inhalten auch eher "nice to have", denn für Film/Serien/Broadcast TV brauchst du das feature nun auch nicht.

Das ganze ist definitiv blöd, ich sehe aber bei deinem Bsp. nicht wirklich das es was anderes ist als bei Ethernet.

Ernsthaft gefragt, gibt es einen 4k Monitor mit ~144hz der einen HDMI 2.1 Anschluss hat aber keine 100/120hz bei 4k und entsprechender Bitrate annimmt? Klingt mir halt stark konstruiert... der DP Anschluss müsste ja dann auch noch fehlen. Oder gehts am Ende doch nur darum einen TV an einem PC/Konsole zu betreiben? Wo es halt dann wieder eher ein "nice to have" ist. Und dann muss man ja auch immer die Frage stellen, ist es nicht vielleicht doch das Kabel?
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
aha.. also kann quasi jeder der HDMI 2.0 verbaut hat sein Produkt einfach auf HDMI 2.1 umlabeln ohne strafen zu fürchten
Ne, nicht können, sondern müssen, wenn das stimmt, was @Hurricane.de in seinem Posting auf Seite 1 zitiert hat.
Sonst müssen die ja für die alten Produkte Strafe zahlen, wenn die bei 2.0 stehen bleiben ^^

Ichthys schrieb:
Wofür der Sprung auf HDMI 2.1, wenn es noch nicht mal einen Unterschied zu 2.0 geben muss? Was kann dann 2.1 garantiert besser als 2.0?
Nochmal Lizenzgebühren kassieren. 2.0 ist ja dann faktisch nun verboten, wenn das stimmt, was @Hurricane.de in seinem Post auf Seite 1 zitiert hat:

  • HDMI 2.0 no longer exists, and devices should not claim compliance to v2.0 as it is not referenced any more
 
senf.dazu schrieb:
....Wenn sie lang sind halt nur die weniger hoch aufgelösten Bilder. Und keiner weiß es vorher - außer dem Hersteller - und der verrät es in der Regel nicht.
Genau das ist der kritische Punkt bei mir. LG legt beim Ultragear 34GN850-B ein funktionierendes 1.4 Kabel in einer derart beschissenen Länge bei, die mir sagt LG stellt alle Monitore mittig über dem PC unter dem Schreibtisch auf. Wie man das halt so macht.....nicht. ;-)
 
Ich möchte hier gerne mal ein großes Lob an ComputerBase und auch an @MichaG aussprechen dafür dass ihr am Ball bleibt und den normalen Nutzer über die HDMI Problematik genaustens aufklärt. Das ist langsam genauso verwirrend wie bei USB.
Da bleibt einen ja nur vor dem Kauf ewig lang die Spezifikationen des Geräts minutiös zu studieren und dann zu hoffen dass dann hinterher nicht doch noch was fehlt.
MFG Piet
 
  • Gefällt mir
Reaktionen: MichaG, JanJ, knoxxi und eine weitere Person
BrollyLSSJ schrieb:
Nochmal Lizenzgebühren kassieren. 2.0 ist ja dann faktisch nun verboten, wenn das stimmt, was @Hurricane.de in seinem Post auf Seite 1 zitiert hat:
Stimmt ja... Aber andererseits sollten alle Geräte mit HDMI-2.0-Zertifikat ohne Probleme und kostenlos auf 2.1 umgestellt werden. Ja, ich weiß... Ich sollte aufwachen. 😅
 
  • Gefällt mir
Reaktionen: BrollyLSSJ
Und Raider heißt jetzt Twix, sonst ändert sich nix.

Irgendwie habe ich "Standard definieren" anders verstanden...
 
Das ist ja schrecklich geregelt. Etwas als Standard zu bezeichnen, setzt das Vorhandensein von Features voraus. Den Hersteller sich nur einen von vielen Aspekten aussuchen zu lassen, um das Produkt als HDMI 2.1-fähig zu bezeichnen grenzt schon fast an Betrug. Zu mal es sich vielleicht in Fachkreisen herumgesprochen hat, aber es bei der Masse wohl zu vielen Enttäuschungen führen könnte. Verbraucherfreudlichkeit ist was anderes.
 
  • Gefällt mir
Reaktionen: Ichthys
Letztendlich muss oder besser sollte man immer recherchieren. Ist doch bei den Panels von TVs auch nix anderes. Da muss man auch erst mal die native Hz-Rate des Panels recherchieren (die Hersteller geben sie oft gar nicht an), ansonsten wird man als Kunde nur mit den interpolierten Raten geblendet.


So oder so müsste es strengere gesetzliche Vorgaben geben. Ich bin nicht unbedingt ein Freund davon zu sagen (wie die EU), bis XXXX soll es nur noch diesen Standard geben. Hier hingegen wäre Verbraucherschutz doch echt einfach und würde auch nicht in den Wettbewerb eingreifen wie irgendwelche Diktate von Standards.
 
  • Gefällt mir
Reaktionen: coasterblog
Mal ein Vorschlag wenn die Versionsnummer sowieso keine Bedeutung mehr hat -> Entfernt doch die Versionsnummer

Ich meine der Marketingeffekt von 2.1 entfällt doch sowieso wenn ALLES 2.1 hat - oder denken die Marketingfuzzis nicht so weit?
 
Warum macht man nicht einfach bei vollen Nummern wie 1.0, 2.0 oder 3.0 den mindest Wert fest (Major) und jedes Feature bekommt dann eine Minor Nummer? So das man dann bei 2.2, 2.3 usw genau weiß was der Standard kann. Und wenn sich was Großes ändert, macht man einen neuen Major auf, fertig. Ist den das so Schwer :D

Ich mein was interessiert mich die Bandbreite von HDMI, die meisten sagen "ich will jetzt 4k, 8k oder 120hz etc" keiner sagt ich hol mir jetzt HDMI wegen 48Gbit.
 
  • Gefällt mir
Reaktionen: coasterblog
bad_sign schrieb:
DP1.3 UHD@120Hz@8Bit
DP1.4 UHD@120Hz@8Bit ohne DSC...
Und wo stellt man die "bit" (Farbtiefe?) um, in Linux kenn ich dafür keinen Schalter. fordert das der Monitor fix an ohne das mans umstellen kann?
 
Zurück
Oben