News Neuer Standard: HDMI 2.2 könnte zur CES kommen und benötigt neue Kabel

Ich benötige HDMI! Denn ich nutze meinen PC jetzt und auch in Zukunft nur noch an OLED TVs!
Ergänzung ()

Godyjin schrieb:
Alles quatsch. nur mit DP (Display Port) gehen.
Kein Mensch brauch heute mehr HDMI außer irgendwelche Opis aus den 00er Jahren
Ganz im Gegenteil! Was soll ich denn machen, wenn es keine Monitore ab 55 Zoll gibt? Ich nutze seid mehr als fünf Jahren nur noch OLED TVs als PC Monitor und die haben nur HDMI!
Ergänzung ()

EadZ1 schrieb:
Im gesamten Bericht kommt nicht einmal "AI" vor. Das kann doch gar nichts taugen! :jumpin:

Wie der Standard heißt, ist mir am Ende des Tages egal, solange das auf der Flimmerkiste ankommt, was ankommen soll. Also bitte nicht wieder so ein Murks wie bei HDMI2.1 veranstalten.
Was gibt's gibt's an HDMI eigentlich auszusetzen? Ich hatte damit noch nie Probleme!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: theGoD
bensen schrieb:
TMDS, FRL 6x4, FRL 12x4 soll jetzt einfacher sein?
Nein, nicht einfacher. Aber präzise und zu gebrauchen. Wobei ich die FRL Angaben so nicht mag. Entweder die Zahlen, wie Wiki es hat. FRL 1-6, die Lanes und Geschwindigkeit kombinieren. Oder irgendwo muss mal mindestens ein "G" mit dran für eine Bandbreite. Sonst kann man das ja kaum entziffern. Und wenn mit Lanes würde ich die Notation von DP nehmen: 4xHBR2. Also Lanes, dann Geschwindigkeit. Aber bei HDMI gibt es ja auch nur 3 oder 4 Lanes. Und das hängt jeweils an bestimmten Geschwindigkeiten. Nur 6 GBit/s gibt es mit 3 und mit 4 Lanes.


Wir haben halt jetzt mittlerweile einige Standards die alt genug sind und immer wieder erweitert wurden, dass es da einfach sehr viele Optionen gibt. Man kann nicht alles simpel halten. Eine gewisse Komplexität ist nicht gänzlich vor dem Verbraucher zu verstecken. Schritt eins wäre also das richtig relevante erstmal ehrlich anzugeben.

Mit den falschen Zahlen kann einfach niemand was damit Anfangen. Mit den richtigen Specs haben sie eine Chance. Und dann kann man immer noch fordern, dass es Zertifikate für gewisse Sammlungen an Funktionen geben sollte, um die Liste an getrennt abzuscheckenden Features zu vereinfachen. Wenn denn überhaupt was dabei herumkommt und die Leute nicht realisieren, dass die Geschwindigkeit 90% von dem ist was sie wissen wollen.
 
  • Gefällt mir
Reaktionen: Anzony
Wenn ich die Kommentare hier so betrachte wäre ein Artikel über die Übertragungsstandards vllt einmal angebracht. Das so viele noch auf HDMI setzen ist für uns als Endverbraucher definitiv nicht von Vorteil. Das den Nutzern zu erklären wäre eigentlich euer Job @ComputerBase ?
Ergänzung ()

Ray519 schrieb:
Nein, nicht einfacher. Aber präzise und zu gebrauchen. Wobei ich die FRL Angaben so nicht mag. Entweder die Zahlen, wie Wiki es hat. FRL 1-6, die Lanes und Geschwindigkeit kombinieren. Oder irgendwo muss mal mindestens ein "G" mit dran für eine Bandbreite. Sonst kann man das ja kaum entziffern. Und wenn mit Lanes würde ich die Notation von DP nehmen: 4xHBR2. Also Lanes, dann Geschwindigkeit. Aber bei HDMI gibt es ja auch nur 3 oder 4 Lanes. Und das hängt jeweils an bestimmten Geschwindigkeiten. Nur 6 GBit/s gibt es mit 3 und mit 4 Lanes.

Wir reden hier von Konsumenten/Endverbrauchern. Bei 4xHBR2 machst du es außer Menschen die tief in der Materie stecken mit Sicherheit nicht einfacher.

Was hindert die Industrie zum Beispiel daran USB 3.2 dann USB 3 xxx Übertragungsrate zu nennen? Und diesen ganzen Bennenungsgulasch (TM) einfach mal Kundenfreundlich zu vereinfachen? Genau, dann wüssten die Käufer ja was sie bekommen.

Edit: Ich kaufe ein n (^-^)

Das ist einfach nicht gewollt.
 
Zuletzt bearbeitet:
Serandi schrieb:
Ich benötige HDMI! Denn ich nutze meinen PC jetzt und auch in Zukunft nur noch an OLED TVs!
Dann wirds mal Zeit dass die TV-Hersteller display port verbauen. Das einzige Problem was ich beim TV hierbei sehe, ist dass DP kein richtige CEC oder ARC-Leitung bietet, was bei Soundbars zu Problemen führen kann.
Serandi schrieb:
Was gibt's gibt's an HDMI eigentlich auszusetzen?

Dass der HDMI nicht lizenzfrei ist. Jeder Hersteller muss dem HDMI-Konsortium(ua. Philips, Sony , Panasonic, Toshiba, Hitachi) für jeden verbauten HDMI-Port Gebühren zahlen. Der Nutzer bekommt eine in Übertragungsraten beschnittenere Lösung im Vergleich zu Display Port, der im Gegensatz zu HDMI open source ist.

Ich habe mal gehört ursprünglich sollte über HDMI Kopierschutzlösungen gegen Raubkopien realisiert werden. Hier wird sich 100% ein Nerd finden, der das besser erklären kann als ich, der hier im Bereich gefährliches Halbwissen rangiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drummermatze, RedDragon83 und unspektakulaer
Serandi schrieb:
Ich benötige HDMI! Denn ich nutze meinen PC jetzt und auch in Zukunft nur noch an OLED TVs!

Ganz im Gegenteil! Was soll ich denn machen, wenn es keine Monitore ab 55 Zoll gibt? Ich nutze seid mehr als fünf Jahren nur noch OLED TVs als PC Monitor und die haben nur HDMI!

Was gibt's gibt's an HDMI eigentlich auszusetzen? Ich hatte damit noch nie Probleme!?

Das war schon immer so, das muss so bleiben...

Was überzeugt dich denn von HDMI? um die Frage mal umzudrehen.

Ich sag ja, man haut hier so viele Artikel raus, ein Grundlagen-Artikel zu Übertragungsstandards ist hier Ultra dringend nötig, dann würdest du dir diese Frage gar nicht stellen...
 
  • Gefällt mir
Reaktionen: Anzony und RedDragon83
Ray519 schrieb:
Wir haben halt jetzt mittlerweile einige Standards die alt genug sind und immer wieder erweitert wurden, dass es da einfach sehr viele Optionen gibt. Man kann nicht alles simpel halten.
Gilt für USB sogar noch mehr als für HDMI. Wo also ist HDMI besser?
 
  • Gefällt mir
Reaktionen: unspektakulaer
Serandi schrieb:
Was gibt's gibt's an HDMI eigentlich auszusetzen? Ich hatte damit noch nie Probleme!?
Es war von Anfang an technisch simpler gestrickt und kann damit weniger. Dann haben sie gemerkt, dass die strunz-dumme Implementierung nicht skaliert und haben die Prinzipien von DP zum Teil kopiert. Aber nur halbherzig.
DP war von Anfang an auf diskreten Geschwindigkeiten, wo Kabelkompatibilität einfach zu testen ist. DP hat einen normalen Rückkanal. GPU redet mit Monitor über Fehler, verhandeln Details. HDMI hat keinen Feedback Kanal für eine instabile Verbindung. Die GPU hat keine Ahnung ob Bild korrekt ankommt oder nicht. Zu schlechtes Kabel für die gewählte Verbindung? Ameisenrennen. DP testet das Kabel ob es eine Geschwindigkeit kann. Bei Fehlern, auch nachträglich soll es die Geschwindigkeit reduzieren, damit es stabil bleibt.
DP kann MST für mehre Bildschirme. DP versteht aktive Adapter und kann so einfach und standardisiert zu allen anderen Dingen adaptieren und die GPU weiß was passiert und kann es korrekt behandeln.
DP kann auf 1, 2 oder 4 Lanes laufen. Kabel zur hälfte defekt? Läuft noch mit halber Bandbreite. So haben wir DP Alt mode mit USB3 bekommen. Das war auf der DP Seite kein neues Feature. Das konnte DP von Anfang an. HDMI braucht alle Leitungspaare. Oder mit FRL in den lahmen Modi nur 3 von 4.

Wie gesagt, dass sind mehr technische Dinge, tief drin. Mit Ausnahme von dem Rückkanal für Verbindungsfehler: solange deine Verbindung stabil läuft zu einem diskreten Monitor kann es dir egal sein.
Aber es gibt einen Grund warum USB-C, USB4 und Docks schon seit Ewigkeiten auf DP setzen. Und warum eine iGPU nur DP Ausgänge hat und die Adapterfähigkeiten von DP nutzt um HDMI zu ermöglichen. DP ist einfach viel fähiger, bis zum Kern runter.
Der einzige Grund warum sich HDMI halten kann, ist weil es 2 Features hat, wo DP nicht konkuriert und HDMI den Markt hat: ARC und CEC. Und der Witz ist, DP hat zu DP 1.2 Zeiten den Rückkanal auf 720 MBit/s beschleunigt. Mit Vorschlägen darüber ARC-Konkurenz zu machen oder gleich ganze USB2 Verbindungen für Touchscreens und Eingabegeräte. Hat niemand genutzt und ist jetzt wieder aus dem Standard geflogen. Also technisch mangelte es da nur am Willen, HDMI offen den Kampf anzusagen, in dem man alle HDMI Features auch anbietet. Hätte nur ein wenig Protokolldefinition gebraucht. Die Hardware war und ist schon da (für ARC aktuell nicht mehr, aber CEC wäre ein Kinderspiel. Und im Gegensatz zu CEC, was extra Chips auf GPU und Mainboard braucht und kaum ein PC hat, könnte man das DP Äquivalent mit Software nachrüsten. Weil der Rückkanal schon immer dazu gehört.

unspektakulaer schrieb:
Wir reden hier von Konsumenten/Endverbrauchern. Bei 4xHBR2 machst du es außer Menschen die tief in der Materie stecken mit Sicherheit nicht einfacher.
Ja. Das sage ich auch nicht. Aber man braucht etwas. Man kann gerne kritisieren, dass das keine Kundenfreundlichen und intuitiven Namen sind.
unspektakulaer schrieb:
Was hindert die Industrie zum Beispiel daran USB 3.2 dann USB 3 xxx Übertragungsrate zu nennen?
Da hast du aber viel verpasst. Ab USB3 10G haben sie das effektiv gemacht:
https://en.wikipedia.org/wiki/Talk:...ing_names_and_internal_details_across_USB_3.x Geschwindigkeit stand im Logo und um Namen.
Und mit den neuen Logos erst recht.
https://www.computerbase.de/2022-09/usb-if-neue-usb-logos-sollen-einfacher-zu-verstehen-sein/
Da haben sie es nur so vereinfacht, dass jetzt USB3 20G und USB4 20G dasselbe Logo haben und man das nicht mehr unterscheiden kann. Die Hersteller wollten USB3 20G wohl nicht aufgeben um das ordentlich hinzubiegen.

Aber der Punkt ist: gibt es, verwendet niemand, auch du nicht. Die Apple Fanatiker fangen jetzt ernsthaft an zu glauben das USB4 nur 40 Gbit/s kann. Und TB5 schneller ist. Und das TB5 nicht immer "USB 80Gbps" impliziert und nehmen das lieber. Und es macht technisch gesehen keinen Sinn. Intel gibt nur keine Spec-Versionen raus. Dabei wissen wir zB dass es 2 Versionen von TB3 Specs gab. Und "TB5" ist nicht intuitiver als "USB 80Gbps". Und als die Leute sich an TB4 gewöhnt haben, gab es kein einziges USB4 Gerät dass weniger Features geboten hat. Und weil Intel alles, ohne Details hinter "TB4" versteckt, weiß jetzt niemand was ein konkreter TB4 Controller kann und was nicht. Denn Intel verdoppelt gerade der ihre Fähigkeiten. Aber es bleibt beim alten Namen...

unspektakulaer schrieb:
Und diesen ganzen Bennenungsgulasch (TM) einfach mal Kundenfreundlich zu vereinfachen?
Solange alle noch wie bessessen an den falschen Versionsnummern klammern gibts da nicht viel zu holen. USB hat so viel versucht, es ist Leuten nicht aus dem Gehirn zu bekommen.
Aber klar, man sollte auch intuitive Namen haben. Aber anstatt jetzt Fantasiedinger zu bauen, dass man Umgangsprachlich mit HDMI 2.1 immer 48 Gbit/s meinen will, sollte man einfach anfangen und sich etwas einheitliches überlegen. Ich habe kein Problem wenn HDMI FRL 48 Gbit/s angegeben wird. Machen manche Hersteller ja auch, weil es intuitiver ist als FRL und Lanes.

Bei DP sind es halt vor den neuen 40, 54 und 80 Gbit/s Verbindungen krumme Zahlen, die kaum einer kennt. DP hat Lanes in 1x, 2x und 4x. Und für DP Alt Mode wie von fast jedem USB-C Hub genutzt haben wir 2 Lanes. Da spielt es also eine Rolle das ein 4xHBR3 Port (mit nominell 32.4 Gbit/s) immer auch garantiert 2xHBR3 (mit nominell 8.1 Gbit/s kann). Oder man müsste immer 4x 8.1 Gbit/s angeben. Unter den Umständen, finde ich HBR3 noch am besten. Aber mit UHBR geht das ja auch schon weg. Weil da stehen die GBit/s pro Lane im Namen UHBR10, UHBR13.5, UHBR20. Und wie bei PCIe ist es wenig hilfreich, wenn du nur die Gesamtbandbreite für den ganzen Port angibst. Weil damit kann niemand Kompatibilität über verschiedene Geschwindigkeiten und Portbreiten beurteilen. Geht einfach nicht. Das ist notwendige Komplexität.

Dafür konnte DP ja auch als Slimport in Handys und in der Switch mit nur 1 Lane genutzt werden und ging einfach.


bensen schrieb:
Gilt für USB sogar noch mehr als für HDMI. Wo also ist HDMI besser?
Nirgendwo. Mein Punkt war, dass es nicht nur HDMI trifft. Das allgemein, die Versionsnummern von Standards genutzt werden, wo sie es nicht sollten. Über fast alle technischen Standards mit mehreren Versionen hinweg.

USB wäre da sogar mein Vorbild. Weil sie versuchen nur die Bandbreite in den Vordergrund zu stellen um es so intuitiv wie möglich zu machen. Sogar ihre Marken über Board geworfen haben. USB4 extra so langwierig wie möglich genannt haben "USB4 Version 1.0" damit die Leute zu faul sind, das "version 1.0" hinzuschreiben und tatsächlich da ankommen wo man hin will. Die Familie USB4 ist wichtig. Die Version der PDF? Für 99% der Leute falsch. Und trotzdem gibt es genügend Versions-Fetischisten, die im selben Wikiartikel munter "USB4" schreiben. Aber dann meine Erwähnungen von "USB3" oder "USB 3.x" immer wieder hartnäckig auf "USB 3.2" ändern. Und nicht begreifen, dass sie mit der selben Begründung immer "USB4 Version 2.0" schreiben müssten. Aber noch nie ein Problem daraus enstanden ist, das nicht zu tun, weil sie die Nummern eh nicht auseinanderhalten können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NDschambar, ShiftC, Paddinski und 4 andere
Rubyurek schrieb:
Wozu eigentlich noch HDMI wenn man Displayports hat?
Hat HDMI nicht die Möglichkeit eines Kopierschutz? Und DP nicht?
WinnieW2 schrieb:
Mal abgesehen davon sind mit HDMI 2.1 bereits 4k Auflösung bei 120 Bilder/s möglich. Und mehr wird es im TV-Gerätebereich die kommenden Jahre wohl nicht geben, ich meine damit als Videoquellmaterial.
ich denke das wird irgendwie so vermarktet, dass man genau das braucht.
Aber 4K ist richtig klar wenns gut produziert ist.
An sich reicht 4K60. Wichtig ist die Möglichkeit von VRR. Also ne variable Bildwiedeholrate. Bei AV-1 Videos kann man sowas tatsächlich in Handbrake einstellen. Das wäre ultra krass für Lets Plays und das wird irgendwann kommen, denke ich.
So kann man endlich auch PAL 25fps mit 30fps mixen, ohne dass zum Stottern kommt
 
Bin ein riesen freund von DisplayPort, Auch wenn mein Samsung 90C schon gerne DisplayPort gesehen hätte funktioniert das mit HDMI ganz gut.
 
Diese HDMI Kabel machen nur Ärger im Heimkinobereich. Wenn man 4K 60hz Chroma 4:2:2 fährt gibts Aussetzer bei dem ein oder anderen Kabel, selbst bei HDMI AOC Kabeln…
 
d0xs schrieb:
(...)

Glasfaser hat nur ca. 200.000km/s.
Leute, bei Kabellängen im Privathaushalt ist das schoissegal, aber so richtig. Da muss man schon ein paar mal die Erde umrunden um auch nur was messen zu können.
Ergänzung ()

JustAnotherTux schrieb:
VRR unter Linux jendenfalls in den meisten Fällen, bei DP ist es kein Problem.
Ws heisst in den meisten Fällen? In welchen?
 
Yiasmat schrieb:
Geld

Nichts gegen dich, aber das Video ist so schlecht.

Er sagt ständig Gigabyte, obwohl es Gigabit sind und er präsentiert sogar eine Folie, wo beide Werte sogar ausgeschrieben stehen. Und ich mag YouToube Kanäle nicht, die so faul sind, dass sie nicht mal für so ein kurzes Video eigenes Material verwenden, sondern auf diese schlechten Stock Footage Clips zurückgreifen, damit sie die Lücken füllen können.
usernamehere schrieb:
Würden Fernseher nur auf DP setzen :)
Nachdem im HDMI Konsortium die TV Hersteller sitzen, werden sie nicht das Konkurrenzprodukt einbauen.
 
  • Gefällt mir
Reaktionen: Vindoriel
Rubyurek schrieb:
Wozu eigentlich noch HDMI wenn man Displayports hat? Also ich möchte definitiv nicht mehr zurück zu HDMI wenn ich DP habe.
Japp.

HDMI ist und war schlecht. Die Fernseherhersteller wollen einen neuen Stecker mit “Kopierschutz”.

VESA hat dann einen richtigen Standard für Computer nachgelegt, DisplayPort. Und weil VESA und USB-IF sich gut verstehen, ist jetzt in der Praxis USB-C auch DP.


Mit DP 1.2 war 4K schon lange möglich, theoretisch sogar mit 1.1 (~2011) mit lediglich 30 Hz. HDMI hat das 2019 nicht unfallfrei hinbekommen, mit Glück gab es eine “Ich hab gammeliges HDMI Notoption”. Selbes Drama mit FreeSync. Und jetzt? Statt den Apple TV oder FireTV mit einem USB-C Kabel anzuschließen, braucht man ein grosses HDMI-Kabel und ein Stromkabel zusätzlich.

Die EU hat mit USB-C eben nicht Thunderbolt oder MagSafe (USB-D: MagSafe mit Daten?) weggetreten. HDMI hätte man mit etwa Mut auch erledigen dürfen.
 
  • Gefällt mir
Reaktionen: Anzony und Kadett_Pirx
Hi@all!

Wurde auch Zeit das es hier bei HDMI mal weiter nach oben geht! :D
Mal sehen wie viel es nun Brutto sein werden, aber ich hoffe wirklich,
dass es mehr als 80 GBit/s+ sein werden.

LG mit ihren C5 und G5 für 2025 dann auf HDMI 2.2 wäre nice!
Dann mit mehr als 144Hz, 160-180Hz mal sehen, ob diese klappt!

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: Serandi
Für den PC gibts Displayport und 8K ist doch beim TV komplett uninteressant. Wo sind denn die Inhalten? Es werden keine neuen UHD Player mehr gebaut weil die Nachfrage fehlt, die Streaming Dienste bieten 4K Inhalte nur gegen Aufpreis an und wenn sind sie so schleicht komprimiert dass man sich gleich die VHS anschauen kann ,so ungefähr. Bringt mal eine 8K Blu Ray raus und vor allem mal wieder gescheite neuen Filme und Serien. Den ganzen Rotz können sie sonst behalten. Je höher die Auflösung desto mehr siehts wie schlecht das CGI ist.
 
  • Gefällt mir
Reaktionen: Serandi
Die Japaner brauchen dringend einen neuen HDMI-Standard. Seit 2018 sendet NHK schon in 8K. Seit den Olympischen Sommerspielen 2020 sogar in 8K 240Hz HDR. 12 Stunden am Tag gibt es Konzerte, Dokumentationen, Sportereignisse in dieser Qualität dort zu sehen. 16K steht auch schon in den Startlöchern.
 
Ich sehe hier ein weiteres Problem in der DRM-Kette:
Netflix und Konsorten laufen nur mit dem hdmi2.2-Kabel mit dem eingebauten DRM-Chip der neuesten Revision
 
  • Gefällt mir
Reaktionen: Vindoriel
Das mit den Kabeln stimmt ja nur bedingt.

Vermutlich aufgrund der Lizenzkosten sind manche Kabel, die als "HIgh-Speed mit Ethernet" verkauft werden eigentlich "Ultra High Speed" fähig. (Laut Beschreibung und bei bekannten Marken dürfte es ja stimmen).
Schlussendlich kommt es einfach auf die Qualität des Kabels an und nicht was drauf steht.

Ich kann mir daher gut vorstellen, dass die meisten HDMI Ultra High Speed Kabel auch 2.2 inoffiziell unterstützen werden.
Aber man verdient natürlich mehr Geld, wenn man neue Kabel-Versionen verkauft. ;)
Ergänzung ()

AGB-Leser schrieb:
Netflix und Konsorten laufen nur mit dem hdmi2.2-Kabel mit dem eingebauten DRM-Chip der neuesten Revision?

Soll das eine Zukunftsprognose sein oder was meinst du? Aktuell gibt es keine "2.2"-Kabel und Netflix läuft mit jedem x-beliebigen HDMI Kabel.
 
Zurück
Oben