News ALLM, VRR und QFT: „HDMI 2.1“ muss keine neuen Gaming-Features bedeuten

Und damit kann man sich den standard so gesehen in die haare schmieren, der ist doch das papier nicht wert auf dem er geschrieben wurde.
Ziel voll und ganz verfehlt.
Wenn ich HDMI 2.1 kaufe erwarte ich auch HDMI 2.1 ohne wenn und aber
 
  • Gefällt mir
Reaktionen: NMA, fox40phil und Der_Picknicker
fox40phil schrieb:
Braucht man mehr Hardware
Du brauchst halt nen Chip der das auch kann und der kostet dann 38 Dollar statt 24 für den HDMI 2.0 Chip. Und wozu das, wenn 87% der Kunden niemals merken werden, dass es keinen VRR Support oder 4K120hz gibt... ;)

(ausgedachte Preise)
 
  • Gefällt mir
Reaktionen: NMA und Husl
Der_Picknicker schrieb:
Zwischen nem Kompatibilitätslayer und einer mind. Vorraussetzung liegen Welten. Jeder Hersteller könnte USB-C 3.0 in sein Handy bauen. Wird bloß nicht gemacht, weil die USB Organisation sagt, hey usb c geht schon ab 2.0 los. HALLO ! WTF..? 2021 und die Hersteller dürfen immer noch USB 2.0 einbauen.. 20mb/Sec wenn’s gut läuft Wahnsinn, dass das für dich okay ist.
Wie kommst du auf "layer"? comp.layer ist wenn da eine Schicht (engl. layer) im Protokollstapel steckt, die z.B. ein USB-Dialekt auf einen anderen Dialekt umsetzt. Was ja wohl nicht der Fall ist.
Und wie kommst du auf "mind. Voraussetzung"? Voraussetzungen kommen von Anforderungen, und die minimale Anforderung hier ist offensichtlich "Daten mit möglichst vielen PCs mit akzeptabler Geschwindigkeit austauschen". Und USB2.0 ist scheinbar für viele Leute ausreichend.

Oder was ist deine Anforderung hier? Volles Handy-Backup in 10 Minuten ziehen? Wie oft ist das ernsthaft nötig?

IMHO: deine Wünsche sind so praxisrelevant wie ein Verbot, 225er Schlappen für Autos mit weniger als 200PS zuzulassen. Denn das geht ja mal gar nicht, dass jemand mit 150 auf breiten Gummis schleicht, da muss eine offizielle mind.Voraussetzung her, aber dali!
Ergänzung ()

Hatsune_Miku schrieb:
Wenn ich HDMI 2.1 kaufe erwarte ich auch HDMI 2.1 ohne wenn und aber
Ne, wenn ein Standard ein Baukasten ist, dann kannst du nur das erwarten, was dir Basis-Norm garantiert und auf alle Zusatzfeatures musst du schon separat achten.

Sonst hättest du vor einem Jahrzehnt nichts mit Displayport verkaufen dürfen, da stand "Adaptive Sync" auch in so einer zusätzlichen Spec, die niemand implementiert hat. Erst Jahre später hat AMD das wiederausgegraben. Da finden sich noch genug andere Beispiele dieser Art.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Husl
Bin ich hier der Einzige der es völlig normal findet, dass die Schnittstelle nichts über das Featureset der Endgeräte auf beiden Seiten aussagt, sonder nur über deren maximalen Möglichkeiten?
War das isbesondere bei Bildschirm-Verbindungen nicht schon immer so?
Wenn es Panel gibt die VRR nicht können aber 8K. Für mich völlig normal.

Meine Monitore können inzwischen alle G-Sync, vorher hatte ich zwei von den dreien ohne G-Sync mit den gleichen Schnittstellen und Kabeln.... Wenn ich einen Monitor kaufe, dann schaue ich mir doch die Features genau vorher an.
 
  • Gefällt mir
Reaktionen: Terrordrome, elchue, onetwoxx und 6 andere
@MichaG
Die Tabelle ist für mich nicht nachvollziehbar in der Zeile 7.680 × 4.320 (8K) @ 60 Hz @ HDR.
HDMI 2.1 kann das ohne DSC darstellen, sagt zumindest deine Tabelle.
Wenn ich mir diesen englischen Wikipediaeintrag ansehe, dann brauche ich für Uncompressed 10 bpc color depth and RGB or Y′CBCR 4:4:4 color format eine Datarate von 62 Gbit/s. - Und das ist sogar deutlich mehr als das HDMI 2.1 Bruttomaximum von 48 Gbit/s.

DisplayPort 1.4 kann das auch nicht mit DSC: Siehe dort die Wikipediaquelle. - Mit UHBR 20 (von DP 2.0) kann dann wieder unkomprimiert 8k bei 60 Hz und HDR dargestellt werden.
 
Arcturus128 schrieb:
Ne, wieso? Der braucht den neuen HDMI-Standard gar nicht und kann auf einen älteren zurückgreifen.
Hä? 8K60Hz geht nur mit 2.1... aber die restlichen Features braucht er nicht.
leonM schrieb:
Es ist ganz simpel, alle Feature HDMI2.1, sonst HDMI2.1A für ... HDMI2.1B für .... usw..
Und was kann dann HDMI2.1XYZ alles? Und wieso sollte das einfacher sein als einfach in der Featureliste zu schauen ob das was man will (VRR, 120Hz, HDR etc.) dabei steht? So habs ich zumindest beim kauf meines OLEDs gemacht.
 
  • Gefällt mir
Reaktionen: Husl und Fonce
Termy schrieb:
Ich würde mich echt wünschen, dass statt diesem geschlossenen HDMI-Bullshit Displayport mehr Bedeutung erlangen würde. Ausser der etwas längeren möglichen Kabellänge hat HDMI doch nur Nachteile (Lizenzzahlungen, keine offenen Specs, weniger Bandbreite, weniger Features) oder sehe ich das falsch?
Blue Rays brauchen HDMI. Insofern kommt man daran nicht vorbei.
 
Arcturus128 schrieb:
Welcher Office-Monitor braucht/hat 8K?
wer weiß... vielleicht für hochauflösende Astronomie-Fotos? Gibt bestimmt auch andere gründe weshalb man nicht das volle Portfolio an Features benötigt.
 
Der_Picknicker schrieb:
Zwischen nem Kompatibilitätslayer und einer mind. Vorraussetzung liegen Welten. Jeder Hersteller könnte USB-C 3.0 in sein Handy bauen. Wird bloß nicht gemacht, weil die USB Organisation sagt, hey usb c geht schon ab 2.0 los. HALLO ! WTF..? 2021 und die Hersteller dürfen immer noch USB 2.0 einbauen.. 20mb/Sec wenn’s gut läuft Wahnsinn, dass das für dich okay ist.
Ergänzung ()


Nein außer der Kostensenkung
Ich glaube, du hast noch nie Hardware designed.

USB-2.0 ist gut zu implementieren, einfach die Strippen ziehen, wenn irgendetwas im Weg ist, wird es schon gehen. Brauchst nur Full Speed: Noch besser, wiring total egal.
USB-3.0: Impedanz muss exakt 90 Ohm sein oder es wird echt shitty, du musst ne andere Leitung gerade auf dem Layer durchführen: Pech für dich. Du willst ne Low-Power Lösung: Pech für dich, der Transceiver braucht seine Power. Du willst nur nen UART mit 9600 Baud für ne RGB-Birne, Pech für dich, geht nur mit 5 Gb/s.
USB-3.1 Gen 2: Und jetzt noch mal mit geringerem Link Budget, weil alles doppelt so schnell ist. (Wenigstens verdoppelt es nicht den Stromverbrauch).

USB-C: Variante A, 5V 3A USB-2.0: OK, ein Stecker, 2 Widerstände (2x 5kOhm). Fertig
USB-C: Variante B, 5-20 V 5 A USB-2.0: OK, ein Stecker, ein IC, 2 PowerFET, Power-Dissipation, mglw. nen Flash, Nen precision-resistor. Und ne Stromversorgung die mit 5-20 V klar kommt.
USB-C: Variante C, 5 V 3 A USB-3.0: Ein Stecker, 2 Widerstände, ein IC, nen LDO/Stepdown für den IC, ein zweiten IC für die Orientierung, und weniger Link Budget, da es durch nen Zusatz-IC geht.
USB-C: Variante D, 5-20 V 5 A , USB-3.0: Direkt Thunderbolt-Chip, den gibts nur von Intel (Single Source), der kostet was, ist unter NDA und du bist ne kleine Klitsche, oder aber 3-4 ICs, paar FETs, paar LDOs paar Stepdowns, und am Ende tut es nicht oder verbraucht 2 W.
USB-C: Variante E: Variante D + DisplayPort Alt Mode => Am besten Kündigen.

Jetzt denke mal, was die Leute implementieren werden: (Antwort: A oder B fürs Handy, C falls man die Bandbreite braucht, D oder E falls man mehr als 1 Mio. Stück/Jahr verkauft und es ein Laptop ist)

Das USB Implementer Forum hat bei USB-C schon was nachgedacht, (fast) niemand braucht alles. (Sie ham an andere Stelle verkackt (USB-PD hätte man nicht so kompliziert machen müssen), aber niemand ist perfekt.) Und ne eierlegende Wollmilchsau geht halt nicht, da muss man Kompromisse machen.

HDMI vs. DisplayPort: Genau das gleiche Problem. Ein HDMI Transmitter ist schnell geschrieben, die originale Spec hat für die Basics so 50 Seiten oder so (a la: Nehm nen VGA-Signal: VSYNC wird so gemacht, HSYNC so, Daten so, viel Spaß). DisplayPort so "hold my beer": (a la: Wir ham hier mehrere Layer an Paketen, wir müssen am Anfang erst mal den Link trainieren, dafür nehmen wir gleich ne Differenzielle Leitung mit 100 Mb/s), da vergeht dir als Entwickler direkt der Spaß.

Dass HDMI ne Menge optional hat, war ja schon lange klar, original ist es nur ein anderer Stecker für (single lane) DVI + drangedengeltem Audio. HDCP optional, Audioformate optional. Und jetzt halt auch VRR und co. => Augen auf beim Monitorkauf.
 
  • Gefällt mir
Reaktionen: elchue, ComputerJunge, alturismo und 6 andere
Die höhere Datenrate von HDMI 2.1, die auf dem Nachfolger Xbox Series X 4K mit 120 Hz ermöglicht, gibt es bei der älteren Konsole wiederum nicht.

Die höhere Datenrate ist auch nur ein optionales Feature.

Die Vorgabe ist, dass wenn mit HDMI 2.1 geworben wird, dass zumindest ein HDMI 2.1 Feature unterstützt wird. Theoretisch kann das aber auch nur HDCP 2.3 sein.
Es wird weiter vorgeschrieben, dass man die unterstützten Features neben HDMI 2.1 in Klammern angeben muss. In der Praxis halten sich aber die meisten Hersteller nicht daran.

Abgesehen davon ist es gerade bei TV Herstellern üblich, dass Features im Datenblatt stehen, die der Fernseher zum aktuellen Zeitpunkt noch gar nicht kann und erst mit späteren Firmware Updates nachgeliefert werden. Wenn das dann aber zu kompliziert wird, so werden diese einfach wieder aus dem Datenblatt entfernt.
Weiters sollte man beachten, dass nur weil der Fernseher/Monitor VRR unterstützt und die GPU dies auch tut dies noch lange nicht bedeutet, dass dies in der Praxis auch ohne problemlos funktioniert bzw. ob es dabei nicht zu bestimmten Einschränkungen kommt.
 
Stuffz schrieb:
@MichaG Die Tabelle da finde ich etwas unvollständig. HDMI 2.1 von Ende 2017 ist drin, aber Displayport 2.0 von Anfang 2016 fehlt? DP 2.0 war schon theoretisch schnell als HDMI 2.1 und hatte DSC schon von Beginn drin.

boxte30:Goas schrieb:
@MichaG
Die Tabelle ist für mich nicht nachvollziehbar in der Zeile 7.680 × 4.320 (8K) @ 60 Hz @ HDR.
HDMI 2.1 kann das ohne DSC darstellen, sagt zumindest deine Tabelle.
Wenn ich mir diesen englischen Wikipediaeintrag ansehe, dann brauche ich für Uncompressed 10 bpc color depth and RGB or Y′CBCR 4:4:4 color format eine Datarate von 62 Gbit/s. - Und das ist sogar deutlich mehr als das HDMI 2.1 Bruttomaximum von 48 Gbit/s.

DisplayPort 1.4 kann das auch nicht mit DSC: Siehe dort die Wikipediaquelle. - Mit UHBR 20 (von DP 2.0) kann dann wieder unkomprimiert 8k bei 60 Hz und HDR dargestellt werden.
Zu beidem: Ich habe die Tabelle aus einer alten Meldung übernommen. Ist vielleicht nicht mehr so ganz auf aktuellem Stand. Ich schaue morgen mal oder nehme sie raus, bevor es zu verwirrend wird. 😉
 
KurzGedacht schrieb:
Nur weil das alle so machen ist das ja noch lange nicht gut. Wir wären alle besser dran, wenn HDMI gar nicht existieren würde und an Fernsehern, Konsolen und Co einfach DP Anschlüsse wären.

Nicht unbedingt die beste Lösung. Aber eben Fakt. Daran ändert sich auch nichts. Pfadabhängigkeit, Lock-In ... Tastatuslayout ;)
 
Ganz schön viel Mimimi in diesem Thread. Insbesondere von den Usern im CB Forum möchte ich doch eine gewisse Technik-Affinität erwarten, sich auch mit den Features/Specs von Produkten auseinandersetzen zu können. Nicht jeder AV-Receiver beherrscht alle Codecs und die lässt man sich schön bezahlen. Immer alles zu wollen und gleichzeitig möglichst nichts dafür zahlen zu wollen ist wohl mittlerweile eine gängige Mentalität.

Bzgl. dem Vgl. mit DP - vielleicht war Beta auch besser als die VHS oder Minidisk als die CD. Es kommt eben auf das Marketing an - besser gesagt: "wes Brot ich ess, des Lied ich sing".
 
Zuletzt bearbeitet:
Endlich wieder ein Thema wo mal wieder in echter Stammtisch-Manier abgelästert werden kann :rolleyes:

HDMI ist nun mal schon lange der Standard in der Unterhaltungselektronik. Hier ist das Interesse an Displayport relativ gering.
Die Mehrzahl der Käufer nutzt wahrscheinlich eh nur die integrierten Streaming-Apps und die integrierten Sat-/Kabeltuner. Am HDMI-Port hängt dann bestenfalls noch eine Soundbar oder ein AVR.
Deshalb war für die "normale" Kundschaft das einzig interessante Feature der letzten Jahre wahrscheinlich (e)ARC.

Weitere (optionale) HDMI2.1 Features wie VRR, QMS, ALLM, ... sind derzeit hauptsächlich für Konsolen und PC-User interessant. Deshalb möchten die Hersteller der TV-Geräte das nicht unbedingt in ihren Budget-Modellen implementieren. Hier geht es nun mal um jeden Euro.
Es wäre für die Hersteller recht einfach, auf ihren Webseiten zu kennzeichnen, welche Features ihre Geräte unterstützen. Da muss man den "Schwarzen Peter" nicht dem HMDI-Standard zuschieben.

Zumal das Konsortium ganz klar vorschreibt:
1638865531665.png

Quelle: https://www.hdmi.org/spec/hdmi2_1
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Husl
Der_Picknicker schrieb:
Wenn ein Gerät TB3 unterstützt dann MUSS es folgende Spezifikationen erfüllen:
Anhang anzeigen 1155935

Quelle: Wikipedia
Beantwortet meine Frage nicht. Auch ein HDMI 2.1 Gerät hat Features die es mindestens unterstützen muss.

Je nach Controller hat TB3 eben DP1.2 oder 1.4. Es kann 10 Gbit/s USB unterstützen oder auch mehr.
Ergänzung ()

Arcturus128 schrieb:
Ne, wieso? Der braucht den neuen HDMI-Standard gar nicht und kann auf einen älteren zurückgreifen.
Ernsthaft? Es gibt also nur Gaming Geräte, die hohe Datenrate nutzen oder was möchtest du hier mitteilen.
 
Zurück
Oben