News HDMI 2.2: Neuer Standard unterstützt bis zu 96 Gbit/s

Der Stecker und die generellen Fähigkeiten des Standards ändern sich durch die erhöhte Geschwindigkeit jedoch nicht.
Dann hätten wir nun also HDMI, DisplayPort, USB Typ C ... hab' ich was vergessen? Mal schauen, welchen Namensschnickschnack sie sich wieder einfallen lassen. 🙄
 
Viper816 schrieb:
Jetzt geht nur noch in Nachkommasrellen weiter...

Wann wird dann die Bezeichnung HDMI 3 freigegeben? Bei 1TB/s?

Blöd ist auch das man das Superlativ Ultra schon für 2.1
Sie haben ja jetzt schon mal die Bitrate im Namen. Das macht es ja wiederverwendbar.

Da ist USB ja eigentlich schon beim Ergebnis angekommen. Kein SuperSpeed mehr etc. Einfach nur "USB 40Gbps". Nur aus historischen Gründen gibt es eine Missverständlichkeit drin.

DP hat dann weitergemacht und nennt die Geschwindigkeiten UHRB10/20/13.5 wo die Zahl GBit/s sind.
Und die Kabel haben sie mit DP40, DP54, DP80 schön nach der maximalen Bandbreite benannt.

HDMI fehlt nur noch dass sie kanonische Namen definieren für die Geschwindigkeiten die ein Port kann. Weil da gab es bisher nichts einheitliches und öffentlich nennt HDMI leider keine Namen dafür, so dass wir nur die bisher 6 FRL Geschwindigkeiten haben. Und davor war es ja quasi Stufenlos.

Die Spezifikationsversion hat nie dafür gestanden. Du kannst nur sagen: die höchte Geschwindigkeiten in dieser Spezifikations PDF ist x GBit/s. Aber das wars. Das hat noch nie gehießen, dass es ok war einen Port HDMI x.x zu nennen wie als würde das bedeuten, die maximale Geschwindigkeit wird unterstützt es sollte schon immer die Geschwindigkeit angegeben werden. Hat nur keiner gemacht, weil es lange genug gut gegangen ist. Aber jetzt dieser Missbrauch halt nicht mehr haltbar.
xexex schrieb:
Praktisch kann DP nichts bzw. nur wenig davon was HDMI ausmacht, es ist ein Protokoll für Monitore und PCs und keines für Medientechnik.
Jetzt übertreibst du aber ein wenig.

xexex schrieb:
Darin sind Sachen wie CEC, (e)ARC, Lip Sync, VRR oder ALLM enthalten
CEC und ARC, ja. Das ist ja ganz speziell für TVs und da die Hersteller dort kein DP nutzen wollen, gibt es das auch nicht in DP. CEC ist auch nichts was normale PCs oder GPUs können.

DP ist aber so durchdacht und vielseitig, dass es beides super leicht könnte, wenn Interesse bei Herstellern bestehen würde.
Zu DP 1.2 Zeiten gab es einen Aux-Link mit 720 MBit/s Bandbreite. Den hat seit dem niemand genutzt, deshalb ist er jetzt Deprecated. Aber das wäre mehr als gut genug für ARC gewesen. Die grundsätzliche Architekture von DP würde es erlauben einen CEC Ersatz quasi in Software für existierende Hardware zu bringen. Man könnte CEC emulieren. Weil der Grundsatz für so viel schon da ist, während das bei HDMI erstmal Hardwareänderungen brauchte.

Der Rest, wie ALLM und Lip Sync Zeugs sind nur Workarounds für Probleme die durch den Rest erzeugt werden.

Niemand will einen DP Monitor der 100ms Latenz drauf packt und dem eine Quelle sagen muss "jetzt lass aber den ganzen Schwachsinn an Bildverschlimmbesserern weg und stell gefälligst in Echtzeit dar".
Wie viele Zuspieler wechseln denn von unterirdischer Auflösung und Qualität auf hohe Qualität so dass die Kunden bei der Schlechten Qualität dann extrem Latenzfeindliche Bildverbesserer wollen. Das könnte man auch einfach lösen, in dem der TV fragt: "die Auflösung ist so niedrig, soll ich die Latenz killen mit irgendeinem dubiosen upscaling?" anstatt einfach Mist zu machen.

Der Witz ist, die meisten TVs die neu genug für ALLM sind, können auch eARC, womit es nicht mehr notwendig sein sollte, dass alles Bild in den TV über einen einzigen HDMI Port kommt, der zwischen mieser Qualität und Spielekonsole wechselt. Und selbst 24Hz Ruckelfest von UltraHD Blu Ray könnte man an der Refreshrate erkennen. Anstatt dass Geräte bitten müssen, die Latenz auf sinnvolle Werte zu reduzieren.

Aber die TV Hersteller wollen ja so kram bewerben, ab Werk an schalten. Und dann wollen die auch noch mehr Marketing von ihrem Steckerstandard, der so klingt, als würden sie was besser machen, obwohl das komplett rückwärts ist.

Der Rest aus der Tabelle geht bei DP quasi genauso. Und da DP an allen Ecken flexibler ist und die eigentliche Bildformate unabhängiger von der Übertragung sind, mussten viele Teile davon auch nicht so vom Standard gefeiert und herausgestellt werden.
HDMI hat als super simples Protokoll begonnen. Das war fest verbunden mit Audio und Bildformaten. Da musste alles immer von Grund hinzugefügt werden. Deshalb hat HDMI ja auch eine mittlerweile riesengroße Tabelle von Auflösungen + Refreshrate die unterstützt werden. Mit nur bestimmten Optionen drin. Während das bei DP von Grund auf unabhängig ist.
 
  • Gefällt mir
Reaktionen: MountWalker
Rollkragen schrieb:
Doch das DP-Protokoll ist Open Source und lizenzfrei bis 1.2
Vesa hat Mitgliedsgebühren. Wo ist denn bitte ein DP Standard Opensource? Geleakt != Opensource.
1736192070838.png


Der Unterschied ist, das HDMI auch noch Gebühren pro verbauten Port/Produkt haben will und nicht nur die Mitgliedschaftsbegühren die bei Vesa eben für Firmen relativ unwichtig sind.
 
BAR86 schrieb:
Ich hab jetzt keine Preise angeschaut, aber mein Netzwekkabel war spottbillig und Erfahrungsgemäß kosten lange, gute HDMI Kabel eine Niere
Mein HDMI 2.1 deleyCon Kabel mit 10m funktioniert absolut problemlos zwischen PC & TV mit 4k 120Hz und HDR .
Für €32.....
 
AlphaKaninchen schrieb:
Und als Linux Nutzer ist 4K60 mit HDMI das maximum, weil das HDMI Forum das so möchte,
Das gilt doch nur für AMD. Weil die ihre HW wohl so gebaut haben, dass HDMI Internas in Kernel Treiber landen müssen oder sonstwo in Opensource Teilen der Treiber.
Nvidia und Intel kriegen das ja auch hin. Da ist der Teil eben in HW oder Blob-Firmware.

Nicht dass das gut oder sinnvoll ist was HDMI da macht (dafür müsste man aber die genaue Begründung kennen, warum sie es abgelehnt haben. Kennen wir leider nicht. Nur das AMD es befürchtet hatte und hat einen Test gemacht um zu schauen ob man HDMI Anwälte überzeugen kann und sie haben wie befürchtet nein gesagt).
 
Rollkragen schrieb:
Soll das HDMI-Konsortium seine teuren Lizenzkabel behalten, bei denen der Endverbraucher draufzahlt. Lieber den freien DisplayPort weiter nutzen und mit neuen Protokollen versehen, oder auch USB-C? Die HDMI-„Bande“ hat jetzt einfach Angst, da dank USB-C-Verbreitung ein multifaktorieller Feind ausgemacht wurde. Ich hoffe, die Verbraucher erkennen das und fragen beim Kauf häufiger nach Alternativen zu dem teuren proprietären HDMI-Mist.
Wollte ich auch gerade schreiben. Noch mehr closed-source-Grütze, nein, danke. Noch mehr Sonder-Features, die 0.00.. Promille der Anweder braucht, aber Futter für die Fanboys ("dein DP kann noch nicht alles, mimimi") liefert - nein, danke.

Was sie beide nicht liefern ist ein einfaches Feature, was ich seit Jahren vermisse, nämlich einfaches USB durch das Video-Signal zu tunneln. Und sei es nur USB1.1, würde für normale Peripherie locker reichen. Audio-Kabel einsparen und im Video-Signal mitsenden geht schon seit Ewigkeiten, aber warum nicht USB? Würde glatt einen Kabel einsparen.

Gut, bei DP im DP-Alt-Mode von USB-C geht es wohl nebenher (also nicht im Signal), und auch da ist es nervig - die Hubs machen dann mit Bandbreite was sie wollen, also halbieren, entweder immer oder nur wenn bestimmtes USB (Highspeed) erkannt wird, oder oder oder.
 
Ray519 schrieb:
Nvidia und Intel kriegen das ja auch hin. Da ist der Teil eben in HW oder Blob-Firmware.
Nvidia ist halt einfach ein Proprietär Treiber, Intel nutzt meines Wissens einen DP zu HDMI Konverter bei den Arc GPUs, in anderen Worten das schlechteste von beiden da nur das geht was beide können und nicht alles richtig übersetzt wird, habe z. B. Das gleiche gemacht um meinen Fernseher an die AMD APU anzuschließen aber dann geht halt kein VRR, obwohl beide Standards das können.
 
Stuffz schrieb:
nämlich einfaches USB durch das Video-Signal zu tunneln.
Hatte DP extra mit dem schnellen Aux Link vorgesehen. Sogar als Beispiel genannt für Touchscreens etc.

Hat niemand genutzt, deshalb wieder rausgeflogen. Und jetzt ist das Problem ja mit USB-C DP Alt mode / USB4 gelöst. Schon seit einer ganzen Weile.

HDMI hat auch nicht so gute Erfahrungen mit den Speziellösungen gemacht. Mit Netzwerk durch den HDMI Stecker zum TV. Ist auch wieder rausgeflogen.
Stuffz schrieb:
die Hubs machen dann mit Bandbreite was sie wollen, also halbieren, entweder immer oder nur wenn bestimmtes USB (Highspeed) erkannt wird, oder oder oder.
Nein. USB2 liegt immer parallel im Kabel / Stecker. Aber USB3 ist alternativ zu DP. Also entweder USB3 10G + halber DP oder normaler DP + USB2. Und wenn du einen Hub mit USB3 kaufst, dann fordert er das eben auch an. Das ist nicht wie die wollen, das ist genau so wie beworben. Und für mehr gibt es USB4.
 
Tigerfox schrieb:
@JonaK : Das mit dem Staub hatte ich aber bei noch keinem anderen Port. Ist für TV sicher nicht so wichtig, sollte aber zeigen, das USB-C nicht der zuverlässigste Stecker ist.
Von einem Bildschirmkabel erwarte ich bombenfesten Sitz und Arretierung und einen Stecker, bei dem sich nicht durch das Gewicht des, bei HDMI ja durchaus recht massiven, Kabels irgendwas verbiegt.

USB-A lässt sich besser stapeln und scheint mir auch für Sticks etc. stabiler zu sein. Natürlich ist USB-C deutlich leistungsfähiger, das ist aber bei vielen Anwendungsfällen egal.

Ich hatte das richtig übel bei meinen Lightningports und bei MicroUSB. Bei Handys halt. Sonst nirgens. Warum diese Anekdote jetzt klar aufzeigt, dass USB-C unzuverlässig ist, erschliest sich mir nicht.

Also USB-C sollte unbedingt stabiler sein... weil dein HDMI Kabel schwer ist? Was ist das denn für eine Logik?
Lässt sich besser Stapeln? USB-C ist doch viel kleiner und kompakter?

USB Sticks nutze ich seit 5 Jahren nicht mehr. Wenn ich was brauche, dann bin ich froh um mein USB-C an meiner externen. Es ist einfach so viel schneller.

Bei jedem einzelnen meiner Anwendungsfälle ist USB-C deutlich besser als USB oder HDMI:

Entweder, weil es Strom UND Daten UND Bild überträgt, wie an meinen Gitarreninterface, meinem Laptopanschluss an den Monitor, an meinem Ipad, meiner Switch..

Oder weil es mein Smartphone schneller Läd als USB

Und dazu muss ich nicht damit rumfummeln.

Ich weiß nicht, was du für super special Anwendungsfälle hast, aber selbst mit intensiven Nachdenken fällt mir nichts ein, wo ich es noch genieße, dass irgendwo HDMI oder USB dran ist.
 
AlphaKaninchen schrieb:
Nvidia ist halt einfach ein Proprietär Treiber, Intel nutzt meines Wissens einen DP zu HDMI Konverter bei den Arc GPUs, in anderen Worten das schlechteste von beiden da nur das geht was beide können und nicht alles richtig übersetzt wird, habe z. B. Das gleiche gemacht um meinen Fernseher an die AMD APU anzuschließen aber dann geht halt kein VRR, obwohl beide Standards das können.
Der Adapter muss es übersetzen können. Die Adapter die Intel an iGPUs vorsieht (verlötet auf dem Board, du merkst davon nichts) für HDMI FRL kann VRR.
1736193711044.png
(auch wenn sie es seltsamerweise "Adaptive Sync" nennen und ich da noch Fragen habe. Mein einziger Monitor mit VRR ist TMDS-only. Da geht es nicht mit meinem externen Adapter der eigentlich VRR können sollte).

Es gibt Adapter die VRR können, auch an AMD GPUs (Synaptics VMM7100 basiert zB. Cablematters hat ein paar).

Und Nvidia hat doch mittlerweile auch einen Opensource Treiber der langsam wächst. Der kriegt es trotzdem hin.

Bei Nvidia habe ich noch nicht gecheckt, ob dort alle HDMI Features drin sind im Opensource Treiber. Aber die Newsmeldung über HDMI und Linux war explizit nur über AMD. Und zwar weil sie Dinge die HDMI gehören in den öffentlichen Source Code packen wollten.

Es gibt ja schon ewig und für alle mögliche Hardware Firmware-Blobs. Auch AMD nutzt die noch. Man muss das Produkt halt so bauen, dass das was dir nicht gehört und das andere Leute dir verbieten können zu veröffentlichen im Firmware-Blob landet. Und das war wohl eine Design-Entscheidung von AMD, wenn der Rest nicht darunter leidet. Und in Windows ist es egal, weil da ist der gesamte Treiber ein Blob. Lässt sich halt nicht ohne Zustimmung von HDMI nach Linux Opensource portieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
JonaK schrieb:
Warum diese Anekdote jetzt klar aufzeigt, dass USB-C unzuverlässig ist, erschliest sich mir nicht.
Meine bisherigen Erfahrungen mit USB-C zeugten halt von weniger Haltbarkeit.
JonaK schrieb:
Also USB-C sollte unbedingt stabiler sein... weil dein HDMI Kabel schwer ist? Was ist das denn für eine Logik?
Wenn HDMI-Kabel für HDMI2.1 und DP2.x-Kabel so dick und schwer sind und trotdem bei mehr als ein paar Metern Probleme machen, meinst Du, USB-C Kabel können das gleiche leisten, aber viel dünner bleiben?
JonaK schrieb:
Lässt sich besser Stapeln? USB-C ist doch viel kleiner und kompakter?
Ja, frag mich nicht. Aber an so einer typischen ATX I/O-Blende am Mainboard wird oft 4xUSB-A übereinandergestapelt. Das USB-C da überhaupt mal gestapelt wird, ist extrem selten, und wenn, dann nur 2x.
JonaK schrieb:
USB Sticks nutze ich seit 5 Jahren nicht mehr.
Ich nutze sie täglich und in einem Umfeld, in dem USB-A noch allgegenwärtig ist und in dem die Geräte zehn Jahre und mehr halten müssen.
Ich habe keine Erfahrungen mit USB-C Sticks, aber ich vertraue dem kurzen, kleinen Stecker nicht. Und ein reiner USB-C-Stick wäre für mich nur sehr eingeschränkt nutzbar.
Bis ~1GB/s reich USB-A. Wieviele USB-Sticks gibt es, die so schnell sind, und wer braucht sie?
JonaK schrieb:
Bei jedem einzelnen meiner Anwendungsfälle ist USB-C deutlich besser als USB oder HDMI:

Entweder, weil es Strom UND Daten UND Bild überträgt, wie an meinen Gitarreninterface, meinem Laptopanschluss an den Monitor, an meinem Ipad, meiner Switch..

Oder weil es mein Smartphone schneller Läd als USB
In vielen deiner Anwendungsfälle ersetzt USB-C eben nicht USB-A oder HDMI Type A oder den großen Displayport, sondern USB Mini-B, HDMI Type B oder miniDisplayport. Und da ist USB-C natürlich besser.

Und ja, Du nennst Anwendungsfälle, wo USB-C wirklich ein Segen ist. Bild und Strom und Daten gleichzeitig. Aber wann brauche ich das oder auch nur zwei davon? Doch nur wenn ich ein mobiles Gerät an einen Bildschirm oder Dock anschließe. Laptops ohne displayport-fähigen USB-C, die es tatsächlich immernoch gibt, sind eine Sünde.

Einen feststehenden PC per USB-C an den Bildschirm anzuschließen verschafft wenig Vorteile. Auch wenn ich dafür drei Kabel brauche, stört das am Schreibtisch kaum, da ich sie meist nur einmal für lange Zeit einstecke und kaum sehe.
Aber welche Monitore könnte ich so betreiben? Nur eine handvoll Consumer-Mainboards bietet einen displayportfähigen USB-C-Port, der PD 100W liefert. Und die Monitore, die sich so betreiben lassen, sind zu 99% Office-Monitore mit 60Hz. Gaming-Monitor bräuchten oft nocht mehr Leistung, auch wenn USB-C die mittlerweile theoretisch liefern könnte.

Bei mobilen Geräten ganz klar, da geht nichts über USB-C. Beim Gitarreninterface kenne ich mich jetzt nicht aus, aber da frage ich mich auch, wo der Vorteil liegt.
 
  • Gefällt mir
Reaktionen: MountWalker
Ray519 schrieb:
Der Adapter muss es übersetzen können. Die Adapter die Intel an iGPUs vorsieht für HDMI FRL kann VRR.
Genau, mein Kenntnis stand ist das der Adapter in den Arc GPUs der 1. Gen es nicht konnte, kann aber sein das ich mich irre.
Ray519 schrieb:
Es gibt Adapter für die VRR können, auch an AMD GPUs.
Der von Cable Matters kann es wohl, hab es aber nicht probiert, deren USB C auf HDMI 2.1 ging bei mir leider nicht...
Ray519 schrieb:
Und Nvidia hat doch mittlerweile auch einen Opensource Treiber der langsam wächst.
Ist im werden Ja, keine Ahnung was da stand der Dinge ist...
Ray519 schrieb:
Es gibt ja schon ewig und für alle mögliche Hardware Firmware-Blobs.
Genau der war es ja der bei Nvidia lange den Open Source Treiber verhindert hat...
Ray519 schrieb:
Auch AMD nutzt die noch. Man muss das Produkt halt so bauen, dass das was dir nicht gehört und das andere Leute dir verbieten können zu veröffentlichen im Firmware-Block landet.
Genau, mal schauen wie es bei AMDs Next Gen aussieht. Ob sie es dann richtig machen. Weiß eigentlich jemand hier ob die APUs bei Intel und AMD selbst HDMI ausgeben oder ob das immer über einen DP zu HDMI Konverter läuft? (Framework hat ja bei Ryzen 7000 3x DP, die Specs von AMD sagen aber die APU gibt nur 2x DP und 1x HDMI, was kommt den nativ aus der APU?
 
Ray519 schrieb:
Hatte DP extra mit dem schnellen Aux Link vorgesehen. Sogar als Beispiel genannt für Touchscreens etc.

Hat niemand genutzt, deshalb wieder rausgeflogen. Und jetzt ist das Problem ja mit USB-C DP Alt mode / USB4 gelöst. Schon seit einer ganzen Weile.
Mag sein, aber an neuen Sonderlösungen ist kaum jemand interessiert. Hätte man seit PS/2 eigentlich lernen müssen. Darum meinte ich ja: getunneltes Protokoll. USB-Daten in Video-Frames einschleusen. Und nicht unbedingt eine harte Umschaltung am Bus wie beim Alt-Mode.

Ray519 schrieb:
Nein. USB2 liegt immer parallel im Kabel / Stecker. Aber USB3 ist alternativ zu DP. Also entweder USB3 10G + halber DP oder normaler DP + USB2. Und wenn du einen Hub mit USB3 kaufst, dann fordert er das eben auch an. Das ist nicht wie die wollen, das ist genau so wie beworben. Und für mehr gibt es USB4.
Ja, ja, aber USB4 ist mit Kanonen auf Spatzen geschossen. Was ich meinte ist ein Kanal für ca. 11mbit/s Bandbreite, das macht wie viel aus... 2 Promille von HBR2? Und das hätte man nicht irgendwo im Seitenkanal unterbringen können? Und wenn ich heute mit den üblichen USB-Docks herumspiele, dann gibt es eben das Problem, dass die gern einfach mal die Hälte der DP-Bandbreite kastrieren, nur weil da vielleicht mal jemand mit USB3 was anschließen will... will ich aber nicht, verdammt, aber umstellen/ausschalten kann ich das idR. auch nicht.
 
Tigerfox schrieb:
In vielen deiner Anwendungsfälle ersetzt USB-C eben nicht USB-A oder HDMI Type A oder den großen Displayport, sondern USB Mini-B, HDMI Type B oder miniDisplayport. Und da ist USB-C natürlich besser.
USB4 erfordert USB-C, mit USB A geht es leider nicht, nicht mal mit halber Geschwindigkeit.
Ergänzung ()

Stuffz schrieb:
Mag sein, aber an neuen Sonderlösungen ist kaum jemand interessiert. Hätte man seit PS/2 eigentlich lernen müssen. Darum meinte ich ja: getunneltes Protokoll. USB-Daten in Video-Frames einschleusen. Und nicht unbedingt eine harte Umschaltung am Bus wie beim Alt-Mode.
Deshalb wird mit USB4 dann auch getunnelt.
 
AlphaKaninchen schrieb:
USB4 erfordert USB-C, mit USB A geht es leider nicht, nicht mal mit halber Geschwindigkeit.
Schon klar, schon bei USB3.2 Gen2x2 ist Schluss, aber ich plädiere ja nicht für mehr USB-A statt USB-C, nur gegen USB-C only.
Bei USB-Sticks wird es noch sehr lange dauern, bis USB-C in der Masse nötig wird. Es gibt gerade mal ein paar Sticks, die 10Gb/s ausschöpfen.

Für externe SSD ist das natürlich was anderes. und auch 10GbE+ ist als USB-Adapter nur dank USB-C via TB3/USB4 möglich.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Stellt sich hier das HDMI Implementers Forum in der Konkurrenz mit der VESA nicht selbst ein Bein? Jetzt wird HDMI 2.2 schon offenbart, es ist klar, dass es nur wenig (96Gbit vs 80Gbit) gegenüber DP 2.1 im Vollausbau überlegen sein wird und dementsprechend kann die VESA gut ein DP 2.2 vorbereiten, das dann wieder ordentlich an HDMI vorbeizieht. Dadurch bleibt die alte Faustregel in den Köpfen, dass HDMI einfach DP unterlegen ist, doch in Reinform bestehen.
 
AlphaKaninchen schrieb:
Arc GPUs der 1. Gen es nicht konnte, kann aber sein das ich mich irre.
Das mag sein, da erinnere mich nicht mehr. Screenshot ist von Arrow Lake. Meteor Lake meine ich auch schon.
Alder Lake / Raptor Lake haben wir noch nichts gesehen mit FRL. Aber habe ich jetzt auch nicht reingeschaut.

Wobei:
https://www.intel.com/content/www/u...-graphics-16gb/specifications.html?wapkw=A770
https://www.intel.com/content/www/u...-b580-graphics/specifications.html?wapkw=b580
listen beide HDMI VRR.
Aber hier mag es sein, dass das bei A erst nachträglich mit Treiberupdates kam. Oder wir hier nur von der GPU selbst reden und die Hersteller das evtl. nicht nach außen führen. bei A war der HDMI FRL Port ja nicht Standard. Nur die Premium Modelle von Intel selbst hatten den. Und bei iGPU hatte ich ja den Screenshot, dass sie es nicht mit TMDS zusammen können. Das heißt, da gibt es auch noch eine Lücke was nicht geht.
AlphaKaninchen schrieb:
deren USB C auf HDMI 2.1 ging bei mir leider nicht...
Welchen? Cablematters hat teilweise Adapter unter dem selben Namen mit altem und neuen Chip und nur der neue kann es. Ich habe den foldable USB-C HDMI FRL mit VMM7100. Der sollte es können. Aber wie gesagt habe nur einen AW3821DW hier, der kann HDMI VRR, hat aber nur TMDS. Und der Intel Treiber erkennt es nicht als VRR. Und Intel's FAQs sprechen von Adaptive Sync Support (was ein anderes Bit ist als die HDMI VRR Angaben, das mein Monitor auf dem HDMI Eingang auch nicht setzt). Da weiß ich nicht nich ganz woran es liegt. Und leider haben meine Pläne denselben Adapter an meine Nvidia GPU anzuschließen nicht geklappt. Bidirektionales Kabel in Hub geht nicht gut genug um dann USB-C DP herauszubekommen...
AlphaKaninchen schrieb:
keine Ahnung was da stand der Dinge ist...
Ja ich muss nochmal testen. Ist mittlerweile für alle neuen Karten default meine ich. Hatten halt so Dinge, dass sie exotische Features erst nachträglich machen, je nachdem was die Leute halt brauchen. Weil wohl wirklich neu entwickelt und nicht kopiert vom alten Treiber. Ein Beispiel was ich gelesen hatte war intern mehrere Display-Pipelines zu fusen, wenn eine von der Bandbreite nicht mehr reicht. Und das braucht man für Monitore mit richtig hoher Bandbreite wie 4K240 und so. Ist jetzt aber auch drin.
AlphaKaninchen schrieb:
Genau der war es ja der bei Nvidia lange den Open Source Treiber verhindert hat...
Da verwechselst du was. Nvidia hatte einen komplett Binary-Blob Treiber. Und dann einen Opensource Shim, den man passend zum Kernel kompilieren musste der zwischen Kernel und Treiber adaptiert. Und den haben die Kernel entwickler erfolgreich bekämpft mit nachträglichem umlabeln von Symbolen als "GPL-exklusiv". So dass nur Kernelmodule die nutzen dürfen, die selbst GPL-kompatibel sind und deshalb nicht linken dürfen mit dem proprietären Treiber.

Firmware läuft aber auf der GPU selbst. Und das war und ist immer noch ein Blob wo du nicht reinschauen kannst. Das geht ja auch gar nicht anders wenn irgendeine DRM Lösung unterstützt werden soll. Und wenn das den richtigen Opensource Fanatikern ein Dorn im Auge ist, ist es immer noch üblich und auch so in Linux drin. Firmware die auf Geräten, wie WLAN Karten etc. läuft.

Das ist zB auch wo viele Features blockiert werden. Wenn Consumer Modelle was nicht können, obwohl der Chip untendrunter der gleiche ist. Die Firmware blockiert das dann nach Modellnummer etc. Und die ist kryptografisch geschützt. Der klassische Weg, alles was man nicht opensource haben darf oder will dahin zu schieben.
https://www.phoronix.com/news/NVIDIA-Big-GSP-Firmware-Dump
Und die gibt es genauso bei AMD.
1736196549146.png

AlphaKaninchen schrieb:
Weiß eigentlich jemand hier ob die APUs bei Intel und AMD selbst HDMI ausgeben oder ob das immer über einen DP zu HDMI Konverter läuft? (Framework hat ja bei Ryzen 7000 3x DP, die Specks von AMD sagen aber die APU gibt nur 2x DP und 1x HDMI, was kommt den nativ aus der APU?
Bei Intel war es lange Zeit der Adapter, den Intel als LSPCon bezeichnet hat. Auch schon für HDMI 2.0 Geschwindigkeiten (nur die HDMI 1.4 Geschwindigkeiten waren nativ). Die Arrow Lake Specs sagen es nicht. Es könnte für FRL nun tatsächlich nativ sein. Nicht sicher. Bei ARC-A war es noch ein Adapter, wie bestätigt von Intel.

Bei AMD habe ich keine Ahnung. Bei AMD gibt es einfach keine genauen Specs (öffentlich). Die Pressefolien sind am genauesten und die hatten für APUs ja nur halbe FRL Geschwindigkeit erwähnt. Und nur sehr wenige Mainboards haben das bereitgestellt. Hier hätte ich erwartet, wenn es nativ wäre, wäre es bei fast allen Boards da. Es gibt ja auch FRL Geschwindigkeiten die langsamer sind als die schnellste TMDS Geschwindigkeit. Wenn das also direkt von der iGPU käme, dann braucht es vllt neue Zusatzchips zur Verstärkung der schnelleren Signale, aber nicht die langsameren die auch nur 3 Leitungspaare nutzen... Hat aber zumindest kein Board in Specs angegeben und ich habe keine Erfahrungsberichte drüber gelesen.

Zu Framework: nein. Hier sind AMDs Specs einfach zu grob. Meiner Kenntnis nach haben die mobile CPUs 4 DP-fähige Ausgänge. 1 für den integrierten Monitor mit eDP. 1 ist der non-USB4 Port von FW. Und die anderen beiden sind bei den USB4 Ports inklusive, die ja per Definition auch immer als DP Ausgang laufen können. Die zählen das halt nur getrennt.

Bei Intel zB haben die meisten normalen CPUs 5 Ausgänge. Einer DP/eDP (limitiert auf HBR3). Dann 4 weitere, die jeweils USB4 Ports sind, aber auch nativ als DP oder HDMI verdrahtet werden können (DP++ enthält ja HDMI. Deshalb ist das klar für die alten HDMI Geschwindigkeiten die man mit DP++ gemacht hat).

Bei Intel gibt es halt öffentliche Doku mit Diagrammen wo die ganzen Zusammenhänge und Randbedingungen klar werden. Bei AMD nicht.
Deshalb glaube ich auch nicht, dass AMD nicht offiziell die RAM Freqzenzen wie Intel reduzieren muss mit mehr Slots. Die Specs die dafür genau genug wären sind nur nicht öffentlich. Und bei Intel ignorieren die Hersteller dieses Limit ja auch alle munter, wer soll es also mitbekommen...

Edit: Meteor Lake sagt FRL mit 6 Gbit/s per Lane nativ, mehr mit Adapter
1736197462366.png

Arrow Lake und Lunar Lake haben diesen Kommentar entfernt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen


Hatte den Samsung Odyssey G9 OLED, komischerweise war das Bild besser bei HDMI 2.1 als Displayport 1.4
HDMI 2.1 / 48 Gbps
DP 1.4 / 32.4 Gbps
 
Zurück
Oben