(Haupt,4K) Monitor an HDMI 2.1 anstelle von DP1.4

tabaz

Cadet 4th Year
Registriert
Aug. 2004
Beiträge
106
Zum Thema: Ich würde gerne an meine NVidia Grafikkarte Image Scaling nutzen.

Das geht aber nur ohne DSC - also ohne Bildkompression.
An meinem 4k 160hz Monitor kann ich manuell DSC nicht deaktivieren, es ist immer aktiv - zumindest über Displayport.

Ein kurzer Blick in die Zahlentruhe - ich beziehe mich immer auf SDR 8Bit:

Displayport 1.4 maximale Bandbreite: 32,4Gbps, effektive Nutzbandbreite 25,92Gbps
Das macht 25,82 Gbps bei 4k und 120hz, mehr geht nicht ohne Kompression (DSC) - leider ist im Gegensatz zu HDMI 2.1 bei meinem Monitor immer DSC aktiviert bei Nutzung Displayport.

Alternativer Ansatz HDMI 2.1:
Maximale Bandbreite: 48Gbps, effektive Nutzbandbreite 42,6Gbps

Wenn ich mein Monitor auf Mode "Console" schalte, deaktivert er anscheinend DSC, so dass ich Bildskalierung in den NVIDIA Settings auswählen kann.
Rein theoretisch müssten die 42,6Gbps für 4k/160hz ausreichen (35,1Gbps) - leider macht mein Monitor hier bei 120hz schluss - wohl "son Software Ding".

Mir bleibt also derzeit die Wahl zwischen 120hz & keine Kompression über HDMI 2.1 und 160hz & Kompression über HDMI2.1 oder DP1.4.

Nun zu meiner Frage: Fallen euch irgendwelche Nachteile bzgl. der Nutzung von HDMI anstelle von DP an einem PC Monitor ein?
Im Internet liest man, wenn überhaupt, lediglich Bauchgefühl.
 
Anstelle vom Wechseln des Anschlusses, besser erstmal versuchen dein Problem zu debuggen.
Weil warum sollte ob DSC aktiv ist oder nicht irgendeine Skalierung blockieren?

Also mal Specs angeben der involvierten Geräte. Und genaue Beschreibung was wo nicht geht.

b) In der Praxis ist 4K100 das höchste was durch 4xHBR3. Videotimings spielen eine Rolle. Die ganzen Wiki-Artikel die 4K120 angeben, gehen von ungewöhnlichen Timings aus, die die meisten Monitore nicht nutzen.

c) Niemand garantiert, dass ein Monitor der mit "HDMI 2.1" unerlaubt beworben wird FRL 6 kann. Gibt genügend Monitore die nur niedrigere Geschwindigkeiten via HDMI können und immer noch DSC voraussetzen.
d) Einige Monitore haben einen DP Versions Schalter für Kompatibilitätsprobleme. Da gibt es dann oft DP 1.3 (unter anderem kein DSC), DP 1.2 (kein DSC, HDR, nur HBR2 max, DP 1.1 (kein HBR2, kein MST, DSC, HDR etc.). Hat aber nicht jeder Monitor.
e) Die meisten GPU Treiber nutzen DSC nur wenn die Bandbreite nicht ausreicht. Wenn du also die benötigte Bandbreite zum Monitor reduzierst, wird DSC nicht mehr genutzt, weil theoretisch bessere Bildqualität. Nvidia und Intel sollten das so handhaben auf SST Verbindungen.



Wenn die Bandbreite ausreicht und alle gewünschten Features unterstützt werden, ist es grad egal welche Schnittstelle genutzt wird. Dazu muss man aber wissen was die Schnittstellen tatsächlich können, wie sie genutzt werden. Und zB auch welche Videotimings genutzt werden. Denn via HDMI werden oft HDMI Videotimings genutzt, die deutlich mehr Bandbreite brauchen.
Die Kritik an HDMI ist, dass es ein grundsätzlich viel primitiverer Standard ist als DP, der viele für den PC wichtige und sinnvolle Dinge schlicht nicht kann. Also doof etwas auf HDMI auszulegen, weil DP in fast allen Lagen die bessere Schnittstelle für Zukunftssicherheit, Erweiterbarkeit etc. ist. Aber wenn man die Geräte hat und keine Konvertierung einbaut wo sie nicht notwendig ist, ist das egal für die individuelle Verbindung.
 
Debuggen von Problemen funktioniert gewöhnlich mit Breakpoints oder zumindest mit irgendeiner Art von logging - ansonsten Trail & Error, recherche und Vermutungen.
Und der Grund dieser Vermutung sind Aussagen anderer im Netz - vielleicht finde ich das noch.

Aber ich muss zugeben: Ich kann auch gänzlich falsch liegen, ich kann nicht ins Kabel schauen.

Nvidia 4080 Super
MSI MAG 323UPFDE

Die Schnittstellen haben offensichtlich unterschiedliche Geschwindigkeiten - ansonsten habe ich leider überhaupt nicht ableiten können, in wie weit Displayport HDMI überlegen sein soll - kannst du das konkretisieren?
Und auch wenn: Ist das überhaupt relevant für mich? Weil ein "besser" steht immer Kontext des Nutzers - und genau das war ja meine Frage.

Wo ist eigentlich a? ;)
Danke Ray519.
 
Ich sehe da außer Lizenzgebühren keine Unterschiede. Ist beides eine digitale Schnittstelle mit einem Kabel.
Wenn DSC das Image Scaling verhindert, dann hat sich Nvidia was dabei gedacht.
Schreibt also ein Ticket bei Nvidia, dass die das bitte ändern möchten, und wenn Du sowieso schon Mails schreibst, dann gleich noch eine an Deinen Monitor-Hersteller, dass sie bitte einen Button DSC ON/OFF ins OSD nehmen sollen. Kann nicht so schwer sein, mein alter Asus hatte diesen Button.

Ach ja, Du bist glaub ich nicht der erste, der einen MSI ohne den Button hat, das lese ich zur Zeit des öfteren. Und MSI kann da tatsächlich helfen, jedenfalls haben sie anderen Usern schon eine passende Firmware versprochen.

Ach ja, ohne DSC hast Du bei DP auch nur noch 120hz. Also isses für Dich eigentlich Wumpe, wie Du das angehst, ob nun über Kabel oder Button, Du wirst in beiden Fällen bei 120hz landen.

Kabel halt den Monitor gleichzeitig per DP und HDMI an, und schalte per Source-Button um, wie Du es gerade brauchst.
 
tabaz schrieb:
Aber ich muss zugeben: Ich kann auch gänzlich falsch liegen, ich kann nicht ins Kabel schauen.
Ich habe mal bei mir getestet. Ich habe einen Monitor mit DSC. Ich kann die Option anschalten, kriege das NIS Overlay auf diesem Monitor während DSC an ist. Ich bin mir also sehr sicher, das DSC selbst kein Problem darstellt. Das Problem muss irgendwo anders liegen.

Deshalb wird interessant was genau sich nicht aktivieren lässt.

tabaz schrieb:
in wie weit Displayport HDMI überlegen sein soll - kannst du das konkretisieren?
Kann ich. Aber sollte für dich nicht relevant sein. HDMI hat strunzdumme Anfänge. Die GPU sendet quasi nur Daten. Und es gibt nur die EDID Daten mit denen der Monitor seine Features kommuniziert. Es gibt keine Rückmeldungen über Ausfälle. Schlechte Kabel führen zu Fehlern von denen die GPU nichts weiß. Die Geschwindigkeit auf dem Kabel ist komplett flexibel, immer passend zu genau dem was der Monitor will.
Und weil die flexiblen Frequenzen so eine dumme Idee für langfristige Nutzung (= Geschwindigkeitssteigerungen) war, gibt es jetzt bei FRL auch fixe Geschwindigkeiten die wesentlich langsamer als das HDMI 2.0 Maximum sind. Aber für Rückwärtskompatibilität werden sie den alten Kram nicht los.

DP war von Anfang an Zukunftssicherer. Es arbeitet mit diskreten Geschwindigkeiten, was es einfacher macht diese Verbindungen stabil zu bekommen (deshalb hat HDMI mit FRL auch auf dieses Konzept gewechselt).
DP hat von Anfang an vorgesehen, dass es DP auf X Adapter geben kann. Davon wissen die GPU Treiber und können es richtig behandeln. DP kann diverse andere Daten übertragen. Wie haben MST für mehrere Monitore über eine DP Verbindung.

Es gab von Anfang an einen Rückkanal. Mit dem können GPU und Monitore aushandeln was sie genau machen und können. Die testen zB Kabel auf Signalqualität und Fehler werden zurück gemeldet an die GPU. So dass bei zu vielen Fehlern die Geschwindigkeiten gedrosselt werden etc (die GPU versteckt dann nicht unterstützte Auflösungen etc. vor dir).

Darüber hinaus, wurde HDMI für HiFI/TV entwickelt. Der HDMI Standard selbst ist sehr einschränkend und erlaubt nur bestimmte Auflösungen auf bestimmte Weisen. WQHD@60 ist zB nicht unterstützt. Das interessiert PCs nur nicht. Die nehmen einfach die selben Einstellungen von DP auch über HDMI. Das geht dann zwar nicht mit reinen HDMI Geräten wie Blu-Ray Player etc. Aber da sieht man schon wie dumm HDMI gedacht wurde. Die haben eine harte Liste von Auflösungen. Und nur die sind offiziell HDMI. Mit fixen Refreshrates. Und alle reservieren viel Bandbreite für Surround-Tonspuren etc.

Wie gesagt, HDMI ist vom Konzept auf so vielen Ebenen schlechter. Aber das ist ganz egal wenn du GPU und Monitor hast. Und beide können die gleichen Features auf beiden Steckern. Solange der eine Port nicht wesentlich langsamer als der andere ist und das mit mehr DSC Kompression kompensiert, ist das Bild immer noch identisch. Gab zB 4K144 Displays die nur FRL 3 mit 18G (brutto) konnten. Dagegen ist 4xHBR3 wesentlich schneller und braucht viel weniger starke Kompression. Wenn der Monitor aber FRL 6 (48G brutto) kann, dann bräuchte er für 4K144 gar keine Kompression im Vergleich zu 4xHBR3.

Und DSC wurde entwickelt, dass du diese Unterschiede nicht siehst. Also selbst das ist sehr akademisch. Gründe sind eher vor DSC, wenn der eine Port langsamer war und nicht die maximalen Fähigkeiten vom Monitor kann. Oder VRR nur auf einem Port unterstützt wird.
 
@Ray519
Abstrahiert ist damit Displayport die wesentlich smarte und Fehlerfreudigere Lösung - ok. HDMI generell dumm, PC verwendet es aber ähnlich wie DP, auch ok.
Dass Nvidia immer noch DP1.4 eingesetzt hat: Bisschen blöd - tut hier aber vielleicht tatsächlich garnichts zur Sache.
Ich werde mal die Vorschläge von Hisn aufgreifen und bei beiden Herstellern anklopfen.
Interessant wäre, was du für ein Monitor hast? Vielleicht ist MSI nicht der Goldweg.

@HisN: So ganz Wumpe ist das tatsächlich nicht - bieten sich ggf. Möglichkeiten das ganze zu scripten, kein Mensch will doch manuell ins Monitormenu gehen, nur um ein Spiel zu starten.
 
Da Du den Monitor umschalten musst, und nicht den Rechner.....
Hast Du ne Möglichkeit Befehle an den Monitor zu senden? Ja ... möglich. Nein. Blöd.
Und ich weiß ja nicht in wie weit Du Dich aus Deiner Komfortzone bewegen möchtest, damit Du erreichst was Du erreichen willst. Deshalb eventuell auch weniger praktische Vorschläge^^
 
Der Monitor mit dem ich das getestet habe ist ein Dell U3223QE mit MST an, verbunden über 4xHBR3.

Wie gesagt, DSC macht technisch keinen Sinn als Limit. Und war kein Limit mit meiner 3090.

Vllt ist es die Bandbreite an Pixel/sec die du brauchst oder sonst irgendwas. Jedenfalls nicht DSC.
 
Zuletzt bearbeitet:
@HisN: Tatsächlich möcht ich hier im Gegensatz zu dir nicht persönlich werden. Vielleicht lässt du das einfach, ich geh mal davon aus, dass du, ebenso wie ich, erwachsen bist.
@Ray519 hat schon beachtlich viel Information rüber gebracht danke noch mals in die Richtung. Echt schade, dass es keine Tools gibt, die so eine biderktionale Kommunikation irgendwie transparent machen. Hilft wohl nur testen - dann streich ich mal DSC.
 
Sorry, wenn Du Dich da gleich angegriffen fühlst. War nicht so gemeint. Dickeres Fell zulegen.
Es kommt tatsächlich sehr häuftig im Forum vor, das Leute ein Problem haben, das mit zwei zusätzlichen Handgriffen umgangen werden kann, aber die Leute das nicht akzeptieren wollen. Entweder so, wie sie das haben wollen oder gar nicht. Die Frage ist einfach nur, zu welcher Gruppe gehörst Du.

Und die ganze zusätzliche Info ist zwar interessant, aber (m.b.M.n) hilft es nicht bei der Problem-Findung.
Schön das wir was über Datenraten, Fehler- und Übertragungsprotokolle gelernt haben.
Im allgemeinen Umgang mit Deinem Monitor wirst Du davon halt nix merken.

Ich hab hier auch noch nen DSC-Moni rumstehen (Asus 4K 144hz DSC deaktivierbar per OSD), und könnte versuchen Dein Problem nachzustellen, wenn Du es mal bebildern würdest. Hab mich mit NIS bisher wenig beschäftigt.
Ich weiß wie man es anstellt und das man dann einne Scaling-Modus auswählt. Aber dann hört es schon auf.
An welcher Stelle funktioniert es denn bei Dir nicht mehr? Du kannst NIS erst gar nicht aktivieren?
Der Punkt ist ausgegraut? Nicht vorhanden? Es kommt ne Fehlermeldung? Du kannst es aktivieren aber dann passiert nix?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ray519
Ich übersetze mal.
HisN schrieb:
Sorry, wenn Du Dich da gleich angegriffen fühlst.
Subtiler Angriff, indirektes unterstellen von Schwäche
HisN schrieb:
War nicht so gemeint.
Gönnerhafte Positionierung über den anderen
HisN schrieb:
Dickeres Fell zulegen.
Siehe Eingangs.

------------------------------------

Gehts ohne das oder schafft das das eigene Ego nicht?
Unabhängig davon, dass ich 1. nicht das halbe Internet erziehen kann und will und 2. kein Angriff von einem Forenbild verspüre - wollte ich einfach die Diskussion Richtung Sachlichkeit ziehen, um vielleicht doch noch die pragmatisch erhoffte sachliche Meinung / Auskunft zu erhaschen.
Wenn ich Bock auf Wortgefechte abseits dieser Ebene hätte, würde ich sicherlich nicht das Computerbaseforum wählen - und schon garnicht ein Geschreibe mit wildfremden "Persönlichkeiten".


HisN schrieb:
Es kommt tatsächlich sehr häuftig im Forum vor, das Leute ein Problem haben, das mit zwei zusätzlichen Handgriffen umgangen werden kann, aber die Leute das nicht akzeptieren wollen.
Müssen das deine noch nicht untergebenen tatsächlich "akzeptieren"?
Es kommt auch vor, dass es draussen regnet. Ist es deshalb immer naß außerhalb der Haustür?

HisN schrieb:
Entweder so, wie sie das haben wollen oder gar nicht.
Über den Sachgehalt dieses Satzes muss ich echt nochmal drüber nachdenken - hier kann ich tatsächlich nur vermuten.
HisN schrieb:
Die Frage ist einfach nur, zu welcher Gruppe gehörst Du.
Nein, weil es hier nicht um mich als Person geht - und, wird dich vielleicht schockieren - auch nicht um dich. ... wie gesagt, gern am Stammtisch.

HisN schrieb:
Und die ganze zusätzliche Info ist zwar interessant, aber (m.b.M.n) hilft es nicht bei der Problem-Findung.
Schön das wir was über Datenraten, Fehler- und Übertragungsprotokolle gelernt haben.
Im allgemeinen Umgang mit Deinem Monitor wirst Du davon halt nix merken.
Ich zieh mal meine Entwicklerbrille auf: Hintergrundwissen muss nicht helfen, kann aber sehr wohl. Ohne manches Verständnis läuft man auf seiner Abstraktionsschicht leicht in die falsche Richtung.
Ob du als Person an dieser Stelle "schön" findest, ob sarkastisch oder nicht, interessiert nicht.

Und alles was danach kommt, ist zwar ein nett gemeintes Angebot, wird mich aber nicht weiter bringen. Trail & Error bei anderen Monitoren hab ich nicht angefragt.
 
Ne, schafft mein Ego nicht.
Bin froh, dass es Dein Problem ist und nicht meins.
 
Zurück
Oben