(Haupt,4K) Monitor an HDMI 2.1 anstelle von DP1.4

tabaz

Cadet 4th Year
Registriert
Aug. 2004
Beiträge
109
Zum Thema: Ich würde gerne an meine NVidia Grafikkarte Image Scaling nutzen.

Das geht aber nur ohne DSC - also ohne Bildkompression.
An meinem 4k 160hz Monitor kann ich manuell DSC nicht deaktivieren, es ist immer aktiv - zumindest über Displayport.

Ein kurzer Blick in die Zahlentruhe - ich beziehe mich immer auf SDR 8Bit:

Displayport 1.4 maximale Bandbreite: 32,4Gbps, effektive Nutzbandbreite 25,92Gbps
Das macht 25,82 Gbps bei 4k und 120hz, mehr geht nicht ohne Kompression (DSC) - leider ist im Gegensatz zu HDMI 2.1 bei meinem Monitor immer DSC aktiviert bei Nutzung Displayport.

Alternativer Ansatz HDMI 2.1:
Maximale Bandbreite: 48Gbps, effektive Nutzbandbreite 42,6Gbps

Wenn ich mein Monitor auf Mode "Console" schalte, deaktivert er anscheinend DSC, so dass ich Bildskalierung in den NVIDIA Settings auswählen kann.
Rein theoretisch müssten die 42,6Gbps für 4k/160hz ausreichen (35,1Gbps) - leider macht mein Monitor hier bei 120hz schluss - wohl "son Software Ding".

Mir bleibt also derzeit die Wahl zwischen 120hz & keine Kompression über HDMI 2.1 und 160hz & Kompression über HDMI2.1 oder DP1.4.

Nun zu meiner Frage: Fallen euch irgendwelche Nachteile bzgl. der Nutzung von HDMI anstelle von DP an einem PC Monitor ein?
Im Internet liest man, wenn überhaupt, lediglich Bauchgefühl.
 
Anstelle vom Wechseln des Anschlusses, besser erstmal versuchen dein Problem zu debuggen.
Weil warum sollte ob DSC aktiv ist oder nicht irgendeine Skalierung blockieren?

Also mal Specs angeben der involvierten Geräte. Und genaue Beschreibung was wo nicht geht.

b) In der Praxis ist 4K100 das höchste was durch 4xHBR3. Videotimings spielen eine Rolle. Die ganzen Wiki-Artikel die 4K120 angeben, gehen von ungewöhnlichen Timings aus, die die meisten Monitore nicht nutzen.

c) Niemand garantiert, dass ein Monitor der mit "HDMI 2.1" unerlaubt beworben wird FRL 6 kann. Gibt genügend Monitore die nur niedrigere Geschwindigkeiten via HDMI können und immer noch DSC voraussetzen.
d) Einige Monitore haben einen DP Versions Schalter für Kompatibilitätsprobleme. Da gibt es dann oft DP 1.3 (unter anderem kein DSC), DP 1.2 (kein DSC, HDR, nur HBR2 max, DP 1.1 (kein HBR2, kein MST, DSC, HDR etc.). Hat aber nicht jeder Monitor.
e) Die meisten GPU Treiber nutzen DSC nur wenn die Bandbreite nicht ausreicht. Wenn du also die benötigte Bandbreite zum Monitor reduzierst, wird DSC nicht mehr genutzt, weil theoretisch bessere Bildqualität. Nvidia und Intel sollten das so handhaben auf SST Verbindungen.



Wenn die Bandbreite ausreicht und alle gewünschten Features unterstützt werden, ist es grad egal welche Schnittstelle genutzt wird. Dazu muss man aber wissen was die Schnittstellen tatsächlich können, wie sie genutzt werden. Und zB auch welche Videotimings genutzt werden. Denn via HDMI werden oft HDMI Videotimings genutzt, die deutlich mehr Bandbreite brauchen.
Die Kritik an HDMI ist, dass es ein grundsätzlich viel primitiverer Standard ist als DP, der viele für den PC wichtige und sinnvolle Dinge schlicht nicht kann. Also doof etwas auf HDMI auszulegen, weil DP in fast allen Lagen die bessere Schnittstelle für Zukunftssicherheit, Erweiterbarkeit etc. ist. Aber wenn man die Geräte hat und keine Konvertierung einbaut wo sie nicht notwendig ist, ist das egal für die individuelle Verbindung.
 
Debuggen von Problemen funktioniert gewöhnlich mit Breakpoints oder zumindest mit irgendeiner Art von logging - ansonsten Trail & Error, recherche und Vermutungen.
Und der Grund dieser Vermutung sind Aussagen anderer im Netz - vielleicht finde ich das noch.

Aber ich muss zugeben: Ich kann auch gänzlich falsch liegen, ich kann nicht ins Kabel schauen.

Nvidia 4080 Super
MSI MAG 323UPFDE

Die Schnittstellen haben offensichtlich unterschiedliche Geschwindigkeiten - ansonsten habe ich leider überhaupt nicht ableiten können, in wie weit Displayport HDMI überlegen sein soll - kannst du das konkretisieren?
Und auch wenn: Ist das überhaupt relevant für mich? Weil ein "besser" steht immer Kontext des Nutzers - und genau das war ja meine Frage.

Wo ist eigentlich a? ;)
Danke Ray519.
 
Ich sehe da außer Lizenzgebühren keine Unterschiede. Ist beides eine digitale Schnittstelle mit einem Kabel.
Wenn DSC das Image Scaling verhindert, dann hat sich Nvidia was dabei gedacht.
Schreibt also ein Ticket bei Nvidia, dass die das bitte ändern möchten, und wenn Du sowieso schon Mails schreibst, dann gleich noch eine an Deinen Monitor-Hersteller, dass sie bitte einen Button DSC ON/OFF ins OSD nehmen sollen. Kann nicht so schwer sein, mein alter Asus hatte diesen Button.

Ach ja, Du bist glaub ich nicht der erste, der einen MSI ohne den Button hat, das lese ich zur Zeit des öfteren. Und MSI kann da tatsächlich helfen, jedenfalls haben sie anderen Usern schon eine passende Firmware versprochen.

Ach ja, ohne DSC hast Du bei DP auch nur noch 120hz. Also isses für Dich eigentlich Wumpe, wie Du das angehst, ob nun über Kabel oder Button, Du wirst in beiden Fällen bei 120hz landen.

Kabel halt den Monitor gleichzeitig per DP und HDMI an, und schalte per Source-Button um, wie Du es gerade brauchst.
 
tabaz schrieb:
Aber ich muss zugeben: Ich kann auch gänzlich falsch liegen, ich kann nicht ins Kabel schauen.
Ich habe mal bei mir getestet. Ich habe einen Monitor mit DSC. Ich kann die Option anschalten, kriege das NIS Overlay auf diesem Monitor während DSC an ist. Ich bin mir also sehr sicher, das DSC selbst kein Problem darstellt. Das Problem muss irgendwo anders liegen.

Deshalb wird interessant was genau sich nicht aktivieren lässt.

tabaz schrieb:
in wie weit Displayport HDMI überlegen sein soll - kannst du das konkretisieren?
Kann ich. Aber sollte für dich nicht relevant sein. HDMI hat strunzdumme Anfänge. Die GPU sendet quasi nur Daten. Und es gibt nur die EDID Daten mit denen der Monitor seine Features kommuniziert. Es gibt keine Rückmeldungen über Ausfälle. Schlechte Kabel führen zu Fehlern von denen die GPU nichts weiß. Die Geschwindigkeit auf dem Kabel ist komplett flexibel, immer passend zu genau dem was der Monitor will.
Und weil die flexiblen Frequenzen so eine dumme Idee für langfristige Nutzung (= Geschwindigkeitssteigerungen) war, gibt es jetzt bei FRL auch fixe Geschwindigkeiten die wesentlich langsamer als das HDMI 2.0 Maximum sind. Aber für Rückwärtskompatibilität werden sie den alten Kram nicht los.

DP war von Anfang an Zukunftssicherer. Es arbeitet mit diskreten Geschwindigkeiten, was es einfacher macht diese Verbindungen stabil zu bekommen (deshalb hat HDMI mit FRL auch auf dieses Konzept gewechselt).
DP hat von Anfang an vorgesehen, dass es DP auf X Adapter geben kann. Davon wissen die GPU Treiber und können es richtig behandeln. DP kann diverse andere Daten übertragen. Wie haben MST für mehrere Monitore über eine DP Verbindung.

Es gab von Anfang an einen Rückkanal. Mit dem können GPU und Monitore aushandeln was sie genau machen und können. Die testen zB Kabel auf Signalqualität und Fehler werden zurück gemeldet an die GPU. So dass bei zu vielen Fehlern die Geschwindigkeiten gedrosselt werden etc (die GPU versteckt dann nicht unterstützte Auflösungen etc. vor dir).

Darüber hinaus, wurde HDMI für HiFI/TV entwickelt. Der HDMI Standard selbst ist sehr einschränkend und erlaubt nur bestimmte Auflösungen auf bestimmte Weisen. WQHD@60 ist zB nicht unterstützt. Das interessiert PCs nur nicht. Die nehmen einfach die selben Einstellungen von DP auch über HDMI. Das geht dann zwar nicht mit reinen HDMI Geräten wie Blu-Ray Player etc. Aber da sieht man schon wie dumm HDMI gedacht wurde. Die haben eine harte Liste von Auflösungen. Und nur die sind offiziell HDMI. Mit fixen Refreshrates. Und alle reservieren viel Bandbreite für Surround-Tonspuren etc.

Wie gesagt, HDMI ist vom Konzept auf so vielen Ebenen schlechter. Aber das ist ganz egal wenn du GPU und Monitor hast. Und beide können die gleichen Features auf beiden Steckern. Solange der eine Port nicht wesentlich langsamer als der andere ist und das mit mehr DSC Kompression kompensiert, ist das Bild immer noch identisch. Gab zB 4K144 Displays die nur FRL 3 mit 18G (brutto) konnten. Dagegen ist 4xHBR3 wesentlich schneller und braucht viel weniger starke Kompression. Wenn der Monitor aber FRL 6 (48G brutto) kann, dann bräuchte er für 4K144 gar keine Kompression im Vergleich zu 4xHBR3.

Und DSC wurde entwickelt, dass du diese Unterschiede nicht siehst. Also selbst das ist sehr akademisch. Gründe sind eher vor DSC, wenn der eine Port langsamer war und nicht die maximalen Fähigkeiten vom Monitor kann. Oder VRR nur auf einem Port unterstützt wird.
 
@Ray519
Abstrahiert ist damit Displayport die wesentlich smarte und Fehlerfreudigere Lösung - ok. HDMI generell dumm, PC verwendet es aber ähnlich wie DP, auch ok.
Dass Nvidia immer noch DP1.4 eingesetzt hat: Bisschen blöd - tut hier aber vielleicht tatsächlich garnichts zur Sache.
Ich werde mal die Vorschläge von Hisn aufgreifen und bei beiden Herstellern anklopfen.
Interessant wäre, was du für ein Monitor hast? Vielleicht ist MSI nicht der Goldweg.

@HisN: So ganz Wumpe ist das tatsächlich nicht - bieten sich ggf. Möglichkeiten das ganze zu scripten, kein Mensch will doch manuell ins Monitormenu gehen, nur um ein Spiel zu starten.
 
Da Du den Monitor umschalten musst, und nicht den Rechner.....
Hast Du ne Möglichkeit Befehle an den Monitor zu senden? Ja ... möglich. Nein. Blöd.
Und ich weiß ja nicht in wie weit Du Dich aus Deiner Komfortzone bewegen möchtest, damit Du erreichst was Du erreichen willst. Deshalb eventuell auch weniger praktische Vorschläge^^
 
Der Monitor mit dem ich das getestet habe ist ein Dell U3223QE mit MST an, verbunden über 4xHBR3.

Wie gesagt, DSC macht technisch keinen Sinn als Limit. Und war kein Limit mit meiner 3090.

Vllt ist es die Bandbreite an Pixel/sec die du brauchst oder sonst irgendwas. Jedenfalls nicht DSC.
 
Zuletzt bearbeitet:
@HisN: Tatsächlich möcht ich hier im Gegensatz zu dir nicht persönlich werden. Vielleicht lässt du das einfach, ich geh mal davon aus, dass du, ebenso wie ich, erwachsen bist.
@Ray519 hat schon beachtlich viel Information rüber gebracht danke noch mals in die Richtung. Echt schade, dass es keine Tools gibt, die so eine biderktionale Kommunikation irgendwie transparent machen. Hilft wohl nur testen - dann streich ich mal DSC.
 
Sorry, wenn Du Dich da gleich angegriffen fühlst. War nicht so gemeint. Dickeres Fell zulegen.
Es kommt tatsächlich sehr häuftig im Forum vor, das Leute ein Problem haben, das mit zwei zusätzlichen Handgriffen umgangen werden kann, aber die Leute das nicht akzeptieren wollen. Entweder so, wie sie das haben wollen oder gar nicht. Die Frage ist einfach nur, zu welcher Gruppe gehörst Du.

Und die ganze zusätzliche Info ist zwar interessant, aber (m.b.M.n) hilft es nicht bei der Problem-Findung.
Schön das wir was über Datenraten, Fehler- und Übertragungsprotokolle gelernt haben.
Im allgemeinen Umgang mit Deinem Monitor wirst Du davon halt nix merken.

Ich hab hier auch noch nen DSC-Moni rumstehen (Asus 4K 144hz DSC deaktivierbar per OSD), und könnte versuchen Dein Problem nachzustellen, wenn Du es mal bebildern würdest. Hab mich mit NIS bisher wenig beschäftigt.
Ich weiß wie man es anstellt und das man dann einne Scaling-Modus auswählt. Aber dann hört es schon auf.
An welcher Stelle funktioniert es denn bei Dir nicht mehr? Du kannst NIS erst gar nicht aktivieren?
Der Punkt ist ausgegraut? Nicht vorhanden? Es kommt ne Fehlermeldung? Du kannst es aktivieren aber dann passiert nix?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ray519
Ich übersetze mal.
HisN schrieb:
Sorry, wenn Du Dich da gleich angegriffen fühlst.
Subtiler Angriff, indirektes unterstellen von Schwäche
HisN schrieb:
War nicht so gemeint.
Gönnerhafte Positionierung über den anderen
HisN schrieb:
Dickeres Fell zulegen.
Siehe Eingangs.

------------------------------------

Gehts ohne das oder schafft das das eigene Ego nicht?
Unabhängig davon, dass ich 1. nicht das halbe Internet erziehen kann und will und 2. kein Angriff von einem Forenbild verspüre - wollte ich einfach die Diskussion Richtung Sachlichkeit ziehen, um vielleicht doch noch die pragmatisch erhoffte sachliche Meinung / Auskunft zu erhaschen.
Wenn ich Bock auf Wortgefechte abseits dieser Ebene hätte, würde ich sicherlich nicht das Computerbaseforum wählen - und schon garnicht ein Geschreibe mit wildfremden "Persönlichkeiten".


HisN schrieb:
Es kommt tatsächlich sehr häuftig im Forum vor, das Leute ein Problem haben, das mit zwei zusätzlichen Handgriffen umgangen werden kann, aber die Leute das nicht akzeptieren wollen.
Müssen das deine noch nicht untergebenen tatsächlich "akzeptieren"?
Es kommt auch vor, dass es draussen regnet. Ist es deshalb immer naß außerhalb der Haustür?

HisN schrieb:
Entweder so, wie sie das haben wollen oder gar nicht.
Über den Sachgehalt dieses Satzes muss ich echt nochmal drüber nachdenken - hier kann ich tatsächlich nur vermuten.
HisN schrieb:
Die Frage ist einfach nur, zu welcher Gruppe gehörst Du.
Nein, weil es hier nicht um mich als Person geht - und, wird dich vielleicht schockieren - auch nicht um dich. ... wie gesagt, gern am Stammtisch.

HisN schrieb:
Und die ganze zusätzliche Info ist zwar interessant, aber (m.b.M.n) hilft es nicht bei der Problem-Findung.
Schön das wir was über Datenraten, Fehler- und Übertragungsprotokolle gelernt haben.
Im allgemeinen Umgang mit Deinem Monitor wirst Du davon halt nix merken.
Ich zieh mal meine Entwicklerbrille auf: Hintergrundwissen muss nicht helfen, kann aber sehr wohl. Ohne manches Verständnis läuft man auf seiner Abstraktionsschicht leicht in die falsche Richtung.
Ob du als Person an dieser Stelle "schön" findest, ob sarkastisch oder nicht, interessiert nicht.

Und alles was danach kommt, ist zwar ein nett gemeintes Angebot, wird mich aber nicht weiter bringen. Trail & Error bei anderen Monitoren hab ich nicht angefragt.
 
Ne, schafft mein Ego nicht.
Bin froh, dass es Dein Problem ist und nicht meins.
 
Falls es noch jemanden interessiert:
Mein MSI Monitor hat wohl sehr wohl immer DSC genutzt.
Woher ich das weiß? Ich habe versucht, ein 4. Monitor - genauer gesagt ein AVR - mit meiner 4080s zu verbinden .. gehen immer maximal mal 3 mit eben diesem einem MSI 4K Display.
Intern werden offensichtlich 2 Heads von den 4 verfügbaren verbraten, siehe hier:

  • When a display is connected to the GPU and is set to DSC mode, the GPU may use two internal heads to drive the display when the pixel rate needed to drive the display mode exceeds the GPU’s single head limit. This may affect your display topology when using multiple monitors. For example if two displays with support for DSC are connected to a single GeForce GPU, all 4 internal heads will be utilized and you will not be able to use a third monitor with the GPU at the same time.
  • If the GPU detects that a display supports DSC, DSC mode will be enabled automatically. Some displays may allow you to disable DSC by changing the communication link from the displays internal settings (eg. changing the DisplayPort mode from Displayport 1.4 to DisplayPort 1.2)
  • NVIDIA DSR, NVIDIA DLDSR and NVIDIA Image Scaling are not supported when DSC mode is enabled.
quelle

Da steht eigentlich alles - spannend ist tatsächlich, dass die GPU IMMER DSC aktiviert, sobald das verfügbar ist.

Nun, jetzt war meine initiale Vermutung tatsächlich richtig. Damit könnte ich mich jetzt toll fühlen. Bringt mir allerdings ziemlich wenig - schlauer bin ich aber allzumal, denn nun weiß ich:
  • 4 Heads max, 2 werden bei DSC eingesetzt werden -> kein (4. Screen bzw. HDMI AVR) in meinem Setup.
  • DSC ist tatsächlich aktiv mit dem MSI Screen, und zwar immer. Zumindest konnte ich das bis jetzt noch nicht deaktivieren.
  • DSC ist an dem Thema fehlende Bildskalierung schuld

Mal schauen, was die CES so alles an tollen Monitoren und ggf. sogar an GPUs hochspült.
 
Zuletzt bearbeitet:
tabaz schrieb:
4 Heads max, 2 werden bei DSC eingesetzt werden
Fyi, das macht keinen Sinn und stimmt so nicht. Nvidia hat pro Display Pipeline ein Limit an Pixel oder Bytes / sec. Und Ohne DSC limitiert die DP Bandbreite die sie können, bevor sie in das Pipeline Limit rennen.
Mit DSC kann man das Limit übersteigen (wie zB für 4K160). Es ist nicht klar wo exakt die Grenze liegt.
Es ist also nicht ob DSC an oder aus ist, es ist wie viele Pixel/sec für ein Display übertragen werden müssen. Und ab irgendeinem Punkt verlierst du einfach eine Pipeline. Ob das jetzt ist, weil Nvidia tatsächlich Pipelines fused wie Intel oder nur einfach ein globales Bandbreitenlimit ist, ist da dann relativ egal.

Gegenprobe: einfach Refreshrate reduzieren und die Einschränkung sollte auch weggehen.

Der HDMI Port kann zB wesentlich schneller ohne DSC zu benötigen. Der kann das Limit also genauso sprengen, ganz ohne DSC.
 
Hat er doch schon gemacht.
 
Was? Der Thread ist so alt, da habe ich keinen Überblick mehr was vorher passiert ist. Aber ich bleibe dabei, ich glaube nicht dass DSC oder das Monitor Anzahl Limit die Skalierung verhindert. Das ist immer noch ungelöst.

Und ich versuche nur darauf hinzuweisen, wie diese Aussagen von Nvidia zu interpretieren sind. Und dass das ursprüngliche Problem woanders liegen wird als bei DSC. Das war es.
 
also .. 1. hat er schon gemacht und 2. siehe Nvidia Quelle oben. Bist du Nvidia Treiber Entwickler oder woher hast du die Infos? Nicht dass ich das jetzt abstreite ..
und 3. "if the GPU detects that a display supports DSC, DSC mode will be enabled automatically. " - hast du auf die Quelle geschaut?
Tatsächlich sind das jetzt schon ein paar viele Indizien.
Und gaaanz wichtig: Dass ich nur 3 Displays ran hängen kann (HDMI, DP - egal) unterstreicht das doch sehr deutlich. - und ja, mit nem WQHD Monitor statt dem MSI 4K gehen auch 4 ..
 
tabaz schrieb:
the GPU may use two internal heads to drive the display when the pixel rate needed to drive the display mode exceeds the GPU’s single head limit.
In dem ich aufmerksam lese was da steht und ein grobes Verständnis der Hardware habe.

Und nochmal: wenn du deinen 4K160 monitor nur noch auf 60 Hz betreibst? Gehen dann wieder 4 Monitore? Der Monitor kann ja immer noch DSC. Nach deiner Theorie sollte das also keinen Unterschied machen. Und ich sage, technisch gibt es keinen Grund warum das anders sein sollte als ein Monitor der gleich nur 4k60 kann.

Der GPU Treiber hat unter Kontrolle wann er DSC aktiviert. Wenn Nvidia absichtlich die Bildqualität senken wollen, obwohl sie es nicht müssen, steht ihnen das natürlich frei. Meine meisten Beobachtungen dazu sind von Intel. Und die aktivieren es genau dann und nur so viel wie sie es brauchen. Ausnahme: MST, aber das trifft hier nicht zu.

Mein Monitor zeigt an, ob das eingehende Bild DSC nutzt oder nicht (und die DP Geschwindigkeit). Deshalb kann ich verifizieren, dass zumindest die RTX 30 Serie DSC auch nur genau dann anschaltet, wenn sie es müssen oder bei MST. Genau wie Intel das macht. Braucht die Bandbreite die aktuell genutzt wird kein DSC, bleibt es aus. Genau so wie es auch Sinn macht. Und Nvidia scheint nach fremden Berichten noch ein Limit zu haben und scheint DSC nicht unter 10bpp betreiben zu wollen/können.

Leider, wie du sehen kannst, vermischen auch Support Mitarbeiter häufig die verschiedenen Sachen und die Zitate von Nvidia sind eben falsch, warum auch immer die zu blöd sind. Wie gesagt, es macht absolut Sinn das Limits an der Pixel/sec hängen. Es macht keinen Sinn das man wegen DSC einen Monitor weniger kann, es macht nur Sinn wenn man DSC nutzt um mehr Pixel/sec zu übertragen und so ans Limit kommt.

Ich kann mir zwar wilde Konstrukte ausdenken, wie das doch Sinn machen könnte, aber das selbst die Angaben direkt von Nvidia falsch sind, da nicht schlüssig, ist SO viel wahrscheinlicher. Und du kannst ja nicht verifizieren ob DSC an ist oder nicht, oder? Du räts das nur anhand von BS Behauptungen und dass das System nicht macht was du erwartest. Aber du weißt nicht ob das auch nur irgendeinen Zusammenhang mit DSC hat.

Ich hatte doch sogar direkt am Anfang demonstriert dass bei mir das Upscaling auch noch mit DSC an weiterhin geht. Und das hängt auch nicht an der Monitor Zahl. Oder fängt es an zu gehen, wenn du den 4K160 Monitor als einzigen angesteckt lässt (mit maximaler Refresh Rate, so dass DSC an sein muss)?

Die Frage ist nur, wo liegt das Limit genau so dass du es maximal ausreizen kannst. Oder für DSR könnten noch andere Dinge mit reinspielen die nicht direkt an der Bandbreite hängen.
 
Zuletzt bearbeitet:
Wie gesagt, ich kann leider nicht ins Kabel reinschauen, aber sehr wohl vermuten. Auflösung, Farbtiefe oder refreshrate ändern hilft nicht. Ein anderen nicht 4k Monitor ran hängen sehr wohl, dann geht's auch mit Bildskalierung wieder. Und da beide Features im Kontext mit DSC und den Heads stehen, würde es mich sehr wundern, wenn dem nicht so wäre. Frohe Weihnachten.
 
Zurück
Oben