HDR und 120 Hz in 4K nicht möglich mit Samsung TVs trotz HDMI 2.1

Kallasas

Newbie
Registriert
Feb. 2022
Beiträge
2
[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]

1. Nenne uns bitte deine aktuelle Hardware:
(Bitte tatsächlich hier auflisten und nicht auf Signatur verweisen, da diese von einigen nicht gesehen wird und Hardware sich ändert)
  • Prozessor (CPU): …Intel 8700k
  • Arbeitsspeicher (RAM): …32 GB GSkill CL16
  • Mainboard: …Asus Strix 370f
  • Netzteil: …1000w Platium
  • Gehäuse: …
  • Grafikkarte: …TUF 3060 TI
  • HDD / SSD: …Samsung M.2
  • Weitere Hardware, die offensichtlich mit dem Problem zu tun hat(Monitormodell, Kühlung usw.):

2. Beschreibe dein Problem. Je genauer und besser du dein Problem beschreibst, desto besser kann dir geholfen werden (zusätzliche Bilder könnten z. B. hilfreich sein):
...Hallo, ich bin mit meinem Latein am Ende. Ich habe von einer RTX 3090 zo einer 3060 ti downgradet. Seit dem kriege ich nicht HDR und 120 Hz gleichzeitig auf meinen TV. Habe einen Samsung Q95T und einen QN93 . Beide haben einen HDMI 2.1 Port. Beide das selbe Problem.
In den Nvidia Einstellung war oben bei UltraHD,HD,Sd nun "4kx2k, 3840 x 2160 " ausgewählt. Hier kann ich HDR in den Windows-Einstellungen aktivieren und am TV die HDR Optionen sind freigeschaltet. Jedoch kann ich nur 60 Hz auswählen!
Wenn ich nun unten in den Nvidia EInstellungen bei " PC " 3840 x 2160 auswähle, habe ich zwar 120 Hz aber die HDR Optionen lassen sich nicht aktivieren bzw. am TV aus gegraut . Ich bin der Meinung, das ich vorher genau diese Einstellung hatte aber HDR alles freigeschaltet war. Kann mir jetzt eigentlich nur erklären, das die 3060 ti das nicht hinbekommt ? Aber das kanns ja nicht sein.
Ich habe leider dann doch nicht soviel Ahnung, wie es sich mit den Einstellung unten verhält YcCbr und RGB- Das kann ich aber auch nicht ändern. Hoffe jemand kann mir den entscheidenen Hinweis geben. Dafür habe ich mir solche TVs geholt um mit HDR und 120 Hz in 4K zu zocken ( auch wenn die 3060ti da nicht so mitmacht )

3. Welche Schritte hast du bereits unternommen/versucht, um das Problem zu lösen und was hat es gebracht?
...Treiber neu installiert. Ältere Treiber Probiert. Verschiedene HDMI Kabel ( 2.1 Zeritfiziert ) , ältere Windows Sicherung probiert.
TV zurückgesetzt. 2. TV ausprobiert. HDR über die Registrierung aktivieren


P.S.: Beachte auch die verschiedenen angepinnten Themen und die Forensuche. Möglicherweise findest du da bereits die Lösung zu deinem Problem.
 

Anhänge

  • 1.png
    1.png
    88,4 KB · Aufrufe: 472
  • 2.png
    2.png
    79,8 KB · Aufrufe: 509
  • Gefällt mir
Reaktionen: bttn
Die 4K120 420 8 Bit sind HDMI 2.0, das geht tatsächlich mit der Bandbreite noch. HDR ist dann aber zuviel, daher geht das dann nicht mehr.

Du bist ggf. nicht an einem HDMI 2.1 Port oder musst das noch im TV aktivieren. HDMI 2.1 ist aktuell scheinbar gar nicht aktiv.

PS: RGB ist immer 4:4:4 Chroma, daher nicht wählbar, da zu hoher Bandbreitenbedarf für HDMI 2.0. Da eine RTX 3000 das eigentlich kann, habe ich hier eine TV Einstellung für den Port im Verdacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ray519
Vielleicht mal die Farbtiefe auf 10bit stellen, mit 8bit ist HDR nicht möglich.
 
Ich bin mir ziemlich sicher, dass ich immer die Auflösung unter der Sektion PC auswähle und dann 120 Hz rechts wählen kann. Unten steht bei mir das Ausgabeformat auf RBG, die Farbtiefe auf 12 bit und der Ausgabebereich auf voll. In Windows 10 und 11 kann ich dann zusätzlich noch HDR und Auto HDR aktivieren.
Das alles mit einer 3070 und nem LG BX.
 
Was sagen denn die jeweiligen technischen Specs aus zum Thema HDMI 2.1 ? Was steht da beim TV zum Beispiel konkret dazu und was beim Kabel, alleine des HDMI 2.1 hat null Aussagekraft weiter, das kann sogar bei nem Monitor stehen wo tatsächlich nur 1920 x 1080 bringt. Deshalb die Specs kontrollieren, was bzgl. HDMI 2.1 für Features vorhanden sein sollen.
 
nordic_pegasus schrieb:
mit 8bit ist HDR nicht möglich.
Doch geht allgemein auch (ob die TVs das alle können, weiß ich nicht).
In Windows wird das dann als 8-Bit (mit Dithering) angezeigt. Aber Farbverläufe sehen teils merklich schlechter aus.

@Kallasas
Deine GPU scheint 2 HDMI-Ports zu haben. Da die Referenz-Karten von Nvidia nur einen HDMI haben (und eigentlich auch nur max. 4 Anschlüsse), könnte es sein, dass einer der beiden HDMI-Ports intern mit einem Adapter bereitgestellt wird und deshalb nicht die maximalen HDMI 2.1 Fähigkeiten kann. probier vllt mal den anderen.

Wie cvzone sagt, du scheinst aktuell auf HDMI 2.0 limitiert zu sein...
 
  • Gefällt mir
Reaktionen: cvzone
Welche Schritte hast du bereits unternommen/versucht, um das Problem zu lösen und was hat es gebracht?
...Treiber neu installiert. Ältere Treiber Probiert. Verschiedene HDMI Kabel ( 2.1 Zeritfiziert ) , ältere Windows Sicherung probiert.

=>Schau doch nochmal über die Kabel drüber:

Es gibt viele Angebote von sogenannten HDMI-2.1-Kabeln, doch eine aufgedruckte HDMI-Version ist keine verbindliche Aussage über die Qualität des HDMI-Kabels. Die einzige zuverlässige Angabe, die du auf einem neuen HDMI-Kabel finden solltest, heißt „HDMI ULTRA HIGH SPEED“.

umgekehrt
...können vorhandene, hochwertige High-Speed-HDMI-Kabel jetzt und später dem neuen HDMI-Standard 2.1 durchaus genügen.
Quelle

Ich sehe zwar auch, dass du scheibst mit der 3090 hätte genau das vorher geklappt, dir aber eben nicht sicher bist. Wäre die Peripherie (Monitore,Kabel) nicht dran schuld ,hätte ich als nächstes auf die Treiberversion getippt und mir die Patchnotes /unresolved Issues durchgelesen
 
@cvzone
Ich meine gelesen zu haben, dass sogar teils HDMI 2.0 in HDMI 2.1 umbenannt wurde. Muss bei der GPU nicht so sein, aber wer weiß ob da alle Ports wirklich HDMI 2.1 können. Deshalb auch:
Drewkev schrieb:
Naja, HDMI 2.1 ist nicht gleich HDMI 2.1, leider.

Wird alles komplizierter heutzutage...
 
  • Gefällt mir
Reaktionen: Col.Maybourne und cvzone
Drewkev schrieb:
Ich meine gelesen zu haben, dass sogar teils HDMI 2.0 in HDMI 2.1
Ja, ist auch so. Oder HDMI 2.0 + eARC = HDMI 2.1 und solche Späße. Aber an der GPU liegt es nicht, die kann "echtes" HDMI 2.1.

Am TV kann es ja auch liegen, das Modell kenne ich nicht nicht so. Mal ins Datenblatt schauen....

EDIT

Fixed Rate Link laut Datenblatt nur auf Port 4 möglich. 4K120 4:2:0 könnte auch an den HDMI 2.0 Ports noch gehen.

HDMI 2.1 Funktionen
  • FRL (4K@120Hz) auf HDMI-Port 4, 4K@60Hz, 2K@120Hz, VRR, Dynamic Metadata (HDR10+), ALLM (Auto Game Mode), eARC auf HDMI-Port 3
https://www.samsung.com/de/tvs/qled-tv/q95t-55-inch-qled-4k-smart-tv-gq55q95tgtxzg/
 
  • Gefällt mir
Reaktionen: CyrionX
cvzone schrieb:
Laut Asus haben beide HDMI 2.1 aber die Idee war gut.
Das hatte ich gesehen. Aber offiziell gibt es jetzt ja nur noch HDMI 2.1. Bei allen neuen Mainboards steht schon HDMI 2.1 und dann in Klammern hintendran "nur 4096x2160 @ 60Hz". Wenn TE sich nicht irrt, dass es schon mal ging an den selben Eingängen vom TV wäre das meine letzte Hoffnung. Auch wenn man von Asus eigentlich besseres erwarten sollte.

Vllt ist es auch nur ein Bug mit einem Adapter dazwischen. Aber die Geforce GPUs können ja grundsätzlich nur 4 Displays, irgendwo sollte Asus schon dokumentieren dass maximal 4 von 5 Anschlüssen gleichzeitig gehen und das habe ich auch noch nicht gefunden.
 
Drewkev schrieb:
Liegt das nicht eher am Treiber als an der GPU selbst?
Weiß man (ich) nicht. Nvida hat Quadro(?)-Karten die mehr als 4 Displays können, könnte also ein absichtliches Software-Limit sein um den Markt zu segmentieren.
Auf der anderen Seite scheint es mir plausibel, dass man für jeden Monitor diskrete HW braucht, die den managed. Schließlich kann jeder Monitor andere Timings, Refresh Rates, Pixel Clocks etc haben und so selbst bei Mirroring zum gleichen Zeitpunkt bei anderen Pixeln sein.

Diese HW könnte in der Anzahl limitert sein (evtl auch dauerhaft gekilled, wie extra Cache oder Shader). Aber das sind nur halbwegs educated guesses, auch auf Intels Diagrammen basierend, wo die "Display Pipelines" als separate Blöcke eingezeichnet sind.
 
Zuletzt bearbeitet:
Selbst wenn die neue Karte 5 Anschlüsse hat, sind wohl nur max. 4 Displays möglich. D.h. es ist ein "Switch" verbaut.
Sofern also nicht beide HDMI Anschlüsse getestet wurden, ist es müßig, hier weiter zu machen.
 
Also da Asus hier mit 2x HDMI 2.1 wirbt und er nichts von 4 oder 5 Displays schreibt, würde ich einfach mal vermuten, dass nicht HDMI Port 4 am TV benutzt wird, weil nur der 40 Gbps kann.
 
  • Gefällt mir
Reaktionen: Ray519
till69 schrieb:
D.h. es ist ein "Switch" verbaut.
Wissen wir leider auch nicht exakt. Intel zB verbaut bei den H45 und S-CPUs 5 Display-Ausgänge obwohl max. 4 Displays (vor Tiger Lake nur 3) gleichzeitig aktiv sein können (auch am selben Anschluss mit DP MST). Es könnte also theoretisch sein, dass die Ampere Geforce Chips intern mehr als 4 Anschlüsse haben und damit beliebige Kombinationen aus den 5 Anschlüssen perfekt gehen, weil der GPU Chip das macht (nur seltsam das Nvidias Referenz GPUs immer max. 4 Anschlüsse haben).

Könnte aber auch sein, dass der Chip nur 4 Anschlüsse hat und sich 2 Ports einen Displayport intern teilen (vllt exlusiv als entweder-oder oder mittels MST nur die Bandbreite teilen). Das gab es nämlich in der Vergangenheit bei Gigabyte und war dort auch dokumentiert (ich meine RTX 20 Serie).

Edit:
gefunden:
1644237522976.png


Bei der RTX 3090 Aorus wird das allerdings nicht mehr so explizit als entweder-oder beschrieben. Da wird nur erwähnt, dass 1 von 3 HDMIs nur HDMI 2.0 kann und max. nur 4 Displays gehen. Also durchaus denkbar dass die RTX 30 Serie mehr als einen nativen HDMI 2.1 hat. Auf jedenfall würde ich Asus' Angaben nicht bedingungslos trauen...
Ergänzung ()

Noch eine Idee @Kallasas: Bei meiner RTX 30 kann ich mit CRU -> Export die vollen EDID-Daten meiner Monitore auslesen. Da drin gibt der Monitor an was er kann.
Kann man dann zB mit Linux Tool edid-decode dekodieren, kann ich auch machen, wenn du den Dump hochladen möchtest.
Damit könnte man gegenchecken, ob der Fernseher sagt dass er HDMI 2.1 an dem genutzten Eingang kann oder nicht, falls du schon geprüft hast, dass es der richtige Eingang am TV ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyrionX
Tja, ich glaub ich habe den Fehler gefunden. Auch dank eines der vielen Hinweise. Ich danke allen für die Mithilfe. Tatsächlich habe ich mich schlicht vertan. Der HDMI Port 4 ist für 120 Hz ausgelegt. Hatte das mit HDMI 1 verwechselt. Tja, dann doch so eine simple Ursache. Sorry
 
  • Gefällt mir
Reaktionen: bttn, CyrionX, IchbinbeiCB und eine weitere Person
Kallasas schrieb:
Tja, ich glaub ich habe den Fehler gefunden. Auch dank eines der vielen Hinweise. Ich danke allen für die Mithilfe. Tatsächlich habe ich mich schlicht vertan. Der HDMI Port 4 ist für 120 Hz ausgelegt. Hatte das mit HDMI 1 verwechselt. Tja, dann doch so eine simple Ursache. Sorry
Alles Ok.
Was denkst du wieviele IT-Unternehmen schon angerückt sind, weil jemand ausversehen das Lan-Kabel falsch gesteckt hat ;P
Allein die Infos drumherum waren mir das mitlesen schon wert.
 
Zurück
Oben