8 BIT oder 10 BIT einstellen?

eddietwo

Commander
Registriert
Dez. 2016
Beiträge
2.080
Hey
habe einen MSI 240 HZ FHD mit HDR 400.
Habe das mal getestet aber HDR 400 sieht absolut mies aus.
Also in Windows wieder aus gestellt.

Nun kann ich aber im Treiber ( Nvidea ) die 8 bzw 10 Bit wählen.
10 sollte doch besser sein oder hat das irgendwelche Nachteile?
 
8 weniger als 10. Bei FHD musst du schauen ob du bei 10 Bit noch 240 herz fahren kannst und die Bandbreite reicht, wenn ja dann 10 ansonsten nein.

mfg
 
Ist halt Farbtiefe. Mehr ist allgemein erstmal besser.
 
Ich bekomme bei 10 Bit immer noch die 240 Hz angezeigt.
Also sollte die Bandbreite reichen oder?
 
HDR 400 ist ein Witz und eher Marketing, nach dem Motto, Hauptsache es steht HDR drauf. Das hat überhaupt nichts mit HDR zu tun.
Schau mal richtiges HDR auf einem guten OLED Bildschirm an...
 
  • Gefällt mir
Reaktionen: Naxtrumrar und Otsy
Habe einen OLED mit HDR im Wohnzimmer.
Daher dachte ich cool mache mal HDR an.
Aber der wird nun krell hell und sonst nix..
Echt ein wITZ

Wie sehe ich denn ob die Bandbreite bei FHD für 240 Hz reicht?
Wenn ich es einstellen kann sollte es passen oder?
 
Zuletzt bearbeitet:
eddietwo schrieb:
Habe einen OLED mit HDR im Wohnzimmer.
Daher dachte ich cool mache mal HDR an.
Aber der wird nun krell hell und sonst nix..
Echt ein wITZ

Wie sehe ich denn ob die Bandbreite bei FHD für 240 Hz reicht?
Wenn ich es einstellen kann sollte es passen oder?
Also das was Ich hier an HDR auf dem OLED sehe, ist schon ein Riesenunterschied zu dem ganzen Marketing HDR 400 Kram auf den billigen HDR Monitoren. Kollege hat aber auch den OLED mit einer Spider kalibriert. Aber Werk war der auch leicht übersättigt von den Farben.

Ob 8Bit oder 10Bit wird bei dem FHD Monitor keinen grossen Unterschied machen. Würde mich wundern, wenn du da einen signifikaten Unterschied merkst. Ich gehe mal davon aus, das du den MSI MAG251RX hast ?
 
Ja genau dieses Modell..

Habe nun auf 8 gestellt
Schaut genau so aus

Bei 10 Bit habe ich bei hohen FPS eine Art ruckeln iwie
Kann aber einbildung sein
 
Nutze die 8Bit, das macht bei dem Monitor keinen Unterschied.
Der Monitor hat zumindest schon mal ein gutes IPS Panel verbaut und die 240Hz sind da auch sinnvoller als HDR. Der Anwendungszweck wird ja auch vermutlich Gaming sein, wofür der Monitor sich auch gut eignet.
 
HDR und 10bit ist nicht das gleiche. Meine Empfehlung im Alltag kann Windows 10 nicht mit HDR umgehen. und es gibt kaum Programme die 10Bit Farbtiefe unterstützen. Ich selbst habe schon 10Bit Anwendungen schrieben (floating point framebuffer). Es könnte wenn es denn mehr genutzt würde einen unterschied machen. also 10Bit ohne HDR bringt nur in der Nische etwas.

Es gibt einen slider der sdr content im HDR modus anpasst unter [Windows HD Color settings][HDR/SDR brightness balance], ist nur im HDR modus da, in der Praxis verliert Windows diese Einstellung. Deine 8Bit sdr Anwendung sollten im HDR modus gleich aussehen. je nach spiel sieht HDR400 schon deutlich besser aus als SDR ich denke da an F1 spiele wenn mann gegen die sonne blickt wird mann richtig geblendet.

Windows 11 wird eine bessere HDR unterstuetzung bringen und einen fallback modus fuer SDR spiele.
 
quelle prad.de link
Mit der Farbtiefe von 8 Bit können theoretisch 256 Stufen pro Farbkanal differenziert werden, das ergibt die oftmals bei Monitoren angegebenen über 16 Millionen darstellbare Farben. Diese Zahl wird durch Multiplikation aller möglichen Stufen über alle Grundfarben erreicht, wodurch 256 x 256 x 256 etwas mehr als 16 Millionen ergeben. Bei 10 Bit können dagegen 1024 Stufen differenziert werden, also 1024 x 1024 x 1024, was 1,07 Milliarden darstellbaren Farben entspricht.

16 Mio Farben vs. 1,07 Mrd. farben. Wenn man die Wahl hat, ist mehr deutlich besser. In hitzigen gefechten wird das nicht auffallen... in Ruhigen momenten allerdings schon. Dann bilden sich wie im Bild so abstufungen in z.b. einem himmel. Ich verzichte lieber auf 20Hz und Fahre in 100Hz bei 10bit bei meinem Monitor.

Vereinfachtes bsp.
2021-08-31 21_54_51-Oppo Find X2_ CEO schlägt 10-Bit-Farbtiefe vor - TechToday.png
 
  • Gefällt mir
Reaktionen: Klever
Allerdings gibt es noch relativ wenig 10bit-Quellen für HDR und Co.
Einige Spiele (HZD?), BluRay-Disks oder 10-bit-Grafiken eignen sich vielleicht, andere weniger.

Zudem können die wenigsten (preiswerten) Monitore echtes 10bpc ausgeben.
Meist geht nur 8+2bit mit FRC.

Es wird nur 10bpc simuliert.
Dadurch kann außer der etwas höheren Belastung auch ein Flimmern entstehen.

https://de.wikipedia.org/wiki/Frame_Rate_Control
https://web.archive.org/web/2009051...m/articles/monitors/display/lcd-guide_11.html
https://forums.tomshardware.com/threads/true-10bit-vs-8bit-frc.2937222/#js-post-18504615
https://www.prad.de/lexikon/frc/
https://www.isolapse.com/true-8-bit-vs-8-bit-frc-monitors-what-is-the-difference/
https://www.isolapse.com/true-10-bit-vs-8-bit-frc-monitor-what-is-the-difference/


Übrigens:
Ein Monitor mit größerem Farbraum und 8bpc kann besser aussehen als manch einer mit kleinerem Farbraum und 8bpc + FRC.
https://www.eizo.de/praxiswissen/mo...tvl7wIViKztCh3FnQLeEAAYASAAEgKjrPD_BwE#c12912

Grüße
 
Jaja, Prad und deren theoretisierendes Geschreibsel. Damit man überhaupt etwas von 10bit merkt, müssen schon einige Faktoren zusammen kommen. Der Inhalt muss lokal für 10+ Bit generiert wird (d.h. bei fremden Quellen, die eh für 8bit gemacht sind, hast du nichts davon, die allermeisten Videos und Bilder sind raus). Und der Renderer der Anwendung muss auch richtig billig oder schlecht sein. Und der Farbverlauf muss extrem lang gezogen sein, und zwischen einigermassen benachbarten Tönen sein, damit man die Abstufungen überhaupt mitkriegt. Das Beispiel von @tochan01 (Himmel) ist einer der wenigen, wo man das überhaupt sehen kann.

Zu dem Thema wurden schon hitzige Debatten geführt, aber ich habe noch keine überzeugenden Argumente für 10bit gesehen, es es zum absoluten Muss machen würden. Im besten Fall werden irgendwelche vorgenerierten Bildchen als "Beweis" angeführt, wo angeblich ein perfekter Verlauf durch Banding ach-so-schrecklig unterbrochen wird. Und wenn man sich das näher anschaut, dann wird schnell klar, dass da nachgeholfen wurde, d.h. Dithering ausgeschaltet wurde, um es absichtlich schlecht aussehen zu lassen.

Und dann gehe sie damit auf den Dummenfang. Siehe auch die Stimmungsmache gegen FRC. Siehe z.B. den Link aus dem Vorpost. https://www.isolapse.com/true-10-bit-vs-8-bit-frc-monitor-what-is-the-difference/ . Das rechte Bild sieht aus wie auf 6 bit und ohne Dithering konvertiert. Und dann faseln sie etwas von 8bit+FRC darunter, was für ein Beschiss.
 
Zuletzt bearbeitet:
Das sind nur Veranschaulichungsbilder, hätten sie aber besser dazu schreiben sollen.
Immer diese Geheimniskrämerei ... :rolleyes:
 
mit Beispielbildern is so ne sache.... man gucke sich 10 Bit Farben mit 8 bit an. Quasi 4k screenshots auf einer FullHD glotze im Vollbildmodus:D.

Ist hier nicht eine Photoshopprofi? Ein "10Bit" bild horizontal durchschneiden und die untere hälfte in 8Bit umwandeln. Die dann untereinader zusammenfügen / Posten, noch am Monitor 10 Bit einstellen und man sollte einen richtigen "vergleich" an seinem Monitor machen können ;).
 
In Windows bekommt sowieso NIEMAND 10bit zu sehen. Windows KANN gar kein 10bit! Ist hier schon 1000mal gepostet worden.
 
Quelle? Also was offizielles und keine Forumsdiskussionen diverser experten. Kann ich kaum glauben...
 
tochan01 schrieb:
Ein "10Bit" bild horizontal durchschneiden und die untere hälfte in 8Bit umwandeln. Die dann untereinader zusammenfügen / Posten, noch am Monitor 10 Bit einstellen und man sollte einen richtigen "vergleich" an seinem Monitor machen können ;).
Die Idee finde ich gut, aber wie soll man am 8bpc-Monitor den Unterschied zwischen 8bpc und 10bpc erkennen können?
Wenn es überhaupt deutlich sichtbare Unterschiede gäbe, sähe der 10bpc-Teil dann auch besser aus? 😉

Ich kann mir die Frage übrigens nicht selbst beantworten, da ich die Möglichkeiten hier nicht habe.
 
Tanzmusikus schrieb:
Die Idee finde ich gut, aber wie soll man am 8bpc-Monitor den Unterschied zwischen 8bpc und 10bpc erkennen können?
gar nicht... darum ja auf 10 einstellen und das Bild betrachten was 10 und 8 beeinhaltet. Wer keinen unterschied sehen kann, bleibt bei 8 und hat vielleicht ein paar mehr Hz zur auswahl.
 
Ich meine für die breite Masse.
Wenn 75% aller Nutzer nur einen 8bpc-Monitor (ohne FRC) besitzen, wie sollen diese dann zu 10bpc-Monitoren "verführt" werden, wenn sie weder auf 8+2(FRC) noch auf 10bpc umstellen können und keinen Unterschied sehen?

Und nur darauf haben es die Macher solcher Bilder abgezielt. Das ist ihr Job. 😉
 
Zurück
Oben