Grafikkarten Info wieviel Bit pro Farbkanal Output?

T_55

Lieutenant
Registriert
Feb. 2013
Beiträge
643
Hallo an alle,

kann man unter Linux herausfinden wieviel Bit pro Farbkanal die Grafikkarte an den Monitor schickt?
Ich konnte nichts sinnvolles finden, gibt es denn ein Befehl oder Programm um Distru+Graka-Übergreifend herauszufinden wieviel Bit der Output ist (z.B. 8Bit oder 10Bit)?

Grüße
 
wenn du xorg nutzt:
cat ~/.local/share/xorg/Xorg.0.log | grep -i 'bits\|depth'


sieht dann bspw. so aus:
[ 43.077] (==) modeset(0): Depth 24, (==) framebuffer bpp 32
[ 43.133] (II) modeset(0): 8 bits per channel
[ 43.247] (II) modeset(0): Initializing kms color map for depth 24, 8 bpc
 
  • Gefällt mir
Reaktionen: T_55
Danke, also offensichtlich gehen nur 6Bit raus?! Kann man das denn auf 8Bit erhöhen?
Älterer Lappi mit ext. Monitor (HDMI). NVIDIA GeForce GTX 960M. Debian.

(bei mir war die datei in /var/log/):

cat /var/log/Xorg.0.log | grep -i 'bits\|depth'
"Default Screen Section" for depth/fbbpp 24/32
[ 192.197] (==) modeset(0): Depth 24, (==) framebuffer bpp 32
[ 193.646] (II) modeset(0): 6 bits per channel
[ 194.166] (==) modeset(G0): Depth 24, (==) framebuffer bpp 32
[ 194.495] (II) modeset(0): Initializing kms color map for depth 24, 8 bpc.
[ 194.526] (II) modeset(G0): Initializing kms color map for depth 24, 8 bpc.
 
sudo cat /sys/kernel/debug/dri/0/HDMI-A-1/output_bpc

HDMI A 1 durch deinen port ersetzten (siehe xrandr)
 
Habe per Trial&Error anhand dieser Aussage in der xorg.conf (in ect/xpra) die DefaultDepth von 24 auf 8 gestellt -> keine Änderung.
Kenne mich ja leider nicht so aus, es gibt auch kaum was zu finden zu der Thematik, nur hier wie man 10Bit umsetzt. Dort wird gesagt "R, G, B = 3 colors * 10 bits = 30." Das heißt übertragen auf 8Bit 3*8=24 also genauso wie die DefaultDepth in der xorg.conf ursprünglich eingestellt war und entgegen der obigen 24 auf 8 Aussage... Entsprechend hab ich die DefaultDepth in der xorg.conf wieder zurück auf 24 gestellt.
Dann noch probiert nach der 10Bit Anleitung die /etc/X11/xorg.conf.d/30-screensetup.conf angelegt mit Inhalt:
Section "Screen"
Identifier "Default Screen"
Monitor "Configured Monitor"
Device "Configured Video Device"
# 24 for 8-bit or 30 for 10-bit
DefaultDepth 24
EndSection

Fazit (nach reboot) weiterhin Ausgabe: (II) modeset(0): 6 bits per channel :confused_alt:

Interessant ist, wenn ich das HDMI Kabel entferne und nur den Lappibildschirm nutze, dass dann die gleichen Zeilen stehen wie in #3 mit: (II) modeset(0): 6 bits per channel
Offenbar bekommt auch der Lappibildschirm nur 6Bit geliefert.
Kann es sein dass die Ursache die NVIDIA Karte unter Linux ist, da gibts doch gerne Probleme oder...?
 
Ok weiter probiert und testweise die proprietären Treiber installiert -> Fazit: weiterhin
"6 bits per channel" in der einen Zeile.
cat /var/log/Xorg.0.log | grep -i 'bits\|depth'
"Default Screen" for depth/fbbpp 24/32
[ 35.332] (**) modeset(0): Depth 24, (--) framebuffer bpp 32
[ 37.145] (II) modeset(0): 6 bits per channel
[ 37.709] (**) NVIDIA(G0): Depth 24, (--) framebuffer bpp 32
[ 38.609] (II) modeset(0): Initializing kms color map for depth 24, 8 bpc.
Vielleicht sollte man besser mit Linux einfach konsequent auf Nvidia-Grakas verzichten.
 
T_55 schrieb:
die Datei gibt es bei mir nicht...?
auch nicht in eDP-1 und HDMI-1
sonst schau mal was da so drin liegt. Da werden eig. alle infos ueber faehigkeiten des angeschlossenen Display gesammelt.

Schau mal ob in xdpyinfo was steht
 
madmax2010 schrieb:
auch nicht in eDP-1 und HDMI-1
sonst schau mal was da so drin liegt. Da werden eig. alle infos ueber faehigkeiten des angeschlossenen Display gesammelt.
nein da sind nur solche Dateien drin: edid_override, force, i915_hdcp_sink_capability, i915_lpsp_capability, vrr_range.

madmax2010 schrieb:
Schau mal ob in xdpyinfo was steht
Ausgabe ist:
name of display: :0
version number: 11.0
vendor string: The X.Org Foundation
vendor release number: 12011000
X.Org version: 1.20.11
maximum request size: 16777212 bytes
motion buffer size: 256
bitmap unit, bit order, padding: 32, LSBFirst, 32
image byte order: LSBFirst
number of supported pixmap formats: 7
supported pixmap formats:
depth 1, bits_per_pixel 1, scanline_pad 32
depth 4, bits_per_pixel 8, scanline_pad 32
depth 8, bits_per_pixel 8, scanline_pad 32
depth 15, bits_per_pixel 16, scanline_pad 32
depth 16, bits_per_pixel 16, scanline_pad 32
depth 24, bits_per_pixel 32, scanline_pad 32
depth 32, bits_per_pixel 32, scanline_pad 32
keycode range: minimum 8, maximum 255
focus: window 0x5a00a67, revert to Parent
number of extensions: 30
BIG-REQUESTS
Composite
DAMAGE
DOUBLE-BUFFER
DPMS
DRI2
DRI3
GLX
Generic Event Extension
MIT-SCREEN-SAVER
MIT-SHM
NV-CONTROL
NV-GLX
Present
RANDR
RECORD
RENDER
SECURITY
SHAPE
SYNC
X-Resource
XC-MISC
XFIXES
XFree86-DGA
XFree86-VidModeExtension
XINERAMA
XInputExtension
XKEYBOARD
XTEST
XVideo
default screen number: 0
number of screens: 1

screen #0:
dimensions: 3424x1926 pixels (1355x762 millimeters)
resolution: 64x64 dots per inch
depths (7): 24, 1, 4, 8, 15, 16, 32
root window id: 0x95b
depth of root window: 24 planes
number of colormaps: minimum 1, maximum 1
default colormap: 0x20
default number of colormap cells: 256
preallocated pixels: black 0, white 16777215
options: backing-store WHEN MAPPED, save-unders NO
largest cursor: 256x256
current input event mask: 0xfa8033
KeyPressMask KeyReleaseMask EnterWindowMask
LeaveWindowMask ExposureMask StructureNotifyMask
SubstructureNotifyMask SubstructureRedirectMask FocusChangeMask
PropertyChangeMask ColormapChangeMask
number of visuals: 600
default visual id: 0x21
visual:
visual id: 0x21
class: TrueColor
depth: 24 planes
available colormap entries: 256 per subfield
red, green, blue masks: 0xff0000, 0xff00, 0xff
significant bits in color specification: 8 bits
visual:
visual id: 0x22
class: DirectColor
depth: 24 planes
available colormap entries: 256 per subfield
red, green, blue masks: 0xff0000, 0xff00, 0xff
significant bits in color specification: 8 bits
(die Ausgabe mit "visual:" wiederholt sich am Ende immer wieder hundertfach, hab ich nicht komplett reinkopiert)
 
Mit anderem Gerät mit AMD Graka und gleichem Monitor und gleichem HDMI Kabel bekomme ich u.A. Ausgabe "Using 8 bits per RGB (8 bit DAC)" also es liegt wohl auch nicht an Monitor oder HDMI Kabel.
Mit 6 Bit will ich mich eigentlich nicht zufrieden geben aber vielleicht ist mit einer Nvidia unter Linux nicht mehr drin.
Kann jemand eine Desktop Umgebung oder Distru empfehlen wo diese Dinge einfach per GUI eingestellt werden können? Bei Cinnamon gibt es keine Settings hingehend der Einstellung von Bit pro Farbkanal Output. Nur unter "Farbe" kann man verschiedene Profile auswählen aber das ändert nichts (getestet). Ist da KDE besser? Oder ist es einfach hoffnungslos mit Nvidia unter Linux?
 
Zurück
Oben