HDMI - Verbindung Linux Mint

Donnerkind schrieb:
Laut Wiki haben Atom Z36xx/Z37xx-Chips eine „HD Graphics“. Leider finde ich nichts Hilfreiches auf der Wiki-Seite zur HD Graphics. Selbst Intel Ark macht keine Angabe zur maximalen Bildgröße bei einem Z37-Atom.
Wenn ich dieses Datenblatt richtig interpretiere, ist maximal 1080p60 als Ausgabe möglich.

5.4.1.2.1 MIPI-DSI
Each interface supports display resolution up to 1920 x 1080p @ 60 Hz with 24b per
pixel.
Interface supports maximum of 1 GBps per lane


Im Community-Forum von Intel gibt es auch noch einen Forenbeitrag mit etwas mehr Angaben.
eDP 1.3 Max Single Resolution = 2560x1600x24 @ 60

HDMI 1.4a Max Single Resolution = 1080p @ 60

MIPI-DSI Max Single Resolution = 1920x1200x24 @ 60 (x4 lanes)



H.264 Decode = up to 4kx2kp30, 1080p120

VP8 Decode = 1080p30
 
  • Gefällt mir
Reaktionen: Donnerkind und Cobalt_Blue
Alles klar, danke Leute.
Ich hatte es heute einfach zum ersten Mal gemacht und war nur unsicher.
Ich musste bei Linux Mint unter "Bildschirme" einfach die Nummer 2 auswählen und auf "Spiegeln" gehen und bestätigen.
Das war natürlich kinderleicht, und ja, ich verstehe, dass man da eigentlich kein Forum für braucht. Und ich kann mittlerweile auch denjenigen von vorhin verstehen, der dachte, ich "veräpple" ihn.
Danke für eure Kommentare! 👍👋🏻
 
  • Gefällt mir
Reaktionen: Donnerkind
@Columbo47 Zumindest theoretisch. In der Praxis müssen dafür die Sterne aber schon sehr günstig stehen, damit noch ein vernünftiges Bild zustande kommt. Der RAMDAC des Grafikarte muss eine entsprechend hohe Pixelfrequenz haben, ein nahezu perfektes VGA-Signal erzeugen mit genügend Signalstärke und das VGA-Kabel darf nicht zu lang sein, da sonst am Monitor kein verwertbares Signal ankommt.
 
@mibbio
Hatte da nie Probleme, auch vor über 20 Jahren nicht. Mein CRT kann das (hab ihn noch). Weiss aber nicht wie es bei neueren GPUs ist welche noch Analog unterstützen, ob da wegen dem digitalen da evtl. beim analogen gespart wird/wurde.
Hab jetzt lust den CRT mal wieder anzuschmeissen :D

So, genug OT :-)
Schönen Sonntag euch noch.
 
Bei einem CRT kann das durchaus unproblematischer sein, da dort nicht wieder von Analog auf Digital gewandelt werden muss und ein CRT auch kein festes Pixelraster, also keine "native" Auflösung hat.

Ein LCD oder OLED muss das Signal aber wieder nach Digital wandeln, um dann die einzelnen Pixel anzusteuern. Wenn das Signal bzw. die Wandlung nicht optimal ist, sieht das Bild halt unscharf aus. Beim CRT fällt eine Unschärfe durch ein etwas schlechteres Signal bis zu einem gewissen Grad wiederum weniger auf - der hat ja mangels scharf abgegrenzter Pixel eh eine "natürliche" Unschärfe, abhängig von der Feinheit der Loch- oder Schlitzmaske.
 
Zurück
Oben