And1.G schrieb:
Was hat es eigentlich mit diesem Input-Delay auf sich?
Woher kommt der und wie genau hat man sich sowas vorzustellen?
Und was genau ist mit Picture-by-Picture gemeint?
Warum ist die Quali von PC Signalen an Fernsehern unbrauchbar?
Ob ich einen Fernseher jetzt über DVI oder HDMI digital mit seiner nativen Auflösung füttere hat doch keinen Einfluss auf die Qualität des angezeigten Bildes.
Das hier wäre als TV Bildschirm untauglich, da es eine viel zu hohe Auflösung hat und das Bild unnötig und auch noch in einem ungünstigen Maß hochskaliert werden müsste.
Fragen über Fragen. Google und Wikipedia können helfen, aber ich bin mal so nett...
Input-lag, man kann es auch Anzeige-Latenz nennen, kommt einfach daher, dass viele LCDisplays das eingehende Bild erst mal zwischenspeichern, bevor sie es anzeigen. Wieso? Die Flüssigkristalle reagieren ziemlich träge, um ihre Neuausrichtung bei Farbwertänderung zu beschleunigen legt man daher eine größere Spannung an als nötig (Overdrive). Die Kristalle müssen dann natürlich auch wieder "gebremst" werden, sprich auf die für den neuen Farbwert korrekte Spannung gesetzt werden. Wenn der Overdrive-Schub zu stark ist, dann schießen die Farbwerte kurzzeitig über das Ziel hinaus und man kann den sogennaten "Korona-Effekt" beobachten. Um also die Overdrive-Spannung möglichst gut anzupassen und überhaupt berechnen zu können, benötigt man nunmal "zukünftige" Werte, sprich es muss mindestens ein Frame zwischengespeichert werden, eventuell mehrere. Wenn ein LCDisplay nicht in nativer Auflösung betrieben wird und das eingehende Bild skalieren muss, dann geht natürlich auch mehr Zeit (wieder mind. ein Frame) verloren, bis das Result schließlich angezeigt wird.
Dazu kommt noch, dass Grafikkarten aus einigen Gründen (z.B.
double/
triple-buffering) oft einige Frames im Vorraus berechnen, was noch mehr Verzögerungen zur Folge hat. Wenn man also "jetzt" die Maus bewegt, dann beinflusst man ein Bild, welches man erst nach 5 oder mehr Frames in der Zukunft zu Gesicht bekommt. Das kann durchaus spürbar sein (ist meiner Meinung nach aber nicht so schlimm, wenn man nicht die üblichen Multiplayerspiele spielt, bei denen es auf jede Millisekunde Reaktionszeit ankommt).
Picture-by-Picture = Bild-neben-Bild, das ist wie Bild-in-Bild (Picture-in-Picture, PIP) eine Art, zwei Signalquellen gleichzeitig auf einem Schirm anzuzeigen.
Die Quali von PC Signalen ist an Fernsehern nicht unbedingt unbrauchbar. Es ist aber so, dass viele Displays leider immer noch nicht pixelgenau angesteuert werden können, weder analog (VGA) noch digital (DVI/HDMI). Gründe sind unter anderem schlechte
EDIDs und keine abschaltbarer
Overscan.
Und dass dieser DELL als TV-Bildschirm untauglich ist muss auch nicht sein. Kommt auf die Qualität des eingebauten Scalers an (falls man das TV-Bild direkt an den Monitor anschließt. Wenn's per TV-Karte über den PC kommt, dann ist natürlich dessen Grafikkarte für's Skalieren verantwortlich). Ich finde die Interpolationsqualität von aktuellen LCDs eigentlich recht brauchbar, aber Geschmäcker sind ja verschieden.