=dragon= schrieb:
8 Bit Farbtiefe über DVI, ich weiß.
Aber sind nicht Farbtiefe und LUT was ganz anderes..?
Genau darauf wollte ich hinaus – dass eine 10-Bit-LUT sicherlich Vorteile gegenüber einer 8-Bit-LUT bietet, aber auch nicht viel rausreißen kann, wenn das eingespeiste Signal nur 8 Bit pro Farbkanal liefert. Ähnlich wie bei einer 16- oder gar 24-Bit-Audioaufnahme von einer Signalquelle, die nur 8 Bit liefert (Vorteile bei ggf. weiterer Signalverarbeitung bzw. -umwandlung ausgenommen, was im Vergleich der LUT entspräche).
Doch angesichts von:
Sailor Moon schrieb:
Letztlich geht es hier also weniger um eine externe Ansteuerung mit >8-Bit pro Kanal, sondern dem Erhalt eines möglichst großen Tonwertumfanges in Bezug auf das originäre Signal.
lag ich da wohl falsch.
Vor nem Jahr wo ich noch bei Media war, da gabs schon so Dinger mit WCG Aufkleber, die schöne Bonbon Farben zeigen konnten.. ^^
Da bin ich sicher, dass es die heute mal locker für 200 EURO und weniger gibt.
Hm. AFAIK geht der ernstzunehmende Bereich für WCG-Displays eher bei 300 EUR los, bei 24"-Panels noch deutlich darüber.
Praktische Gegenbeispiele?
Ich würde Wiki nicht immer so blind vertrauen.
Habe ich nicht, sondern diese nur als eine relativ zuverlässige Quelle, die schnell bei der Hand war, herangezogen
Vertrauen würde ich da schon eher der
c't (welche auch die Notation "Gamut" vertritt – auf der verlinkten Seite nicht sichtbar) ... jedenfalls deutlich eher als Prospektmaterial, das evtl. von irgendeinem Praktikanten erstellt wurde
Ich glaube nicht, dass die in absehbarer Zeit fürn Appel und Ei verschleudert werden, da müssten die TN erst vollständig verschwinden.
Im Preisbereich zwischen "für'n Appel und 'n Ei" und "billiger" (s.o.) sehe ich durchaus noch Spielraum
Meinen 2443BW habe ich auch nicht gerade für'n Appel und 'n Ei bekommen, aber für preiswert halte ich ihn durchaus
Ergänzung:
=dragon= schrieb:
Im Grunde wie wenn ich ne 640x480 Auflösung auf nem 1920x1200 Schirm darstelle und dann einen 1024x768 Bildschrim mit exakt gleicher Fläche. Sieht natürlich die selbe Auflösung prinzipiell auf dem höheraufgelösten Display besser aus.
Prinzipell = in der Theorie vielleicht, in der Praxis sieht das aber oft anders aus. So bieten viele "HD Ready"-TVs mit 1366x768 Pixeln ein deutlich besseres PAL-Bild (720x576 Pixel) als die meisten top-aktuellen, teilweise um ein Vielfaches teureren "Full HD"-Glotzen mit 1920x1080 Pixeln ... einfach weil die Differenz zwischen originaler und interpolierter Auflösung nicht so hoch ist, und/oder weil bei den älteren Geräten noch mehr Augenmerk auf vernünftige PAL-Darstellung gelegt wurde.
Aus praktischer Sicht wage ich zu behaupten, dass 95% der Full-HD-Kisten nicht ansatzweise an das PAL-Bild meines KDL-32D3000 heranreichen, welchen ich aus genau diesem Grunde auf verschlungenen Wegen erworben habe, als dieser eigentlich bereits ein Ausläufer war und (zumindest für den deutschen Markt) schon gar nicht mehr produziert wurde.
Konti schrieb:
Analoge Bildübertragung von Graka zu Monitor macht heute überhaupt keinen Sinn mehr.
Würde ich so pauschal ebenfalls nicht unterschreiben. Mein 24" mit 1920x1200er Auflösung zeigt am Analog-Ausgang meiner MATROX(!)-Grafikarte ein nahezu ebenso perfektes (scharfes, ruhiges) Bild wie am DVI-Ausgang der selben Karte – und das sicher nicht, weil die DVI-Signalverarbeitung bei einem von beiden oder gar bei beiden so schlecht wäre, sondern weil die analoge Signalqualität einer MATROX die von nahezu sämtlichem ATI-/nVidia-Gamer-Geraffel locker in die Tasche steckt, und weil SAMSUNG offenbar noch auf gute Signalverarbeitung am VGA-Port achtet
Übrigens auch einer der Gründe, warum die FireGLs und die Quadros so horrend teuer sind bzw. waren ...