Merkwürdiges Angebot eines 47" oder nicht ?!

DJMadMax schrieb:
Wäre die Auflösung bei 1920x1080i tatsächlich vollwertig, so wie du es unentwegt behauptest, so müsste auch nie de-interlaced werden. 1080i ist rein von der Bildpunktanzahl sogar höher auflösend, als 720p - jedoch nur geringfügig:

1.920 x 540 = 1.036.800
1.280 x 720 = 921.600
Ich glaub wir reden aneinander vorbei.
Du hast behauptet, dass ein 720p Signal immer besser ausschaut, als 1080i. Und das ist schlichtweg falsch. Wenn man z.b. 1080i/60 und 720p/25 vergleicht und die Pixelanzahl innerhalb einer Sekunde berechnet (Standbilder sind uninteressant), erhält man folgendes:
Für 720p:
1280*720*25 (da 25 Vollbilder) = 23 040 000
Für 1080i:
1920*540*50 (da 50 Halbbilder a.k.a. Fields) = 51 840 000

Der Informationsgehalt (rein von den Pixel pro Sekunde) ist also bei 1080i/50 mehr als doppelt so hoch wie bei 720p/25.

Jetzt ist es aber so, dass fast überall 720p/50 gesendet wird. Da hat dann 720p/50 fast gleich viele Pixel.

Jedoch macht 720p/50 zum Beispiel bei Filmen im Moment überhaupt keinen Sinn solange noch >90% der Filme (und auch Serien) auf herkömmlichen 35mm Film aufgenommen wird (und das wird sich meiner Meinung nach nicht so schnell ändern).
Denn da gibt es nur 24fps. Die restlichen 50-24=26 (eigentlich sind es nur 25 wegen PAL-Speedup) sind dann DOPPELTE Frames und somit redundant, die weder das vorhandene Ruckeln vermindern noch zu sonst was nützlich sind.

Den Link den du gepostet hast ist ganz schön und stimmt natürlich auch; jedoch nicht bei Filmen/Serien, sondern bei Fussballübertragungen, sonstiger Sport oder normale Fernsehübertragungen ausm Studio. Da ist definitiv 720p/50 besser (sofern wirklich in 50 Vollbildern aufgezeichnet wurde)

Ich will auch gar nicht das interlaced-format verteidigen, weil es einfach nur alt und nicht mehr zeitgemäß ist. Aber dass progressive Bilder immer besser sind als interlaced stimmt nicht (vgl. http://www.prad.de/new/tv/shownews_faq1269.html da ist es recht schön erklärt)
 
Zuletzt bearbeitet:
Primär geht es mir ja um die reine Bildinformation, welche sich natürlich nur aus den nativen Bildpunkten zusammensetzen kann. Wenn dann auch noch drüber gefiltert werden muss, kann das Ergebnis nicht besser werden.

Vielleicht sollte man die Aussage "p immer besser als i" wirklich nicht so treffen, dein Argument mit der Anzahl der Frames ist ein triftiger Grund dafür. Dennoch werden (zumindest im Kinobereich) Filme mittlerweile vermehrt auf 70mm gedreht, was jedoch, soweit ich weiß, nicht die Bildanzahl pro Sekunde - sondern lediglich die native Auflösung erhöht. Ich mag mich jedoch auch hier irren, da ich nur ein Mensch bin ^^ Der Link von Prad ist übrigens informativ (entferne bitte das Semikolon am Ende, sonst gibt´s nen Linkfehler), habe mir den Text jedenfalls komplett durchgelesen.

Schade eigentlich, dass wir sehr stark vom eigentlichen Hauptthema abgekommen sind, in dem es ja darum ging, einen 46-47" LCD zu empfehlen.

Ich bin weiterhin der Überzeugung, dem Plasma den Vortritt zu lassen. Soll es jedoch definitiv ein LCD-Gerät sein, so habe ich bisher den Eindruck gewonnen, dass die Toshiba-Geräte sowohl bei SD- als auch HD-Material das beste Bild machen.

Cya, Mäxl
 
DJMadMax schrieb:
Dennoch werden (zumindest im Kinobereich) Filme mittlerweile vermehrt auf 70mm gedreht, was jedoch, soweit ich weiß, nicht die Bildanzahl pro Sekunde - sondern lediglich die native Auflösung erhöht.
70mm wird immer noch so selten verwendet wie vor 20 Jahren; wahrscheinlich sogar weniger. Es ist einfach zu teuer. Und wie du richtig gesagt hast, wird da nur die "Auflösung" erhöht. (ungefähr 60-70 Megapixel). IMAX Filme verwenden jedoch meist 70mm.
Ein herkömmliches Kino hat nur 35mm Projektoren...
 
Hey Hallo!

Also DJMax hat recht!
Mein Vater hats mir jetzt genau erklärt:

1080i ist ein hochpoliertes 540 Signal (2x 540 hochgesampelt!)
Mein Vater wird sich im laufe des Abends hier anmelden und bisschen aufklären. ;)
 
Auf die erklärung freu ich mich.
Ich bin zwar immer noch der Meinung, dass ich richtig liege (was ich auch hoffe, da sonst dutzende Stunden die ich in meinem Studium die letzten 4 Jahre in Bereichen wie Telekommunikation, Signaltheorie, Signalprozessoren, digitalen Signalverarbeitung, etc. verbracht habe wohl starke Wissenslücken hinterlassen haben), lasse mich aber von einem Profi gerne des besseren belehren...
 
Leider lassen sich die Leute nur allzu gerne lumpen mit Falschaussagen

Ich glaube das trifft es am besten. Bei aller Werbung mit "p" "I" "HD" ect. weiß doch keiner mehr was er kaufen soll, zumal das was man kauft in 3 Monaten durch besagte Medien wieder "alt" ist. Als ich meinen TV kaufte hab ich 2 Monate nur Testberichte gelesen und in allen Märkten die Teile angesehen. Am Schluss war ich total "TV Verblödet" :freak:

Letztendlich muss man sich aber mal entscheiden und einfach erkennen das die ganzen Plasma/LCD sachen ein Massenprodukt sind und das uns eingeredet wird das es noch schärfer und noch besser gehen kann. Wenn man sich davon trennen kann ist man erst dauerhaft zufrieden. Ich habe Digital TV, da ist es schon ein Himmelweiter Unterschied zum Analogen. Das sollte man evtl. noch bedenken.

Ich persönlich hab mir einen Panasonic gekauft...... mal sehen was nächstes Jahr kommt ..:freak::rolleyes::cool_alt::D;):evillol:


1080i ist ein hochpoliertes 540 Signal (2x 540 hochgesampelt!)
Mein Vater wird sich im laufe des Abends hier anmelden und bisschen aufklären

Darum soll er ja auch auf 1080p achten + anspechendem Zuspieler!
 
Zuletzt bearbeitet:
Michael350 schrieb:
Also DJMax hat recht!

Wer zweifelt?! Kommt her, ihr Ungläubigen ^^

Quark, keiner "will" hier auf´s Biegen und Brechen recht haben, da bin ich mir ziemlich sicher, spreche ich auch MATRIX_morpheus aus der Seele. Was wir alle wollen, sind die "richtigen Informationen" und keine Halbwahrheiten, kein Halbwissen, das wir uns meist selbst nur aus der Internet-Fachliteratur (das schließt sich ja schon fast aus ^^) herangezogen haben.

MATRIX_morpheus vorletztes Posting diesbezüglich erachtete ich als sehr fundiert und begründet, jedoch ist es unheimlich wichtig, auf die 30/60 FPS zu achten, sonst stimmen die Behauptungen die unser beider seits getroffen werden wieder nicht überein.

Dass kein LCD/Plasma der Welt im von Röhrengeräten bekannten Halbzeilenverfahren arbeitet, sollte einleuchtend sein. Das Quellmaterial kann aber dennoch durchaus in einer Auflösung von 1080i (also tatsächlich 1920*540) vorliegen - der DeInterlacer des TVs (oder des Abspielgeräts) baut aus den zwei halben 1080-Bildern, die bei 60fps abgelegt sind, ein ganzes zusammen. Bei 30fps müssen Zwischenbilder errechnet werden, um die fehlenden 540p zu füllen.

Weiterhin hat MATRIX_morpheus recht, dass 720p keinesfalls immer besser aussieht, als 1080i, jedoch kann man auch nicht pauschal das Gegenteil behaupten. Vieles liegt weiterhin am Zuspieler, wie gut dieser das DeInterlacing übernimmt - und eben, ob man beide Formate mit jeweils 30- oder 60 Vollbildern pro Sekunde betrachtet.

Cya, Mäxl
 
DJMadMax schrieb:
[...]der DeInterlacer des TVs (oder des Abspielgeräts) baut aus den zwei halben 1080-Bildern, die bei 60fps abgelegt sind, ein ganzes zusammen. Bei 30fps müssen Zwischenbilder errechnet werden, um die fehlenden 540p zu füllen.
Ein interlaced-Format mit nur 30 Halbbildern existiert in der Praxis nicht. Es werden immer 50 oder 60 übertragen.
Noch was dazu, dass 1080i angeblich nur 1920x540 sein soll: Welche Auflösung hat dann eine PAL DVD bei der das Material zwar fast immer progressiv gespeichert ist, aber von einem 08/15 dvd-player immer interlaced ausgegeben wird? Entspricht die Auflösung dann den originalen 720×576 oder vllt. doch nur 720x288? Ich behaupte ersteres. :D
 
Hallo zusammen!


Hier ist der Vater von Michael350 mit meinem "Kommentar":

Der Streit um 1080/25i oder 720/50p ist so alt wie es digitales HDTV gibt. Zunächst: Es wird immer die Vollbildrate angegeben, also bei Interlaced Scanning auch z.B. die 25Hz, selbst, wenn die VERTIKALFREQUENZ (Halbbildrate) 50 Hz ist. Bei progressiver Abtastung ist diese mit der Vertikalfrequenz identisch. Also: 1080/25i hat 50 Hz Vertikalfrequenz und 720/50p ebenso, nur ist die Vollbildrate bei 25i eben 25 Hz, also 1/2 x 50 Hz. So ist die neue Festlegung der EBU zur Benennung der Formate: Man gibt stets nur die VOLLBILDRATE an!

Nun zum Detail: Die Standards sagen, dass beide, also 1080/25i und 720/50p eine Pixelrate von 74.25 MHz haben, also es werden pro Sekunde 74,25 Millionen Pixel geschrieben (oder in der Kamera gelesen).
Daher ist die "Information" vom Gehalt her - rein nachrichtentechnisch gesehen - gleich.
Nun kommt aber hinzu, was die Definition von "HDTV" eigentlich ist: Manche sehen die RÄUMLICHE Auflösung als wichtig an, manche die ZEITLICHE, also wieviel "Bilder pro Sekunde" ein System macht.
Hier kann man sich das (leider) aussuchen: Nachdem der Informationsgehalt pro Sekunde bei beiden Formaten ungefähr gleich ist (leichte Verschiedenheiten nur wegen der Austastlücken, also der "Pausen" im Scanning), bevorzugt 720p50 die Bildzahl pro Sekunde, also die Aufnahme schneller Bewegungen. Es verzichtet aber auf die hohe räumliche Auflösung, horizontal hat es nur 1280 Pixel pro Zeile!
1080/25i hingegen zeigt 1920 Pixel pro Zeile, hat im Endeffekt aber nur 25 Bilder Pro Sekunde (interlaced, d.h. 540 Zeilen werden zwischen weitere 540 des zweiten Halbbildes geschrieben).
Jetzt sagen wahre HDTV - Fans (wie ich), die auch ein wenig an den Film denken: Die hohe räumliche Auflösung ist notwendig, um bei großen Bildern richtiges Kino zu zeigen!
Die "TV-Sportler", die auf schnelle Bewegungen achten, wollen lieber die hohe zeitliche Auflösung.

Aber 720/50p hat nur 144 Zeilen mehr als PAL!

Bei kleineren Bildschirmen (bis 40") reicht das aus, sagt auch die EBU und hat (leider) für die öffentlich-rechtlichen 720p zum Standard erhoben.

1080i25 hat immerhin die Bildwechselzahl des Kinos (24 Bilder/S) und zeigt abgetastete 35mm - Filme sehr gut!

Heutige, hochwertige Displays interpolieren sogar zeitlich die 25 Hz, so dass die Bewegungen wie 100 Hz aussehen können. Billige Displays tun das nicht, sie zeigen bei 1080/25i sog. "Interlace-Artefakte". Man muss sich also ein Display immer bei 1080/25i vorführen lassen. Allerdings werden die Displays immer mehr verbessert, d.h. sie interpolieren fast alle, so dass zusammen mit den de-interlacing sehr gute Bilder mit horizontal 1920 Pixeln zustande kommen.

Ich würde mir ein 1080ger Display kaufen, weil dann meine Photos von der Kamera auch schöner aussehen!
Plasma lasse ich für LCD stehen, da LCD weniger Leistung verbraucht, keine Hochspannung braucht und unkritischer vom System her ist!

Ich hoffe, Euch weitergeholfen zu haben!

Viele Grüße

JH
 
Netter Beitrag und gut zu lesen, vielen Dank dafür!

Michael350 schrieb:
Ich würde mir ein 1080ger Display kaufen, weil dann meine Photos von der Kamera auch schöner aussehen!

Das steht natürlich ausser Frage, wer auch nur etwas Wert auf Bildqualität legt, sollte hier nicht sparen.

Was jedoch deine Aussage bezüglich des LCDs gegenüber dem Plasma angeht, da kann ich dich nicht ganz verstehen.

Stromverbrauch Plasma vs. LCD

Im Durchschnitt geben sie sich garnichts. Das LCD-System ist auch nicht "unkritischer" (ich weiß nicht, in welchem Zusammenhang du das siehst), jedoch hat ein LCD-TV deutlich mehr Bauteile, die bildstörende Altersschwächen hervorrufen können, als ein Plasma.

Wer wirklich hohen Wert auf ein hochwertig reproduziertes Kinobilderlebnis legt, der kommt an einem Plasmadisplay garnicht vorbei.

Für mich persönlich gab es noch nicht einen auch nur halbwegs überzeugenden Grund, warum ich mir keinen Plasma zum TV/Filme/Konsole schauen zulegen sollte. Da ich jedoch immer neugierig bin und mit dir ja jemand mit fundiertem Fachwissen hier zu sein scheint (du sprichst selbst davon, dass du ein großer HD-Fan und somit sicherlich HeimKino-Fan bist), würde ich mich über neue Erkenntnisse freuen.

Bei einem Plasma sprechen für mich:
Die deutlich besseren Reaktionszeiten
Die deutlich besseren Schwarzwerte
Die deutlich feiner abgestuften Graufarben
Die deutlich realistischeren Farben (vor allem rot, bzw. Hauttöne)
Die deutlich bessere Ausleuchtung des gesamten Displays und somit eine bessere Gesamtreinheit aller Farben
Der deutlich höhere Betrachtungswinkel horizontal sowie auch vertikal

Cya, Mäxl
 
Hallo, hier bin ich nochmal!

Also: Ich wollte natürlich nichts gegen Plasmabildschirme speziell sagen. Sie haben tatsächlich einige vorteilhafte Eigenschaften. Aber diese Parameter nivellieren sich langsam mit denen der LCDs. Ich persönlich habe deswegen eine Vorliebe für LCD, weil mir klar ist, dass Plasma-Displays im Prinzip aus tausenden kleiner Leuchtstoffröhren bestehen, die Hochspannung benötigen und die deshalb Glimm-Elektroden haben. Ihr wisst, dass Leuchtstoffröhren mit der Zeit verschleissen, d.h. die Elektroden in der Gasatmosphäre verbrauchen, ich befürchte, das Bild wird mit den Jahren blasser...
Aber es stimmt natürlich mit dem besseren Schwarzwert: "Aus" ist beim Plasma wirklich "Aus", d.h. das Element ist bei Nicht-Ansteuerung dunkel.
Kritisch erscheint mir das System auch wegen der Komplexität: Die Plasma-Elemente sind nicht linear ansteuerbar, sondern sie benötigen zur Helligkeitssteuerung eine Puls-Breiten-Modulation -- wie eben auch Leuchtstoffröhren "gedimmt" werden.
Das sind natürlich meine internen. ingenieurmäßigen Gründe. Von außen gesehen, mögen Sie (bei neuem Gerät) natürlich Recht haben!

Herzlichen Gruß

JH
 
Sie dürfen ruhig duzen, zumindest mich ^^ In Internet-Foren ist das eigentlich üblich und jeder ist gleich :)

Ich kann die Beweggründe (besonders von Ingenieursseiten) gut nachvollziehn, dennoch bot mir bisher kein LCD ein gleichwertiges Bild (besonders bei Realverfilmungen) wie ein Plasma-Display. Verschleiß haben die mit Phosphorgas gefüllten Pixelzellen tatsächlich, es gilt die Regel, dass sie eine Halbwertzeit von etwa 60.000 Stunden haben. Das würde übrigens einer Dauer von fast 7 Jahren (Dauerbetrieb 24/7) entsprechen. Die meisten Konsumenten kaufen sich in kürzeren Abständen (und bei weniger Betriebsstunden) neue TV-Geräte. Anders sieht es bei LCD-Bildschirmen mit den Kathodenstrahlröhren, die als Hintergrundbeleuchtung verwendet werden, jedoch auch nicht aus. Ob die Flüssigkristalle, bzw. generell die zu polarisierenden Schichten des LCD-Bildschirms eine gewisse Lebensdauer haben, entzieht sich meiner Kenntnis.

Ich will übrigens genauso wenig die LCD-Technik schlecht reden, ich finde es jedoch schade, dass viele Menschen eine Tatsache daraus machen, dass LCDs generell "besser" sein sollen, als Plasmabildschirme. Für den Ersatz an einem Computer ist ein Plasma meiner Meinung nach aufgrund der Einbrenngefahr aktuell noch nicht geeignet. Ständig wechselnde Bildinhalte - also das Spielen eines PC- (oder vergleichsweise Konsolen-)Spiels stellt sicher kein Problem dar. Das Posten und Lesen hier in diesem Forum würde sich schon als problematischer erweisen, da es enorm viele und zugleich statische weiße Bildanteile gibt, die einem Plasma nach kurzer Zeit (je nach Panel bereits nach wenigen Stunden) bleibende Schäden zuführen können.

Das ist übrigens ein Hauptgrund, warum ich niemals einen Pioneer-Plasma empfehlen oder gar selbst kaufen würde. Obwohl sie (bis vor Kurzem, aktuell ist es Panasonic) marktführend im Plasmasektor waren und mit Abstand die teuersten Konsumer-Plasmas herstellen, haben sie es immer noch nicht im Griff, die Einbrenneffekte auf ein gesundes Maß zu reduzieren. Nicht nur einmal habe ich einen Pioneer-Plasma mit eingebranntem "Premiere HD" Zeichen auf meinem Testtisch gehabt. Die Lösungsansätze seitens Pioneer waren übrigens mehr als unzumutbar für den Endkunden. Schnee-Bild über ca. 200 Stunden, dann "könnte" sich das Problem verringern. Trotz vorhandener Gerätegarantie stellte sich Pioneer quer, diesbezüglich nachzubessern, ein Panel- oder gar kompletter Gerätetausch kam für sie nicht in Frage, weshalb diese Firma für mich genauso gestorben ist wie Sony (aus anderen, jedoch ähnlichen mit dem Elektronikmarkt zusammenhängenden Gründen).

Cya, Mäxl
 
sry ist nun ein wenig OT und ich will kein neuen Thread aufmachen... also ist es schon eine Tatsache dass der Einbrenneffekt bei Plasmas noch richtig auftritt? also ich stehe zurzeit vor der Wahl und ich habe etwas Angst, dass ich meine Xbox mal vergesse auszuschalten und sich dadurch Menüelemente (z.B. beim Dashboard) einbrennen könnten.. wenn eine Diskussion starten würde, würde ich mich über eine PN freuen ^^
 
Du kannst zu diesem Thema gerne einen eigenen Thread aufmachen, das wäre sogar ratsam, damit jedermann seine eigenen Erfahrungen dazu kundtun kann, sofern er welche hat.

Alle meine Geräte, die am Plasma angeschlossen sind, haben eigene Modi, welche einbrennende Standbilder verhindern. Da wäre z.B. die Wii, die nach längerer Inaktivität einfach das gesamte Bild herunterdimmt. Ähnlich sieht es beim DVD-Player von Denon aus, dieser dimmt das Bild erst und schaltet dann komplett aus. Der Plasma selbst schaltet, wenn er dann kein Signal bekommt, ebenfalls nach spätestens 5 Minuten in den Standby-Modus, sodass sich auch das eingeblendete Eingangssymbol (also z.B. "HDMI") nicht einbrennen kann.

Bei einem (eigene Erfahrung) Panasonic Plasma (ab 2007, also die THxx-Px6x Serie) konnte ich bisher kein Einbrennen feststellen, selbst nach stundenlangem (!!) Serien von DVDs anschauen, welche im 4:3 Format vorliegen. Hierfür schalte ich nämlich links und rechts die schwarzen Ränder ab und lasse sie in einem hellen grau erscheinen, was der Tatsache dienen soll, dass die Bildanteile in der Mitte nicht schneller altern, als die äusseren Bildanteile. Auch wenn es sich hier nicht um ein komplettes weiß handelt, so sind diese hellgrauen Balken selbst nach ca. 4-5 Stunden King of Queens oder Scrubs bei direktem Betätigen des Power-Schalters nicht länger als wenige Sekunden zu sehen.

Das Einbrennen bei aktuellen Plasmas (einziges Negativbeispiel das ich hier kenne: Pioneer) muss man schon mutwillig erzwingen - möglich ist es jedoch trotzdem.

Cya, Mäxl
 
Hallo Kollegen!

Hier bin ich wieder mit einem kurzen Kommentar:

Das mit dem Einbrennen ist leider auch eine Eigenschaft der LCDs, die sind streng genommen auch davon nicht frei!
Das liegt daran, dass sich Ionen bei statischen Bildinhalten bilden, die Vorspannungen im Substrat erzeugen, sie bewirken dann "Geisterbilder".
Allerdings gibt es dazu "Reparatursequenzen", die das wieder egalisieren, also sozusagen eine Art "Entmagnetisierung", obwohl es sich hier nicht um Magentismus handelt (nur ein Vergleich von mir).
Tatsache ist heute, dass, objektiv gesehen, LCD und Plasmas von der Qualität her in etwa "gleich auf" sind, wenn Ihr also Plasma bevorzugt, ist im Prinzip nichts dagegen zu sagen. Ich persönlich liebe allerdings eher "robuste" Technik und deshalb bevorzuge ich LCDs. Sie halten es ja auch im extremen Milieu der "Beamer" aus: Heisse Lampe und enger Raum!
A Propos Beamer: Hier ist die sog. "DLP" - Technologie sehr interessant: DLP heisst "Digital Light Processing" und besteht aus Millionen kleinen Spiegeln auf einem Chip, die auch mit Tastverhältnis-Modulation angesteuert werden. Eine sehr interessante und elegante Patentvariante von Texas Instruments. In der Dunkelphase wird das reflektierte Licht in einen Absorber gespiegelt, so dass der Chip nicht heiss wird: Das meine ich mit "robust"!

Die LCD - Technik ist aber ihrerseits - das darf ich hier verraten - der Hauptkandidat für das zukünftige "3D - HDTV", weil es bereits in einigen Patenten (hauptsächlich Philips) mit einem sog. "lentikularen Raster" gekoppelt werden kann, d.h. einem Linsenraster, das die optischen Strahlen auf Zwei Augen (ohne Brille!!!) aufteilt. Das ist das Fernsehen der Zukunft, aber auch Computerspiele und Telekonferenzen können so aufgewertet werden!

Also auch deshalb ist LCD für mich einfach am ausgereiftesten! Von einer Anwendung von 3D auf Plasma habe ich noch nicht gehört, aber das ist, wie gesagt, vielleicht auch Zukunftsmusik!

Ich wünsche Euch noch einen schönen Abend!

Viele Grüße

JH
 
Zurück
Oben