Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Sinnlos ist das nicht.
Zum thema TV, Servus TV HD sendet in 1080i die ÖR 720p.
Ich würde mir ja 4K auf 27 -30 zoll sehr gerne wünschen nur das wird ja noch ewig dauern und dann sind die auch noch unbezahlbar :/
-> D1rty
+1
und sorry riDDi, habs jetzt nachgeschaut.
Total sinnlos vielleicht nicht, nur für den großteil der Menschen, zumindest wenn es um Fernseher geht.
Laut THX-Standard bietet die Bilddiagonale mal 1,19 am ehesten ein echtes Kinogefühl.
Ein menschliches Auge (bei 100% Sehschärfe) kann 360 dpi auf 25 cm Entfernung auflösen. Bei doppelten Abstand sind es nur noch 180 dpi usw.
Wenn man sich also an die 1,19*Bilddiagonale Sitzabstand hält, dann reichen z.B. bei 55" 54 dpi. Bei 4k auf 55" kommt man schon auf 80 dpi, also wird man im optimalen Kinogefühl-Sitzabstand noch nichtmal alle Details von 4k sehen können. Dazu müßte der Durchschnittsmensch schon 0,8*Bilddiagonale (bei 55" macht das 112cm) nah an den Fernseher ran gehen.
Und das Zwischending ist dann Ultra HD-ready... eventuell sehen wir auch ein Full Ultra HD - imho ist Full an sich ja nicht wirklich steuerbar. Wenn voll dann voll.
Denk an die Farben und Bewegungen... 1 Pixel, wäre ja schön, wenn er gleich aus der richtigen Farbe bestünde.. tuts aber nicht, da müssen erst die Nachbarpixel zusammenhelfen und aus 3 Farben + der Hintergrundbeleuchtung das Bild mischen...
Ansonsten wäre AA nicht nötig und wie jeder weis sieht ein Bild erst mit 8x AA halbwegs gut aus.
Bei einem Foto ists nicht anders!
Weil da meist 8-24MP auf lächerlichen 2MP(FHD) dargestellt werden am ach so guten Full-HD Fernseher...
Solange die Bildqualität nicht einem 24MP Bild in A4 auf Hinterglasdruck entspricht, besteht Handlungsbedarf!
Ich stell mir da eher die Frage.... WANN macht es Sinn sowas auch wirklich zu kaufen?
Ich hab nen älteren FullHD LCD, und überlegte schon öfter mir nen LED zu kaufen.
Die können inzwischen alle mehr als meiner..... verdammt... was mach ich daß?!?!?
Ich hab als anderes Extrem einen Fernseher von '92, der noch keinen Scart-Anschluss hat. Wenn du immer das Neuste haben musst oder aus irgendeinem obskuren Grund tatsächlich brauchst, dann schlag zu. Aber einen sinnvollen Grund wird es, gerade hier in Deutschland, wohl noch längere Zeit nicht geben. Muss halt jeder mit sich selbst ausmachen.
für den normalen wohnzimmer tv ist ultra hd nicht interessant. das bild ist dort bereits in full hd absolut scharf womit ultra hd keine wirklich sichtbare verbesserung darstellt.
das kann man gut vergleichen wenn man einen 32 zoll tv mit hd ready auflösung gegen einen 32 zoll full hd tv sieht. der unterschied fällt einfach so gut wie garnicht ins gewicht.
ultra hd wird allerdings dann interessant wenn es sich um beamer dreht, oder grossbild leinwände (fussball fanfeste) ,kino und vielleicht bei fernseher die eine diagonale von mehr als 60 zoll haben.
von daher würde ich mir jetzt nicht allzugrosse gedanken machen um diese technik , zumal ja sowieso keine quellen vorliegen - internet ist grösstenteils nichtmal full hd tauglich ausgebaut, tv sender in deutschland haben es jetz gerade mal so geschafft ein brauchbares hd angebot zu bringen - und wie lange hat das gedauert?!? und ein blu-ray nachfolger is glaub ich auch noch nicht in sicht , und wenn wird es wieder einige jahre dauern bis die geräte bezahlbar sind und ausreichend scheiben im regal stehen
DisplayPort kann es ja quasi schon in der aktuellen Version 1.2 mit 4 Leitungen: 4 Leitungen: 2160 MByte/s (17,28 GBit/s): ausreichend für 3840×2400 oder 4096×2560
Wie wird den das berechnet?
Ich denk mal 4096*2560 = 10485760 Pixel
Das mal 42 Bit ergibt 440401920 Bits
Umgerechnet genau 420MBits
Nun mal 30 FPS ergibt 12,3GBit/s
Passt so oder?
Ps: 2160 MByte/s sind 16,875 GBit/s (M zu G sind 1024)
Die minimale Auflösung soll acht Millionen Pixel umfassen, wobei horizontal mindestens 3.840 und vertikal mindestens 2.160 Bildpunkte vorausgesetzt werden. Entsprechend soll das Seitenverhältnis bei mindestens 16:9 (oder breiter) liegen.
Hier wird meines Erachtens nach suggeriert, dass die Pixelminima ein gewisses Seitenverhältnis implizieren. Dem ist jedoch nicht so. Richtet man sich nur nach den angegebenen Pixelzahlen, so wäre durchaus auch eine Auflösung von beispielsweise 3840x2400, also das Format 16:10 denkbar.
Ist das Format also tatsächlich in den Richtlinien festgesetzt oder handelt es sich hier nur um einen Trugschluss des Autors?
EDIT:
Displays will have an aspect ratio with width to height of at least 16 X 9.
Alleine wg der PS3 ist das für MICH undenkbar noch so nen altes Schätzchen zu haben.
Vieles ist auf 16:9 ausgelegt, und bei nem Kollegen mit der XBox und dem ehem. Röhrenfernseher konnten wir im Pausenmenü nicht mal die Hilfe oder sonst irgendwas lesen^^
Also wird es WENN erstmal der LED..... aber... erstmal kommt ne Anlage ins Wohnzimmer :-D
Ich muss echt mal von dem Tripp runter kommen... scheisse.... der ist teuer......
Das Problem gibts eigentlich nur in Europa, speziell in Deutschland. In den USA und vor allem Japan lief schon vor 10 Jahren Flächendeckend FullHD zur Primetime, sogar gesetzlich vorgeschrieben.
Das klingt, als ob dort die Leute zum Fernsehen gezwungen werden, wie in 1984.
Heutzutage spielen die Kinder am PC, vorm TV hocken nur noch Schwachmaten freiwillig. Niemand will sich die knappe Zeit reglementieren lassen.
Ich habe es erlebt, dass die Kinder zu DSDSS zusammengerufen wurden, nur damit die Familie eine halbe Stunde beisammen sitzt.
Mit dem TV erreicht man nur noch Leute, für die ein TV mal etwas wertvolles/wichtiges war und die sind nun alle 40+
Das Privatfernsehen hat keinen Anlaß sowas zu forcieren, kostet nur Geld. Für viele Kunden reicht SD noch heute aus, viele würden ohne Kabel auch garnicht mehr gucken. Dann verdient aber z.B. KD weder am Kunden noch am Einspeiser. Deswegen bietet KabelDeutschland weiterhin auch analoge Kanäle an.
Die Öffentlichen brauchen das GEZ-Geld auch eher für Gehälter der Führungsebene, für Gottschalk & Co und Fußballverbände.
In den Schwellenländern, wo viele Jugendliche womöglich zu "etwas Wohlstand" gelangen, ist so eine Glotze aber womöglich noch Status.
Im TV Bereich sehe ich darin keinen Sinn. Viel zu früh. Kein TV-Sender spielt da mit. Die privaten Sender skalieren eh nur alle hoch, meist also nicht mal echtes 1080i oder 720p. Dafür wollen die dann auch noch Geld!
Mit Blu ray bin ich äußerst zufrieden und noch mehr Auflösung bringt es nicht wirklich.
Die sollten eher mal an der Bewegungsschärfe arbeiten, sprich den LCD in Rente schicken. Plasma hat auch viele Nachteile und im Computerbereich gibt es auch nur Flüssigkristallbildschirme was für Hardcorezocker ein großes Problem darstellt.
Daher wäre eine andere Technik mal wünschenswert, um auch endlich in schnellen Spielen in Bewegungen scharf zu bleiben, ohne den ganzen unschönen Nebeneffekten.
Die alte Technik der Röhre, im Computerbereich CRT ist hier den neueren Geräten haushoch überlegen.
Weil man beim vom links nach rechts Gucken im Gegensatz zum hoch und runter Gucken keine Nackenmuskeln anspannen muss und dementsprechend auch keine Kopfschmerzen kriegt.
Es ist noch immer üblich bei anspruchsvollen Produktionen auf Film zu drehen. Dagegen ist auch 8K das sprichwörtliche laue Lüftchen.
Mit "anspruchsvoll" ist übrigens kein am Computer zusammengemaltes Popcorn-Kino á la Avatar gemeint.
für 8 sollten es dann aber schon imaxkameras sein, denn normaler film wird da wohl doch reichlichst überlastet. das sieht man sehr gut bei the dark knight, die imax szenen sehen trotz scaling auf 1080p besser aus, als die 35mm filmaufnahmen.da kann man schlecht vom lauen lüftchen reden. imaxkameras sind aber sehr selten und teuer.
Ergänzung ()
gwuerzer schrieb:
Für viele Spiele würden sich die heutigen Grafikkarten schon perfekt eignen, die sich mit den niederen Auflösungen aktueller Monitore längst langweilen. Bis die Preise für solche Geräte auf erschwinglichem Niveau sind, gehen noch 8-10 Grafikkarten-Generationen ins Land, dann werden wir sehen, ob die mit der Auflösung fertig werden...
klar. spiele mal bf3 in ultra mit 5040x1080p. da hast du bei einer high end single gpu 25fps bestenfalls
mit 4k dann halt 30. selbst eine 690 gtx blockt auf ultra keine 60fps und es dropt teils auf 40fps. da ist schon ein sehr potentes multi gpu system gefragt.
unterm strich bringt 4k nichts wirklich sinnvolles für den hauptteil der anwender.
ich mein ich hätte kein problem damit mich 2,5m vor einen 100zoll tv zu setzen aber das ist wunschdenken da zu teuer.
bei einem 50zoll tv müßte man sich bei 100% sehvisus knapp 1m vor den tv setzen, bei 100zoll sind es dann eben 2m. jeder weitere abstand bringt schon wieder sichtbare verluste mit sich.
auch wenn angeblcih akutelle filme in 4k aufgenommen werden, davon sieht man auf der bluray meist nicht viel.
wenn ich die doku baraka welche von mittelformatfilm in 8k eingescannt wurde mit normalen filmen verlgeiche, sieht man welches potental bei den meistne blurays verschenkt wird,
kaum ein film bringt die detailfülle mit die mit 1080p dargestellt werden kann.
ich lade zu einem blindtest ein,
baraka auf 46zoll aus 2,3m entfernung,einmal in 720p und einmal in 1080p begutachten,
zu ´90 % aufwärts werden es glückstreffer oder falsche antworten sein. habe mir den spaß schonmal gemacht.
Mal davon abgesehen, dass das "4k" für die annähernd 4000 Pixel der horizontalen Auflösung stehen und rein gar nichts mit dem Faktor gegenüber FullHD zu tun haben.