Ilsan schrieb:
öhm Sorry aber BDXL ist ein neues Medium, oder kann man die Scheiben mit den heutigen Bluray Playern abspielen? Es macht doch keinen Sinn normale Blurays zu nehmen mit h265, das kann eh kein Player abspielen weil die Signalverarbeitung damit nicht klarkommt. Also ist so oder so ein neues Gerät fällig, daher was spricht dagegen den Codec UND das Speichermedium gleichzeitig zu ändern? Selbst wenn du nur eines änderst ist die Kompatibilität schon nicht mehr gegeben. Es war ja sogar mal angedacht 4K auf normalen Blurays zu verbreiten, aber das kannste dann auch nicht mehr auf nem normalen Bluray Player abspielen. Welchen Mehrwert hat das ganze denn dann bitte sehr wenn man das Medium gleich lässt Auch kann nicht jeder DVD Player MPEG4 Content in HD abspielen, selbst wenn der Spaß auf einer DVD gespeichert ist.
Die Kompatibilität ist sowieso nicht gegeben -soviel steht fest- da spätestens bei der Bandbreite alte Geräte Probleme bekommen würden. Es geht mir nur darum nicht wieder wieder das Rad neu zu erfinden. Eine BDXL zB ist im Prinzip nur eine 4lagige BD. Die Technik ist daher bereits günstig zu haben und man muss nicht mehr wie zu BD-Zeiten eine subventionierte PS3 kaufen. Die Festplattenlösung erlaubt zwar billige Abspielgeräte allerdings zu hohen Kosten, was die Medien betrifft. Einen BD-Player mit 2 Lasern zu bauen wäre zB verhältnismäßig kostengünstig um eine 100GB fassende Datenscheibe zu ermöglichen. Für in h265 encodiertes Material in 4K bei derzeitigen 24-30FPS sollte das locker reichen ohne Kompromisse bei der Qualität einzugehen...
Ilsan schrieb:
Hab auch schon gute und schlechte Qualität auf Bluray gesehen, Sowohl mit VC1, als auch mit MPEG4.[...]Die Studios werden sicherlich keinen 1-Klick-Konverter für 14,95 vom MM benutzen. Und Settings hin oder her, damit kannste auch fehlende Bitrate nicht vollständig ausgleichen. Du glaubst doch nicht ersthaft dass die Filme auf Blurays nur 1-pass encodiert wurden?
Du gibst Dir irgendwo selbst die Antwort. Für die BD ist es für die Studios uninteressant ob die Qualität excellent oder nur ausreichend ist. In dem Moment, wo man sich die Disk ins Laufwerk legt, sind die Euros schon über die Theke gewandert. Man bekommt als zahlender Kunde nicht immer die Qualität, die man erwarten könnte... war bei CDs auch tlw. so.
Die Anspielung auf den 1 Klick Konverter hatte übrigens ganz andere Gründe. Die meisten Leute sehen die Bitrate bei Youtube oder sonstirgendwo bei einem (schlecht encodierten) Film, den sie sich aus dem Netz gezogen haben und glauben, dass man mehr Bitrate benötigen würde. Praktisch sind aber moderne Codecs wie h264 und h265 gerade auch auf weniger Bitrate hin optimiert. Nur damit man da keine nennenswerten Qualitätseinbußen hat, braucht es nicht selten viel mehr Zeit zum Encodieren. Nur bekommt man vernünftig encodierte Videos mit niedriger Bitrate kaum wo zu sehen, da die Studios nur auf BD liefern (und sich daher nicht drum scheren müssen, weil eh mehr als genug Speicherplatz da is) und privat kaum jemand hochwertig encodiert. Braucht halt doch das doppelte bis dreifache an Zeit/Rechenleistung... Ich hab's früher selber gemacht und Feintuning an den Settings diverser Encoder betrieben, weil ich wissen wollte, wieviel (bzw wie wenig) geht...
Gamefaq schrieb:
@HighTech-Freak bitte Informiere dich was wirklich an Speicherplatz benötigt wird. Du stellst hier wüste Vermutungen an ohne das auch nur ein Teil davon stimmen würde.
Vorab: Danke für das verlinkte Video! Sehr informativ! War gut zu sehen, dass doch noch jemand zwischen 4K und UHD unterscheidet...
B2T: Ich rede hier nicht von Post-Processing, Aufzeichnung oder remastering, sonderlich lediglich von dem Endprodukt, das an den Kunden geht. Und da gibt's bei weitem weniger Diskussionsbedarf. Ein UHD-Film hat per se mal die 4 fache Auflösung von HD. non3D-HD (effektiv 1920x~850 bei vielen Filmen) in h264 mit 2 DTS-Tonspuren braucht in Summe keine 20Mbit/s um gut auszusehen. Das sind 9GB pro Stunde. Für einen 2 Stunden Film rechnen wir jetzt mal 20GB der Einfachheit halber als Richtwert. Das sind unter gleichen Bedienungen etwa 80GB für UHD, bleiben noch 20GB Reserve. 3D geht darauf aber auch nur im SBS Verfahren. Für höhere FPS und/oder Full3D bräuchte man entsprechend mehr Speicherplatz... Fraglich ob man das über HDMI schieben kann... Das richtig krasse Datenmenge, die da pro Sekunde drüberwandert...
Gamefaq schrieb:
Denn die Auflösung und die benötigte Bitrate sind nur 2 Technische Aspekte. Die FPS mit der Aufgezeichnet wird 24hz, 25hz, 30hz, 60hz 120hz, High Dynamic Range, Farbtiefe lassen die Datenmengen extrem explodieren.
Das is schon klar. Allerdings sind gerade FPS etwas, das mir ein Dorn im Auge ist. Denn die pauschale Verwendung hoher FPS ist vor allem eins: sinnbefreit. Variable Frame-Raten sollten längst Standard sein, zumindest beim Abspielen. Bei der Aufzeichnung kommt man um die 120Hz dann eh nicht rum. Allerdings können das die Codecs das recht gut kompensieren. Standbilder brauchen kaum Speicherplatz.. Das größte Problem sehe ich bei der Farbtiefe, da das eine der Schwachstellen der Komprimierung ist. Farben werden gerne Verwaschen (dunkle Szenen oder siehe sanfte Gradienten wie Himmel). Wenn man da die Qualität hochdrehen will, bleibt meist nur der Weg über die Bitrate... in dem Fall gebe ich Dir vollkommen recht. Die Frage ist, ob dieser kaum sichtbare Unterschied eine (vermutlich) Vervielfachung des benötigten Speicherplatzes rechtfertigt.
Gamefaq schrieb:
Gehe hier jetzt NICHT von komprimierten h265 Videos aus. Denn das ist für die Private Speicherung oder HDTV Übertragung von Interesse aber NICHT für ein Endkunden Produkt das man ihm verkauft.
Ich gehe von hochwertig komprimierten h264 Videos aus, wie man sie uA auf BDs findet, wenn auch nicht auf allen...
Gamefaq schrieb:
Da Technisch gesehen echtes U-HD auf einem 30-80 Zoll TV Sinnfrei ist weil das Auge den Unterschied nicht wahrnehmen kann da die Pixel mit dem mehr an Informationen zu klein sind. Erst wenn das Bild groß genug ist sieht das Auge die zusätzlichen Informationen. Es ist wie mit der Digitalen Fotografie wo eine extrem hochwertige Kamera nur für Passbilder keinen Sinn macht eben weil ich die Details aufgrund der Größe nicht sehen kann da alles ineinander vermatscht.
Mit der Aussage wäre ich eher vorsichtig. Darauf wurde zwar im Video auch eingegangen, allerdings tlw. etwas widersprüchlich. Allerdings wurde auch ganz klar thematisiert, dass mehr wahrgenommen wird, als man bei FHD angenommen hat (ab ca. 17:30). Ich tippe das hier von einem Macbook Pro mit Retina Auflösung (2880x1800). Das Display ist grob gemessen etwa 33cm Breit und ich bin 80cm weg. Der Betrachtungswinkel ist daher 2*atan(33/2 / 80)= 23,3 Grad, d.h. ein Pixel des Displays entspricht 23,3 Grad / 2880 = 0,5'
Fazit: Es wirkt schlichtweg alles schärfer. Kein Pixelmatsch. Selbst hochskalierte Videos (was bei der Auflösung zwangsläufig nötig ist bei HD-Material), sehen besser aus als auf einem normalen HD-Display. Das liegt vermutlich daran dass das Auge das einzelne Pixel des Monitors nichtmehr als solches wahrnimmt, weshalb auch Fotobearbeitung darauf ein Traum ist...
Ob UHD sinnvoll ist, oder nicht, kommt vorallem auch auf den Abstand zum Monitor an... Bei 30" darf das Ding definitiv nicht weit weg stehen um von UHD zu profitieren.
Gamefaq schrieb:
Das Samsung nun die ECHTEN U-HD Inhalte deswegen auf HDD´s verkaufen will hat genau den von mir oben beschriebenen Hintergrund. Da die TV&Film Industrie erst NACH der Produktion der TV Geräte festgestellt hat was überhaupt Technisch neben der Auflösung nötigt ist für echtes U-HD.
Erweiterte Farbtiefe und erhöhte Frame-Rate sind ja erstmal optional -zumal es da wohl eh am Quellmaterial scheitert. Ergo reden wir derzeit über "einfaches HD mit 4 facher Auflösung".
Gamefaq schrieb:
Den TV Geräte Herstellern ist es egal sie wollen erstmal nur ihre TV Geräte verkaufen einfach weil sie sagen können kuck hier höhere Auflösung = mehr Pixel = besseres Bild aber sie sagen dir nicht das es DEIN Problem ist woher du das Quellmaterial bekommst für die Wiedergabe und erst recht sagen sie dir nicht das die meisten JETZT erhältlichen U-HD Geräte NICHT kompatibel mit dem zukünftigen ECHTEN U-HD Material sind!
Das Problem hatten wir eh auch schon mit HD. TV in HD kannst sowieso -immernoch- knicken, Streaming krankt oft an viel zu niedriger Bitrate/zu hoher Kompression, damit bleiben nur BDs mit vernünftiger Quali. Und die gibt's jetzt -bezogen auf die Verfügbarkeit von HD-TVs- noch nicht so lange zu vernünftigen Preisen. Sofern man also nicht Cineast/Enhusiast ist, macht man damit vorerst sowieso vor allem eins: UHD ignorieren. Wer tatsächlich jetzt schon einen UHD-TV kauft sollte besser genau wissen, warum er das tut... Schon alleine wegen nutzlosen HDCP-Revisionen, die alte Hardware nutzlose machen können, würde ich von davon abraten launch-customer zu sein. Dass die ersten UHD-Geräte späteres UHD-Material mit höheren FPS/Farbtiefen/... nicht abspielen können, davon würde ich sowieso ausgehen. Für das gibt's dann sicher eh wieder ein eigenes Siegel ( ??? jetzt neu in HDRColor-SmoothPicture-3D-UHD... x_X ) und neuere HDMI-Revisionen... viel Spaß damit! Ich hab meine Lektionen gelernt, als der noch fast neue HD-Fernseher nicht mehr HD-tauglich war, weil HDMI/HDCP veraltet.
MfG, Thomas