News Ultra-HD-Auflösung auf Blu-ray erscheint nicht unmöglich

der einfachste weg ist es die Kompression zu erhöhen ... Kompression heißt nicht undbedingt verlustbehaftet(er) ...erfordert allerdings neue Endgeräte mit mehr rechenpower ..was sich wiederum im preis der Endgeräte niederschlagen würde und die Kompatibelität zu bestehenden Endgeräten "brechen" würde. :freak:
 
@Breeze 83: Die Drosselung der Bandbreite im VDSL Bereich ist nur eine theoretische Möglichkeit.
Ich kenne niemanden dem das schonmal wirklich im Festnetz passiert ist!

@Topic: Die Leute haben wirklich sorgen.Ich werden meinen 50" Panasonic sicherlich noch > 5 Jahre haben.
 
master2k schrieb:
der einfachste weg ist es die Kompression zu erhöhen ... Kompression heißt nicht undbedingt verlustbehaftet(er) ...erfordert allerdings neue Endgeräte mit mehr rechenpower .. :freak:

Jeder halbwegs potente HT/PC kann problemlos mit JPEG 2000 umgehen
 
Zuletzt bearbeitet:
Wo soll das nur hinführen. Der Hobbit hat ja schon gezeigt, dass selbst mit einem Riesenbudget das Ergebnis richtig müllig aussieht, wenn man es mit der Technik übertreibt. Das Bild gewinnt auf eine Weise Realismus, der jeden künstlierischen Effekt beiseite fegt. Man sieht jedes Makeup, jede Kulisse, jeden Special Effect. Man fühlt sich wie beim Making Of.

Dieselbe Kritik gab es bei den ersten HD-Filmen. Es ist Gewöhnungssache; Die Sehgewohnheiten ändern sich.
 
scully1234 schrieb:
Jeder halbwegs potente HT/PC kann problemlos mit JPEG 2000 umgehen

auch mein C64 kann mit JPEG 2000 umgehen ... rechenpower wird benötigt um x Bilder Pro Sekunde * Auflösung
darzustallen ...
 
@master2k

Und noch mal die Auflösung ist nicht das Problem! Es ist die Bitrate...
 
gentootux schrieb:
Wenn ich für einen Film bezahle habe ich gerne eine anständige Bitrate sowohl bei Ton als auch beim Bild. Dazu noch ein Menü, Englische Tonspur und ein paar Extras. Das passt unmöglich auf eine Dual-Layer DVD.
Bei deinen runtergeladenen Filmen ist das egal, wenn ich dafür bezahle nicht.

Sorry, selten so einen Blödsinn gelesen.

In der Tat. :D
 
Cool Master schrieb:
@master2k

Und noch mal die Auflösung ist nicht das Problem! Es ist die Bitrate...

die Bitrate setzt sich unter anderem zusammen aus der Auflösung*Bildern + Auflösung*Audio Pro Sekunde.
 
Zuletzt bearbeitet: (x)
DirtyOne schrieb:
@Breeze 83: Die Drosselung der Bandbreite im VDSL Bereich ist nur eine theoretische Möglichkeit.
Ich kenne niemanden dem das schonmal wirklich im Festnetz passiert ist!

Allerspätestens wenn das Netz des ISPs, in dem Fall ja Telekom, aus dem letzten Loch pfeift weil zu große Datenmengen für das Gesamtnetz gestreamt werden wird dort die Handbremse angezogen. Man krebst ja heute schon teilweise an der Grenze rum wenn es Stoßzeit ist. In Korea ist mindestens ein Provider schon auf dem Kriegspfad deswegen. Gab sogar eine News dazu, leider hab ich die Sache ein wenig aus den Augen verloren. Mein Koreanisch ist nicht das Beste^^

Guckst du hier https://www.computerbase.de/news/in...efuerchtet-netzausfall-wegen-smart-tvs.34453/
 
master2k schrieb:
auch mein C64 kann mit JPEG 2000 umgehen ... rechenpower wird benötigt um x Bilder Pro Sekunde * Auflösung
darzustallen ...

Ich bin schon davon ausgegangen das wir hier vom Videoformat 4k reden bezogen auf den Codec u nicht von bunten Einzelbildern:)

Das ist ja schließlich Thema des Threads
 
scully1234 schrieb:
Ich bin schon davon ausgegangen das wir hier vom Videoformat 4k reden bezogen auf den Codec u nicht von bunten Einzelbildern:)

Das ist ja schließlich Thema des Threads

Es gibt kein Videoformat 4K es gibt nur eine Auflösung 4K ... und alle Videos die ich kenne bestehen nunmal alle aus "bunten einzelbildchen".
 
Mehr oder weniger. Die meisten Bildchen enthlten nur die Infos was sich zum letzten Bildchen geändert hat. Einen Film in RAW kannst du nicht auf eine BD pressen, da kannst du alle paar Minuten wechseln. Ohne Kompression kommt man nicht weit, die Kunst dabei ist nun mal die Balance zwischen Einsparung und Qualität zu finden.
 
Creeed schrieb:
Mehr oder weniger. Die meisten Bildchen enthlten nur die Infos was sich zum letzten Bildchen geändert hat. Einen Film in RAW kannst du nicht auf eine BD pressen, da kannst du alle paar Minuten wechseln. Ohne Kompression kommt man nicht weit, die Kunst dabei ist nun mal die Balance zwischen Einsparung und Qualität zu finden.
das Endprodukt sind aber immer einzelbildchen egal welches Format welcher Container und welche Auflösung und welches kompressionsverfahren.
 
Wo genau ist das Problem ?
Die werden doch inzwischen nen normalen Film in 4k Auflösung auf 50GB komprimiert bekommen.
Die Datenrate wird sich in der Praxis ja nicht ansatzweise vervierfachen.
Selbst x264 komprimiert heute schon deutlich effektiver als zum Release der BluRay, von neuen Codecs ganz zu schweigen.
Zudem wächst die Datenrate für den Ton ja nicht, von daher macht es wenig Sinn die Datenmenge auf ner BDan sich zu betrachten wenn da teilweise 20MBit an Tonspuren bei sind.
 
Nicht ganz. Der Bildprozessor macht aus den komprimierten Daten wieder Einzelbilder. Darum unterscheidet sich ja die benötigte Bandbreite für einen Stream im Netz auch von der für die Darstellung über HDMI. In der News geht es darum dass man versuchen möchte 4k auf BD zu quetschen oder ks Downloadserver, quasi video on demmand, anbieten will. Beides setzt vorraus dass das RAW Material nachbearbeitet und komprimiert wird. Alles andere würde nicht funktionieren. Ein optischer Datenträger mit entsprechender Datendichte ist nicht verfügbar und wird es auf absehbare Zeit auch nicht sein. BD xl ist eine Notlösung wie DL DS DVDs, weder Fisch, noch Fleisch. Dass der Fernseher oder Monitor im Endeffekt nur Bildchen zeigt ist eigentlich richtig, aber man muss sich acuh die Gedanken machen wie sie dort hinkommen.

Die Zeiten wo ein Vogel die Bilder gemalt und hingehalten hat sind seit Fred Feuerstein vorbei. Je weiter man infrastrukturmäßig vom Fernseher weg geht auf dem Weg der Daten umso verzweifelter wird man wenn man sich mit der Materie wirklich mal beschäftigt. Wenn man bedenkt welche Datenmengen auf uns zukommen und wie wir die bewältigen wollen wird mir übel. Unser Bedarf an Bandbreite steigt stetig, schneller wie man ihn aufstocken kann und wir reden hier mal kurz über eine vervierfachung der Datenrate. Wenn man 8k in Betracht zieht eine versechzehnfachung. Wir steuern hier auf ein Riesenproblem zu, diskutieren aber über Kleinigkeiten wie ob man auf 2m Entfernung bei einem 50"er erkennt ob die Source 720 oder 1080 ist. Man kann heute Filme vernünftig komprimieren, die Rechenleistung ist da, auf beiden Seiten. Aber das ist verpönt weil die meisten bei Komprimierung an ein bewegtes römisches Mosaik erinnert werden. Außerdem geht mir schon wieder die Geschichte mit dem Kopierschutz auf den S#+k . Ich erinnere mich noch an die Anfänge von HDCP, da hat sich inzwischen auch einiges gebessert aber wirklich glücklich ist da kein Nutzer damit wenn er sich damit beschäftigt.
 
Creeed schrieb:
Nicht ganz. Der Bildprozessor macht aus den komprimierten Daten wieder Einzelbilder. Darum unterscheidet sich ja die benötigte Bandbreite für einen Stream im Netz auch von der für die Darstellung über HDMI. In der News geht es darum dass man versuchen möchte 4k auf BD zu quetschen oder ks Downloadserver, quasi video on demmand, anbieten will. Beides setzt vorraus dass das RAW Material nachbearbeitet und komprimiert wird. Alles andere würde nicht funktionieren. Ein optischer Datenträger mit entsprechender Datendichte ist nicht verfügbar und wird es auf absehbare Zeit auch nicht sein. BD xl ist eine Notlösung wie DL DS DVDs, weder Fisch, noch Fleisch. Dass der Fernseher oder Monitor im Endeffekt nur Bildchen zeigt ist eigentlich richtig, aber man muss sich acuh die Gedanken machen wie sie dort hinkommen.

Die Zeiten wo ein Vogel die Bilder gemalt und hingehalten hat sind seit Fred Feuerstein vorbei. Je weiter man infrastrukturmäßig vom Fernseher weg geht auf dem Weg der Daten umso verzweifelter wird man wenn man sich mit der Materie wirklich mal beschäftigt. Wenn man bedenkt welche Datenmengen auf uns zukommen und wie wir die bewältigen wollen wird mir übel. Unser Bedarf an Bandbreite steigt stetig, schneller wie man ihn aufstocken kann und wir reden hier mal kurz über eine vervierfachung der Datenrate. Wenn man 8k in Betracht zieht eine versechzehnfachung. Wir steuern hier auf ein Riesenproblem zu, diskutieren aber über Kleinigkeiten wie ob man auf 2m Entfernung bei einem 50"er erkennt ob die Source 720 oder 1080 ist. Man kann heute Filme vernünftig komprimieren, die Rechenleistung ist da, auf beiden Seiten. Aber das ist verpönt weil die meisten bei Komprimierung an ein bewegtes römisches Mosaik erinnert werden. Außerdem geht mir schon wieder die Geschichte mit dem Kopierschutz auf den S#+k . Ich erinnere mich noch an die Anfänge von HDCP, da hat sich inzwischen auch einiges gebessert aber wirklich glücklich ist da kein Nutzer damit wenn er sich damit beschäftigt.

was heißt da nicht ganz ? voll und ganz .. das Endprodukt sind Einzelbilder egal ob die jetzt von einem Bildprozessor berechnet werden oder von einer CPU oder von Fred Feuerstein. Da ich OpenGL programmiere weiß ich ganz genau was einzelbilder sind und wie sie geladen und verarbeitet werden das funktioniert bei dedizierter Hardware nicht anders mit dem unterschied dass die integrierte Recheneinheit meistens über Hardwarebeschleunigung verfügt.
Um zurück zum Thema zu gelangen meine Ursprüngliche Aussage war:
rechenpower wird benötigt um x Bilder Pro Sekunde * Auflösung
darzustallen ... und dass stimmt je höher die Kompressionsrate desto mehr Rechenleistung wird gefordert.
 
master2k schrieb:
Es gibt kein Videoformat 4K es gibt nur eine Auflösung 4K ... und alle Videos die ich kenne bestehen nunmal alle aus "bunten einzelbildchen".

Was soll das bitteschön?
Natürlich gibts ein Format,u das wird bisher (Hobbit mit 48Hz u Cameron 60Hz Entgleisungen jetzt mal außen vor gelassen) sollten nicht alle Stricke reißen in 4k@24hz präsentiert

Das schafft jedwede aktuelle CPU,im HTPC/PC in Verbindung mit dem JPEG 2000 Codec,flüssig wieder zu geben,sollten nicht anderswo Bandbreitenprobleme auftreten

Das du dir auf deinen C64,vielleicht Einzelbildchen in Echtzeit betrachten kannst,will hier ja keiner in Abrede stellen
 
Zuletzt bearbeitet:
Sollte die Filmindustrie sich nicht erstmal Gedanken darüber machen, wie man anständige Filme produziert, bevor man sich überlegt, wie man den Schrott bei möglichst hoher Auflösung am besten komprimiert?
Welcher Film ist denn so gut, dass ich ihn mir in 4k ansehen muss und Full-HD nicht genügend Details darstellt?
 
Zuletzt bearbeitet:
Der Film sollte auf jeden Fall so schlecht sein, dass man die Muße hat, sich auf all die unwichtigen Details zu konzentrieren.
 
Zurück
Oben