News Samsung will Ultra-HD-Inhalte auf HDDs verkaufen

HighTech-Freak schrieb:
Vorab: Danke für das verlinkte Video! Sehr informativ! War gut zu sehen, dass doch noch jemand zwischen 4K und UHD unterscheidet...

Bitte, aber schau es nochmal da du scheinbar einige Zusammenhänge nicht ganz verstanden hast dort.

HighTech-Freak schrieb:
B2T: Ich rede hier nicht von Post-Processing, Aufzeichnung oder remastering, sonderlich lediglich von dem Endprodukt, das an den Kunden geht. Und da gibt's bei weitem weniger Diskussionsbedarf. Ein UHD-Film hat per se mal die 4 fache Auflösung von HD. non3D-HD (effektiv 1920x~850 bei vielen Filmen) in h264 mit 2 DTS-Tonspuren braucht in Summe keine 20Mbit/s um gut auszusehen. Das sind 9GB pro Stunde. Für einen 2 Stunden Film rechnen wir jetzt mal 20GB der Einfachheit halber als Richtwert. Das sind unter gleichen Bedienungen etwa 80GB für UHD, bleiben noch 20GB Reserve. 3D geht darauf aber auch nur im SBS Verfahren. Für höhere FPS und/oder Full3D bräuchte man entsprechend mehr Speicherplatz... Fraglich ob man das über HDMI schieben kann... Das richtig krasse Datenmenge, die da pro Sekunde drüberwandert...

Ähm du würfelst hier grade MÄCHTIG etwas durcheinander! H264 ist NICHT auf BluRays das verwendete Format es hat NICHTS mit dem Endprodukt BluRay zu tun! H264 verwendest DU der Privat Mann zuhause um einen DATENRDUZIERTEN Rip der BD zu erstellen. Auf der BD ist das Video Format VC1-, MPEG-2, MPEG-4 oder AVC (neuste Version ist MVC). Diese haben Bitraten ect. die in der Regel dem 4 fachen eines CRF20 H264 Rips entsprechen. Nun potenziere das bitte mal hoch für U-HD das HD mal 4 von der Auflösung darstellt! (Etwaige höhre Farbtiefen ect. noch nicht eingerechnet) Wie soll das auf eine heutige BD passen.

Aber und darum geht es U-HD wird zwar primär für den Home User Zuhause spezifiziert weil es eine 16zu9 Auflösung ist aber gedreht und Produziert muss für das Kino werden wo 21 zu 9 genutzt wird somit muss die Originale Aufnahme in Bitrate, Farbtiefe usw. nochmals ein vielfaches höher sein als für dein zuhause denn im Kino hast du eine dicke Fette große Leinwand WO AKTUELL NOCH KEIN U-HD wiedergegeben wird da die Kino Projektoren es (selbst wenn fertige Kinofilme in der Qualität vorliegen wie "Der Hobbit") nicht können da diese vom Kinobetreiber auch ausgetauscht werden müssen!

Wenn sie es dann haben, wird eine schlechte Kino Produktion DANN sofort auf der Leinwand sichtbar während sie auf deinem nur 55 Zoll U-HD TV nicht sichtbar wäre weil aufgrund des vergleichsweise kleinen Bildschirms die Details nicht erkennbar sind.

Das war der Hintergrund mit dem Vergleich zuvor mit einem Passbild und einer hochwertigen Digitalkamera und warum U-HD unter 80 Zoll Sinnfrei ist, erst in Postergröße des gleichen Bildes siehst du die Details die die hochwertige Digitalkamera eingefangen hatte. Und genau deswegen sind diese hohen Frameraten, Farbtiefe ect bei der Produktion nötig. Bedeutet dann egal wie sehr sie das ganze dann noch im Mastering Nachbearbeiten, der Kinofilm ist dann in echtem U-HD eben nicht einfach nur 4x so groß weil U-HD sondern nochmals deutlich größer!

Und er wird NICHT in komprimierten H265 gespeichert werden! Denn dies tun nur die TV Anstalten bei ihren Live TV Produktionen da sie sonnst mit der Datengröße extremst überfordert wären, sie LIVE zu bearbeiten & auch noch zu dir zu schicken. Sondern weiterhin im UNKOMPRIMIERTEN VC1-, MPEG-2, MPEG-4 oder AVC (neuste Version ist MVC) Format auf dem dann Nachfolger der BD speichern werden. Denn du sollst das Endprodukt nicht in einer extrem Datenreduzierten H265 Version kaufen. Sondern etwas Qualitativ hochwertiges wie auch bei einer CD zur MP3!

HighTech-Freak schrieb:
Das is schon klar. Allerdings sind gerade FPS etwas, das mir ein Dorn im Auge ist. Denn die pauschale Verwendung hoher FPS ist vor allem eins: sinnbefreit. Variable Frame-Raten sollten längst Standard sein, zumindest beim Abspielen.

Bitte Variable Frame-Raten? Dir ist klar das dann das Video in verschiedenen Geschwindigkeiten läuft!? Weist du überhaupt Ansatzweise wovon du redest, denn du haust hier grade Sachen durcheinander das ist abartig. :freak: Du verhaust dich hier mit Variablen Bitraten die beim h264 verwendet werden können (aber kaum jemand tut weil es oft abrupte sichtbare Bildunterschiede dann gibt) um Speicherplatz beim Konvertieren einzusparen. Wo dies aber effektiv etwas bringt ist beim Audio Format MP3 nur das ist jetzt nicht Thema hier.
 
Zuletzt bearbeitet:
Gamefaq schrieb:
Ähm du würfelst hier grade MÄCHTIG etwas durcheinander! H264 ist NICHT auf BluRays das verwendete Format es hat NICHTS mit dem Endprodukt BluRay zu tun! H264 verwendest DU der Privat Mann zuhause um einen DATENRDUZIERTEN Rip der BD zu erstellen. Auf der BD ist das Video Format VC1-, MPEG-2, MPEG-4 oder AVC (neuste Version ist MVC).

Aus Wikipedia (MPEG-4):
Teil 10 (ISO/IEC 14496-10): Advanced Video Coding (AVC). Ein Codec für Videosignale, der technisch identisch zum H.264-Standard der ITU-T ist.

Zu MPEG-4 gehört auch "Teil 2 (ISO/IEC 14496-2): Visual. Hierzu zählen die bekannten MPEG-4 Codecs DivX und Xvid. Eines der vielen Profile in Part 2 ist das Advanced Simple Profile (ASP)."

Also ist da kein MPEG-4 auf einer BD sondern MPEG-4 AVC/H.264, weil mit MPEG-4 allgemein das ASP (Divx/Xvid) gemeint ist.


Gamefaq schrieb:
Nun potenziere das bitte mal hoch für U-HD das HD mal 4 von der Auflösung darstellt! (Etwaige höhre Farbtiefen ect. noch nicht eingerechnet) Wie soll das auf eine heutige BD passen.

So einfach Multiplizieren kann man das alles nicht; wenn man es macht ist das Ergebnis so realistisch wie die 3000 Hz von TVs.

Zur Auflösung:
Am Beispiel von CRF-encodes: Um ein Optisch gutes (z.B. Artefakt freies) Ergebnis zu bekommen kann es bei 1080p ausreichend sein, CRF=18 zu nehmen, wobei es bei 576p/480p mindestens CRF=16 sein muss.
(Bildfehler fallen bei geringen Auflösungen stärker ins Gewicht als bei hohen Auflösungen)

Also kann bei höheren Auflösungen ein schlechterer Qualitätsfaktor benutzt werden (Bei trotzdem vergleichbarer Qualität), wodurch das Video nicht linear zur Pixelanzahl größer wird.

Verstärkt werden kann dieser Effekt bei UHD dadurch, dass die Kameras und Zubehör bei UHD schon eher an ihre Grenzen kommen als bei 1080p und das Bild dadurch etwas "unschärfer" ist. Dann hat das Video zwar 4-mal so viele Pixel wie 1080p, aber nicht 4-mal so viele Bildinformationen, ist also auch einfacher zu komprimieren.


Zur Farbtiefe:
10Bit Videos sind bei gleicher Bildqualität oft einige Prozent kleiner als 8Bit Videos, obwohl die Farbtiefe höher ist. Wie es bei 12,14 Bit usw. aussieht weiß ich nicht, irgendwann wird die Datenrate bei steigender Farbtiefe auch wieder zunehmen.


Zur Framerate:
Eine Verdoppelung von 24 auf 48 Bilder pro Sekunde bedeutet keine Verdoppelung der Größe.

Der Großteil des Videos besteht nicht aus Vollbildern, sondern aus Bildern, die nur die Änderungen zum vorherigen Bild zeigen. Bei höherer Framerate bedeutet dass, dass die Unterschiede zum Vorgänger-Bild geringer werden, da weniger Zeit zwischen den beiden liegt. Weniger Unterschiede zwischen zwei Bildern bedeutet auch weniger benötigte Datenrate.

Vollbilder haben dagegen einen hohen Einfluss auf die Datenrate. Die GOP Länge wird wohl bei 1 oder 2 Sekunden beibehalten, dann ist es aber egal ob 24 oder 48 Bilder pro Sekunde.


HighTech-Freak schrieb:
Das is schon klar. Allerdings sind gerade FPS etwas, das mir ein Dorn im Auge ist. Denn die pauschale Verwendung hoher FPS ist vor allem eins: sinnbefreit. Variable Frame-Raten sollten längst Standard sein, zumindest beim Abspielen. Bei der Aufzeichnung kommt man um die 120Hz dann eh nicht rum. Allerdings können das die Codecs das recht gut kompensieren.

Variable Frameraten sind unsinnig.
Die Idee dahinter war, die Bitrate zu reduzieren, indem bei statischen Motiven Bilder im Video weggelassen werden und andere Bilder als Ausgleich länger gezeigt werden.

Da heute die Videos sowieso kaum noch aus Vollbildern bestehen sondern aus Bildern mit den Änderungen zum Vorgänger/Nachfolger (was ich weiter oben angesprochen habe) wird auch mit konstanter Framerate bei statischen Motiven wenig Bitrate benötigt.

Also variable Framerate hat nicht nur kaum nutzen, sondern auch einen großen Nachteil, und zwar dass das Video unmöglich synchron mit einem TV/Monitor angezeigt werden kann (Ausnahmen sind Nvidias G-Sync oder AMDs Freesync).

Also ist das Video immer leicht am Ruckeln/am Stottern.
 
Zuletzt bearbeitet:
Gallo2000 schrieb:
Aus Wikipedia (MPEG-4):
Teil 10 (ISO/IEC 14496-10): Advanced Video Coding (AVC). Ein Codec für Videosignale, der technisch identisch zum H.264-Standard der ITU-T ist.

Zu MPEG-4 gehört auch "Teil 2 (ISO/IEC 14496-2): Visual. Hierzu zählen die bekannten MPEG-4 Codecs DivX und Xvid. Eines der vielen Profile in Part 2 ist das Advanced Simple Profile (ASP)."

Also ist da kein MPEG-4 auf einer BD sondern MPEG-4 AVC/H.264, weil mit MPEG-4 allgemein das ASP (Divx/Xvid) gemeint ist.

Technisch gesehen stimmt dies. Jedoch wird weil keine Komprimierung stattfindet es nach außen MPEG-4 AVC genannt. Eben um direkt zu zeigen Hey hier wird nicht Komprimiert es gibt das unverfälschte Original.

Und darum ging es im meiner Aussage. Da HighTechFreak primär immer nur von den bereits extrem Datenreduzierten H264 Rips sprach und diese mit dem "Endkunden Produkt" gleich setzte.
 
Zurück
Oben