News Ultra-HD-Auflösung auf Blu-ray erscheint nicht unmöglich

Lockdown schrieb:
Gab keine Alternative in meinem Kaff ;)
Ausserdem war ich froh dass die Konservative "Obrigkeit" im Haushalt dem Upgrade (von 6K) überhaupt zugestimmt hat.

Ausserdem glaube ich dass der Tarif einer der Meistgebuchten ist, da die Telekom ja immer noch der Volksanbieter ist. Und darum gehts ja, dass möglichst viele Menschen Ultra HD nutzen sonst lohnt es sich ja nicht.
Oder meinst du dass im Verkaufsdossier dann drin steht : Wenn der Kunde keine entspr. Leitung oder einen Vertag mit Einschränkungen hat sagen Sie einfach " Ja selber schuld " :P

Ausserdem werden die Einschränkungen dann sehr bald für alle kommen wenn die Masse solch gigantischen Daten durch die Leitung zieht !
Nicht zu vergessen dieses 2 Klassen Internet das mal in der Disskussion stand.




Dann müssen sie die Werbung halt weg lassen ;)

Und Making Off etc. kann man ja auf einer 2ten Blu Ray dazu tun.
Die Tonspur macht auch nur etwa ein GB aus, ist also zu venachlässigen.
(Es sei denn du stehst auf DTS, aber mal ehrlich, wer merkt denn da den Unterschied ?!)

Ich steh sogar auf DTS HD/ TRUE HD und da kommst du mit 1GB nicht aus ! Meist ich ich zieh mir die 448 Kbps Dolby Spur rein oder was ? Wenn die richtige Anlage hast hörst du auch die Qualitätsunterschiede



MFG Rush
 
dahum schrieb:
Wo soll das nur hinführen. Der Hobbit hat ja schon gezeigt, dass selbst mit einem Riesenbudget das Ergebnis richtig müllig aussieht, wenn man es mit der Technik übertreibt. Das Bild gewinnt auf eine Weise Realismus, der jeden künstlierischen Effekt beiseite fegt. Man sieht jedes Makeup, jede Kulisse, jeden Special Effect. Man fühlt sich wie beim Making Of.
Wenn's dich so sehr stört, kannst du den Film zu Hause ja einfach mit halbierter Framerate abspielen.

Ich persönlich würde es jedoch begrüßen, wenn man Mittel und Wege fände, den Film "filmisch" wirken zu lassen und trotzdem ein flüssiges Bild zu haben.
Möglicherweise kann man Kamera-Movement usw. noch optimieren. Oder man arbeitet tatsächlich mit variablen Raten, so daß man weniger FPS hat in Szenen, die sonst den Soap-Opera-Effekt haben, und die vollen FPS bei Landschafts-Schwenks und diversen Action-Einlagen, Verfolgungsjagden, etc.

Ich denke, da lässt sich noch einiges optimieren.
 
@KainerM:
1. Hast du mitbekommen, dass ne Menge Kinos in US gar nicht 48p für den Hobbit angeboten haben? Grund dafür ist, dass vielen Menschen schlecht wird und den Film gar nicht gucken konnten.
Also genau das Gegenteil ist der Fall: Kopfschmerzen, weil zuviele Bilder/Sekunde.

2. Je größer Refresh wird, desto leichter sieht man, dass ne Maske eben ne Maske ist und das Kostüme eben Kostüme sind. Auch wird man genau sehen können, wann denn Legolas - der Mensch, zum Legolas - der Computereffekt - wird.

So einfach ist das alles immer nicht.
 
Snooty schrieb:
Dann wäre HdR aber (pro Film) ~8 Discs, denn die EE ist auf Blu-Ray auch auf 2 Scheiben.
Es ist ein denkfehler das die 4fache Auflösung auch den 4fachen Speicherplatz verbraucht, dank moderner algorithmen in den Codecs.

Das Problem sind mittlerweile auch die Tonspuren:
Deutsch DTS-HD 6.1 Master Audio,
Englisch DTS-HD 6.1 Master Audio
Audiokommentar vom Regisseur und den Drehbuchautoren
Audiokommentar vom Design-Team
Audiokommentar vom Produktions- und Postproduktionsteam
Audiokommentar von den Darstellern

Außerdem wird für Blu-rays ein schlechter Codec genommen, moderne, jedoch schon von Smartphones ruckelfrei beherschbare, nicht vom Original unterscheidbare 264.h codecs in MKV Container brauchen grade mal 5GB / Stunde Speicherplatz + Tonspur.

Alle 3D Filmen brauchen auch die doppelte Datenmenge und es ist jetzt schon Problemlos möglich auf 1 Disc.

Mit der Vorranschreitenden Technik in Hardware (mehr Speicherplatz und besser Prozessoren) und Software (bessere Codecs) sollte es kein Problem darstellen Ultra-HD selbst in 3D (8 fache Datenmenge) darzustellen.
 
Wie siehts eig. mit dem Nachfolger von BR aus? Kommt doch eh alle Jahre wieder was neues (CD,DVD,BR,...?).
 
Snooty schrieb:
Von was sprichst du jetzt? 25 fps sind im Film zu wenig oder im Spiel?
Beides.
Falls du eine potente CPU hast, kannst du das selbst mal vergleichen:
http://www.svp-team.com/

Damit lassen sich 24/30fps Videos auf höhere Raten interpolieren. Das produziert an einigen Stellen natürlich Artefakte, aber viele Szenen sind ziemlich sauber.

Wenn du das auf einen Film anwendest, tritt der Soap Opera Effekt ein. Es wirkt zu "echt" und dadurch zum Teil richtig albern. Wie gesagt ... diesem Effekt müsste man bei Filmen irgendwie entgegen wirken.
Wenn du dir aber damit mal eine Doku wie Planet Erde anguckst, wirst du sowas NIE WIEDER in 24fps gucken wollen.

In 60/72fps wirkt es fast so, als ob du durch ein Fenster gucken würdest (auch ohne 3D). Es fühlt sich zum Teil so an, als ob du selbst dort wärst. Das ist ein echtes Erlebnis!
Wenn man dann zurück schaltet auf 24fps merkt man sofort das krasse Ruckeln, und das Bild verliert völlig seine Wirkung. Es sieht plötzlich wieder nur noch wie ein Video aus und nicht mehr wie ein Abbild der Realität.



Das ist auch ein wenig das Paradoxe daran.
Ein Film wie Der Hobbit verliert einen Teil seines Zaubers, wenn er mit einer HFR abgespielt wird.
Eine Doku wie Planet Erde hingegen verliert einen Teil des Zaubers, wenn sie nicht mit einer HFR abgespielt wird.
 
Rush schrieb:
Bitte kein "24 fps ist flüssig für den Menschen" Diskussion anfangen, dann breche ich gleich !
Kommt eben auf die Umstände drauf an. Ein Spiel in 24 fps wird immer ruckelig erscheinen.

Wenn du dir aber damit mal eine Doku wie Planet Erde anguckst, wirst du sowas NIE WIEDER in 24fps gucken wollen.
Eben bei "so einem" Film vielleicht. Aber wenn ich einen "normalen" Film a la Der Hobbit nehme und die Wahl habe, zwischen 48 und 24 fps, dann nehme ich letzteres.
 
Zuletzt bearbeitet:
Snooty schrieb:
Kommt eben auf die Umstände drauf an. Ein Spiel in 24 fps wird immer ruckelig erscheinen.

Und das ist einfach Falsch, da es immer noch drauf ankommt wie das Spiel programmiert ist... Ich kenne Spiele da machen mir 24 FPS nichts aus und auf der anderen Hand gibt es Spiele wo ich erst ab 30+ FPS alles flüssig sehe...
 
Cool Master schrieb:
Und das ist einfach Falsch, da es immer noch drauf ankommt wie das Spiel programmiert ist... Ich kenne Spiele da machen mir 24 FPS nichts aus und auf der anderen Hand gibt es Spiele wo ich erst ab 30+ FPS alles flüssig sehe...

Jedes Jahr die gleiche Diskussion und die Leute raffen es immer noch nicht !!! Omfg, lest euch ein !

Wenigestens Cool Master hat es verstanden !


MFG Rush
 
jorjaco schrieb:
Ähm... ja.
Schon mal einige Filme in den umgerüsteten 4K Kinosälen von z.B. Cinemaxx gesehen? Der Hobbit in 3D und 48 FPS war grandios. Da kommt wohl eher kein Heimkino TV mit.
Kleine Nischen- oder Programmkinos kann man schlecht als Beispiel heranziehen.
Ähm ich will dir ja nicht die Laune verderben aber in Deutschland gibt es kein einziges Kino welches 4K, 3D und 48 FPS gleichzeitig anzeigen kann und wieder ein zufriedener 2K = FullHD Kunde :D
 
Rush schrieb:
Wenigestens Cool Master hat es verstanden !

Danke :P

Als gutes Beispiel kann ich Diablo 3 nennen da machen mir FPS unter 30 nichts aus sogar 24/25 FPS ist voll ok. Auf der anderen Seite World of Warcraft alles unter 30-35 FPS bekomme ich nen Brechreiz weil alles lagt.
 
isostar2 schrieb:
Ähm ich will dir ja nicht die Laune verderben aber in Deutschland gibt es kein einziges Kino welches 4K, 3D und 48 FPS gleichzeitig anzeigen kann und wieder ein zufriedener 2K = FullHD Kunde :D

Stimmt, denn dafür hätten sie neue Projektoren gebraucht ! Für HFR kam nur ein upgrade ! Sogar in der Staaten gibts kaum 4k HFR 3D Kinos !

@Cool Master Wie früher mir CS 1.6, unter 100FPS ging gar nicht und davor war es Quake und Unreal ! Punkt ist das man Spiele und Filme nicht miteinander vergleichen kann und das menschliche Auge weit mehr als 24 FPS unterscheiden kann !


MFG Rush
 
Zuletzt bearbeitet:
Konti schrieb:
Beides.
Falls du eine potente CPU hast, kannst du das selbst mal vergleichen:
http://www.svp-team.com/

Damit lassen sich 24/30fps Videos auf höhere Raten interpolieren. Das produziert an einigen Stellen natürlich Artefakte, aber viele Szenen sind ziemlich sauber.

Wenn du das auf einen Film anwendest, tritt der Soap Opera Effekt ein. Es wirkt zu "echt" und dadurch zum Teil richtig albern. Wie gesagt ... diesem Effekt müsste man bei Filmen irgendwie entgegen wirken.
Wenn du dir aber damit mal eine Doku wie Planet Erde anguckst, wirst du sowas NIE WIEDER in 24fps gucken wollen.

In 60/72fps wirkt es fast so, als ob du durch ein Fenster gucken würdest (auch ohne 3D). Es fühlt sich zum Teil so an, als ob du selbst dort wärst. Das ist ein echtes Erlebnis!
Wenn man dann zurück schaltet auf 24fps merkt man sofort das krasse Ruckeln, und das Bild verliert völlig seine Wirkung. Es sieht plötzlich wieder nur noch wie ein Video aus und nicht mehr wie ein Abbild der Realität.



Das ist auch ein wenig das Paradoxe daran.
Ein Film wie Der Hobbit verliert einen Teil seines Zaubers, wenn er mit einer HFR abgespielt wird.
Eine Doku wie Planet Erde hingegen verliert einen Teil des Zaubers, wenn sie nicht mit einer HFR abgespielt wird.

Da bin ich ganz deiner Meinung.

Wobei ich lieber alle BR mit 50 oder 60 FPS anstatt mit den nervigen 24 gucken würde. Das brutale ruckeln bei schnellen Kameraschwenks nervt immens. Man sieht ja, dass alle TV-Hersteller das mit IFC, Smooth-Film etc. versuchen dies in den Griff zu bekommen, was bisher aber nur mäßig gelingt meiner Meinung nach.
 
Einheit Hertz (Hz) oder, gleichwertig, als fps (Frames per second = Bilder je Sekunde) an

Hier ist eine Unterscheidung zwischen Bildrate und Bildwiederholfrequenz wichtig, da diese nicht identisch sein müssen. Die Bildrate sollte einen Wert von ca. 30 Bildern/Sekunden nicht unterschreiten, um dem menschlichen Auge bei bewegten Bildinhalten einen flüssigen Bildeindruck vermitteln zu können.
Dabei ist die Grenze zur Wahrnehmung einer fließenden Bewegung von Mensch zu Mensch leicht verschieden. Die heute im Kino übliche Bildrate von 24 Hz begrenzt die Bewegtbilddarstellung, was dazu führt, dass sich Objekte, die sich mit ungünstiger, mittlerer Geschwindigkeit auf dem Bild bewegen, als „ruckelnd“ wahrgenommen werden. Eine gute Regie weiß das zu vermeiden, indem beispielsweise Kameraschwenks nur sehr langsam oder ausreichend schnell erfolgen. Die Aufzeichnung mit Studiokameras oder Camcordern verwendet das Zeilensprungverfahren, was durch die höhere Bildrate mit 50 bzw. 60 Bewegungsphasen pro Sekunde deutliche Vorteile z. B. bei Sportaufnahmen bietet.
Die Bildwiederholfrequenz eines Bildschirms trägt entscheidend zum Flimmereindruck bei. Das hängt jedoch auch von der verwendeten Bildschirmtechnologie ab. So wird beispielsweise im Kino jedes der 24 Bilder pro Sekunde (= 24 Hz Bildrate) zweimal mit einem Shutter projiziert, also mit einer Bildwiederholfrequenz von 48 Hz abwechselnd an und dunkel geschaltet. Bei Flüssigkristallbildschirmen hingegen wirkt sich die Bildwiederholfrequenz kaum auf den Flimmereindruck aus, da prinzipbedingt die Helligkeit jedes Bildpunktes zwischen den Bildwechseln nahezu konstant bleibt, was Hell-Dunkelwechsel vermeidet. Bemerkenswert ist, dass das menschliche Sehvermögen in den Außenbereichen durch die Stäbchen empfindlicher bei Helligkeitsänderungen reagiert. Flimmern wird daher eher wahrgenommen, wenn man z. B. einen Röhrenmonitor aus einem Augenwinkel betrachtet.
Für schnell bewegte Bilder (Sport, Videospiele, etc.) haben Bildschirmtechnologien Vorteile, die eine ausreichend hohe Bildwiederholfrequenz mit mind. 50 Hz und eine möglichst kurze Bildpunktleuchtdauer aufweisen. Kathodenstrahlröhrenbildschirme sind hier prinzipbedingt gegenüber LCD-Technologien im Vorteil, da jeder Bildpunkt innerhalb der Bildperiodendauer (= 1/Bildwiederholfrequenz) nur kurzzeitig aufblitzt und somit Bewegungen einen sehr scharfen Bildeindruck beim Betrachter hinterlassen. Auch OLEDs (PMOLED/AMOLED) bieten mit einer besonders kurzen Reaktionszeit diesen Effekt, aktuelle S-AMOLEDs haben eine Reaktionszeit von unter 0,1 ms, weshalb sich auf diesen Bildschirmen kaum sog. "Ghosting" feststellen lässt. Im menschlichen Sehapparat entsteht aus diesen kurz aufleuchtenden Einzelaufnahmen eine flüssige Bewegung. Die Forschung im Bereich der LCD-Technik versucht, das durch Techniken wie „scanning backlight“ oder „black stripe insertion“ (Flüssigkristallbildschirm) zu verbessern, was eine effektive Verkürzung der Bildpunktleuchtdauer (wie beim Kathodenstrahlröhrenbildschirm) bewirkt. Natürlich kann dadurch wieder Bildflimmern entstehen, was aber durch eine ausreichend hohe Bildwiederholrate größer ca. 80 Hz nicht wahrgenommen wird. Ein Ansatz der Displayindustrie, die Bewegtbilddarstellung durch die Verkürzung der LCD-Schaltzeit zu verbessern, bringt bei LCD-Schaltzeiten kleiner ca. 10 ms keine sichtbare Verbesserung mehr.
Einige Filmschaffende, wie der amerikanische Regisseur James Cameron, plädieren seit einigen Jahren für die Einführung einer höheren Bildfrequenz.[1][2]

Soso,..
 
Cool Master schrieb:
Und das ist einfach Falsch, da es immer noch drauf ankommt wie das Spiel programmiert ist... Ich kenne Spiele da machen mir 24 FPS nichts aus und auf der anderen Hand gibt es Spiele wo ich erst ab 30+ FPS alles flüssig sehe...
Ein Sache als falsch hinzustellen, mit der Begründung "mir macht es nichts aus"..........

Das ist sehr unglaubwürdig, auch wenn du vom Grundgedanken her recht hast.

Wie das Spiel programmiert ist, spielt davon ab mal gar keine Rolle. Eher das Spielgenre. Bei super-alten, nicht Sidescroller Spielen, würde man 24fps wohl nicht sehen können, da sich einfach zu wenig auf dem Schirm bewegt. Evtl. kann man ruckelnde 30fps bei Tetris auch nicht sehen.

In 3D Spielen kann man aber auch bis 60fps noch Ruckeln sehen. Und bis 120fps kann man es noch in der Maus spüren.

Das neue DMC versucht auf den Konsolen ja zu cheaten, indem sie die Grafikengine auf 30fps laufen lassen, aber die Mechanik und Animationsengine auf 60fps berechnet wird.
So fühlt es sich angeblich an, wie ein 60fps Spiel (von der Controllereingabe her), aber aussehen tut's natürlich immernoch, wie 30fps.
 
Kino und 4 oder 8K ist auch vollkommen normal... zumindest wichtig um das die nötigen Details erhalten bleiben.
Hat jemand mal zum Beispiel Space Odyssey 2001 auf Bluray sich angetan...? Ein Film von 1968 welcher aber dennoch mit einer teilweise hohen Schärfe glänzt.
Ich denke nicht allen ist nicht ganz klar, das 4k oder 8k sich toll, großartig und für manche übertrieben anhört, aber für Kinos zwingend notwendig ist. Früher wurden Filme auf Filmnegetive gedreht, die sich zum abspielen mit geringeren Einbußen an eine große Wand projiziert werden, als es mit Material möglich ist, welches alleine schon durch eine Auflösung beschränkt ist. Grob gesehen ist der Wechsel von Filmnegativ auf eine digitalisierte Form eher eine Art Rückschritt.
Naja und Fernseher mit 4K Auflösung... viele haben eh nichts größeres als 40". Klar das da eine höhere Auflösung vermutlich eher vergebene Liebesmühe wäre... jedoch bei größen jenseits von 55" machts dann langsam den Vorteil aus.
Es sei denn es handelt sich um einen PC Monitor vor dem man direkt davor sitzt. Der Vorteil bei Bildbearbeitung liegt dann meines Erachtens klar auf der Hand.

Zu der Entfernung wie man davor sitzt... die neueste Daumenregel die ich gehört hab sind pro Meter Fernseher = Sitzentfernung.
Grob kommts hin. Der ganze 3D Quatsch der uns vermarktet wird ist doch eher Flop. Der Effekt verfliegt am Rande des Fernsehers, wenn man zu weit weg sitzt oder das Bild zu klein ist. Man überlege sich doch nur mal wie weit man im Kino vor dem Bild sitzt und wie sich die Diagonale dazu verhält... sollten eigentlich auch grob 1 Meter auf 1 Meter sein.
 
Auch wenns dann probleme mit Abwörtskompatiblität gibt.
Aber H.256 sollte schon einges helfen.

Auch wenn die Auflösung steigt wird sich ja nicht der Inhalt des Bildes stark ändern und die Kamereinstellung auf mal total anders werden. Daher können da gute Komprimierungen extrem viel Raus holen.

Habe den aktuellen H.256 ihm Rahmen eines Vortrages schon mal getestet und bei FullHD gibt es da Ersparnisse bis zu 50%, wobei 20% - 30% im Vergleich zu H.264 wahrscheinlicher sind.

Thoeretisch sollte bei einer Auflösung der Prozentsatz noch mal etwas steigern, da H.265 ja keine Starren MakroBlocke mehr hat und ehr Objekt bezogen beim komprimieren vor geht.
 
isostar2 schrieb:
Das Problem sind mittlerweile auch die Tonspuren:
Deutsch DTS-HD 6.1 Master Audio,
Englisch DTS-HD 6.1 Master Audio
Audiokommentar vom Regisseur und den Drehbuchautoren
Audiokommentar vom Design-Team
Audiokommentar vom Produktions- und Postproduktionsteam
Audiokommentar von den Darstellern

Spinnst doch wohl (scherzhaft :) )
"Deutsch DTS-HD 6.1 MA" eher eine Illusion... meist wird uns doch so eine scheisse wie DTS oder Dolby draufgesch....en und teuer verkauft. Na Hauptsache ich hab denn Englisch als 7.1 TrueHD drauf ... wie geil
Schmeissen mit ihren Auflösungen und 3d rum aber missbrauchen uns mit Ihren totkomprimierten Soundformate aus der Blechbüchse...
 
Zurück
Oben