News Blackmagic Ursa Mini Pro 12K: 12K und 220 FPS für die Filmproduktion von morgen

M.Ing schrieb:
Stimmt, ein FireStick für 60€ und ein TV mit UHD-Panel sind ja quasi Raketenwissenschaft, sowohl bei Komplexität als auch beim Preis...
Marcel55 schrieb:
Das stimmt doch so gar nicht. Streaming-Dienste bieten mehr UHD an als die meisten anderen Kanäle. Und bei Netflix lässt sich das recht einfach abrufen, normalerweise bietet schon jeder moderne Fernseher eine Netflix App mit der man UHD inkl. HDR und Surround Sound nutzen kann. Ansonsten gibt es sowas wie den Fire TV Stick 4K der das auch kann. Oder Spielekonsolen wie die Xbox One S/X oder bestimmt auch ne PS4 Variante.
Das einzige Gerät womit das nicht so einfach geht ist der PC. Das finde ich noch verkraftbar. Der kann dafür andere Dinge.

Und naja Sky Ticket...die leben technisch doch eh in der Steinzeit. Bieten die überhaupt schon Surround Sound an? Über Kabel/Sat gab es soweit ich weiß schon zu Premiere-Zeiten Surround, nur übers Netz, da kriegen sie es nicht hin, während Netflix schon Dolby Atmos anbieten kann. Wenn auch nahezu ausschließlich auf Englisch und auch nur komprimiert, aber immerhin.


Ich finde ganz einfach die Diskrepanz zwischen Produktionsqualität und dem was bei Nutzer:innen ankommt, die nicht aktiv dafür sorgen (Edge nutzen, 4K Stick kaufen, Standard-Streamingeinstellung ändern...) 1080p oder 4K zu empfangen bemerkenswert.

Man muss auch bedenken, dass viele junge Leute (die einen großen Teil der Streaming Kunden ausmachen), oftmals nur einen PC/Laptop als Abspielgerät haben. Dann in Firefox und Chrome nur 720p anzubieten ist schon frech (und die Windows App spielt auch nicht immer problemlos hochauflösend ab).
 
  • Gefällt mir
Reaktionen: fox40phil
germanrule schrieb:
Dann in Firefox und Chrome nur 720p anzubieten ist schon frech

Ich schätze mal, das macht Netflix nicht nur, weil sie im Keller die geheime Kundenverarschungs-Verschwörungsabteilung sitzen haben, sondern es wird am Kopierschutz scheitern. Glaube auf Windows wird PlayReady verwendet, auf Android WideVine, auf Äpfelchen müsste ich googlen.

Das Problem hat Youtube natürlich nicht, weil eh quasi alles außer ein paar Videos "gratis" ist.

germanrule schrieb:
Man muss auch bedenken, dass viele junge Leute (...) oftmals nur einen PC/Laptop als Abspielgerät haben.

Wer das Notebook auf dem Tisch stehen hat, über die Laptopboxen schaut und daneben vermutlich seine Pizza mampft oder eh in einem anderen Tab surft, ist vermutlich nicht der Premium-Referenzkunde, der von 4k profitiert. Und wie gesagt, so schwer ist es bei Netflix nicht, 4k zu bekommen.

Und klar muss man von sich aus die passenden Voraussetzungen schaffen. Entweder bist du an einem gescheiten Mediengenuss interessiert (und besorgst gescheite Boxen und einen gescheiten TV) oder du hast eh nur Berieselung laufen und es ist dir egal.
 
germanrule schrieb:
Man muss auch bedenken, dass viele junge Leute (die einen großen Teil der Streaming Kunden ausmachen), oftmals nur einen PC/Laptop als Abspielgerät haben.
Das finde ich etwas schade, es gibt teils so tolle und hochwertige Produktionen, die haben es nicht verdient, auf einem Laptop angesehen zu werden. Und ich denke nicht, dass das primär ein Problem unter jungen Leuten ist (wo ich mich noch dazu zählen würde), sondern recht gut verteilt. Die einen machen sich halt was daraus, möchten ein Heimkino mit dem was im Budget möglich ist, und den anderen ist es eben egal.

Für mich gehört das dazu, Filme und (gute) Serien in bestmöglicher Qualität, mindestens 1080p auf dem großen Schirm anzuschauen und Ton auch am besten gleich über die 7.1 Anlage laufen zu lassen. So ist es ein ganz anderes Erlebnis als wenn man es einfach mal eben aufm Laptop anguckt. Momentan gucke ich z.B. noch Dark durch und diese Serie profitiert so sehr alleine durch Surround Sound, das Bild ist dazu auch klasse in 4K, auch ohne HDR und trotz Streaming.
Ich kann mir unter Umständen auch vorstellen, dass das mit einem Laptop, Tablet etc. funktioniert. Mein Tablet z.B. hat ein tolles AMOLED Panel und (für dessen Größe) gute Lautsprecher. Damit würde ich wenn ich grad kein Heimkino zur Verfügung habe auch mal sowas anschauen. Das kann auch Spaß machen. Aber trotzdem wird es das Heimkino nicht ersetzen können.
 
painomatic schrieb:
Naja - aus meiner Zeit in Postpro für Werbung und Spielfilm kann ich sagen, dass ca 75% der Produktionen mit Baselight von Filmlight gegradet werden und der Rest mit Resolve.
Ausnahmen bestätigen die Regel und wie lange ist das her?
Maya war auch mal Industristandard, trotzdem hats nicht jedes Studio eingesetzt, aber eben die meisten.
 
Lord Gammlig schrieb:
@Kacha den Trichter kann ich dir sehr einfach erklären: Geld.

Dein Anfangsargument war aber eben nicht Geld, sondern technisch. Und das "technische" Argument ist einfach hinfaellig. Zudem versuchtest du zu verallgemeinern, dass die meisten ja 24 FPS wollen und es sich deshalb nicht lohnt und die anderen sich gefaelligst mit Interpolation begnuegen sollen. Das ist halt nicht wirklich ein Argument.

Geld ist ein Argument, ja. Geld ist auch der Grund warum man 24 FPS genommen hat. Gerade so "fluessig", aber ja nicht mehr. Mal davon abgesehen, dass 24 FPS auch ganz ordentlich einschraenken was man so mit der Kamera machen kann.

Shoryuken94 schrieb:
Du vergisst einen einfachen fakt! nur weil weniger Bilder pro Sekunde aufgenommen werden, sind es nicht die gleichen Bilder. Bei höherer Bildfrequenz bei der Aufnahme verringert sich immer zwangsläufig die Belichtungszeit pro Bild. Deshalb werden High Speed Aufnahmen immer bei extrem hellem Licht gemacht und deshalb wirken bei Handys die Zeitlupenvideos auch meistens so dunkel. auch ist es nicht trivial einen gutes Motionblur nachträglich zu berechnen.

Ich sage nicht, dass es trivial ist, ich sage, dass es sehr wohl moeglich ist. Vor allem da man um einiges mehr an Informationen hat. Ja, klar, Belichtungszeit aendert sich, aber willst du jetzt ernsthaft behaupten, dass das das Hauptargument ist gegen hoeher FPS? Du bietest doch selbst die Loesung an: mehr Licht. Das ist sogar ziemlich trivial.

Shoryuken94 schrieb:
Das ist kein Quark, dass ist Physik. Zwischenbilder zu berechnen hingegen ist deutlich einfacher. Du kennst Frame 1 und Frame 2. Es ist deutlich leichter zu interpretieren was zwischen diesen beiden Frames passiert ist, als Bildeigenschaften zu Faken, die bei der Aufnahme nicht vorhanden waren.

Wenn man massiv mehr Aufwand und Entwicklung in A statt B steckt, ist A meist besser, ja. Steckt man dann den gleichen Aufwand in B merkt man, dass B doch auch ziemlich gut geht.

Shoryuken94 schrieb:
Einfach nur weniger Frames auszugeben bringt keine lange Belichtunsgzeit mit all Ihren Effekten für das Bild zurück und erzeugt auch keine natürlichen Unschärfen in der Bewegung. Mit guten Algorithmen und KI hingegen ist es gut Möglich Zwischenbilder zu berechnen, ganz einfach weil man aufgrund des vorliegenden Datenmaterials Anfang und Endergebnis kennt.

Belichtungszeit ist, wie oben erwaehnt, kein Argument. Dein Argument, dass man mit guten Algorithmen und KI Zwischenbilder berechnen kann trifft genauso auf die Unschaerfe zu. Man hat halt bis jetzt keinen Aufwand dafuer betrieben.

Mal davon abgesehen, dass ich nicht verstehe warum man so unglaublich viel Motionblur will. Ich meide mittlerweile das Kino weil es eine reine Qual ist. Jeder Kameraschwenk sieht aus als waere man komplett betrunken. Wobei, selbst in dem Zustand sieht es nicht so schlimm aus wie im Kino. Ich beneide Leute die davon komplett unbeeindruckt sind. Allerdings frage ich mich auch, was bei denen in der Auge-Hirn Verbindung schief geht. Ich habe den Hobbit leider nicht im Kino gesehen, aber den Trailer in 48 FPS habe ich gesehen. Das sind Welten an Unterschied. Und komischerweise konnte man da von 48 FPS auf 24 FPS fuer den Heimmarkt kommen. Scheint also durchaus zu gehen. Kontraer zu dem was du behauptest.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
M.Ing schrieb:
Ich schätze mal, das macht Netflix nicht nur, weil sie im Keller die geheime Kundenverarschungs-Verschwörungsabteilung sitzen haben, sondern es wird am Kopierschutz scheitern.
Das absurde dabei ist, dass die Leute, die sich die Serien illegal laden, die trotzdem in der maximalen Qualität bekommen können.

Ich habe 4K jedoch trotz aller nötigen Kriterien bei mir noch immer nicht zum Laufen bekommen.
Egal, ob ich Edge oder die Netflix-App benutze ... bei 1080p ist Schluss.
HDCP 2.2 läuft, aktuelles Win10, Codecs sind installiert, Grafikkarte ist RTX 2070 S, ... eigentlich sollte alles erfüllt sein.

Aber man kann ja nicht mal nachgucken, an welchem Glied es jetzt hapert. Gibt bei Netflix keine Möglichkeit dazu.
Das ist einfach super-schlecht gemacht.
 
  • Gefällt mir
Reaktionen: germanrule
duAffentier schrieb:
Juhu ;D So lange in der BRD noch 720p und 1080i im TV Programm gibt, super Technik.
Außer man bezahlt viele € für Streaming und freut sich dann über die High-Quality...

kA, aber Streaming ist mMn im Vergleich zu einem Film/Serie auf BD deutlich schlechter...
 
M.Ing schrieb:
Ich schätze mal, das macht Netflix nicht nur, weil sie im Keller die geheime Kundenverarschungs-Verschwörungsabteilung sitzen haben, sondern es wird am Kopierschutz scheitern. Glaube auf Windows wird PlayReady verwendet, auf Android WideVine, auf Äpfelchen müsste ich googlen.
Ich wundere mich halt, dass es in Edge (theoretisch) funktioniert, nicht aber in den populären anderen Browsern. Das

M.Ing schrieb:
Entweder bist du an einem gescheiten Mediengenuss interessiert (und besorgst gescheite Boxen und einen gescheiten TV) oder du hast eh nur Berieselung laufen und es ist dir egal.
Marcel55 schrieb:
Das finde ich etwas schade, es gibt teils so tolle und hochwertige Produktionen, die haben es nicht verdient, auf einem Laptop angesehen zu werden. Und ich denke nicht, dass das primär ein Problem unter jungen Leuten ist (wo ich mich noch dazu zählen würde), sondern recht gut verteilt. Die einen machen sich halt was daraus, möchten ein Heimkino mit dem was im Budget möglich ist, und den anderen ist es eben egal.
Wenn man keinen Surround Sound hat, sollte man doch wenigstens ohne Probleme eine gute Auflösung bekommen. Da hat man auch Anrecht drauf wenn man keine Heimkinoanlage besitzt. Außerdem haben viele Leute ja zumindest passable Kopfhörer.

Anscheinend habe ich den Anteil von Computernutzern überschätzt :D Trotzdem schade, dass diese Nutzer etwas vernachlässigt werden...
Zahlen von Netflix selbst (2018, oben) und von Statista (für die Niederlande, unten):
1595335424362.png

1595335527650.png
 
Der Computer ist für Netflix halt auch das Gerät, das ihnen Firmenintern am meisten zuwider ist, weil man die wenigste Kontrolle drüber hat. auf iOS und Android kann man sich relativ sicher sein, dass der User kein Schindluder treibt und irgendwie mitschneidet, auch auf den jeweiligen TV-Derivaten (Android TV, Apple TV, FireStick etc.) ist das alles halbwegs abgesichert. Am PC kannst du auf 100 verschiedenen Wegen mitschneiden, darum ist das auch dort mit dem Kopierschutz mühsam.
 
Ja, das ist ein sehr guter Punkt. Schade für Leute die nicht zig verschiedene Geräte benutzen wollen und der PC/Laptop ist nun mal das vielseitigste von allen...
 
germanrule schrieb:
Wenn man keinen Surround Sound hat, sollte man doch wenigstens ohne Probleme eine gute Auflösung bekommen.
Das habe ich auch nicht behauptet. Sagte nur, dass Surround Sound für das vollständige Erlebnis schon wichtig ist, und momentan leider nicht jeder Streaming-Anbieter sowas anbieten kann.
Natürlich kann man auch in 4K und bis zu Dolby Vision angucken und dabei die TV-Lautsprecher oder Kopfhörer nutzen.
Wobei ich eine Eigenart bei meinem TV festgestellt habe: Sobald man Bluetooth-Kopfhörer verbunden hat, erlaubt Netflix kein 4K mehr, sondern nur noch HD. Nach dem trennen der Verbindung war 4K wieder verfügbar.
Hängt vielleicht mit dem Kopierschutz zusammen, auch wenn es nicht wirklich Sinn ergibt, da ich über die analogen und digitalen Audioaugänge auch den Ton mitscheiden könnte.
Über den Klinkenanschluss gehts, aber dafür gibt keine App mehr Surround aus, wenn man per Klinke Kopfhörer dran hat, auch wenn die Audioausgabe momentan über den AVR erfolgt. Vielleicht sind das diese oft erwähnten Eigenarten von Android TV :D

Xnfi01 schrieb:
kA, aber Streaming ist mMn im Vergleich zu einem Film/Serie auf BD deutlich schlechter...
Ja, m.E. dennoch deutlich besser als HDTV, und in 4K auch besser als eine Full HD Bluray.

Langfristig wird es wohl auch beim Streaming bleiben. Die verfügbaren Bandbreiten steigen, damit ist auch mehr möglich. Wenn man einen Film in 8K oder gar 12K auf ein optisches Medium pressen will, muss man sich da auch erst was neues ausdenken. Streaming mit mehreren hundert Mbit/s wäre hingegen schon heute problemlos möglich, nur die Anbieter wollen noch nicht. Natürlich würde es den Kundenkreis verkleinern, aber es gibt eben auch schon viele die 200Mbit/s oder mehr haben, ich denke das reicht für einen 12K Stream in guter Qualität aus. Die Übertragung muss ja nicht unkomprimiert erfolgen, da bräuchte es wie bei HDMI 2.1 bis zu 48Gbit/s, das wäre momentan noch ziemlich utopisch, für die Zukunft jedoch nicht ausgeschlosssen.
 
Marcel55 schrieb:
Das habe ich auch nicht behauptet. Sagte nur, dass Surround Sound für das vollständige Erlebnis schon wichtig ist, und momentan leider nicht jeder Streaming-Anbieter sowas anbieten kann.
Natürlich kann man auch in 4K und bis zu Dolby Vision angucken und dabei die TV-Lautsprecher oder Kopfhörer nutzen.
Achso, dann habe ich das falls aufgefasst :)




Marcel55 schrieb:
Wobei ich eine Eigenart bei meinem TV festgestellt habe: Sobald man Bluetooth-Kopfhörer verbunden hat, erlaubt Netflix kein 4K mehr, sondern nur noch HD. Nach dem trennen der Verbindung war 4K wieder verfügbar.
Hängt vielleicht mit dem Kopierschutz zusammen, auch wenn es nicht wirklich Sinn ergibt, da ich über die analogen und digitalen Audioaugänge auch den Ton mitscheiden könnte.
Über den Klinkenanschluss gehts, aber dafür gibt keine App mehr Surround aus, wenn man per Klinke Kopfhörer dran hat, auch wenn die Audioausgabe momentan über den AVR erfolgt. Vielleicht sind das diese oft erwähnten Eigenarten von Android TV :D
Kurios, außer am Smartphone läuft BT bei mir aber auch nicht perfekt.
 
USB-Kabeljau schrieb:
...
Egal, ob ich Edge oder die Netflix-App benutze ... bei 1080p ist Schluss.
...

Ich denke da nur an die Filme aus dem MS Store, sind größtenteils bei 720p, solange es über einen Laptop läuft, als XBox Nutzer dagegen gibt es auch 1080p.
Warum nur?


Marcel55 schrieb:
... aber es gibt eben auch schon viele die 200Mbit/s oder mehr haben, ich denke das reicht für einen 12K Stream in guter Qualität aus....

Großraum München und die Telekom schafft es nicht mal, das 16MBit zuverlässig ankommen.
Entwicklungsland pur und in Farbe
 
andi_sco schrieb:
Großraum München und die Telekom schafft es nicht mal, das 16MBit zuverlässig ankommen.
Sollte nicht sein. Wenns die Telekom nicht schafft, vielleicht ja Vodafone (Kabel) oder im Raum München lokale Anbieter.
Ich denke, bis es 12K Fernseher gibt oder sich 8K Streams durchgesetzt haben, wird auch das Netz dort entsprechend sein. 16Mbit/s die voll ankommen reichen ja immerhin für 4K bei Netflix (15,25Mbit/s).
 
Über TV dürfen wir nicht Vodafone nutzen und übers Telefon ist es ne beschädigte Telekom Leitung.
Nutzen deswegen halt einen LTE Router.

Aber genügend OT
 
mindfest schrieb:
So,

damit das wirklich coole an der Cam nicht untergeht hier noch eine Info warum die 12K nicht das einzig besondere sind.

Die Cam hat einen selbst entwickelten 80MP RGBW Sensor mit 6x6 Pattern statt dem üblichen Bayer filter mit 2x2.
Da stellt sich mir dann wieder die Frage wie die Auflösung gezählt wird. 6K oder 8K haben Red oder Arri auch nur auf dem Papier.
 
Zuletzt bearbeitet:
mindfest schrieb:
...
So, nun hat dieser Sensor keine 2x2 Anordnung sondern eine 6x6 mit zusätzlichem (RGB)W Teil für die Helligkeit....

Normalerweise werden ja 2 Grüne und ein Roter und ein Blauer Pixel zu einem Farbpunkt zusammengefasst.
Bayer Matrix (36-1)-01.jpeg

Bei 6x6 stelle ich mir das so vor, das man mehr Farbpixel zusammenfasst um einen genaueren Wert zu erhalten.
Gleichzeitig könnte dieser Superpixel in Subpixel mit unterschiedlicher Helligkeit aufgeteilt sein :confused_alt:
Bayer Matrix (36-1).JPG


Ich habe dadurch eine hohe Auflösung bei der Helligkeit, bei gleichzeitiger Verringerung der Farbpixel aber dafür eine Erhöhung der Farbgenauigkeit:confused_alt:
 
Das macht wenig Sinn, die gleiche Farbe direkt nebeneinander anzuordnen.
Also zumindest nicht, wenn man damit dann einfach nur fettere Pixel generiert.
Dein Layout ist ja im Prinzip nur ein 2x2-Layout mit langgezogenen Pixeln.

Das W bei RGBW wird doch wohl für "weiß" stehen.
Also Pixel ohne Farbfilter. Das steigert die Lichtempfindlichkeit.
Wie man das am smartesten in einem 6x6-Feld anordnet ... keine Ahnung ... werden wir dann ja sehen.
 
  • Gefällt mir
Reaktionen: andi_sco
andi_sco schrieb:
Normalerweise werden ja 2 Grüne und ein Roter und ein Blauer Pixel zu einem Farbpunkt zusammengefasst.
Nee, normalerweise werden die Lücken durch Debayering aufgefüllt.
 
  • Gefällt mir
Reaktionen: andi_sco
Zurück
Oben