PS828 schrieb:
@SimsP so meinte ich das eigentlich nicht. Die Bitrate der Videos auf dem Smartphone ist so schlecht, da hat man selbst in Full HD mehr. Von 4k noch garnicht gesprochen. Eine Qualität von 8k Material die wirklich der vierfachen einer BDXL Scheibe entspricht bekommen die Videos auch eine ganz andere Qualität. Wirklich natives Material sieht unglaublich gut aus. Schon in Full HD. Natives 4k Material ist eine Offenbarung im Vergleich. Und auch 8k schafft das, aber nur ohne diese Komprimierung. Ist nur halt am Smartphone nicht praktikabel, dann siehts 8k Bild mist aus, da zu Tode komprimiert und dann kommen wieder die Schlaumeier die meinen man sieht keinen unterschied mehr
Wenn schon ohne Auflösung dann richtig.. Aber so bringt das die komplette Technik in Verruf.
Aso meintest du das ... dann würde ich dir da teilweise widersprechen wollen.
Zum einen. Kompression hast du quasi immer. Und wenn du die megateuerste ARRI Kamera hast, aber zumindest verlustfreie Kompression ist immer mit drin. Bei vielen professionellen Kameras gibt es selbst diese Möglichkeit nicht, sondern es wird immer noch zusätzlich eine verlustbehaftete Kompression durchgeführt.
Im professionellen Umfeld wird dabei häufig of Prores als Codec zurückgegriffen, weil dieser das Videomaterial nicht so stark komprimiert und man auch in der Postproduction noch genug Spielraum fürs Colorgrading hat, ohne störende Artefakte vom Codec zu bekommen.
Da ich keine persönliche Erfahrung damit habe, weil ich keine 8K fähige Kamera besitze muss ich mich jetzt auf die Werte von Wikipedia verlassen und da steht Prores 8K: 650-7078 MBit/s
Das klingt erst mal deutlich mehr, aber wie gesagt: Das sind Codecs die sind nicht für finales Videomaterial gedacht.
Wenn man sich jetzt einen Enduser Codec wie h.265 anschaut, dann kann der das Videomaterial schon nochmal ein gutes Stück besser komprimieren, ohne sichtbar an Qualität einzubüßen. Nur wenn man dann noch größere Modifikationen am Bildmaterial machen möchte, stößt man natürlich sehr schnell an grenzen.
Persönlich kann ich sagen, dass ich seit Jahren eine NX1 als Kamera verwende und Videoaufnahmen in 4K speichert die am Ende mit der selben Datenrate ab, wie das S20 Ultra seine 8K Bilder.
Solange ich die Videos verwende, so wie sie aus der Kamera kommen, merke ich vom Codec quasi nix. Erst wenn ich im Nachhinein nochmal größere Anpassungen mache, dann kommen sehr schnell Blöcke und andere Artefakte zu Tage.Man ist also mehr gezwungen gleich out of the box gute Bilder mit der Kamera zu machen, weil man in der Post dann durch den Codec stärker limitiert ist.
Wie würde ich das ganze jetzt beim S20 einschätzen ... ich denke solange man die Videoaufnahmen der Kamera nicht noch nachbearbeiten möchte, dürfte sich die Kompression kaum bemerkbar machen. Wesentlich stärker fallen da eher andere Sachen ins Gewicht.
Künstliche Weich- bzw. Scharfzeichner, die Rauschen eliminieren und gleichzeitig dennoch das Gefühl eines scharfen Bildes vermitteln sollen, beeinflussen die Bildqualität von Smartphones meiner Erfahrung nach wesentlich stärker.
Man möchte halt nicht, dass der Nutzer auch bei einigermaßen guten Lichtverhältnissen das doch noch relativ prägnante Rauschen der kleinen Smartphone Sensoren mitbekommt.
Häufig funktioniert das auch hinreichend gut, aber gerade bei schlechten Lichtverhältnissen werden dann feine Texturen im Bild schnell zu Pixelbrei.
Ich halte die 8K Auflösung hier für mehr oder minder sinnfrei, jedoch muss man auch berücksichtigen ... um kleinere Auflösungen zu generieren, werden Kamerasensoren teilweise nicht komplett ausglesen sondern nur ein entsprechend kleinerer Anteil. Dadurch dass weniger Fläche des Sensors genutzt wird, bekommt man dann teilweise auch wieder einen anderen Bildausschnitt bzw. ein schlechteres Lowlight verhalten.
Da muss man mal sehen, wie Samsung das in diesem Fall umgesetzt hat.
Solange es diesbezüglich keine Einschränkungen gibt, erachte ich 4k 60Hz vermutlich als die sinnvollste Aufzeichnungsmöglichkeit.