News Samsung-Smartphones: Neuer Kamera­sensor mit 150 MP misst fast 1 Zoll

modena.ch schrieb:
...
Wenn ich eine moderne 16MP KB Kamera habe und eine moderne 64MP KB Kamera und
von beiden dasselbe Motiv aufnehme und das 64MP Bild auf 16MP herunterskaliere wird das
skalierte Bild wahrscheinlich sauberer (rauschärmer) mit besserer Dynamik sein.
Kleiner ausgeben, hat Bildfehler schon immer verschwinden lassen.

Gibt es ausserhalb der Smartphone Welt denn Kameras, die dieses Binning durchführen können?

Höhere Dynamik kann man erreichen, in dem ein Teil der Pixel mit höheren ISO Werten arbeitet und ein Teil genau umgekehrt?
Also HDR in Echtzeit, ohne drei Einzelaufnahmen?
Ergänzung ()

akimann schrieb:
nee, größerer Sensor = mehr Kaufreflex

Glaube ich nicht, denn bei Testern kommt der Kamerabuckel ja nicht wirklich gut an. Das lässt sich nur mit kleineren Sensoren verbessern, sonst wird das Smartphone ja fett wie nen Wal, bei 2mm mehr... (Ironie lässt grüßen)

Hat denn irgendwer eine Vorstellung, wie dick so ein Smartphone mit 1" sein müsste bei Ultra-/Weitwinkel?
 
  • Gefällt mir
Reaktionen: akimann
new Account() schrieb:
Das ist doch etwas ganz was anderes als wenn man Pixel (gleiche Belichtung, gleiche Sensibilität) zusammenfässt.

Nee, nicht gewaltig, das Licht wird auf benachbarte Pixel in leicht anderem Winkel und
leicht anderer Intensität auftreffen. Dann kann man auch noch verschiedene Pixel quer über den Sensor definieren, die nur die Helligkeit und den Kontrastumfang bestimmen. Das alles kann man verrechnen und die Dynamik steigern.

@andi_sco
Das ist ja nicht wirklich HDR mit mehreren Einzelaufnahmen, was viele Blenden Dynamik bringen kann.
Was ja aber heut sowieso quasi in Echtzeit geht am Smartphone (2-3 Sekunden bis Resultat).

Es geht um vielleicht ne halbe, 3/4 Blende Steigerung der Dynamik. Die Sensoren sind da heute von Grund auf ja schon sehr Stark im Vergleich mit denen vor 7-10 Jahren.
Und ganz Echtzeit ist es ja auch nicht, wenn die AI Geschichte aktivierst dauert das auch Sekundenbruchteile oder gar ne Sekunde.

In der Kamera, automatisiert weiss ich von keiner die das ausserhalb der Smartphones macht. Aber da gibts ja auch bei weitem nicht die Rechenleistung oder AI Einheiten.
Aber am Rechner in der EBV kannst das natürlich machen.
 
Zuletzt bearbeitet:
Andregee schrieb:
Man darf nicht vergessen, daß zwischen Pixeln Zwischenräume sind die die lichtempfindliche Fläche reduzieren.
Man darf aber auch nicht die kleinen Linsen vergessen, die über jedem Pixel liegen, und somit nahezu das komplette Licht neben dem Lixel auf diesen umlenken.

Die Zwischenräume spielen daher heute nicht mehr wirklich eine Rolle.

Mehr Pixel sorgen desweiteren für weniger Moiré.
Ein runtergesampeltes Foto wirkt auch schärfer ... wobei ich mir grad nicht sicher bin, ob das bei direktem Pixel-Binning auch der Fall ist.

Vermutlich hat man unterm Strich aber etwas weniger Rauschen, wenn man die Informationen aus mehreren kleinen Pixeln mittelt.
Die rauschen zwar jeder für sich mehr als ein großer, aber gemittelt dann vermutlich weniger.

Spielt aber alles keine Rolle, wenn die Optik davor nichts taugt oder die Software wieder alles kaputt macht.
Diese hässlichen Artefakte in vielen Smartphone Bildern kommen nicht von der Komprimierung, sondern von dem bescheuerten Post-Processing.

Da auf 16MP gebinnt wird, erwarte ich außerdem einen Crop bei 4K60fps.
12MP wären hier besser.
 
Burner87 schrieb:
Ein 1 Zoll Sensor ist nicht 1 Zoll groß, sondern 13,2 x 8,8mm.

Die 150 Megapixel des fast 2,54 cm großen Sensors

Wenn ich den Bericht lese misst der Sensor 1" und ist kein 1" Sensor mit 13,2x8,8 mm
Der Sensor müsste so groß wie ein MFT-Sensor sein. Also ca 17x13 mm
 
Zoll-Angaben beziehen sich seit eher auf die Bildröhre. Wer das anders angibt (Seriosität der Quelle beachten), kann von der Thematik keine Ahnung haben. Natürlich ist es theoretisch möglich, dass es so ist. Ich glaube es nicht. Zudem wäre ein Sensor in MFT-Größe bei einem Smartphone aus meiner Sicht nicht zu realisieren.
 
RayKrebs schrieb:
Zitat: " Die 150 Megapixel des fast 2,54 cm großen Sensors sollen per Pixel-Binning im Verhältnis neun zu eins auf Fotos mit 16 Megapixel reduziert werden"

Aber warum macht man das? Auch professionelle Vollformat Kameras mit noch wesentlich größerem Senor machen solche Mega Spielchen auch nicht.

Wieso nimmt man nicht gleich 1 Zoll und 16 MegaPixel. Klingt das nicht gut genug?
Es ist auch weit verbreitet Videos in 4k aufzunehmen und dann auf 1080p runter zu rendern. Das resultiert in bessere Bildqualität als natives 1080p. Das wird für Fotos wohl auch gelten.
 
marketing blödsinn. große sensoren sind super, aber 12 mp sind mehr als genug. sonst hat man wieder viel zu wenig licht auf jdem pixel. 150 mp = schwachsinn^150
 
Zuletzt bearbeitet:
Zurück
Oben