Krautmaster schrieb:
ich rede auch nicht vom D800 Sensor gegen ein Smartphone Sensor ^^ ich rede von vielen Pixeln auf selber Fläche wie wenige, zb der FX mit 36MP(D800) vs der FX mit 24 MP (A99) oder den Canon der Mark III.
Du kannst nicht sensoren unterschiedlicher hersteller, und unterschiedlicher kamerasysteme vergleichen. Canon hat einen massiven rückstand in sensortechnologie, die sony dagegen ist nichmal eine SLR Kamera. Bei einer SLT kamera fällt nur ein Teil des Lichts auf den Hauptsensor, der Rest auf das zweite Display welches für den live-view verwendet wird. Der Vergleich hinkt also massiv.
BTW, die D5200 ist rauschtechnisch nicht schlechter als eine D800 und das trotz APS-C!
Wie sieht denn das D800 High Iso Bild auf 24MP runtergerechnet aus? Rauscht es massiv mehr als die 24MP? Mit nichten...
Doch!
Das störendste Rauschen ist nicht das Kontrastrauschen, also helldunkel, welches an Filmkorn erinnert und leicht geglättet werden kann, sondern das Farbrauschen. Farbrauschen bzw. Fehlfarben kommen von mangelnder Dynamik der photodiode und lassen sich nicht so einfach durch runterrechnen korrigieren.
Mangelnde Dynamik, Falschfarben haben alle Kameras auf hohen Isostufen und sind nicht durch Reduktion der Auflösung korrigierbar. Korrigiert man die falschen Farben im RAW wird meistens colorbanding sichtbar und das Rauschen nur noch schlimmer.
Nur empfindlichere (=größere) Photodioden (pixel) haben mehr Dynamik.
Die maximale Empfindlichkeit (ISO) ist heute in erster Linie von der Dynamik beschränkt, nicht vom Rauschen allgemein.
Das Lumia 808 ist davon wohl der bekannteste Vertreter. Gezielt hohe Auflösung die dann auf eine geringere heruntergerechnet wird. Das muss nicht zwingend das Low Light Resultat verbessern, aber es ermöglich hohe MP Sensoren mit viel Auflösungsvermögen bei viel Licht und akzeptablen Resultaten bei wenig Licht zur Zusammenschaltung von Pixeln.
Wie du schon sagst verbessert sich die low-light capability nicht.
Komischerweise ist man bei anspruchsvollen Kameras auch fast gänzlich von diesem Konzept davon weg, aus einer Reihe von Gründen:
- Die Auslesegeschwindigkeit ist schlechter, damit auch der Kontrastautofokus und liveview sowie serienbildrate
- Bei 4K Video wird gerne 1:1 ausgelesen - bei zuvielen Pixeln entsteht enormer berechnungsoverhead
- Hohe Dateigröße der Fotos ohne wirklichlichen Qualitätsgewinn
- Größere Photodioden skalieren beim Rauschen immer besser als ein einfahc nur größerer sensor mit gleichgroßen aber mehr Pixeln
- Digitale Moiree-Entfernung ist bei sovielen pixeln zu rechenintensiv, daher muss man eine blurscheibe verwenden (FSAA filter), die Lichtstärke und Details kostet und die effektive Auflösung senkt.
- Das Auflösungsvermögen der Optiken von Handycameras liegt eher im bereich 4-6MP - wegen der kompakten Konstruktion und durch diffraktion. Selbst die besten mft und aps-c systemkamera Objektive erreichen selten Werte über 12MP.
und... ich denke dass es nicht nur Marketinggag ist. Es ist ja nicht so dass die Sensorfläche perfekt in Pixel unterteilt ist. Dazwischen sind Leitungen, Abstände, ähnlich der Packagedichte von Transistoren im selben Fertigungsverfahren. Man hat die Density geringfügig erhöhen können, die Photozellen dichter gepackt. So "einfach" ist das. Ist ja kein riesen Unterschied.
Da beides schon BSI Sensoren ohne "Leitungen" zwischen den Photodioden sind, kann ich das kaum glauben.
BTW, ich fotografiere neben meiner MFT Ausrüstung mit einem Sony IMX214 @F2.0 RAW (im oneplusone). Nix für dunkel, aber durch RAW kann man die Bilder beider systeme durchaus manchmal mischen, wenn es bloß um onscreen verwertung geht.