Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSony IMX735: Automotive-CMOS-Sensor liest 17,42 MP horizontal aus
Ja gut, man sieht ja an Kameras, was die CPU da alles wie schnell verarbeiten kann.
Hier dürfte aber die Abwärme und Umgebungstemperatur ein gutes Hindernis sein.
naja ich sehe dennoch die Vergleichsbilder sind unschärfer als die bei ner Handykamera.Woran liegt das den ,also wie kann das sein.Dabei sollte es doch bei der Reichweite scharf sein.Oder liegt das an meinen Augen?
Welche Vergleichsbilder und wie wurden die gemacht (Software)?
Du kannst heute unscharfe Bilder heute so stark nachschärfen als wäre es eine neue Kamera. Dafür gibt es genug Software die genau wie ein Smartphone mit Deep Learning arbeitet.
Z.B. Topaz Photo AI für DSLR/DSLM Kameras. Du kannst da genau wie ein Smartphone die MP hochscallieren, schärfen, Details retten und Rauschen entfernen. Genau das was jedes Smartphone von sich aus macht.
Wenn du die Fähigkeiten deiner Kamera gut kennst und Erfahrung hast mit der passenden Software schlägst du mit einer 500€ Kamera jedes 2000€ Smartphone. Weil ein größerer Sensor einfach mehr Quellinformation liefert als ein kleinerer Sensor.
Was ich mich frage, warum man den Sensor horizontal auslesen will, wenn Sony schon Stacked Sensoren hat die jeden Pixel gleichzeitig auslesen kann. Das ist doch wesentlich schneller für die Bearbeitung oder wären die Sensoren zu teuer?
Vielleicht ist es auch schwieriger im Nachhinein es zu synchronisieren mit den Lidar. Hmmm.. Sony wird es schon wissen warum.
Ich ist in jedem Fall leichter mit einem lidar zu synchronisieren. Stichwort Sensor Fusion. Ist schwieriger ein Modell der Welt zu einem Zeitpunkt X aus mehreren Sensoren zu basteln, wenn die Daten der einzelnen Sensoren nicht den gleichen Zeitpunkt einfangen. Wenn du das Bild komplett ausliest, dann bildet nur der erste Pixel links oben die gleiche Welt ab, die das Lidar mit diesem Pixel soeben ausgelesen hat (Angenommen das Sichtfeld des Bildsensors und der Auslesestartzeitpunkt des Lidars sind entsprechend synchronisiert). Jedes weitere Pixel des Bildes liegt aus Sicht des Lidar immer weiter in der Vergangenheit. Das Auslesen des Bildsensors an die Trägheit des Lidars anzupassen ist letztendlich einfacher, als ein ebenbürtiges Lidar zu entwickeln :-P
Es gibt aber auch Solid State Lidars. Weiß nur nicht, was die heutzutage schon leisten.
Ach darum entstehen trotz gleicher Linse auch bei den Handys so unterschiedliche Ergebnisse. Da sind genau unterschiedliche Linsen drinnen.Und die beeinflussen das ganze.Ist die zu hoch ,ist diese also Logisch Langsamer?