Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPatent: LG liebäugelt mit 16 Linsen im Smartphone
Der Dunning-Kruger-Effekt sagt dir nichts, oder? Zum Glück gibt es ja Google
Pizza-König schrieb:
Ja, das vergleiche ich, weil es vergleichbar ist.
Es kommt auch nicht auf die Sensorgröße an, sondern auf das Frontelement des Objektives.
Das ist übrigens nicht umsonst so groß. Ein einzelnes Objektiv blickt bereits aus unendlich vielen unterschiedlichen Winkeln auf die Welt.
Aus dem Grund bekommt man dann auch Bokeh.
Das Licht fällt dann ja auch gleichmäßig gestreut, also weich und übergangslos, auf den Sensor, und nicht aus wenigen vollkommen anderen Perspektiven, zwischen denen es keine Übergänge mehr gibt. Dadurch hast du dann einen vernünftigen Bokeh.
Pizza-König schrieb:
Das Bokeh würde bei den 16 Linsen natürlich ohne entsprechendes Prozessing sehr unruhig (aka hässlich) wirken.
Aber vermutlich verstehst du auch hier wieder nicht, warum.
Merkwürdig. Du bestätigt, was ich sage, widerlegt dein eigenes Argument (dass keine KI und kaum Postprozessing nötig wäre), und unterstellst dann, ich würde es wohl "wieder nicht verstehen". Lol
Können wir mal aufhören uns über die Linsen aufregen und einfach uns mal freuen, dass es technisch voran geht?
Und wenn sie 23849723984 Linsen verbauen - ist doch egal. Wichtig ist doch was dabei am Ende rauskommt.
Schaut euch mal die Patente von anderen Unternehmen an die zt seit Jahrzehnten irgendwo rumliegen, absolut irrsinnig sind aber nicht genutzt werden.
Mein Gott - in einem Technik Forum absolut fehlende Verständnis für Technische Innovationen/Ideen.
Du hast ernsthaft die Bilder aus der Kategorie "Zoom" für einen Vergleich rangezogen? Dir fällt aber schon auf, dass das V30 über keine Telelinse verfügt? Damit vergleichst Du die Hauptlinse des V30 mit den Telelinsen von iPhone und Samsung bei einem Zoomfoto. Großes Kino
Schande über mein Haupt, das ist mir gar nicht aufgefallen Dann kann man diese Beispiele natürlich von den anderen streichen
BTICronox schrieb:
Das Bild stützt meine Aussage, das V30 hat auch hier am wenigsten Rauschen, gerade im Vergleich zum Pixel... belichtet nur nicht lang genug, womit das Bild (viel) zu dunkel wird.
Da Ich ein V30 besitze: Ist einfach ein Problem von zu kurzer Belichtungszeit. In dem Moment verfälschen Farben und Details verschwinden. Mit RAW oder einfach längerer Belichtung wäre das gar kein Problem (Ich schieße fast nur manuell), aber LG scheint dem Sensor weniger zuzutrauen als er eigentlich könnte.
@BTICronox
Genau das ist halt der Punkt. LG nutzt das Potential der Sensoren nicht aus. Ich verwende bei meinem Samsung-Smartphone auch grundsätzlich nur die Samsung-Kamera-App, da externe Apps keine guten Bilder liefern. Die Algorithmen müssen auf den jeweiligen Sensor und dessen Technik abgestimmt sein, und da hat LG noch viel Luft nach oben, aber auch Samsung und einige andere Hersteller. Beispielsweise übersättigt Samsung manche Bilder stark, besonders bei schlechtem Licht.
Ich persönlich finde diese Entwicklung hin zu Multi-Sensor-Systemen ziemlich bescheuert. Das Pixel 1 und 2 haben uns gezeigt, dass sie auch mit nur einem Sensor top Fotos machen können. Die anderen Sensoren sind mehr fürs Marketing, als dass sie wirklich einen Nutzen bringen. Interessant wäre ein Dual-Sensor meiner Meinung nach nur für Stereoskopie (3D).
Da Ich ein V30 besitze: Ist einfach ein Problem von zu kurzer Belichtungszeit. In dem Moment verfälschen Farben und Details verschwinden. Mit RAW oder einfach längerer Belichtung wäre das gar kein Problem (Ich schieße fast nur manuell), aber LG scheint dem Sensor weniger zuzutrauen als er eigentlich könnte.
@BTICronox
... Ich persönlich finde diese Entwicklung hin zu Multi-Sensor-Systemen ziemlich bescheuert. Das Pixel 1 und 2 haben uns gezeigt, dass sie auch mit nur einem Sensor top Fotos machen können. Die anderen Sensoren sind mehr fürs Marketing, als dass sie wirklich einen Nutzen bringen. Interessant wäre ein Dual-Sensor meiner Meinung nach nur für Stereoskopie (3D).
Ist beim V40 zum Beispiel gar kein Thema, das benutzt exakt den Sensor, den auch das Pixel 3 nutzt. Aber auch auf meinem V30 funktioniert die Google Cam als Alternative wunderbar.
Tele-Objektive bringen bei Smartphones recht wenig. 2-fach Zoom bedeutet, dass nur ein Viertel so viel Licht auf den Sensor trifft wie normal. Darunter leidet die Bildqualität in vielen Situationen deutlich. Dazu kommt, dass die Objektive bei der Größe oft gar nicht gut genug sind und das Licht brechen, was gerade bei Tele-Objektiven zu noch schlechteren Bildern führt.
Weitwinkel sind schön und gut. Da könnte man von mir aus auch generell ein eher weiteres Objektiv als Standard nehmen. Ansonsten habe ich da nichts gegen ein zweites Objektiv, aber in den meisten Fällen braucht man das kaum und könnte es auch anders lösen. Beispielsweise einfach durch einen größeren und höher auflösenden Sensor, sodass auch bei digitalem Zoom die Bildqualität nicht stark leidet. Oder halt ein mechanischer Zoom wie bei alten Digi-Cams. Das ist natürlich bei 8 mm dünnen Smartphones recht schwierig, aber meiner Meinung nach könnte man eh problemlos 2 mm draufpacken und dann dickere Akkus verbauen
Oder halt Aufsteck-Objektive als Zubehör. Aber so, wie es aktuell gemacht wird, wird der Platz oftmals einfach verschenkt. Zumindest, wenn die sekundäre Kamera ein Tele-Objektiv hat.
Erst waren es Mhz, dann die Anzahl der Kerne und die Displayauflösung, dann die Notch und jetzt wird ausprobiert, wie viele Cams in ein Smartphone passen. 16 schießt den Vogel aber echt ab.
Wollen die damit 360° Horizontal und Orbital abdecken?
Also bei denen finde ich das LG am zweitbesten. Das Note 8 ist am natürlichsten. Das iPhone filtert erst alle Details weg und schärft dann die Konturen nach. Da kann ich auch Aquarelle zeichnen, kommt dasselbe raus.
Du dagegen scheinbar nicht. Auch wenn Du von der Überlegenheit der "KI" Algorithmen faselst, hast Du eben die physischen Grundlagen der Photographie nicht verstanden. Dann kommt dabei auch so ein Unsinn raus:
Blade Runner (Originalfilm von 1982), wo es auch Fotos gab, in die man nicht nur massiv hineinzoomen konnte, sondern dann auch noch den Blickwinkel verändern.
In der Szene wurde kein Blickwinkel verändert, sondern auf den Spiegel im Hintergrund gezoomt. Und da es ein analoges Foto war, verpixelt da auch nichts, liefert halt einfach nur nicht mehr Details als vorhanden.
insXicht schrieb:
Google verbaut weiterhin nur eine und zieht allen mit einer ordentlichen Hardware für die Kamera und starker Software allen davon.
Vorsicht! Sonst heißt es bald... Neben Intel (, AMD und ARM) nun auch LG von Spectre betroffen. Wird nun vorsorglich via Sicherheits-Update deaktiviert.
Dann kommen Fragen auf wie: "Welche ROM macht jetzt gute Fotos?"
Offensichtlich nicht. Und lesen kannst du auch nicht. Oder wieso reißt du meine Aussagen aus dem Kontext und verdrehst deren Bedeutung?
Bzw. legst mir schon wieder Dinge in den Mund, die ich nicht gesagt habe.
Richtig asozial und unverschämt.
Wird mir hier so langsam auch zu blöd bei so vielen Technik-Analphabeten und Fortschritt-Verteufelern.
Kauf du mal schön dein teures Pixel.
Aber heul uns dann bitte in einem Jahr nicht die Ohren voll, weil's nur ein Linse hat.
Das stimmt. Eine weitere Linse, wenn sie denn sinnvoll, wie Du schon schriebst, als Weitwinkel oder "Teleobjektiv" (Bei einem Smartphone wohl eher als schlechter Scherz zu bezeichnen, zumindest bei den allermeisten Modellen außer den alten Nokias ) ausgeführt sind, ergibt durchaus Sinn. Aber mehr eben halt auch nicht.
Tiefseefische sind übrigens auch mit ganz großen Augen im Vergleich zur eigenen Körpergröße um Restlicht einzufangen, ausgestattet. Manchen hängt zielführend sogar eine Laterne vor dem Gesicht. Da wo kein Licht das Leben sinnvoll erweitert, wird mit Schall oder Tastsinn gearbeitet.
Die Logik, wo man für welchen Einsatzbereich mehrere kleinere Sensoren tatsächlich nutzen kann, scheint den Menschen entgangen zu sein.
Selbst im Automotive Bereich wird neben anderen bildgebenden Techniken auf viele, aber große Sensoren mit wenig MP, aber großen Pxielpitch gesetzt. Der Bereich ist echtzeitkritisch bei der Auswertung und Analyse für Entscheidungen. Wenn da noch zeitaufwendig entrauscht werden muss, hängt man ungebremst als Fleischklops im LKW.
Fortschritt der eingesetzten Technik muss sinnvoll sein und das ist er bei Smartphones nun lange nicht mehr.
Was genau sollte der Link jetzt zeigen?
Und wieso ist es deiner Meinung nach nicht sinnvoll, mehr Licht einzufangen und mehr Sensorfläche bereitzustellen, indem man mehrere Linsen verbaut?
Und welchen Fortschritt als eine bessere Kamera fändest du denn sinnvoll in einem Smartphone?