News Patent: LG liebäugelt mit 16 Linsen im Smartphone

Pizza-König schrieb:
Ja, 16 Kameras in ein Smartphone sind besser als eine. Mehr ist besser, denn mehr Linsen bieten auch mehr Sensorfläche dahinter und somit niedrigeres ISO-Rauschen.
Mehrere Linsen sind bei einem Smartphone die einzige Möglichkeit, die Sensor-Leistung signifikant zu steigern, OHNE das Teil unsinnig fett zu machen.
Wenigstens einer hat es verstanden. Danke!

Shoryuken94 schrieb:
Wie wäre es, wenn man statt drölf 2€ Linsen nicht einfach mal eine wirklich gute einbaut?
Compo schrieb:
Ein dickeres Smartphone und dafür nen fetten Sensor rein, DAS wäre doch mal was.
Sowas ähnliches gab es bereits: Nennt sich Samsung Galaxy S4 Zoom.
Samsung-Galaxy-S4-Zoom-k.jpg


War prinzipiell eine nette Spielerei, aber wie man an den Bildern überdeutlich erkennt: Das Ding ähnelt eher einer Kompakt-Kamera, als wie einem Handy. Insbesondere ist es im Vergleich zu aktuellen Smartphones extrem dick. Das will niemand haben. Wenig verwunderlich, war das ein Flop.

Das Problem ist nicht (nur), dass Hersteller Geld sparen wollen. Selbst dann, wenn Geld keine Rolle spielt, lässt sich an den aktuellen Smartphone-Linsen nicht mehr viel verbessern. Die aktuelle Technik ist nahe an dem, was physikalisch maximal möglich ist. Wenn man eine bessere Linse und größere Sensoren haben möchte, muss dafür zwangsweise ein (deutlich) dickeres Gehäuse her. Aber das will niemand haben. Folglich ist der Verbauen mehrerer Linsen die einzige Möglichkeit, wie man die Qualität noch weiter verbessern kann.

Überlegt euch mal, warum sämtliche (semi-)professionelle Kameras große Objektive haben, und daher in der Regel sehr unhandlich sind. Selbst aktuelle Systemkameras in Verbindung mit Festbrennweite sind deutlich größer als ein Smartphone. Glaubt ihr, die Hersteller machen das, damit man mit seiner fetten Kamera angeben kann? Wenn es technisch möglich wäre, gäbe es garantiert schon lange professionelle DSLRs in Smartphonegröße. Aber es ist eben nicht möglich. Die Physik setzt dem Grenzen.
 
  • Gefällt mir
Reaktionen: Pizza-König
Man hätte die 1 Zoll Sensoren in Smartphones weiter verfolgen/verbessern sollen.
>>> https://www.computerbase.de/2014-09/panasonic-kamera-smartphone-mit-1-zoll-sensor/

Seltsam, das Sony bei den Kompaktkameras damit Vorreiter war (Panasonic kam erst später damit), aber bei ihren Smartphones setzen sie auf (quasi) 0815 Sensoren (und implementieren diese schlechter als die Konkurrenz).
Wahrscheinlich, um sich damit nicht selbst den Markt abzugraben ...
 
  • Gefällt mir
Reaktionen: FFelsen2000
componetguy82 schrieb:
Man hätte die 1 Zoll Sensoren in Smartphones weiter verfolgen/verbessern sollen.
>>> https://www.computerbase.de/2014-09/panasonic-kamera-smartphone-mit-1-zoll-sensor/
.

Absolut. Nachdem mein Nokia 808 wg des Symbian-Todes in Rente geschickt wurde, hatte ich mir viel vom CM1 versprochen. Aber neben dem Preis war das leider für eine HANDYkamera auch schlecht ausgestattet. Sehr schade.

Ich würde sofort zuschlagen, wenn es mal wieder ein Tophandy mit 1Zollsensor gäbe.

Alternativ habe ich nach einer Kompaktkamera mit 1Zollsensor geschaut und was war? Praktisch keine hatte noch ein GPS-Modul. Das hatten früher mal alle Kameras, sogar die Dinger aus dem Kaugummiautomaten...

Für Kamerahandys gibt es keinen Markt. Das muss man wohl akzeptietem.
 
SaschaHa schrieb:
...die allesamt aus unterschiedlichen Winkeln geschossen werden und exakt (auf den Pixel genau) ausgerichtet werden müssen, damit sie halbwegs überlagert werden können. Und selbst dann sind es mehrere unterschiedliche Bilder, da sie versetzt aufgenommen wurden.
Man ... wie funktioniert das nur bei konventionellen Kameras, deren Frontelement des Objektivs mitunter eine größere Fläche abdeckt, als so eine gesamte Linsenmatrix? :rolleyes:

Wiedermal null Ahnung von Technik/Optik.
Die unterschiedlichen Perspektiven spielen ab einem gewissen Abstand keine Rolle mehr. Das Ausrichten ist ein Kinderspiel und macht JEDE Kamera-Software auf dem Smartphone heutzutage eh schon nebenbei (HDR-Bursts), und kann im Prinzip mit dem Fokus verknüpft OHNE jegliche Bilderkennung erfolgen, da man mit simpelster Geometrie schon berechnen kann, um wie viel Pixel/Teilpixel die Bilder bei einem bestimmten Abstand verschoben werden müssen.
Ergänzung ()

SaschaHa schrieb:
Weil LG allgemein nicht gerade für gute Kamera-Qualität bekannt ist. Zwar bieten sie nette Features wie das Super-Weitwinkel-Objektiv, aber die Bildqualität ist laut zahlreicher unabhängiger Tests meist nicht auf dem Niveau der Konkurrenz, besonders nicht bei Low-Light
Das Denoising ist bei deren Software nicht so gut.
Der Umfang und die UI sind allerdings sehr vorbildlich. Es gehen wenn ich mich recht entsinne sogar RAW Bilder ... da kann man dann am PC selbst denoisen.
Vorbildlich ist auch (ich glaube voller) Support der Camera2 Api.
Somit kann man dann auch andere Software verwenden. Gibt auch nen GoogleCam Mod. Dann hat man die Pixel-Software mit der unnerreicht guten Burst-Funktion.
 
Zuletzt bearbeitet:
Pizza-König schrieb:
Man ... wie funktioniert das nur bei konventionellen Kameras, deren Frontelement des Objektivs mitunter eine größere Fläche abdeckt, als so eine gesamte Linsenmatrix? :rolleyes:

Wiedermal null Ahnung von Technik/Optik.

[...]
Vergleichst du gerade ernsthaft ein großes Objektiv mit mehreren kleinen, die überlagert werden? Autsch! :facepalm: Dunning und Kruger lassen grüßen :)

Dass man dir das noch erklären muss... Im Gegensatz zu einem großen Sensor mit nur einem Objektiv liegen die Pixel bei mehreren Linsen, die man hinterher überlagern will, nicht direkt nebeneinander, sondern versetzt. Somit nehmen diese aus ganz anderen Perspektiven / Winkeln auf, als es bei einem einzelnen großen Sensor / Objektiv der Fall ist.

Zudem widerlegst du die Aussage deiner ersten rhetorischen Frage mit dem Rest des Textes selbst, indem du ja selbst darauf eingehst, wie das dann bei mehreren Sensoren gemacht wird. Jedoch scheinst du da auch einiges nicht zu beachten...

Dir ist schon klar, dass für deine Theorie der exakte Abstand jedes einzelnen Pixels zum Motiv exakt bestimmt werden muss, um die Position im finalen Bild berechnen zu können, oder?

Das mag bei Landschaftsfotos keinen Unterschied machen und gut funktionieren, aber bei nahen Motiven ist das teilweise gar nicht erst möglich, da die einzelnen Pixel, die hinterher überlagert werden sollen, aus vollkommen unterschiedlichen Winkeln auf das Objekt blicken und damit schlimmstenfalls sogar verschiedene Seiten des Objektes sehen. Genau daraus entsteht ja der 3D-Effekt.

Des Weiteren müsste diese Erkennung bzw. der Fokus bei Videos innerhalb von Frame-Bruchteilen erfolgen, was praktisch erst recht kaum möglich ist.

Ich denke, du solltest dir selbst erstmal ein Mindestmaß an räumlichen Vorstellungsvermögen aneignen, bevor du anderen unterstellst, keine Ahnung von Technik oder Optik zu besitzen ;)
 
SaschaHa schrieb:
Ähm jaa, gut selektiert.

LG V30 <-> iPhone X <-> Note 8

Kann ich von dir nicht behaupten. Die Shots nehmen sich fast nichts... Was bei 1000 lux auch zu erwarten ist, da alle mit ISO 50 oder weniger schießen.

Gerade bei Low Light wird das Thema Noise wichtig. Und da zieht das V30 gut mit... und am iPhone bequem vorbei.

SaschaHa schrieb:

Du hast ernsthaft die Bilder aus der Kategorie "Zoom" für einen Vergleich rangezogen? Dir fällt aber schon auf, dass das V30 über keine Telelinse verfügt? Damit vergleichst Du die Hauptlinse des V30 mit den Telelinsen von iPhone und Samsung bei einem Zoomfoto. Großes Kino :daumen:

Bei diesen beiden Beispielen muss das V30 gut den vierfachen Bildinhalt aufgrund des erheblich breiteren Winkels rendern... natürlich ist das unschärfer :freak:

Dafür verfügen die anderen beiden über keine Weitwinkellinse - die von quasi jedem als die praktischere Alternative abgesegnet wurde. Diese Kategorie wird bei DxO aber strategisch geleugnet ^^

Ergänzung ()

SaschaHa schrieb:

Das Bild stützt meine Aussage, das V30 hat auch hier am wenigsten Rauschen, gerade im Vergleich zum Pixel... belichtet nur nicht lang genug, womit das Bild (viel) zu dunkel wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pizza-König
Marcel55 schrieb:
Fortschrittsverweigerer hier. Lächerlich!

Hab ich die Ironie nur überlesen, oder ist das dein Ernst!?

Hat ja durchaus seine guten Gründe, warum (Semi-)Profi-Kameras weiterhin nur ein (zugegebenermaßen wechselbares) Objektiv haben. Aus 16 mal so viel Schrott wird noch lange nichts Gutes. Dass man auch weiterhin mit einer einzigen Linse die besten Fotos macht, beweist ja das Pixel 3.

Ein guter "Kompromiss" sind die Zwei-/Drei-Linsen-Smartphones, sofern diese sinnvoll (In manchen Geräten bspw. eine Linse für Weitwinkel oder wie beim Sony die eine Optik für reine Luminanz.) verwendet werden. Aber das hier ist einfach nur noch lächerlich, oder schlichtweg dumm.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Dumm ist vor allem, wenn man selbst nicht verstanden hat, wieso das Pixel so gute Bilder macht und dementsprechend auch nicht versteht, wieso mehrere identische Linsen die Performance ebenfalls verbessern (und robuster als Bursting sind, wenn sich was im Bild bewegt), aber hier dann so einen einfältigen Post abliefert.

SaschaHa schrieb:
Vergleichst du gerade ernsthaft ein großes Objektiv mit mehreren kleinen, die überlagert werden?
Du beweist weiterhin, daß du über NULL technisches Verständnis verfügst.

Ja, das vergleiche ich, weil es vergleichbar ist.
Es kommt auch nicht auf die Sensorgröße an, sondern auf das Frontelement des Objektives.
Das ist übrigens nicht umsonst so groß. Ein einzelnes Objektiv blickt bereits aus unendlich vielen unterschiedlichen Winkeln auf die Welt.
Aus dem Grund bekommt man dann auch Bokeh.

Das Bokeh würde bei den 16 Linsen natürlich ohne entsprechendes Prozessing sehr unruhig (aka hässlich) wirken.
Aber vermutlich verstehst du auch hier wieder nicht, warum.
 
Pizza-König schrieb:
Ist alles falsch, was du sagst...
Ich denke es ist andersrum, du scheinst nicht richtig gelesen zu haben. Es wird in keinem Satz von besserer Belichtung oder mehr Sensorfläche gesprochen.

Dafür stehen dort Sätze wie
KI als Voraussetzung für gute Bilder
oder
Durch die verschiedenen Linsenformate sollen sich Bilder und Videos einfacher bearbeiten und verändern lassen
Was deine Behauptung/Vermutung es wären 16 mal die gleichen Linsen widerlegt.

Wenn die Kamera selbst entscheidet wie das Bild aussieht und es als JPG ausgibt ist das ein Nachteil, denn dann ist das Bild komprimiert und ein Teil der Informationen unwiederbringlich verschwunden. Das ist ein Nachteil, einer den du vielleicht nicht siehst oder sehen willst, aber es ist einer.
Auch wird nicht erwähnt, ob bei einem nicht perspektivischen Foto ebenfalls alle 16 Linsen genutzt werden oder nur eine.

Aber du hast schon recht.
Pizza-König schrieb:
Ist alles falsch, was du sagst...
 
Zuletzt bearbeitet:
Statt Wettrüsten bitte abwärtskomptibilität, zu Avchd oder Mod oder gar DivX Videos beim Aufnehmen, konvertieren am PC nervt
 
Computerfuchs schrieb:
Dann hattet ihr offensichtlich kein LG. Mein G5 hat letzten Monat (30 Monate nachdem ich es gekauft habe!) das Update auf Android Oreo bekommen, inkl. Sicherheitspatch-Level 1. September 2018. Insgesamt ist das mindestens das 5. Update, seit ich das Smartphone habe. Bin positiv überrascht von der Update-Politik von LG.

Ich habe zwar die Befürchtung, dass der Sprung auf Oreo das letzte Update war. Trotzdem: Meckern und behaupten, es gäbe nach 12 Monaten das erste und einzige Update, ist unfair. Es entspricht einfach nicht der Wahrheit.

Habe das G7 Thinq welches ich mir hauptsächlich wegen des KHV gekauft habe. Zwar ist "kein update in 12 Monate" überzogen, allerdings hänge ich mit einem Smartphone welches dieses Jahr als main-line von LG released wurde immnoch beim September Security Patch level (welches von LG Ende Oktober ausgerollt wurde)... Wenn ich da gleichzeitig sehe wie das Galaxy S7 scheinbar magisch jeden Monat den Sicherheits patch bekommt (jetzt kam vor ein paar Tagen der November Patch) muss man sich schon fragen ob LG da überhaupt noch was machen wird.

Wenn du also positiv überrascht bist scheint das entweder von noch schlechteren Erwartungen oder von gar keinen Erwartungen zu zeugen.
 
Coool - Wer erinnert sich noch an Blade Runner (Originalfilm von 1982), wo es auch Fotos gab, in die man nicht nur massiv hineinzoomen konnte, sondern dann auch noch den Blickwinkel verändern..
 
.Silberfuchs. schrieb:
Ich musste im Samsung-Thread noch über die Kommentare schmunzeln wie „unter 20 Kameras kaufe ich kein Smartphone mehr“…
…und dann kam LG… XD

Vielleicht haben findige LG-Ingeniöre den Thread auch gelesen und gedacht:
"das ist doch mal ne tolle Idee; das machen wir" :D:D:D
 
aleqx schrieb:
Wer sich ein wenig mit Fotografie auseinander setzt, weiß dass die traditionellen Kamerahersteller alle wegen Smartphones massive Schwierigkeiten haben. Normale Kompaktkameras sind schon tot, als nächstes sind Wechselobjektiv-Kameras mit kleinen Sensoren dran.
Die Hersteller sind mit den Zoomobjektiven und den kleinen Sensoren im MP Rennen gescheitert. Die Qualität nahm mit jeder Generation regelrecht ab, wer in Aquarell Bildern nach Natürlichkeit suchte. Wahrscheinlich auch auf dem Smartphone Bildschirm. Selbst Panasonic hat seine DMC TZ Serie zugrunde gerichtet. Fuji hat seine F Serie auch kaputt gemacht.

Die Bildqualität der meisten Smartphones reicht heute trotzdem nicht über 6MP der Kompaktklasse hinaus. Besonders bei der harten JPEG Engine.

https://www.flickr.com/photos/79311468@N00/975656713/in/photostream/
Die berüchtigte Fuji F3x. Sogar bei ISO800 braucht sie sich nicht zu verstecken. An dieses Format kommen noch heute viele Smartphones nicht ran. Dabei verbaut man ja sogar heute in Smartphones ein 2x Zoom.

Pizza-König schrieb:
Ob am Ende ein Sensor mit großer Fläche oder mehrere kleine verbaut werden, spielt für das, was ich gesagt habe überhaupt keine Rolle.
In beiden Fällen wird durch die 16 Linsen mehr Licht eingefangen und es wird insgesamt mehr Sensor-Fläche benutzt.
Der gleiche Unsinn wie bei Ohrhörern. Mit mehr Lautsprechern auf den Ohren hört man bei zwei Ohren besser, lauter und effektvoller. Die Software richtet natürlich alle Probleme, wenn schon der eigene Verstand nicht mehr richtig arbeitet.

Wohl noch nie die Panasonic CM1 gesehen. Allein die Farbdynamik dank großer Pixelpitch überbietet sogar die besten Smartphone Kameras. Man kann Bilder nicht nur auf die Schärfe der Optik und Lichteinfall reduzieren.

https://www.flickr.com/photos/132927238@N04
Zwar nicht alle Fotos aus der CM1, aber die Möglichkeiten sollten mehr als offensichtlich sein, was eine gute Basis erlaubt. Diese Smartphone Kamera war dann vielen anderen Smartphone Kameras bis auf wenige Ausnahmen voraus und ist es noch bis heute einen ordentlichen und schnellen Auslöser zu haben. Die Grundlage für Schnappschüsse.

Computerfuchs schrieb:
Sowas ähnliches gab es bereits: Nennt sich Samsung Galaxy S4 Zoom
Da war nur Technik aus der Samsung 150€ Holzklasse drin mit entsprechend schlechter Bildqualität und ganz viel Zoom. Bei dem Zoom kann man keine großen Sensoren nehmen um es noch handlich zu nennen. Gescheitert ist es, weil es nicht mal ordentliche Fotografen ansprach. Für den Zweck gab es die NX, NEX Serie, wenn ich mich richtig erinnere.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Wie wäre es, wenn man statt drölf 2€ Linsen nicht einfach mal eine wirklich gute einbaut? Solche Dinge zeigen, wie verzweifel Smartphonehersteller mittlerweile versuchen, sich etwas neues auszudenken, um noch einen Absatz zu generieren.

Ja genau.
Man muss aber halt irgendwie auffallen & sich abgrenzen,
um das neue jährliche Superduper-Smartphone (was man lt. Hersteller
UNBEDINGT braucht) an den Mann zu bringen.
Ich wette, dass 90% die neusten Teile nicht brauchen,
aber... man kann sich freuen, dass Antutu o.ä. 1000 Punkte mehr anzeigen :D;)
 
Und Google verbaut weiterhin nur eine und zieht allen mit einer ordentlichen Hardware für die Kamera und starker Software allen davon...
 
@ insXicht
Etwas sehr übertrieben mit Microsensoren von davon ziehen zu sprechen.

Davon mal abgesehen von der Rechenzeit, RAM und Akkustrom, die der ISP für ein ordentliches Bild aus mehreren Bildern benötigt, erlaubt ein guter Sensor und Optik schon mit nur einem Bild. Kombinierte Verschwendung aus Rechenzeit und Akkuladung ist auch ein davon ziehen.
 
Dr. MaRV schrieb:
Was deine Behauptung/Vermutung es wären 16 mal die gleichen Linsen widerlegt.
Wäre nett, wenn du mir keine Worte.in den Mund legen würdest.

Ich habe keinerlei Behaultungen darüber aufgestellt, was LG mit den 16 Linsen macht. Auch habe ich nirgendwo behauptet, daß 16 mal die gleiche Optik verwendet wird.

Ich habe Beispiele gebracht, um den Nay-Sayern und ewig Gestrigen zu erklären, wozu mehrere Linsen auch ohne KI sehr sinnvoll sein können.
 
Zurück
Oben