News Patent: LG liebäugelt mit 16 Linsen im Smartphone

Pizza-König schrieb:
Du beweist weiterhin, daß du über NULL technisches Verständnis verfügst.
Der Dunning-Kruger-Effekt sagt dir nichts, oder? Zum Glück gibt es ja Google ;)
Pizza-König schrieb:
Ja, das vergleiche ich, weil es vergleichbar ist.
Es kommt auch nicht auf die Sensorgröße an, sondern auf das Frontelement des Objektives.
Das ist übrigens nicht umsonst so groß. Ein einzelnes Objektiv blickt bereits aus unendlich vielen unterschiedlichen Winkeln auf die Welt.
Aus dem Grund bekommt man dann auch Bokeh.
Das Licht fällt dann ja auch gleichmäßig gestreut, also weich und übergangslos, auf den Sensor, und nicht aus wenigen vollkommen anderen Perspektiven, zwischen denen es keine Übergänge mehr gibt. Dadurch hast du dann einen vernünftigen Bokeh.
Pizza-König schrieb:
Das Bokeh würde bei den 16 Linsen natürlich ohne entsprechendes Prozessing sehr unruhig (aka hässlich) wirken.
Aber vermutlich verstehst du auch hier wieder nicht, warum.
Merkwürdig. Du bestätigt, was ich sage, widerlegt dein eigenes Argument (dass keine KI und kaum Postprozessing nötig wäre), und unterstellst dann, ich würde es wohl "wieder nicht verstehen". Lol :D
 
Können wir mal aufhören uns über die Linsen aufregen und einfach uns mal freuen, dass es technisch voran geht?
Und wenn sie 23849723984 Linsen verbauen - ist doch egal. Wichtig ist doch was dabei am Ende rauskommt.
Schaut euch mal die Patente von anderen Unternehmen an die zt seit Jahrzehnten irgendwo rumliegen, absolut irrsinnig sind aber nicht genutzt werden.

Mein Gott - in einem Technik Forum absolut fehlende Verständnis für Technische Innovationen/Ideen.
 
  • Gefällt mir
Reaktionen: Pizza-König
BTICronox schrieb:
Du hast ernsthaft die Bilder aus der Kategorie "Zoom" für einen Vergleich rangezogen? Dir fällt aber schon auf, dass das V30 über keine Telelinse verfügt? Damit vergleichst Du die Hauptlinse des V30 mit den Telelinsen von iPhone und Samsung bei einem Zoomfoto. Großes Kino :daumen:
Schande über mein Haupt, das ist mir gar nicht aufgefallen :D Dann kann man diese Beispiele natürlich von den anderen streichen ;)
BTICronox schrieb:
Das Bild stützt meine Aussage, das V30 hat auch hier am wenigsten Rauschen, gerade im Vergleich zum Pixel... belichtet nur nicht lang genug, womit das Bild (viel) zu dunkel wird.
Am wenigsten Rauschen ja, weil einfach keinerlei Deteils zu erkennen sind und das Bild so geglättet und farblos ist, dass es noch detailärmer wird :D

Edit: Mein 2000. Post :rolleyes:
 
Zuletzt bearbeitet:
SaschaHa schrieb:
Am wenigsten Rauschen ja, weil einfach keinerlei Deteils zu erkennen sind und das Bild so geglättet und farblos ist, dass es noch detailärmer wird :D

Da Ich ein V30 besitze: Ist einfach ein Problem von zu kurzer Belichtungszeit. In dem Moment verfälschen Farben und Details verschwinden. Mit RAW oder einfach längerer Belichtung wäre das gar kein Problem (Ich schieße fast nur manuell), aber LG scheint dem Sensor weniger zuzutrauen als er eigentlich könnte.
 
  • Gefällt mir
Reaktionen: SaschaHa
@BTICronox
Genau das ist halt der Punkt. LG nutzt das Potential der Sensoren nicht aus. Ich verwende bei meinem Samsung-Smartphone auch grundsätzlich nur die Samsung-Kamera-App, da externe Apps keine guten Bilder liefern. Die Algorithmen müssen auf den jeweiligen Sensor und dessen Technik abgestimmt sein, und da hat LG noch viel Luft nach oben, aber auch Samsung und einige andere Hersteller. Beispielsweise übersättigt Samsung manche Bilder stark, besonders bei schlechtem Licht.

Ich persönlich finde diese Entwicklung hin zu Multi-Sensor-Systemen ziemlich bescheuert. Das Pixel 1 und 2 haben uns gezeigt, dass sie auch mit nur einem Sensor top Fotos machen können. Die anderen Sensoren sind mehr fürs Marketing, als dass sie wirklich einen Nutzen bringen. Interessant wäre ein Dual-Sensor meiner Meinung nach nur für Stereoskopie (3D).
 
BTICronox schrieb:
Da Ich ein V30 besitze: Ist einfach ein Problem von zu kurzer Belichtungszeit. In dem Moment verfälschen Farben und Details verschwinden. Mit RAW oder einfach längerer Belichtung wäre das gar kein Problem (Ich schieße fast nur manuell), aber LG scheint dem Sensor weniger zuzutrauen als er eigentlich könnte.
Nimmt das V30 nicht standardmäßig RAWs auf?
SaschaHa schrieb:
@BTICronox
... Ich persönlich finde diese Entwicklung hin zu Multi-Sensor-Systemen ziemlich bescheuert. Das Pixel 1 und 2 haben uns gezeigt, dass sie auch mit nur einem Sensor top Fotos machen können. Die anderen Sensoren sind mehr fürs Marketing, als dass sie wirklich einen Nutzen bringen. Interessant wäre ein Dual-Sensor meiner Meinung nach nur für Stereoskopie (3D).
Und wie willst du sonst Ultraweitwinkel, Tele oder SW-Sensoren integrieren? (nicht, dass ich letzteres sinvoll finde)
 
  • Gefällt mir
Reaktionen: Pizza-König und BVZTIII
jubey schrieb:
Nimmt das V30 nicht standardmäßig RAWs auf?

Im Automatikmodus nicht. RAW ist nur dem manuellen Modus vorbehalten, ergibt allerdings auch nur dort Sinn.

SaschaHa schrieb:
Die Algorithmen müssen auf den jeweiligen Sensor und dessen Technik abgestimmt sein

Ist beim V40 zum Beispiel gar kein Thema, das benutzt exakt den Sensor, den auch das Pixel 3 nutzt. Aber auch auf meinem V30 funktioniert die Google Cam als Alternative wunderbar.
 
Der manuelle Modus bietet doch auch eine Vollautomatik (wenn man will), also was soll's...
 
jubey schrieb:
Und wie willst du sonst Ultraweitwinkel, Tele oder SW-Sensoren integrieren? (nicht, dass ich letzteres sinvoll finde)
Braucht man das denn?

Tele-Objektive bringen bei Smartphones recht wenig. 2-fach Zoom bedeutet, dass nur ein Viertel so viel Licht auf den Sensor trifft wie normal. Darunter leidet die Bildqualität in vielen Situationen deutlich. Dazu kommt, dass die Objektive bei der Größe oft gar nicht gut genug sind und das Licht brechen, was gerade bei Tele-Objektiven zu noch schlechteren Bildern führt.

Weitwinkel sind schön und gut. Da könnte man von mir aus auch generell ein eher weiteres Objektiv als Standard nehmen. Ansonsten habe ich da nichts gegen ein zweites Objektiv, aber in den meisten Fällen braucht man das kaum und könnte es auch anders lösen. Beispielsweise einfach durch einen größeren und höher auflösenden Sensor, sodass auch bei digitalem Zoom die Bildqualität nicht stark leidet. Oder halt ein mechanischer Zoom wie bei alten Digi-Cams. Das ist natürlich bei 8 mm dünnen Smartphones recht schwierig, aber meiner Meinung nach könnte man eh problemlos 2 mm draufpacken und dann dickere Akkus verbauen :)
Oder halt Aufsteck-Objektive als Zubehör. Aber so, wie es aktuell gemacht wird, wird der Platz oftmals einfach verschenkt. Zumindest, wenn die sekundäre Kamera ein Tele-Objektiv hat.
 
  • Gefällt mir
Reaktionen: FFelsen2000
ghecko schrieb:
Erst waren es Mhz, dann die Anzahl der Kerne und die Displayauflösung, dann die Notch und jetzt wird ausprobiert, wie viele Cams in ein Smartphone passen. 16 schießt den Vogel aber echt ab.
Wollen die damit 360° Horizontal und Orbital abdecken?
Hayden hat sich beschwert er sieht nix wenn seine Frau fremdgeht.
 
SaschaHa schrieb:
Ähm jaa, gut selektiert. Auf der selben Webseite finden sich auch weitere Beispiele, die ein anderes Ergebnis zeigen:

LG V30 <-> iPhone X <-> Note 8

Also bei denen finde ich das LG am zweitbesten. Das Note 8 ist am natürlichsten. Das iPhone filtert erst alle Details weg und schärft dann die Konturen nach. Da kann ich auch Aquarelle zeichnen, kommt dasselbe raus.
 
Pizza-König schrieb:
Dumm ist vor allem, wenn man selbst nicht verstanden hat, wieso das Pixel so gute Bilder macht

Tu ich ganz gut, daher erwähnte ich es ja.

Pizza-König schrieb:
und dementsprechend auch nicht versteht, wieso mehrere identische Linsen die Performance ebenfalls verbessern

Du dagegen scheinbar nicht. Auch wenn Du von der Überlegenheit der "KI" Algorithmen faselst, hast Du eben die physischen Grundlagen der Photographie nicht verstanden. Dann kommt dabei auch so ein Unsinn raus:

Pizza-König schrieb:
Es kommt auch nicht auf die Sensorgröße an

sic!

puri schrieb:
Blade Runner (Originalfilm von 1982), wo es auch Fotos gab, in die man nicht nur massiv hineinzoomen konnte, sondern dann auch noch den Blickwinkel verändern.

In der Szene wurde kein Blickwinkel verändert, sondern auf den Spiegel im Hintergrund gezoomt. Und da es ein analoges Foto war, verpixelt da auch nichts, liefert halt einfach nur nicht mehr Details als vorhanden.

insXicht schrieb:
Google verbaut weiterhin nur eine und zieht allen mit einer ordentlichen Hardware für die Kamera und starker Software allen davon.

So ist es.
 
  • Gefällt mir
Reaktionen: SaschaHa
maxpayne80 schrieb:
Ohne Linsen-HT kaufe ich kein Smartphone mehr
Vorsicht! Sonst heißt es bald... Neben Intel (, AMD und ARM) nun auch LG von Spectre betroffen. Wird nun vorsorglich via Sicherheits-Update deaktiviert.
Dann kommen Fragen auf wie: "Welche ROM macht jetzt gute Fotos?" :evillol:
 
MaverickM schrieb:
Tu ich ganz gut, daher erwähnte ich es ja.
Offensichtlich nicht. Und lesen kannst du auch nicht. Oder wieso reißt du meine Aussagen aus dem Kontext und verdrehst deren Bedeutung?
Bzw. legst mir schon wieder Dinge in den Mund, die ich nicht gesagt habe.
Richtig asozial und unverschämt.

Wird mir hier so langsam auch zu blöd bei so vielen Technik-Analphabeten und Fortschritt-Verteufelern.

Kauf du mal schön dein teures Pixel.
Aber heul uns dann bitte in einem Jahr nicht die Ohren voll, weil's nur ein Linse hat.
 
Du hast doch den Unsinn behauptet und ursprünglich meinen Beitrag zitiert. Musst halt mit einer Retoure-Kutsche rechnen.
 
insXicht schrieb:
Und Google verbaut weiterhin nur eine und zieht allen mit einer ordentlichen Hardware für die Kamera und starker Software allen davon...

Eine einzelne Kamera alleine kann aber nicht Tele/Weitwinkel ersetzen.
 
Das stimmt. Eine weitere Linse, wenn sie denn sinnvoll, wie Du schon schriebst, als Weitwinkel oder "Teleobjektiv" (Bei einem Smartphone wohl eher als schlechter Scherz zu bezeichnen, zumindest bei den allermeisten Modellen außer den alten Nokias :D) ausgeführt sind, ergibt durchaus Sinn. Aber mehr eben halt auch nicht.
 
@ Pizza-König
Bitte, bitte klicken Sie den Link an und verstehen Sie die Bilder.
https://www.flickr.com/photos/smartcamclub/sets/72157654056997781

Tiefseefische sind übrigens auch mit ganz großen Augen im Vergleich zur eigenen Körpergröße um Restlicht einzufangen, ausgestattet. Manchen hängt zielführend sogar eine Laterne vor dem Gesicht. Da wo kein Licht das Leben sinnvoll erweitert, wird mit Schall oder Tastsinn gearbeitet.

Die Logik, wo man für welchen Einsatzbereich mehrere kleinere Sensoren tatsächlich nutzen kann, scheint den Menschen entgangen zu sein.

Selbst im Automotive Bereich wird neben anderen bildgebenden Techniken auf viele, aber große Sensoren mit wenig MP, aber großen Pxielpitch gesetzt. Der Bereich ist echtzeitkritisch bei der Auswertung und Analyse für Entscheidungen. Wenn da noch zeitaufwendig entrauscht werden muss, hängt man ungebremst als Fleischklops im LKW.

Fortschritt der eingesetzten Technik muss sinnvoll sein und das ist er bei Smartphones nun lange nicht mehr.
 
  • Gefällt mir
Reaktionen: SaschaHa
Was genau sollte der Link jetzt zeigen?
Und wieso ist es deiner Meinung nach nicht sinnvoll, mehr Licht einzufangen und mehr Sensorfläche bereitzustellen, indem man mehrere Linsen verbaut?

Und welchen Fortschritt als eine bessere Kamera fändest du denn sinnvoll in einem Smartphone?
 
Zurück
Oben