Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News iPhone 11 (Pro): Deep-Fusion-Fotos kommen mit der nächsten iOS-13-Beta
- Ersteller nlr
- Erstellt am
- Zur News: iPhone 11 (Pro): Deep-Fusion-Fotos kommen mit der nächsten iOS-13-Beta
douron
Commander
- Registriert
- Juni 2002
- Beiträge
- 2.484
ich seh das ähnlich.. wobei Mirrorless meines erachtens die Spiegeln jetzt schon abgelöst haben, weil die Vorteile insgesamt überwiegend. Zumindest wurden die Kompaktkameras von den Smartphones abgelöstCool Master schrieb:Solange ich nicht richtige Brennweiten habe wird meine 6D noch lange bei mir bleiben, da mein iPhone mir einfach kein 70-300 oder 70-200 geben kann. Das Fake-Bokeh ist zwar nett aber man sieht halt sofort dass es "digital" ist und nicht optisch. Das 11 Pro Max ist auf jeden Fall ein Schritt in die richtige Richtung aber DSLRs werden denke ich höchstens von Mirrorless Geräten abgelöst werden.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.756
douron schrieb:wobei Mirrorless meines erachtens die Spiegeln jetzt schon abgelöst haben
In einigen Bereichen stimme ich dir zu aber pauschal kann man das nicht sagen.
Ergänzung ()
-Slayer- schrieb:Ich sehe irgendwie keine Unterschiede.
Dann probiere mal ein Bild mit Wolle oder anderen Texturen die ähnlich aussehen, da sollte es etwas bringen.
- Registriert
- Jan. 2018
- Beiträge
- 19.179
nlr schrieb:Artikel-Update: Apple stellt Deep Fusion ab sofort mit dem Update auf iOS 13.2 für jedermann zur Verfügung. Parallel dazu sind iPadOS 13.2 und tvOS 13.2 veröffentlicht worden.
Wirklich alle?
Thomaswww
Lt. Commander
- Registriert
- Feb. 2004
- Beiträge
- 1.273
Kurzer Reminder, an alle, die Deep Fusion auch nutzen wollen:
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.
Man kann nach der Aufnahme kontrollieren, ob Deep Fusion verwendet wurde indem man nach der Betätigung des Auslöse Button schnell auf das geschossene Bild tippt, damit es in voller Größe angezeigt wird. Nun genau auf das Bild schauen. Es sollte sich nach ~1 Sekunde kurz minimal bewegen. Diese minimale Bewegung entseht, weil die Vorschau durch das im A13 berechnete Bild (Deep Fusion) ersetzt wird.
Triggern lässt sich Deep Fusion mit sehr hoher Wahrscheinlichkeit in Szenen, die gerade noch hell genug sind, dass Night Mode nicht aktiviert wird.
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.
Man kann nach der Aufnahme kontrollieren, ob Deep Fusion verwendet wurde indem man nach der Betätigung des Auslöse Button schnell auf das geschossene Bild tippt, damit es in voller Größe angezeigt wird. Nun genau auf das Bild schauen. Es sollte sich nach ~1 Sekunde kurz minimal bewegen. Diese minimale Bewegung entseht, weil die Vorschau durch das im A13 berechnete Bild (Deep Fusion) ersetzt wird.
Triggern lässt sich Deep Fusion mit sehr hoher Wahrscheinlichkeit in Szenen, die gerade noch hell genug sind, dass Night Mode nicht aktiviert wird.
Gibt es dazu mehr Infos?Thomaswww schrieb:Kurzer Reminder, an alle, die Deep Fusion auch nutzen wollen:
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.
Thomaswww
Lt. Commander
- Registriert
- Feb. 2004
- Beiträge
- 1.273
Foxel schrieb:Ist das nicht das was die Pixel Phones schon seit Jahren machen?
QuelleEssentially anytime you go to take a photo, the camera is capturing multiple images. Again, Smart HDR does something similar. The iPhone takes a reference photo that's meant to stop motion blur as much as possible. Next, it combines three standard exposures and one long exposure into a single "synthetic long" photo. Deep Fusion then breaks down the reference image and synthetic long photo into multiple regions identifying skies, walls, textures and fine details (like hair). Next, the software does a pixel-by-pixel analysis of the two photos -- that's 24 million pixels in total. The results of that analysis are used to determine which pixels to use and optimize in building a final image.
Ob Pixel Phones das "seit Jahren" schon genau so machen sei jetzt mal dahin gestellt.
Aber manche Telefone bearbeiten Bilder automatisch nach. Wenn du das meinst.
@-Slayer-
Ich hab das in verschiedenen Youtubevideos zur iOS Beta 13.2 gesehen. Auf Webseiten kann man es z.b hier, hier oder hier nachlesen. Leider gibt keine der Webseiten Quellen an. Evtl haben die es einfach ausprobiert. Kann aber auch sein, dass mit der finalen Version von iOS 13.2 nicht mehr notwendig ist.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
Bin mal gespannt was da bei rumkommt. Eigentlich sollte man auch alle Linsen zeitgleich nutzen um maximalen Schärfe zu erhalten. Es könnten so langsam auch mal mehr als 12 MP sein... Find ich etwas knapp.
XTR³M³ schrieb:die werden nie ersetzt werden können... schon alleine weil der zoom bei den smartphones nicht gegeben ist.
Na das würd ich so mal nicht für bis in die Zukunft behaupten. Siehe P30 Pro.
Thomaswww
Lt. Commander
- Registriert
- Feb. 2004
- Beiträge
- 1.273
@Krautmaster
Deepfusion bringt schon etwas. Wenn man ganz genau hinschaut und rein zoomt.
Wegen den 12MPx: Gibt schon viele Android Handys mit dem Samsung Isocell Bright GW1 Sensor. Der hat 64 Megapixel. Aber irgendwie sind die Bilder nicht wirklich schärfer als Bilder von 12 oder 16 Megapixel Sensoren.
Ich schau mir viele Reviews zu mittelpreisigen Android Samrtphones an. Da haben schon manche diesen 64 Megapixel Sensor.
Je mehr Reviews man sieht, um so mehr weiß ich es zu schätzen, wie wichtig Software in Verbindung mit Hardware ist.
All diese Android Phones haben auf dem Papier bessere technische Daten im Fotobereich als das iPhone, patzen aber an vielen Stellen einfach. Da ist mal der Dynamikumfang mieserabel, die Bildstabilisierung in Videos unbrauchbar oder einfach mal gar nicht vorhaden. Hin und wieder sind bei den Handys mit mehrern Linsen dann eine davon brauchbar, die anderen beiden fallen deutlich ab... irgendwas ist halt immer ^^.
Deepfusion bringt schon etwas. Wenn man ganz genau hinschaut und rein zoomt.
Wegen den 12MPx: Gibt schon viele Android Handys mit dem Samsung Isocell Bright GW1 Sensor. Der hat 64 Megapixel. Aber irgendwie sind die Bilder nicht wirklich schärfer als Bilder von 12 oder 16 Megapixel Sensoren.
Ich schau mir viele Reviews zu mittelpreisigen Android Samrtphones an. Da haben schon manche diesen 64 Megapixel Sensor.
Je mehr Reviews man sieht, um so mehr weiß ich es zu schätzen, wie wichtig Software in Verbindung mit Hardware ist.
All diese Android Phones haben auf dem Papier bessere technische Daten im Fotobereich als das iPhone, patzen aber an vielen Stellen einfach. Da ist mal der Dynamikumfang mieserabel, die Bildstabilisierung in Videos unbrauchbar oder einfach mal gar nicht vorhaden. Hin und wieder sind bei den Handys mit mehrern Linsen dann eine davon brauchbar, die anderen beiden fallen deutlich ab... irgendwas ist halt immer ^^.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
Gefällt mir das Ergebnis vom Video.
Weiß jemand wie groß der Sensor bei den iPhone ist und wie es da beim Pixel 4 aussieht? Rein von den Linsen her könnte man annehmen dass der Apfel den größeren Sensor verbaut hat.
Ergänzung ()
Weiß jemand wie groß der Sensor bei den iPhone ist und wie es da beim Pixel 4 aussieht? Rein von den Linsen her könnte man annehmen dass der Apfel den größeren Sensor verbaut hat.
Zuletzt bearbeitet:
douron
Commander
- Registriert
- Juni 2002
- Beiträge
- 2.484
ja wahrscheinlich, aber Gerüchten zufolge wird es z.B. keine 7D Mark III geben, keinen Nachfolger der 5DS/R. Nächstes Jahr sind in Tokyo die olympischen Sommerspiele, da wird Canon und Nikon seine Profikameras vorstellen.Cool Master schrieb:In einigen Bereichen stimme ich dir zu aber pauschal kann man das nicht sagen.
Ich denke, dass noch die in der Entwicklung beinahe abgeschlossenen DSLRs rauskommen. Dann wird es wohl, glaube ich, Schluss sein. Denn es dauert etwa 3-5 Jahre um eine Kamera zu entwickeln. Und wenn man die Absatzmärkte anschaut, glaube ich kaum, dass sich sowas noch zukünftig finanziell rentieren wird.
Außerdem wird KI ein immer größeres Thema werden, deren Bedeutung bei DSLR quasi gar nicht vorhanden ist, während bei Spiegellosen umso mehr.
Taube Nuss
Lieutenant
- Registriert
- Aug. 2014
- Beiträge
- 575
Thomaswww schrieb:Kurzer Reminder, an alle, die Deep Fusion auch nutzen wollen:
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.
Man kann nach der Aufnahme kontrollieren, ob Deep Fusion verwendet wurde indem man nach der Betätigung des Auslöse Button schnell auf das geschossene Bild tippt, damit es in voller Größe angezeigt wird.
Nun genau auf das Bild schauen. Es sollte sich nach ~1 Sekunde kurz minimal bewegen.
Diese minimale Bewegung entseht, weil die Vorschau durch das im A13 berechnete Bild (Deep Fusion) ersetzt wird.
Triggern lässt sich Deep Fusion mit sehr hoher Wahrscheinlichkeit in Szenen,
die gerade noch hell genug sind, dass Night Mode nicht aktiviert wird.
Dies passiert auch wenn "Kompositionen" aktiviert ist, also eine richtige Kontrollmöglichkeit
oder Einstellmöglichkeit gibt es (leider) nicht.
Hier mal ein Video zu Deep Fusion
Zuletzt bearbeitet:
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.279
Da war ich bei meinem p30pro auch sehr angetan von. Nichts mit wackelige Stütze basteln und ferngesteuert auslösen. Nene, einfach Handy raus, nachtmodus ( wobei der nicht mal aktiviert werden muss) und drauf halten. Heraus kommt ein halbwegs scharfes Bild mit halbwegs wenig rauschen. Würde man das so mit einer DSLR versuchen, naja..Cool Master schrieb:So sieht es aus! Mit dem Nacht-Modus kann man am 11 Pro bis zu 10 Sekunden per Hand belichte. Das will ich mal sehen wie man das mit einer DSLR oder DSLM hin bekommt.
Überhaupt scheinen viele vergessen zu haben dass solch Sachen wie AI ja nur die Werkzeuge sind, mit der wir uns kreativ entfalten können. Eine moderne DSLR pfuscht einem ja auch ins Bild, sonst wären die unterscheide zwischen den Herstellern ja auch viel kleiner. Jeder versucht es dem Nutzer möglichst einfach sein Wunschfoto zu ermöglichen, und da läuft dermaßen viel interne Bildbearbeitung (intelligente cropkorrektur , autofokus etc).
Ein "wahres" Handwerk gibt es einfach nicht. Der Mensch macht was mit Hilfe von Werkzeugen, wie diese nun aussehen ist irrelevant.
Es sind immer die, die auf den alten Tools gelernt haben und sich jetzt ärgern/Angst haben dass dieses erarbeitete Können obsolet wird, weil es jetzt was anderes gibt. Immer dasselbe, Geschichte wiederholt sich, Branchenübergreifend.
Ergänzung ()
Das stimmtThomaswww schrieb:@Krautmaster
Deepfusion bringt schon etwas. Wenn man ganz genau hinschaut und rein zoomt.
Wegen den 12MPx: Gibt schon viele Android Handys mit dem Samsung Isocell Bright GW1 Sensor. Der hat 64 Megapixel. Aber irgendwie sind die Bilder nicht wirklich schärfer als Bilder von 12 oder 16 Megapixel Sensoren.
Ich schau mir viele Reviews zu mittelpreisigen Android Samrtphones an. Da haben schon manche diesen 64 Megapixel Sensor.
Je mehr Reviews man sieht, um so mehr weiß ich es zu schätzen, wie wichtig Software in Verbindung mit Hardware ist.
All diese Android Phones haben auf dem Papier bessere technische Daten im Fotobereich als das iPhone, patzen aber an vielen Stellen einfach. Da ist mal der Dynamikumfang mieserabel, die Bildstabilisierung in Videos unbrauchbar oder einfach mal gar nicht vorhaden. Hin und wieder sind bei den Handys mit mehrern Linsen dann eine davon brauchbar, die anderen beiden fallen deutlich ab... irgendwas ist halt immer ^^.
Wo Licht ist, ist auch viel Schatten. Aber Apple hat doch jetzt erst zum ersten mal nach dem iPhone 4 mit dem 11er Pro mehr oder weniger zu den Androids aufgeschlossen. Vorher waren sie in den neutraleren Tests (ganz sicher kann man sich da nie sein) aber eher gutes Mittelfeld statt Speerspitze was Kameras angeht. Jetzt scheinen sie aber ein rundes Paket abgeliefert zu haben, was sich nicht vor den Samsungs und Huaweis verstecken muss. Abgesehen vom Preis, aber das ist eine andere Geschichte
Zuletzt bearbeitet:
g0dl!k3-X
Lt. Junior Grade
- Registriert
- Okt. 2014
- Beiträge
- 336
andi_sco schrieb:Wirklich alle?
Nein, nur die iPhone 11 (Pro) Geräte.
shanson Thoma
Cadet 4th Year
- Registriert
- Mai 2019
- Beiträge
- 93
Deep fusion iOS 13.2
Ohne Deep Fusion
Ohne Deep Fusion
Zuletzt bearbeitet:
8
8087
Gast
Night Sight hatte Google's Android schon Ende 2018. Auch hier wurde mehrere Sekunden lang belichtet, im Sinne der Aufnahme von vielen Einzelbildern, danach per KI eine automatische Sortierung der Bilder hinsichtlich Qualität/Details/wenig Motion Blur/etc. vorgenommen und darüber hinaus dann noch ein automatisches Stacking der besten Bilder, mit dem Resultat hervorragender Nachtbilder. Jetzt hat das Apple, ein Jahr später, also auch.
Wenn da die Begeisterung hier im Forum ausbleibt, ist das doch nicht weiter erstaunlich. Selbst bei fast absoluter Dunkelheit erhält man mit Night Sight recht erstaunliche Resultate. Schön wenn Apple das jetzt auch kann.
https://www.theverge.com/2018/10/25/18021944/google-night-sight-pixel-3-camera-samples
Einige gute Beispiele hier zu finden im Link. Und ein Bild für den direkten Eindruck: Das konnte Google vor einem Jahr. Für solche Aufnahmen benötigte man vor nicht all zu vielen Jahren ein Stativ und eine gute DSLR:
Wenn da die Begeisterung hier im Forum ausbleibt, ist das doch nicht weiter erstaunlich. Selbst bei fast absoluter Dunkelheit erhält man mit Night Sight recht erstaunliche Resultate. Schön wenn Apple das jetzt auch kann.
https://www.theverge.com/2018/10/25/18021944/google-night-sight-pixel-3-camera-samples
Einige gute Beispiele hier zu finden im Link. Und ein Bild für den direkten Eindruck: Das konnte Google vor einem Jahr. Für solche Aufnahmen benötigte man vor nicht all zu vielen Jahren ein Stativ und eine gute DSLR:
- Registriert
- Juni 2007
- Beiträge
- 8.752
Taube Nuss schrieb:Dies passiert auch wenn "Kompositionen" aktiviert ist, also eine richtige Kontrollmöglichkeit
oder Einstellmöglichkeit gibt es (leider) nicht.
Sicher? HIER steht zB., dass die Fotoaufnahme außerhalb des Rahmens zwingend deaktiviert sein muss, damit Deep Fusion funktioniert...
Ähnliche Themen
- Frage
- Antworten
- 13
- Aufrufe
- 2.813
- Antworten
- 6
- Aufrufe
- 34.783
- Antworten
- 598
- Aufrufe
- 165.517
- Antworten
- 20
- Aufrufe
- 4.478