News Canon EOS R1 & R5 Mark II: Neue DSLM-Profikameras kosten 4.800 respektive 7.500 Euro

Finde die Kameras von Canon irgendwie klobig und hässlich. Eine Kamera sollte auch eine gewisse Ästhetik haben. Da gefallen mir die Nikons oder Fujis besser 😊
 
  • Gefällt mir
Reaktionen: Whetstone
@supertramp Mir Leica und PhaseOne. Geschmäcker...
 
supertramp schrieb:
Finde die Kameras von Canon irgendwie klobig und hässlich. Eine Kamera sollte auch eine gewisse Ästhetik haben. Da gefallen mir die Nikons oder Fujis besser 😊
Nein, eine Kamera ist vor allem ein Werkzeug, wie die aussieht, ist völlig egal.
Ergonomie und Bedienung sollte über allem stehen. Und da sehe ich vor allem Canon aber auch Nikon, weit vor allen anderen Herstellern.
 
  • Gefällt mir
Reaktionen: blende11
Autos bringen einen nur von A nach B, da reicht also ein rostiger Twingo; Häuser sind zum drin wohnen da, da ist auch egal wie das von außen aussieht, Klamotten sollen warm halten und müssen nicht gut aussehen...kann man so sehen, muss man aber nicht. ;)
Ich persönlich finde auch: Das Auge isst mit, immer. Ich muss deswegen nicht immer das schönste teuerste kaufen, aber bei Gelegenheit achte ich schon auf schöne Dinge.
 
  • Gefällt mir
Reaktionen: supertramp
DeadEternity schrieb:
Nein, eine Kamera ist vor allem ein Werkzeug, wie die aussieht, ist völlig egal.
Ergonomie und Bedienung sollte über allem stehen.
Das mag für Berufsfotografen gelten, aber nicht für mich als Hobbyfotograf 🙂
 
Dr. MaRV schrieb:
Es wäre schlimm, wenn ein RAW genauso wie ein JPG behandelt würde.
An welcher Stelle wird in deinen Videos gesagt, dass diese ganze Nachbearbeitung in der Kamera auf RAW Daten angewendet wird? Der Time Code reicht mir, ich schaue mir jetzt keine 90 Minuten YouTube an.
Dass Daten gefiltert werden, bestreite ich gar nicht. Was ich bestreite ist, dass automatisches Entrauschen, Objektivkorrekturen (Verzeichnungen & cromatische Abberation), Entwicklung (Farbabgleich, Dynamik, Sättigung) automatisch auch bei RAW Bildern gemacht wird. Genau das implizierst du aber mit deiner Aussage.

Viele moderne Kameras haben heutzutage "Baked In" Noise reduction.
Das ist jetzt nicht das klassische "ich setze hier ein paar Regler wie ich lustig bin um und speichere es im RAW" und es ist auch nicht unbedingt "volle Kapelle" (also z.B. Objektivkorrekturen) sondern eher eine prinzipielle "Verarbeitungsvorschift" durch den Hersteller wie die tatsächlichen Rohdaten des Sensors in das RAW-Format umgewandelt werden und damit genau das was du hier verneinst. Bei diesen Kameras ist es unmöglich an die tatsächlichen Rohdaten des Sensors zu gelangen.

RAW != Rohdaten (zumindest nicht zwingend).

Siehe auch z.B. hier:
https://www.photonstophotos.net/Charts/PDR.htm#Canon EOS R6 Mark II,FujiFilm X-T5,Nikon Z 6III,Sony ILCE-9M3
Hier zwei Kameras die das nicht machen (Z6 III und Fuji X-T5) und zwei die eine baked in noise reductionv verwenden (R6 II, A9 III). Zu erkennen ist das an der "Form" der Datenpunkte, siehe dazu auch die Legende über dem Graph.
 
-Daniel- schrieb:
Was sich noch zeigen muss:
  • Bringt der BSI-Aspekt des Sensors Verbesserungen (sollte theoretisch so sein)
  • Bringt das Stacking Verschlechterungen (sollte theoretisch ebenso sein)
  • Wie "schlecht" fällt Dynamic Range somit in Summe aus (v.a. interessant ggü Z6 III und Z8, die hier nicht glänzen), ich hoff hier natürlich auf R5 / R6 III performance, wäre aber nicht verwundert, wenn man eine Ecke schlechter geworden wäre, das wäre schade
  • Wie hat sich das Rauschverhalten geändert (ggf. ebenfalls etwas schlechter als R5 Original)
  • Wie nützlich ist der Sport-Szenenerkenner (Fokus auf den Ballführenden)
Ende August werde ich mehr wissen. :-D

Der Youtuber Davision hatte dazu schon aus dem 13 Stunden Hands on was gemacht.
Iso war für ihn bis 12800 fine darüber wird es kriselig, aber halt keine Farbverfälschung.
Sensor lief linear. Also 3 Stops unter oder überbelichten kein Problem.

Für mich neben dem besseren AF eines der Killerfeatures der R5 II ist mehr Messfelder für Weissabgleich.
Das kam so leise rüber (Jared) hatte es gezeigt da kommt man jetzt wesentlich schneller zum Ergebnis.
 
  • Gefällt mir
Reaktionen: -Daniel-
-Daniel- schrieb:
sondern eher eine prinzipielle "Verarbeitungsvorschift" durch den Hersteller wie die tatsächlichen Rohdaten des Sensors in das RAW-Format umgewandelt werden und damit genau das was du hier verneinst.
Das ist eine Filterung der Daten, nicht mehr und nicht weniger. Und das habe ich auch nicht verneint. Das Filtern beginnt schon, bevor das Licht auf den Sensor trifft (Sperrfilter) lange bevor irgendeine Wandlung in RAW Dateien beginnt.
 
Dr. MaRV schrieb:
Ähm doch.
Bezogen auf Nikon gibt es eine Objektivdatenbankdatei in der Kamera und die beinhaltet ausschließlich Nikon Objektive und wird ausschließlich beim Fotografieren mit JPG genutzt. So werden JPG automatisch korrigiert und zwar die Objektivverzeichnung und die chromatische Abberation. Was bei einer RAW mitgegeben wird, sind haufenweise Metadaten zu verwendetem Objektiv, Weißabgleich, Tonung, Entfernung, usw.. Welche von den Herstellerprogrammen und auch von Drittherstellern wie Adobe, oder DXo automatisch auf das RAW Bild angewendet werden können. Bspw. ein bestimmtes Farbprofil oder die nachträgliche Objektivkorrektur. Es wäre schlimm, wenn ein RAW genauso wie ein JPG behandelt würde.
An welcher Stelle wird in deinen Videos gesagt, dass diese ganze Nachbearbeitung in der Kamera auf RAW Daten angewendet wird? Der Time Code reicht mir, ich schaue mir jetzt keine 90 Minuten YouTube an.
Dass Daten gefiltert werden, bestreite ich gar nicht. Was ich bestreite ist, dass automatisches Entrauschen, Objektivkorrekturen (Verzeichnungen & cromatische Abberation), Entwicklung (Farbabgleich, Dynamik, Sättigung) automatisch auch bei RAW Bildern gemacht wird. Genau das implizierst du aber mit deiner Aussage.
Tut mir leid den Time Code kann ich dir auch nicht mehr genau sagen, da die ganze Serie ich vor Monat angeschaut habe und das sind nicht nur 90min sondern 26 Episoden a 30min. Und ja es wird massiv eingegriffen. Wie gesagt wenn du wissen willst warum und wieso schaue die Videoreihe da wird es erklärt wie ein Photon auf ein fertiges Bild kommt, die ganze Signalstrecke.

"Entwicklung (Farbabgleich, Dynamik, Sättigung)" das muss vor den Raw passieren, da du erstmal interpretieren musst welche Wellenlänge Photon überhaupt hatte. Und die intensivität muss du vorher auch interpretatieren, wie viele Photonen ankamen. Das ist keine genaue Messung sondern statistische Berechnung über algorhitmen und daraus wird die Grundlage für ein Raw erstellt, dann kommen die korrekturen dazu wie die Kanten interpretiert werden (Was schärfe Chromatische Abberation usw beeinflusst). Da passiert halt eine ganze Menge vor den Raw. Wie gesagt wenn es dich ganz genau interessiert die Serie schauen, ist sehr interessant.

Und jenachdem was für Parameter der Herrsteller vor gibt kommen andere Ergebnisse. Oder warum ist der Hautton bei jeden Kamera Hersteller unterschiedlich? Die berühmten Canon Hauttöhne oder der Leica Look usw. Das sind alles fertig bearbeitete Raw direkt aus der Kamera.

Genauso sind unterschiedliche Kameras mit gleichen Sensoren unterschiedlich in der Dynmaik, Schärfe und Rauschverhalten. Beispiel Fuji X E-1, E-2, T-1 https://www.photonstophotos.net/Charts/RN_ADU.htm bei gleicher Sensor https://en.wikipedia.org/w/index.php?title=Exmor&direction=prev&oldid=1137950304.

Ich glaube unser beider Problem ist welche Daten ganz genau vorher manipoliert werden und welche nicht ist am ende schwierig zu sagen, denn das ist das Betriebsgeheimnis von Sony, Fuji, Nikon, Canon und co.

Aber es wird einiges gemacht und muss auch gemacht werden, da man bei vielen Punkten am physikalischen Limit ist. Es fällt den Nutzer halt nur kaum auf und relevant ist es für den Nutzer auch nicht. Außer es kommt die Diskussionen welche Hauttöne bei welchen Hersteller am natürlichsten sein sollen.

Daher ist es nicht wichtig das manipoliert wird beim Vergleich DSLR mit KI, Handy, DSLR usw. sonderrn wer das natürlichste und realste Ergebnis mit dieser manipolation hinbekommt. Den wer keine Manipulation in Bildinformation will sollte Analog Fotografieren und mit den Chemikalien am ende selbst bestimmen was man haben möchte.
 
uburoi schrieb:
Meine EOS 5DII tut auch nach 16 Jahren noch klaglos ihren Dienst und produziert so saubere Bilder wie am ersten Tag (wenn ausreichend Licht ist – ISO 3200 ist schon kaum noch brauchbar), da kann ich wirklich nicht meckern.
Mein Nachbar war langjähriger Fotograf und hatte seine 5DMkII auch heiß und innig geliebt.
Bzgl. ISO: Ich mache ab und an Konzertfotografie in Clubs, die teilweise so schlecht beleuchtet sind, dass bis zu ISO12k nötig werden, im schlimmsten Fall auch bei f/1.4 und 1/200s. Mit der 5DMkIV geht das noch akzeptabel.

uburoi schrieb:
Mir sind die EOSse inzwischen zu klobig, da bin ich lieber mit etwas Leichterem (und Günstigerem) unterwegs, aber für die aktuellen Boliden bin ich auch sicher nicht die Zielgruppe …
Eine EOS R5 ist handlicher und leichter als deine 5DMkII, siehe Camera Size.
 
  • Gefällt mir
Reaktionen: uburoi und fox40phil
@raychan @-Daniel-
Reden wir jetzt über eine notwendige Filterung der Daten, um diese ins RAW Format zu überführen und stellen das als Nachbearbeitung hin, oder reden wir hier von tatsächlicher Nachbearbeitung, um ein finales Ergebnis zu erzielen? Das sind für mich zwei völlig unterschiedliche Dinge. Sonst kann man den Sperrfilter, der sich vor jedem Sensor befindet, auch als Nachbearbeitung bezeichnen. Der kloppt einen Teil der Wellenlängen, die wir nicht sehen können, gleich in Tonne, bevor diese auf den Sensor treffen. Das Ergebnis wären rote Fotos.
 
Zuletzt bearbeitet:
ich habe noch eine 10 jahre alte sony alpha dslr und die leistet gute dienste - klar: ist eine andere kategorte als diese eos' hier, aber für non-professionellen bereich bereits ein overkill...
 
raychan schrieb:
Ich weiß nicht welche Kamera du nutzt. Aber jede digitale Kamera nutzt algorithmen um die Spannungswerte der einzelnen "Pixel" zu intapretieren und diese künstlich anzupassen und danach noch nachzuschärfen, Objektiv Fehler und andere Korrekturen drauf zu jagen.

Das was Canon da als KI upscaling bezeichnet ist eh nur Marketing geblubber. Wie gesagt das manipolieren der Informationen aus den Sensor ist schon seit es digitale Sensoren gibt und das machen Algorithmen nur das deren Algorithmen noch Pixel hinzudichtet.
Das Auslesen der Pixel oder Herausrechnen von Objektivfehler nutzt aber keine KI.

Das hinzudichten von Pixeln ist das Problem. Wenn ich das will kann ich das im Nachhinein machen, da brauche ich keine Kamera für.
 
Entrauschen die dann per KI nachdem gespeichert wurde oder machen die das wie die neue Insta360, die irgendwie zwischen Aufnahme und Abspeichern entrauscht und so viel bessere Qualität liefert? Und funktioniert das dann auch in RAW oder nur bei den JPGs?
 
@Dr. MaRV
Ist natürlich OT, aber mein Verständnis ist, dass es sich nicht um physikalische Filter handelt und auch nicht um die prinzipielle Konvertierung von Sensorsignal in digitales Format sondern um echte Software-Datenverarbeitung. Die Sensordaten werden vollständig gelesen und erst dann wird eine "Noise Reduction" auf diese Rohdaten angewendet, also ein nachträgliches Processing (und dabei eben auch die Rohdaten manipuliert) und erst diese durch SW/Algo manipuliertne Daten werden dann in die RAW-File geschrieben. Für mich ist das eine echte Nachbearbeitung und hat wenig mit "Rohdaten" zu tun, denn diese sahen intern ja noch anders aus.
Ich hab erst vor kurzem ein Video dazu gesehen, bei dem man sehen konnte wie eine Kamera mit baked in noise reduction ein feines Haar schlichtweg "verschluckt" hat, während eine Kamera mit gleicher Auflösung ohne diesen Mechanismus das Haar noch dargestellt hat. D.h. hier sind Algos am Werk die die Rohdaten interpretieren. Wenn ich es wieder finde poste ich es hier. Die Sony Star Eater Geschichte geht ja auch in die Richtung.
Ich würde diese Vorgänge nicht als "notwendige Filterung" Bezeichnen sondern als tatsächliche Nachbearbeitung, macht sich ganz gut in diversen Test-Verfahren. :-D
 
  • Gefällt mir
Reaktionen: raychan
Dr. MaRV schrieb:
@raychan @-Daniel-
Reden wir jetzt über eine notwendige Filterung der Daten, um diese ins RAW Format zu überführen und stellen das als Nachbearbeitung hin, oder reden wir hier von tatsächlicher Nachbearbeitung, um ein finales Ergebnis zu erzielen? Das sind für mich zwei völlig unterschiedliche Dinge. Sonst kann man den Sperrfilter, der sich vor jedem Sensor befindet, auch als Nachbearbeitung hinstellen.

Für das finale Ergebnis ist das Nachbearbeitung vor dem Raw heute weniger interessant, da man am pc die Herstellerspezifiche Eigenschaften größten teils eleminieren kann.

Aber es ging ja eigentlich darum das jemand geschrieben hatte, er nimmt lieber eine Kamera ohne KI, weil er nicht will das dort am Bild vorher herrumgefuscht wird. Ich wollte nur klar machen, das es nicht so ein großen Unterschied mehr macht, weil schon immer vor den Raw stark "rumgefuscht" wird.

Der Sperrfilter ist auch nur eine zusätzliche Komponente des Sensors und ich würde den hinzu zählen.

Aber klar vielleicht ist meine Wortwahl auch falsch und es gibt ein anderen Begriff für die "Nachbearbeitung" von den Daten die vom Sensor kommend angepasst und korrigiert in ein Raw gepackt werden.
 
Cool Master schrieb:
Ich selber hab die 6D und abgesehen von der Video-Funktion (720p) ist die nach wie vor super und macht klasse Bilder.
Ich habe auch noch eine 6D als Zweitkamera, hat mir sehr gute Dienste geleistet, aber das AF-System mit geringer Sensorabdeckung und nur einem Kreuzsensor in der Mitte war besonders bei Wildlife-Fotografie störend.
Als ich damit in einem Fotoladen war, meinte der Verkäufer: "Ahh... eine 6D. Der mittlere AF-Punkt geht immer, die anderen nie." ;-)
 
  • Gefällt mir
Reaktionen: Cool Master
S.Kara schrieb:
Das Auslesen der Pixel oder Herausrechnen von Objektivfehler nutzt aber keine KI.

Das hinzudichten von Pixeln ist das Problem. Wenn ich das will kann ich das im Nachhinein machen, da brauche ich keine Kamera für.
Da ist eh keine KI drin sondern nur ein anderer leistungsfähiger Algorithmus der da vorher auch schon vorhanden war und deine Pixel sich zusammen dichtet.

Für eine KI brauch man riesen Rechenzentren und die berechnen nur ein Algorithmus. Dieses fertige Modell setzt man dann in einer Hardware ein. Das hatte man schon vor 10 jahren gemacht. Das ist alles Mathematische und Statistische Modelle.

Wichtig ist ob das Ergebnis das ist was du willst. Also bevor man das KI Marketing geblubber ablehnt sollte man erst mal die fertigen Ergebnise abwarten und testen.
 
Zurück
Oben