Die Sache mit der Belichtung bei Digitalkameras

Dieses Thema im Forum "Cafe Reisefuchsforum - Offtopic & More" wurde erstellt von masi1157, 6. Juni 2019.

  1. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    So, gestern abend saß ich und "chillte 'n grillte" und habe schnell noch ein paar Beispielbilder gemacht. Meine Kamera ist eine Nikon D90 von 2008, die ist beim besten Willen nicht aktuell. Aber für diese Beispiele reicht sei erstmal. Ich war zu faul, mein Stativ zu holen, deshalb der immer andere Bildausschnitt. Ich habe mit voller Absicht Basis-ISO eingestellt, die ist bei der D90 200ISO. Und ich hatte ein wenig lichtstarkes Objektiv drauf, deshalb sind die Bilder evtl. etwas verwackelt. Fokussiert habe ich auf den Vordergrund, Bäume und Straßenlaterne sind deshalb unscharf.

    Hier nun erstmal ein Bild mit den Einstellungen, die mir der kamerainterne Belichtungsmesser vorgeschlagen hat (200ISO, f/5, 1/60s). Entwickelt aus Raw-daten mit den Voreinstellungen meiner Software (Nikon Capture NX2):

    [​IMG]
    Bild1 "original", 200ISO, f/5, 1/60s

    Der Vordergrund sieht relativ gut aus, ist vielleicht sogar etwas zu hell, Bäume und Straßenlaterne sind angefressen, Wolken sind überhaupt nicht zu sehen. So käme das Bild raus, wenn man sich auf die Belichtungsautomatik verlässt.

    Jetzt habe ich mit Absicht um -1LW knapper unterbelichtet, weil der Vordergrund gern etwas dunkler sein darf und in der Hoffnung, ein paar Wolken zu sehen zu kriegen.

    [​IMG]
    Bild 2 "original", 200ISO, f/5, 1/125s

    Der Vordergrund passt jetzt besser zu meiner Empfindung, Wolken sind aber immer noch nicht zu sehen.

    Also habe ich bei diesem Bild versucht, die Lichter abzudunkeln (es gibt dafür einen Schieberegler "Lichter")

    [​IMG]
    Bild 2, Lichter -100%, 200ISO, F/5, 1/125s

    Wolken sind immer noch nicht zu sehen, die Straßenlaterne erscheint etwas besser, aber die Äste links sehen scheußlich aus. Dieses Bild ist überbelichtet.



    Gruß, Matthias
     
  2. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Also nochmal knapper belichten, das sind jetzt -2LW unter der Empfehlung des Belichtungsmessers:

    [​IMG]
    Bild 3 "original", 200ISO, f/5, 1/250s

    Der Vordergrund ist mir jetzt schon zu dunkel, Wolken sind immer noch nicht zu sehen.

    Also habe ich in diesem Bild die Lichter um 100% abgedunkelt und die Schatten um 100% aufgehellt. Ergebnis:

    [​IMG]
    Bild 3, Lichter -100%, Schatten +100%, 200ISO, f/5, 1/250s

    Der Vordergrund ist mir schon fast zu hell, vielleicht wären "Schatten +50%" genug gewesen. Die erste Wolke ist zu erahnen, aber Laterne und die Äste links sind immer noch scheußlich. Auch dieses Bild ist überbelichtet.

    Also nochmal knapper belichten, jetzt -3LW "unter Belichtungsmesser":

    [​IMG]
    Bild 4 "original", 200ISO, f/5, 1/500s

    Jetzt ist die Wolke da, die Laterne sieht ok aus, die Äste links auch so halbwegs, aber der Vordergrund ist "schwarz".

    Und schließlich habe ich in diesem Bild die Lichter so weit abgesenkt, wie es mir angenehm erschien (-50%) und die Schatten aufgehellt (+77%). Das Ergebnis:

    [​IMG]
    Bild 4, Lichter -50%, Schatten +77%, 200ISO, f/5, 1/500s

    Der Vordergrund ist nicht perfekt, ich weiß. Mit einer aktuellen Kamera ginge das besser. Aber immer habe ich aus dieser 11 Jahre alten Gurke ein Bild benutzt, das um -3LW "unter Belichtungsmesser" belichtet war, und habe die Bildhelligkeit nachträglich angepasst. was anderes habe ich in all diesen Bildern nicht getan, nur die beiden Schieberegler "Lichter" und "Schatten" verschoben.



    Gruß, Matthias
     
  3. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    All zu brennendes Interesse scheint ja nicht zu bestehen. Habt Ihr denn halbwegs verstanden, worauf ich hinauswill?

    Im Grunde ist es: Belichtung und Bildhelligkeit sind 2 verschiedene Dinge und in gewissen Grenzen sogar unabhängig voneinander. Der strikte Zusammenhang, den ein bei Diafilm noch gab (und weniger strikt bei Negativfilm), ist bei Digitalkameras künstlich erzeugt (durch die voreingestellten Parameter des Belichtungsmessers und der automatischen JPG-Entwicklung in der Kamera oder auf dem PC). Man kann die Parameter aber auch anders einstellen (bei Raw besser als bei JPG) und Bildhelligkeit (Kontrast, Sättigung, Weißabgleich usw. ....) selber bestimmen, ohne dafür anders belichten zu müssen. Die "korrekte" Belichtung lässt keine bildwichtigen Lichter ausfressen, die "korrekte" Bildhelligkeit kann man dann immer noch einstellen. All das natürlich nur begrenzt (meine Kamera war bei dem Beispiel schon etwas überfordert) und auch nur, wenn es nötig ist.


    Gruß, Matthias
     
  4. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Ich wollte auch noch auf was anderes raus, deshalb ja die Geschichte mit den Bildpunkten, Schnapsgläsern, großen und kleinen Tischen im Regen usw. Aber dazu komme ich dann noch.


    Gruß, Matthias
     
  5. Tom Yam

    Tom Yam Reisefuchsforum Legende

    Registriert seit:
    28. Januar 2011
    Beiträge:
    733
    Der Schein trügt, aber nur, weil die digitale Echtzeitkommunikation zur Ungeduld verführt, was Reaktionen angeht. Ich finde aber, das Leben ist zu kurz, um es daueronline zu fristen und gönne mir deshalb reichlich Auszeiten (Stichwort: "digital detox"). Jetzt bin ich aber gerade mal da und finde Deine Ausführungen absolut lesenswert.

    Eigentlich decken die sich größtenteils mit meinen Erfahrungen; sogar mit denen aus der analogen Diazeit. Der Auslöser für dieses Thema war ja ursprünglich meine Bemerkung zu meinem Rätselbild vom Mount Cook, das ich absichtlich etwas "unterbelichtet" hatte. Sprich: circa 2 Blendenwerte unter den Empfehlungen des Belichtungsmessers. Weil die Lichtverhältnisse suboptimal waren - knallige Mittagssonne vom ozonlöchrigen Südhimmel und weitgehend schattenfrei, dafür aber sehr UV-lastig. Üblicherweise halte ich mich an die alte Fotografenregel "Zwischen elf und drei hat der Fotograf frei" und nutze das ungleich interessantere Morgen- oder Spätnachmittagslicht, welches viel bessere Aufnahmen ermöglicht. Das Problem ist nur, dass das auf Reisen nicht immer durchzuhalten ist. Wenn der Linienbus ausgerechnet in den Mittagsstunden am Motiv der Begierde hält, muss man einfach das Beste aus der Situation machen; trotz empfohlener Fotografenfreizeit. Oder eben auf das Bild verzichten.

    Nach Deinen aktuellen Ausführungen lassen sich in der Nachbearbeitung ja durch Schattenaufhellung häufig Details retten. In überstrahlten Bereichen ("Überbelichtung" bzw. Sensel-Schnapsglas randvoll mit Photonen) geht das meistens nicht. Also lieber (wie in alten Diafilmzeiten) nicht zu großzügig belichten. So gesehen habe ich bei dem Mount Cook-Bild eigentlich nichts verkehrt gemacht. Höchstens, dass ich beim dezenten Hochziehen den Weißabgleich ignoriert habe. Das intensive Blau hat mir trotzdem gefallen, weil es genau meinen Seheindruck durch die (in der Lichtsituation unverzichtbare) Sonnenbrille entsprochen hat.

    Ich muss aber zugeben, dass ich keine RAW-Bearbeitung gemacht habe bzw. bisher mache. Obwohl ich neben den JPG auch RAW-Daten abspeichere. Das liegt (neben meiner unleugbaren Faulheit) auch daran, dass ich immer noch nach dem optimalen RAW-Konverter suche. Marktführer Lightroom kommt aus diversen Gründen nicht in Frage. Vor allem auch deswegen, weil ich seit 5 Jahren User des Fujifilm-Systems bin und Lightroom dem Vernehmen nach mit dem speziellen Design der in Fuji-Kameras verbauten X-TRANS-Sensoren nicht so gut klar kommt. C-One scheint wohl in Fuji-Kreisen die erste Wahl zu sein - kostet aber ziemlich. Die Open Source Freeware "Raw Therapee" scheint ganz o.k. zu sein. Ich habe sie aber bisher nur bei extremen High-ISO-Nachtaufnahmen (Petra / Jordanien bei nächtlicher Kerzenbeleuchtung) versuchsweise mal angewendet. Neben Faulheit hat meine bisherige RAW-Enthaltung aber auch mit den hervorragenden Ergebnissen der JPG-Engine der Fuji-Kameras zu tun. Deren optionale "Filmsimulationen" sind einfach der Hammer (digitale Simulationen von Filmcharakteristiken wie Velvia, Provia usw.). Da kommt der Ex-Diaknipser echt ins Schwärmen.

    Gruß
    Michael / Tom Yam
     
  6. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Ja, zugegeben, es gibt schon sehr gut voreingestellte Bildstile (angeblich tatsächlich speziell bei Fuji, aber die kenne ich nicht), die man kaum manuell nachstellen kann, vor allem wenn man fast keine Zeit dafür aufbringen will. Und auch die Software-Frage ist knifflig. Meine olle Nikon-Software hat mal nicht wenig Geld gekostet, wird aber seit Jahren nicht mehr unterstützt und kann mit aktuellen Kameras nichts anfangen. Wenn ich doch mal irgendwann eine neue Kamera kaufen sollte, muss ich mal sehen, was es so gibt.

    Es gab ja in den Anfängen der Digitalkameras den Merksatz "expose to the right" ("ETTR"). Damals hieß das ja: Es macht nichts, wenn das Hauptmotiv zunächst zu hell wird und opfere ruhig ein paar ganz helle Lichter, die Bildhelligkeit kannst Du nachträglich runterdrehen und bekommst so ein rauschärmeres Bild. Heute rauschen die Kameras aber so viel weniger, dass man ruhig auch hellere Lichter "nach rechts" belichten kann, aber nicht mehr wie früher drüberhinaus. Das Hauptmotiv wird dabei erstmal zu dunkel (statt zu hell nach alter Regel) und kann nachträglich aufgehellt werden. Ja, es rauscht dann etwas mehr, aber das ist häufig kein Problem. Und für das Denkmodell des Bildrauschens habe ich "Bildpunkte", Schnapsgläser, Landregen usw. eingeführt und das Denken in Pixeln Senseln "verbannt", das führt nämlich zuweilen zu grotesken Fehlschlüssen. Das kommt später.


    Gruß, Matthias
     
  7. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    So, dann komme ich jetzt nochmal zu meinen "Pixeln" = "Bildpunkten", die ausdrücklich nicht die "Sensel" sind, die häufig Pixel genannt werden und von denen ein Sensor mehrere Millionen hat. Meine Bildpunkte entsprechen dem kleinsten Stückchen vom Bild, das gerade noch aufgelöst und vom Nachbarbildpunkt unterschieden werden kann, wenn man ein Bild in Gänze betrachtet, also aus einer Entfernung, die etwa der Bilddiagonale entspricht. Das sind auf dem ganzen Bild ungefährt 1.000.000 Punkte (1 Million), jeder Bildpunkt entspricht also 1/1.000.000 (1 millionstel) der Sensorfläche. Natürlich ändert sich die Zahl, wenn man ein Bild größer oder kleiner betrachtet. Sie ist aber realistischerweise immer kleiner als die Zahl der Sensel ("Sensorpixel"), denn wenn man ein Bild so groß/von so nah betrachtet, dass man die Sensel auflösen könnte, wäre es "pixelig" und als Bild nicht mehr ansehnlich. Die Zahl der Sensel auf einem Sensor begrenzt also, wie groß/von wie nah ein Bild als Bild betrachtet werden kann, aber das ist längst nicht die einzige oder dominante Grenze (heute nicht mehr, früher aber durchaus).

    Für die folgenden Vergleiche will ich also annehmen, dass alle Bilder, egal von welchem Sensor, gleich groß und aus der gleichen Entfernung betrachtet werden. Und dafür rechne ich mit 1.000.000 "Pixeln". Ich hätte auch 2.000.000 oder 5.000.000 nehmen können, und die bekannte Testseite DxOMark benutzt 8.000.000. Das ist Geschmackssache. Hauptsache ist, dass es immer gleich viele sind. Und mit 1.000.000 ist ein bisschen einfacher zu rechnen.

    So, und jetzt "belichte" ich meinen Sensor, der Einfachheit halber erstmal mit einem gleichförmigen Grau als Motiv. Je heller das Grau ist und je weiter die Blende geöffnet ist, desto heller wird die Sensorfläche beleuchtet, solange der Verschluss offen ist ("beleuchtet", das ist noch nicht "belichtet"). Die Beleuchtungsstärke misst man übrigens in Lux ("lx"). Je länger der Verschluss geöffnet ist, desto mehr Licht fällt auf jedes Stück der Sensorfläche, und das ist nun die Belichtung (in Lux*Sekunde "lx.s"): Eine Lichtmenge pro Flächenelement (also bspw. pro mm² oder pro m²). Für die Belichtung ist es völlig egal, wie groß der Sensor insgesamt ist, ob da überhaupt ein Sensor ist, wieviele Sensel er hat, wie empfindlich ("ISO") er ist usw. Die Belichtung in der Fotografie hängt nur von der Motivhelligkeit, der Blende und der Belichtungszeit ab (und von der Transmission des Objektivs, die nehme ich mal als gleich an), aber nicht von der eingestellten ISO und erst recht nicht von der Sensorgröße.

    Allerdings hängt natürlich die gesamte vom Sensor aufgenommene Lichtmenge von seiner Größe ab, und damit natürlich auch die Lichtmenge pro 1/1.000.000 der Sensorfläche.


    Gruß, Matthias
     
  8. naturefriend

    naturefriend Reisefuchsforum Mod

    Registriert seit:
    1. Januar 2011
    Beiträge:
    1.900
    Als total Unbeteiligter und daher (hoffentlich) neutraler Betrachter eurer zwei Fotos möchte ich dazu nur sagen: es wirken beide Fotos nicht "normal"!

    Das Bild von @Tom Yam wirkt etwas "blaustichig" aber der Himmel ist m.M. nach richtig dargestellt. Bei @Masi's Bild wirkt zwar die Stadt besser aber der Himmel ist mir zu "unwirklich", weil zu blass. Und es ist mir etwas zu "braunstichig".

    Heute sind es die Sensoren, damals (in Analog-Zeiten) waren es die "Filme". Ich habe ja früher sehr viel fotografiert - fast nur Dias - aber auch da war ein Unterschied zwischen z.B. Kodak und Fuji total merkbar. Kodak eher Rot/Braun-stichig, Fuji eher Blau/Grün-stichig. Da ich fast immer beide Kameras dabei hatte, wurden meistens die Kameras "unterschiedlich gefüllt" und bei besonderen Zielen mit beiden ein Bild gemacht. Beim Anschauen merkte man den Unterschied extrem.

    lg Richi
     
    Zuletzt bearbeitet: 12. Juli 2019
  9. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Es soll ja mit der Belichtungs-Geschichte noch weitergehen, das wichtigste kommt ja erst noch. Aber jetzt komme ich zwischendurch noch zu was anderem, was zwar nicht wirklich was mit Belichtung zu tun hat, aber doch immerhin mit dem Anlass, weshalb ich dies überhaupt angefangen habe. Und weil es bei "Wo war ich?" nun wirklich nichts verloren hat, kopiere ich es mal hierher.

    Tom Yam hatte dieses Foto eingestellt:

    Ich fand es viel zu blau, und habe dann eine Version des Fotos eingestellt, die ich einfach nur mit "Bildkorrektur" "automatisch" mit paint.net bearbeitet hatte. Wäre es mein Foto, hätte ich allerdings noch ein bisschen am Kontrast und den Tonwerten (den Schatten) gedreht.

    Ich finde nach wie vor, dass diese 2. Version normaler aussieht und es besser trifft. Tom Yam aber nicht:

    Natürlich ist das Geschmackssache. Ich war nun aber selber auch schon mehrfach in Neuseeland und Patagonien, und ich weiß, wie blau das Licht da sein kann (in Neuseeland noch mehr als in Patagonien). Und wenn ich dort auf das Umgebungslicht geachtet habe, habe ich es natürlich auch sehr blau empfunden. Wenn ich aber "etwas" (Gebäude, Landschaft, Tiere usw.) angeguckt habe, habe ich das weitgehend "in ganz normalen Farben" gesehen, und eben längst nicht so blau, wie auch meine Kamera es zunächst wiedergab. Das ist ja grad das verrückte mit unserem Sehsinn, wir sehen bei Tageslicht und bei Kunstlicht die gleichen Farben, obwohl sie physikalisch ganz unterschiedlich sind. Und deshalb gibt es bei Kameras den Weißabgleich (dessen Automatik aber auch gern mal danebengreift, speziell bei meiner ollen D700).

    Gestern habe ich Christine beide Fotos ohne weitere Erklärung gezeigt und sie sagte spontan "viel zu blau" und "so ist's besser".


    Gruß, Matthias
     
  10. Tom Yam

    Tom Yam Reisefuchsforum Legende

    Registriert seit:
    28. Januar 2011
    Beiträge:
    733
    Wie Du schon sagtest, ist ein Weißabgleich nur deshalb notwendig, weil unser Gehirn selbst ständig einen macht. Und dabei lässt es jede Menge Lebenserfahrung einfließen. Es weiß eben, dass ein Blatt Papier oder auch Schnee weiß zu sein hat und dreht es so hin, dass wir auch weiß sehen. Egal ob bei Tageslicht (morgens, mittags oder abends), Lampenlicht oder Kerzenbeleuchtung. Was aber je nach vorhandenem Licht nicht stimmen kann, weil dessen Farbanteile völlig unterschiedlich sind. Schauen wir dagegen ein Foto an (ob auf Papier oder Monitor), weiß das Gehirn, dass es nur ein Bild und keine Realität ist. Und verzichtet deshalb auf die "Weißmacher-Korrektur" und der weiße Schnee ist auf der Abbildung plötzlich blau (Mittagslicht), rötlich-grau (in der Dämmerung) oder gelb (klassisches Lampenlicht). Echten Schnee aber sehen wir beleuchtungsunabhängig als weiß an.

    Im vorliegenden Fall mit meinen "zu blauen" Fotos kommt aber noch ein weiteres Problem hinzu: Du hast nicht den gleichen Monitor wie ich und andere Betrachter ebenfalls nicht. Wahrscheinlich sind die auch noch unterschiedlich eingestellt und deshalb nehmen wir das gleiche Bild verschieden wahr. Foto- und Grafik-Profis kennen die Problematik und treiben sehr viel Aufwand mit Farbmanagement und Kalibrierung von Monitoren, Druckern usw., um auf allen Wiedergabemedien möglichst konsistente, farbtreue Ergebnisse zu erzielen.

    Als Amateur treibe ich diesen Aufwand nicht. Dazu hätte ich meinen Monitor mit einem speziellen Messgerät kalibrieren und ein rekonstruierbares Farbprofil anlegen müssen. Ich habe immerhin eine simple "Kalibrierung light" vorgenommen mit Hilfe von netzüblichen Graustufentreppen / -keilen und Farbmustern. Das kann ich nur jedem empfehlen. Die Werkseinstellungen neuer Monitore sind üblicherweise ziemlich nah am möglichen Maximum, was Bildhelligkeit und Kontrast angeht. Da besteht oft deutlicher Nachbesserungsbedarf. Ich musste beide Werte um ca. 30 Prozent absenken, um einen halbwegs natürlichen Bildeindruck zu bekommen. Leider lässt sich unser Gehirn auch hier täuschen und arrangiert sich schnell selbst mit knalligsten Bildschirmen. Eine Graustufentreppe kann hier sehr hilfreich zur Orientierung sein.

    Gruß
    Michael / Tom Yam
     
  11. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Moin!


    Ich behaupte ja übrigens nicht, dass meine Version des Fotos "gut" ist, ich halte sie nur hinsichtlich des Blaustichs für "besser". Ich will daran aber auch nicht lange verschlimmbessern, es ist schließlich nicht mein Foto, ich habe nur ein JPG davon zur Verfügung und ich habe die Szene nicht im Original gesehen, nur andere "blaue Szenen" in Neuseeland oder Patagonien.

    Ich habe mir beide Versionen mittlerweile hier im Büro am Rechner (3 verschiedene unkalibrierte Monitore, 1 davon mit deutlichem Farbstich), am PC zuhause (2 gleiche Monitore "nach Auge" eingestellt/kalibriert), auf dem Tablet (Huawei) und auf 3 Handys (3 verschiedene Motorola) angeguckt und Christine und 2 Kollegen gezeigt, in allen Fällen erscheint Deines zu blau.

    Aber um die Kurve zum eigentlichen Thema zu kriegen: Der Weißabgleich ist bei Digitalkameras etwas, was man völlig problemlos nachträglich einstellen/korrigieren kann und auch sollte (wenn es nötig ist, weil der automatische Weißabgleich danebenlag). Bei analogem Diafilm war das überhaupt nicht möglich, da brauchte man Korrekturfilter und/oder den passenden Film. Bei Negativfilm konnte immerhin bei den Abzügen noch korrigiert werden, wenn das Labor das anbot. Und speziell Diafilme reagierten auf Belichtungsänderungen mit Farbänderungen (z.B. sattere Farben bei "Unterbelichtung"), was man gern auch bewusst ausnutzte. Dieses Verhalten wird auch bei Digitalkameras nachempfunden. Aber da sind das dann einfach nur automatisch gewählte Entwicklungsparameter, um aus Raw-Daten sattere Farben im JPG zu erzeugen. In den Raw-Daten ist aber nichts "knalliger", die ändern sich dadurch nicht (außer natürlich in der Belichtung).

    Wenn man die Raw-Daten ohnehin speichert (das tue ich immer), wenn die Lichtsituation schwierig war und/oder man bei der JPG-Entwicklung noch was rauskitzeln will, sollte man die Belichtung nach anderen Kriterien wählen, sich erstmal nicht drum kümmern, wie das Bild auf dem Kameramonitor aussieht und den Weißabgleich (und sonstige Entwicklungsschritte) später am PC machen.


    Gruß, Matthias
     
  12. Tom Yam

    Tom Yam Reisefuchsforum Legende

    Registriert seit:
    28. Januar 2011
    Beiträge:
    733

    Ich habe Dich mal "hierher zitiert", weil es thematisch hier besser passt und hoffe, das geht sowohl für Dich in Ordnung wie auch für die Forensoftware.

    HDR ist eigentlich der falsche Ausdruck für das, was ich meinte. Das HDR-Verfahren erfordert ja mehrere verschieden belichtete Aufnahmen, die dann zu einem Endergebnis verrechnet werden. Das geht aber nur mit statischen Motiven und meine mongolischen Skater wären da längst aus dem Bild geflitzt. Was ich meinte, nannte sich DRI ("Dynamic Range Increase") und Wikipedia nennt es aktuell "Belichtungsfusion". Dabei würden aus einem einzigen RAW-Bild nach der Aufnahme verschieden belichtete Einzelbilder erzeugt und anschließend zu einem JPG-Bild mit quasi "komprimiertem" Kontrast verrechnet. Es ist ein Trick, den höheren Kontrastumfang einer RAW-Aufnahme nach JPG "hinüber zu retten" - durch Absenkung auf das, was JPG noch darstellen kann.

    Rein theorisch könnte das auch aus manipulierten Einzel-JPGs möglich sein. In der Theorie, aber praktisch habe ich es noch nicht ausprobiert. Und es wird wohl etwas Übung nötig sein für brauchbare Ergebnisse. Ich muss mich einfach mal damit auseinandersetzen. Der Corona-Lockdown wäre die Gelegenheit. Aber ich bin schon mit anderen Baustellen beschäftigt. Schaumer mal, wie man in Bayern so sagt.

    Gruß
    Michael / Tom Yam


    Nachtrag: Zur Vervollständigung hier noch mal das Ausgangsbild unserer Kontrast-Diskussion. Alles ist richtig belichtet; bis auf die Statue im Hintergrund. Bei der sind kaum noch Details zu erkennen, da zu dunkel. Das Problem ist, dass das JPG-Format die Kontrastspanne zwischen hellen und dunklen Bildteilen nicht mehr darstellen kann:

    [​IMG]
     
    Zuletzt bearbeitet: 22. Mai 2020
  13. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Moin!


    Ich habe mir erlaubt, Dein Foto runterzuladen und minimalst zu bearbeiten. Wenn Du das hier nicht veröffentlicht sehen willst, sag bitte gleich Bescheid.

    [​IMG]

    Ich habe nichts weiter getan, als in meiner Standardsoftware (Nikon Capture NX-2, es geht aber auch jede andere) die Schatten anzuheben. Mehr nicht. Und das war natürlich noch nicht mal "Raw-Bearbeitung" oder gar (H)DR, denn ich habe ja nur das eine kleingerechnete und entwickelte JPG. Ich finde, man erkennt sogar nach dieser Minimalbearbeitung eine Menge Details.

    Und noch hierzu:

    "Belichtungsfusion" ist schon per se irreführend, denn es gibt ja nur eine einzige Belichtung. Wenn überhaupt, ist das eine "Helligkeitsfusion". Im Prinzip ist das eine meistens ziemlich überflüssige Bearbeitungsmethode, denn man kann ja prinzipiell keine Helligkeiten/Tonwerte erzeugen und miteinander verrechnen, die nicht sowieso in den Raw-Daten erfasst wurden. Man könnte also "im Prinzip" das Ergebnis auch einfach so, ohne die Zwischen-JPGs, direkt aus der Raw-Datei entwickeln.

    "Im Prinzip" sage ich aber aus zwei Gründen. Zum einen bieten manche Raw-Konverter nicht den nötigen Bearbeitungsumfang. Man kann in denen bspw. keine Aufhellung um mehr als 2LW einstellen und solche Sachen. Und zum anderen bieten HDR-Programme, wenn sie gut sind und vernünftig bedient werden, auch wenn sie nur mit diesem Zwischen-JPGs gefüttert werden, etwas, was manuell im Raw-Konverter verdammt fummelig wäre und viel Erfahrung erfordert.

    Der Mensch empfindet nämlich Helligkeiten nicht absolut, sondern relativ und kontextbezogen. Mein Standardbeispiel, hatte ich es früher schon erwähnt? Bei einer "Diashow" in einem nicht völlig finsteren Raum wird jeder eine schwarze Bildstelle im Dia als schwarz empfinden, die Leinwand außerhalb des Dias aber als weiß. Tatsächlich sind beide aber absolut exakt gleich hell. Vielleicht ist sogar das Schwarz im Bild etwas heller als das Weiß der Leinwand, weil das Dia eben nicht vollkommen schwarz und lichtundurchlässig ist.

    Und es gibt im Netz diverse Darstellungen der "Schachbrett-Illusion", diese hier finde ich besonders hübsch.

    Und genau diesen Effekt nutzen gute HDR-Programme aus. Was auf dem Schachbrett im Schatten liegt, ist in der Realität tatsächlich dunkler, und so wird es auch von der Kamera "gesehen" und aufgezeichnet, und so wird es auch in das fertige JPG entwickelt. Da können dann schon mal Details im Schatten verloren gehen. Das HDR-Programm analysiert das Bild danach und hellt selektiv die Stellen im Schatten auf, aber nur so weit, dass sie weiterhin als "im Schatten" wahrgenommen werden. Und der Effekt wäre dann so wie in der gezeigten Animation.


    Gruß, Matthias

    PS: Hier ist noch das Ergebnis aus Capture NX-2, wenn ich den Regler "Schatten" auf +100 ziehe, mehr geht mit dieser Software und dem vorhandenen JPG nicht, mit den Raw-Daten aber schon.

    [​IMG]
     
    Zuletzt bearbeitet: 23. Mai 2020
  14. Tom Yam

    Tom Yam Reisefuchsforum Legende

    Registriert seit:
    28. Januar 2011
    Beiträge:
    733
    Das ist schon in Ordnung so. Gerade in diesem fototechnischen Thread.

    Dafür, dass Du nur mein verkleinertes JPG zur Verfügung hattest, finde ich das Resultat schon ziemlich beeindruckend.

    Der Name der Software lässt mich vermuten, dass es sich dabei um eine Nikon-spezifische Version von Capture One (aus dem Hause Phase One) handelt. Das habe ich nämlich schon im Visier als RAW-Konverter. Seit Adobe seine Produkte nur noch als Abo vertreibt, fällt Lightroom (ebenso wie Photoshop) für mich durchs Auswahlraster. Hinzu kommt, dass Capture One besonders gut mit meinen Fuji-Sensoren harmonieren soll.

    Gruß
    Michael / Tom Yam
     
  15. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Nee nee, Capture NX-2 hat nichts mit Capture One zu tun. Es war ein Programm von Nik-Software für Nikon, aber auch Nik und Nikon ist nur Zufall. Nik wurde vor Jahren von Google gekauft und Capture NX-2 wurde eingestellt. Mit meinen alten Gurken funktioniert es noch und sogar mit Windows 10 klappt es. Aber wenn ich mal eine neue Kamera bekomme, brauche ich auch einen anderen Raw-Konverter. Capture One wäre eine Option, aber erstmal würde ich Capture NX-D von Nikon ausprobieren. Umsonst und viel weniger Funktionsumfang als NX-2, außerdem ganz anders zu bedienen, aber vielleicht reicht es mir.

    Mit fertigen JPGs macht NX-2 aber auch nichts anderes als all die anderen, selbst Irfan View kann das.


    Gruß, Matthias
     
  16. masi1157

    masi1157 Reisefuchsforum Legende

    Registriert seit:
    12. Januar 2011
    Beiträge:
    5.932
    Moin!

    Grade habe ich dies hier im Spiegel gefunden. Das passt doch ganz gut zum Thema.


    Gruß, Matthias
     
  17. Tom Yam

    Tom Yam Reisefuchsforum Legende

    Registriert seit:
    28. Januar 2011
    Beiträge:
    733
    Danke für den Link. Werde ich mir in Ruhe zu Gemüte führen.

    Gruß
    Michael / Tom Yam
     

Diese Seite empfehlen

Zurzeit aktive Besucher

  1. masi1157
Besucher: 72 (Mitglieder: 4, Gäste: 62, Robots: 6)

Statistik des Forums

Themen:
2.916
Beiträge:
47.913
Mitglieder:
4.583
Neuestes Mitglied:
Bernardalido