Die Titelaussage unterschreibe ich sofort bzgl Unmengen meiner Versuche, irgendwelche tollen Farbeffekte aus der Natur auf Film bzw neuerdings in Bits zu bannen.
Wär doch eigentlich mal interessant, ob sich schon irgendwer Gedanken gemacht hat, warum das so ist (ziemlich sicher [Eigenleuchten?]) bzw wie es behoben werden kann. Falls letzteres, dann offensichtlich erfolglos – denn bisher bewunderte Werke hochmögender Profis sind zwar unverkennbar besser als meine Gehversuche, doch ebenfalls noch weit von live zu Bewunderndem entfernt.
Ich denke, ein Grund dürfte sein, dass man mit den Augen immer eine leicht unterschiedliche Perspektive sieht – 2 Augen sowie die Bewegung –, was in der Kamera bestenfalls über die Belichtungszeit gemittelt aufgenommen werden kann. Ist jetzt aber nur ’ne Vermutung, ohne dass ich Belege bringen könnte.
ok, ist ein bißchen spät jatzt, aber 3D hatte ich auch im Kopf, als ich die kleine Bemerkung verzapfte, mir fiel bloß nix ein, warum das was ausmachen sollte.
Aber das mit der Bewegung ist ein guter Punkt. ZB das ‚Wabern‘ bei Nordlichtern – da können Bilder noch so beeindruckend sein, beim Original hats mich fast aus den Schuhen gehauen
Doch auch bei Statischem gibt es erstaunliche vorher/nachher-Unterschiede und technische Gründe wollen mir nicht einfallen. Farbbereich? Beim Auge sinds 3 Zapfentypen mit je (afaik) ~100 unterscheidbaren Erregungszuständen, insgesamt also ca 20Bit, weniger als 3x8Bit RGB usw usw
Vielleicht spielt auch ein gerüttelt Maß Psychologie mit…
Die Farbbereichsempfindlichkeiten der menschlichen Zapfen sind auch anders als die bei CMOS- und CCD-Sensoren, da sind entsprechende Umrechnungen nötig (und Bildschirme kommen ja auch noch dazu) – wer weiß, wie viel das ausmacht…
rolak1 20.08.2012 um 18:46 747 Kommentare
zitieren
Die Titelaussage unterschreibe ich sofort bzgl Unmengen meiner Versuche, irgendwelche tollen Farbeffekte aus der Natur auf Film bzw neuerdings in Bits zu bannen.
Wär doch eigentlich mal interessant, ob sich schon irgendwer Gedanken gemacht hat, warum das so ist (ziemlich sicher [Eigenleuchten?]) bzw wie es behoben werden kann. Falls letzteres, dann offensichtlich erfolglos – denn bisher bewunderte Werke hochmögender Profis sind zwar unverkennbar besser als meine Gehversuche, doch ebenfalls noch weit von live zu Bewunderndem entfernt.
cimddwc 20.08.2012 um 20:03 6323 Kommentare
zitieren
Ich denke, ein Grund dürfte sein, dass man mit den Augen immer eine leicht unterschiedliche Perspektive sieht – 2 Augen sowie die Bewegung –, was in der Kamera bestenfalls über die Belichtungszeit gemittelt aufgenommen werden kann. Ist jetzt aber nur ’ne Vermutung, ohne dass ich Belege bringen könnte.
rolak 20.08.2012 um 20:39 747 Kommentare
zitieren
ok, ist ein bißchen spät jatzt, aber 3D hatte ich auch im Kopf, als ich die kleine Bemerkung verzapfte, mir fiel bloß nix ein, warum das was ausmachen sollte.
Aber das mit der Bewegung ist ein guter Punkt. ZB das ‚Wabern‘ bei Nordlichtern – da können Bilder noch so beeindruckend sein, beim Original hats mich fast aus den Schuhen gehauen
Doch auch bei Statischem gibt es erstaunliche vorher/nachher-Unterschiede und technische Gründe wollen mir nicht einfallen. Farbbereich? Beim Auge sinds 3 Zapfentypen mit je (afaik) ~100 unterscheidbaren Erregungszuständen, insgesamt also ca 20Bit, weniger als 3x8Bit RGB usw usw
Vielleicht spielt auch ein gerüttelt Maß Psychologie mit…
cimddwc 20.08.2012 um 20:54 6323 Kommentare
zitieren
Die Farbbereichsempfindlichkeiten der menschlichen Zapfen sind auch anders als die bei CMOS- und CCD-Sensoren, da sind entsprechende Umrechnungen nötig (und Bildschirme kommen ja auch noch dazu) – wer weiß, wie viel das ausmacht…
rolak 20.08.2012 um 21:15 747 Kommentare
zitieren
hehe – jetzt habe ich doch mal ganz dreist nach „warum wirken photos anders als die realität“ wie üblich ohne die „“ gesucht und was erhalte ich schon auf der ersten Seite als Treffer:
Ich bin nicht verrückt , meine Realität ist nur etwas anders als eure
Nur sinnvoll aussehende Ergebnisse scheinen nicht in Reichweite..