Adobe: Computational Photography

Heute morgen fand ich ein Video von einer Präsentation. Adobe hat unter dem Buzzword „Computational Photography“ Ein Linsensystem und eine Software vorgestellt, an der derzeit gearbeitet wird.

Ein Video der Präsentation zeigt ein Beispielfoto und einige Möglichkeiten.

In den sieben Minuten Video wird unter anderem die Linse gezeigt. Sie hat einen facettenartign Aufbau, wie ein Insektenauge. Mit ihr werden 19 minimal verschiedene Blickwinkel zeitgleich abgebildet. Durch die minimalen Unterschiede ist es Möglich, die exakte räumliche Tiefe zu errechnen.

Die Tiefeninformation kann zu interessanten Zwecken eingesetzt werden: Mögliche Beispiele sind: Nachträgliches Wählen des Schärfepunktes, Wählen von mehreren Schärfepunkten, Leichte Veränderungen der Kameraposition.

Der Sprecher nennt Computational Photography als die Zukunft der Fotografie. Das darf bezweifelt werden. Die Techniken sind auf jeden Fall interessant, jedoch sind sie für den Consumer-Bereich im Moment zu rechenaufwändig. Für den Profi sind viele der gezeigten Möglichkeiten heute schon möglich – wenn auch mit mehr Aufwand. Der Profi käme auch nicht von einem 10.000 Euro Shooting mit nur einem Bild zurück.

In einer Zukunft mit mehr Rechenleistung wird sich die Technik sicher eine Fangemeinde schaffen. Ich glaube nicht, dass es die Zukunft der Fotografie ist. Es wird etwas eigenes sein, dass ein wenig unterschiedlich zu klassischer Fotografie ist.

Computational Photography ist quasi auf Nachbearbeitung ausgelegt; Speziell ausgelegt auf Bilder, die so nicht möglich sind. Ein wichtiger Teil der Fotografie ist (für mich jedenfalls) jedoch die Dokumentation und Abbildung der Wirklichkeit, wie sie ist. Genau dieser Unterschied ist der Grund, warum ich glaube, dass Computational Photography keine Weiterentwicklung der Fotografie ist, sondern eine eigene Sparte eröffnet, wie schon das schießen von 24 Bildern pro Sekunde eine eigene Kunstform1 eröffnet hat.

Ich empfinde einige der Anwendungen als unnatürlich2. Insbesondere das Beispiel, in dem die Schärfe auf mehrere Punkte gelegt wird, verliert meiner Meinung nach völlig an Aussagekraft. Für den laien sieht einfach etwas „nicht richtig“ aus. Wer länger fotografiert weiß: Sachen, die gleichweit entfernt sind, haben in etwa die gleiche Schärfe. Die Manipulation ist also offensichtlich. Sie wird erleichtert, dadurch aber noch lange nicht glaubwürdig.

Vincent Versace führt in einem seiner Bücher bestimmte Kategorien von Glaubwürdigkeit ein. „Probable Believability“3 – Also eine Glaubwürdige, wahrscheinliche Sache kann mit den gezeigten Anwendungsbeispielen der Computational Photography abgeschrieben werden. Ein Bild, dass für den Betrachter augenscheinlich bearbeitet wurde, büßt automatisch Glaubwürdigkeit ein.

Das heißt nicht, dass diese Bild deswegen wertlos ist, es bedeutet nur, dass es teile der heutigen Fotografie quasi per Definition nicht ersetzen kann und soll. Damit kein falscher Eindruck entsteht: Ich bin auf die ersten Ergebnisse der neuen Technik sehr gespannt und vor allem auf die Auswirkung auf die konventionelle Fotografie.

via: engadget

  1. gemeinhin „Film“ genannt []
  2. Das Linsensystem im menschlichen Auge kann, wie auch das der gewöhnlichen Kamera, nur eine Schärfeebene haben. []
  3. „Welcome to Oz“, Vincent Versace 2007, p. 6f []

Ein Gedanke zu „Adobe: Computational Photography“

  1. Die gleiche Skepsis gab es bei der digitalen Fotografie. „Das sind keine echten Fotos“ oder „Manipulationen werden mit digitaler Technik Tür und Tor geöffnet“, hieß es da.

    Computational Photography ist die entscheidene Entwicklungsrichtung. Es gab immer Veränderungen in der Fotografie. Wer geht denn heute noch mit dem Stativ los und macht eine Aufnahme mit 10 Minuten Belichtungszeit – bei voller Sonne? Demnächst drehen Fotografen den Fokusring erst dann, wenn sie wieder Zuhause sind. Na und?

Kommentare sind geschlossen.