Netzkolumne Zeigen, was sein könnte

In jedem Jahr werden weltweit etwa eine Billion Fotos aufgenommen. Berechnete Fotografie revolutioniert derzeit in kleinen Schritten unsere Bilder von der Welt. Das Foto ist nicht mehr Abbild, sondern Idealbild.

Von Michael Moorstedt

Manchmal kommt eine Revolution in kleinen Schritten. Zum Beispiel, wenn Google, wie jüngst geschehen, verkündet, dass die Kamera seines neuen Smartphones automatisch erkennt, wenn sich zwei Menschen vor der Linse küssen. Das klingt mäßig weltverändernd und ist doch Vorbote einer Entwicklung, die in ihrem Ausmaß nur mit dem Siegeszug der digitalen Fotografie vergleichbar ist. Computational Photography heißt das hierzu passende Schlagwort - berechnete Fotografie.

Jedes Jahr nimmt die Menschheit grob geschätzt mehr als eine Billion Bilder auf. Doch Fotografie ist schon längst nicht mehr Mechanik, sondern Software. Es geht nicht mehr um geöffnete Blenden und Linsen, sondern um künstliche Intelligenz. Dabei geht es nicht nur um die Kuss-Erkennung, sondern auch um andere Merkmale wie ein überraschter Gesichtsausdruck oder aufgeblähte Backen. Die Kamera sagt dem Nutzer auch, wann er am besten aussieht - und entscheidet vielleicht schon bald selbst, wann der richtige Moment ist, um abzudrücken.

Mit dem Weichzeichner aufgewachsene Leute sehnen sich nach mehr harten Kanten

Es wandeln sich nicht nur die Motive, sondern auch die Aufnahmetechnik selbst. Man nehme den Nachtsicht-Modus eines aktuellen Top-Smartphones. Hier entsteht ein helleres Bild nicht mehr durch längere Belichtungszeit, sondern indem eine Vielzahl von dunklen Bildern von einem Algorithmus zu einem Bild zusammengerechnet wird. Selbstverständlich kommt wieder die KI ins Spiel: Auf Basis von Millionen von für das Training verwendeten Aufnahmen mit korrekter Farbdarstellung führt die Software bei den Nachtaufnahmen eine Farbkorrektur durch. Das Resultat mag ein perfekt ausgeleuchtetes Foto sein, aber es zeigt nicht, was ist, sondern was sein könnte. Das Foto ist nicht mehr Abbild, sondern Idealbild. All das passiert nicht nach stundenlanger sorgfältiger Retusche, sondern in Echtzeit. Bevor auf den Auslöser gedrückt wird, hat die Software schon den besten Moment ausgesucht und das optimale Ergebnis berechnet.

"An einem Bild sind immer zwei Leute beteiligt: der Fotograf und der Betrachter", sagte Ansel Adams, Pionier der Straight Photography, einmal. Mittlerweile ist dieses Auffassung überholt. Hinzugekommen ist eine ganze Horde von Programmierern, die die Fotosoftware mit den nötigen Algorithmen befüllen. Schon längst lässt sich etwa Schärfentiefe beliebig setzen. Ein Forscherteam der TU München hat im vergangenen Jahr einen Weg gefunden, wie sich Hintergründe auf Fotos, die eigentlich von Objekten bedeckt werden, sichtbar machen lassen. Die KI-Kamera erdenkt das, was sie nicht sieht.

Noch radikaler geht die Firma Nvidia an die Revolution der Fotografie heran. Hier hat man ein Programm entwickelt, in dem der Nutzer auf einem leeren Dokument grobe Formen definiert, die dann von der Software befüllt werden. Zur Auswahl stehen Strukturen wie Sand, Gebüsch, Berge, Wolken oder Wasser. Die künstliche Intelligenz errechnet dann aus den entsprechenden Konturen fotorealistische Landschaftsbilder, sorgt für Details, Textur, Spiegelungen und Schatten. Die Software ist bereits so gut, dass ein flüchtiger Betrachter von ihr getäuscht werden könnte.

Perfekte Instagram-Fotos könnte man also schon bald von einer KI berechnen lassen, anstatt sie noch mühsam selbst zu inszenieren. Allerdings scheint diese Art ultraglatter Ästhetik ein sterbender Trend. Die jungen, mit dem Weichzeichner aufgewachsenen Leute, sehnten sich, heißt es, nach mehr harten Kanten. Statt pastelligen Hintergründen und sorgsam arrangierten Steinchen auf hübschen Tischdecken gibt es jetzt versiffte Jogginghosenposen auf der Couch. Aber auch die neue Authentizität ließe sich ja von der KI simulieren.