Netzkolumne:Sitzender Fuchs im Stil von Claude Monet

Lesezeit: 2 min

Netzkolumne: Künstliche Intelligenz ist für viele Menschen schwer zu fassen.

Künstliche Intelligenz ist für viele Menschen schwer zu fassen.

(Foto: imago images)

Eine neue KI-Anwendung kann Bilder aus einer simplen Textbeschreibung erzeugen. Noch ist der Zugang streng reglementiert. Aus guten Gründen.

Von Michael Moorstedt

Was haben eine Gruppe Erdmännchen, ein reitender Astronaut und ein kubistischer Teddybär gemeinsam? Im aktuellen Fall die Tatsache, dass sie allesamt von einer künstlichen Intelligenz gemalt wurden. Gänzlich neu sind solche Systeme zwar nicht, nur bedurfte es für die automatische Bildgenerierung bislang Expertenwissen und leistungsfähige Hardware.

Eine neue KI namens "DALL-E 2" dagegen kann Bilder aus einer simplen Textbeschreibung erzeugen. Heraus kommen, je nach Nutzer-Input, dadaistische Fingerübungen oder fotorealistische Darstellungen, auch explizite Stilrichtungen sind möglich. Die Anweisung "Morgennebel über Addis Abeba" wird genauso verarbeitet wie "ein Gemälde mit einem sitzenden Fuchs in einem Feld bei Sonnenaufgang im Stil von Claude Monet". Auch bereits existierende Bilder können per Texteingabe verändert werden.

Werden also doch zuerst die Kopfarbeiter an ihren gemütlichen Schreibtischen durch Maschinen ersetzt?

Beim Entwickler, dem KI-Forschungsinstitut OpenAI schwärmt man bereits von den Möglichkeiten, die sich ergeben, wenn "einfallsreiche Menschen und intelligente Systeme gemeinsam neue Dinge erschaffen". Nachdem die ersten Resultate Mitte der vergangenen Woche öffentlich gemacht wurden, gab es jedoch auch, nun ja, negatives Feedback. Ein Kommentator auf Twitter schrieb etwa, es handele sich "zweifellos um eines der übelsten, menschenfeindlichsten Dinge, die ich je gesehen habe".

Derart starke Meinungen sind durchaus nachvollziehbar. Immerhin stellt hier ein Computerprogramm mal eben unseren inhärenten Schaffensdrang und damit in gewisser Weise ja auch das menschliche Alleinstellungsmerkmal in Frage. Bleibt man bei weniger elementaren Fragen, stellt sich zum Beispiel jene, ob nicht statt, wie vorhergesagt, den ungelernten Fabrikarbeitern doch zuerst die sogenannte White-Collar-Belegschaft an ihren gemütlichen Schreibtischen durch Maschinen ersetzt werden.

Betrachtet man die Resultate genauer, fallen schnell viele Flüchtigkeitsfehler auf, die der Software noch passieren. Unscharfe Konturen oder gänzlich willkürliche Farbschwurbel sind nicht selten. Keinem menschlichen Illustrator würde man einen solchen Lapsus durchgehen lassen. Zudem ist unklar, inwieweit im täglichen Gebrauch tatsächlich überzeugende Ergebnisse entstehen oder ob die von OpenAI gezeigten Bilder nicht zuvor sorgfältig kuratiert wurden. Kreativarbeiter müssen also nicht sofort fürchten, verdrängt zu werden.

Die Fähigkeit, gewalttätige oder pornografische Bilder zu erzeugen, ist noch eingeschränkt

Bei OpenAI ist man sich der Ambivalenz des Produkts durchaus bewusst. Was bedeutet es eigentlich, fragt sich die Mitarbeiterin Pamela Mishkin auf Twitter, wenn man mit potenziell schädlichen Technologien Kunst herstellt. Lässt sich, so Mishkin weiter, die Arbeit an dem Bildgenerator damit vergleichen, mit Bleifarbe zu malen oder aus Mikroplastikabfällen Skulpturen herzustellen?

Noch hat OpenAI den Zugang zur neuen Entwicklung streng reglementiert. Nur ausgesuchte Nutzer dürfen mit DALL-E 2 herumspielen und veröffentlichen etwa ein Dutzend Neuinterpretationen von Boticellis "Geburt der Venus". So wolle man die Möglichkeiten und Grenzen der Technik kennenlernen. In nicht waffenfähiger Form kann man das gleiche Wirkprinzip übrigens auch mit Apps wie Wombo Dream oder Webseiten wie Artbreeder ausprobieren. Die Resultate sind hier jedoch deutlich weniger zufriedenstellend.

Wenn man sieht, welche gesellschaftszersetzenden Auswirkungen bereits die aktuellen, per Hand hergestellten Fake News haben, kann man sich auf einen wilden Ritt gefasst machen, sollte DALL-E 2 in seiner jetzigen Form veröffentlicht werden. Denn reicht nicht schon das Wissen, dass prinzipiell jede Szene mit allen vorstellbaren Motiven und Protagonisten künstlich erstellt werden kann, um das Vertrauen des Publikums in eine gemeinsam erfahr- und verfizierbare Realität zu untergraben?

Man habe die Fähigkeit, gewalttätige oder pornografische Bilder zu erzeugen, eingeschränkt. Zunächst würden die Texteingaben nach entsprechenden Wörtern gefiltert, bevor Bilder generiert werden. Außerdem wurden entsprechende Inhalte aus den Trainingsdaten entfernt. Das bedeutet, dass DALL-E 2 solchen Konzepten gar nicht erst ausgesetzt wurde. Die KI weiß bislang nicht, wie Blutvergießen oder Sex überhaupt aussehen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Kontakt und Impressum
  • AGB