Netzkolumne:Störglasur

Netzkolumne: Logo der App Glaze. Die App fügt jedem Kunstwerk, auf das sie angewendet wird, kaum bemerkbare Störsignale hinzu. Diese erschweren es den KI-Modellen, Daten über den künstlerischen Stil zu sammeln.

Logo der App Glaze. Die App fügt jedem Kunstwerk, auf das sie angewendet wird, kaum bemerkbare Störsignale hinzu. Diese erschweren es den KI-Modellen, Daten über den künstlerischen Stil zu sammeln.

(Foto: Glaze)

Viele Künstler lehnen die Nutzung ihrer Werke durch KI-Programme ab. Aber wie geht das, seine Kunst schützen vor der KI?

Von Michael Moorstedt

"It's so over" - es ist so was von vorbei - ist momentan ein beliebtes Gefühl auf Twitter. Immer dann, wenn es um die neuesten Fähigkeiten von KI-Systemen geht. Hier mal ein paar Beispiele aus den vergangenen Tagen: Aus einer handschriftlichen Skizze wurde eine funktionierende Webseite erstellt, simple Videospiele entstehen aus geschriebenen Anweisungen per Zauberhand, und dann erhält die bisweilen ohnehin schon unheimliche Sprach-KI Chat-GPT noch einen offiziellen Zugang zur Wissensdatenbank Wolfram Alpha. Das Ziel: "Maschinen-Superkräfte".

Vorbei. Aus. Ende. Da kann der Mensch nicht mehr mithalten. Angesichts der scheinbar kurz bevorstehenden eigenen Obsoleszenz behilft man sich deshalb mit dem üblichen Zynismus, um bei den anderen menschlichen Nutzern wenigstens noch ein paar Solidaritäts-Likes abzugreifen.

Bei 80 Millionen Kunstwerken ist die Nutzung schon offiziell abgelehnt worden

Was bei all den großen Gefühlen - egal, ob Furcht oder Begeisterung - aber oftmals vergessen wird, ist die Antwort auf die Frage, warum die KI eigentlich so schlau ist. Natürlich nur, weil sie zuvor mit Abermilliarden Beispielen aus menschlicher Hand trainiert wurde. Texte, Programmcodes, Fotografien und Illustrationen. Bislang benutzten die Softwarekonzerne all dieses Futter in Kolonialherrenmanier meistens ungefragt. Bedenken zu Urheber- und Nutzungsrechten wurden im besten Fall weggelächelt oder gleich ignoriert.

Immer mehr Künstler, Illustratoren und andere Kreativarbeiter lehnen die Nutzung ihrer Werke durch KI ab. Das englische "to opt out" kennen die meisten Nutzer von den nervigen Cookie-Anzeigen, die aufpoppen, wann immer man eine neue Website besucht. Die Initiative Spawning bietet das gleiche Prinzip auch für künstlerischen Output an, Nutzer können also in einer Datenbank eintragen, ob ihre Werke von KIs ausgewertet werden dürfen oder eben nicht.

Inzwischen sind bei mehr als 80 Millionen Kunstwerken im weitesten Sinne diese Einverständniserklärungen offiziell abgelehnt worden. Das Problem: Bislang macht mit Stable Diffusion nur eines der am häufigsten genutzten KI-Systeme bei dem Programm mit. Zudem stellt diese Zahl angesichts der mehrere Milliarden Dateien umfassenden Datenbanken, mit denen die KIs trainiert werden, immer noch einen verschwindend geringen Anteil dar.

Die Universität von Chicago will mit einer App helfen

Abhilfe schafft nun vielleicht die Universität von Chicago. Hier haben Computerwissenschaftler eine App entwickelt, die digitale Kunstwerke vor der KI schützt. Das Glaze - Glasur - genannte Programm funktioniert, indem es jedem Kunstwerk, auf das es angewendet wird, kaum bemerkbare Störsignale hinzufügt. Diese Änderungen beeinträchtigen die Fähigkeit der KI-Modelle, Daten über den künstlerischen Stil zu lesen, und sollen es erschweren, den Stil des Kunstwerks und seines Urhebers nachzuahmen. Stattdessen werden die Systeme dazu verleitet, andere öffentliche Stile zu verwenden, die weit vom ursprünglichen Kunstwerk entfernt sind.

Wie ein KI-Modell künstlerischen Stil überhaupt interpretiert, erklärt einer der beteiligten Wissenschaftler so: "Und dann arbeiten wir im Grunde in dieser Dimension - wir verzerren, was das Modell als einen bestimmten Stil ansieht." Es geht also nicht so sehr darum, eine versteckte Botschaft zu übermitteln oder irgendetwas zu blockieren, sondern die Sprache des maschinellen Lernmodells zu lernen und sie dann so zu verwenden, dass ein entsprechendes Bild für den Rechner verzerrt dargestellt wird, gleichzeitig für einen menschlichen Betrachter aber höchstens minimal auffällig ist. Vielleicht ist es also doch noch nicht ganz vorbei. Wann immer menschengemachte Inhalte ins Internet gestellt werden, muss man in Zukunft nur mitdenken, inwieweit eine KI darauf Zugriff haben könnte.

Zur SZ-Startseite

SZ PlusKünstliche Intelligenz
:Jetzt wird's bequem

Sie bestellen, reservieren und erfüllen Wünsche, von denen wir noch nichts wissen: Wie Chatbots jetzt zu unseren Butlern werden.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: