bedeckt München 13°

Interview am Morgen: Künstliche Intelligenz:"Facebook und Tiktok sind für mich systemgefährdende Hochrisiko-Technologie"

Mehr Schutz: Tiktok will für Jugendliche sicherer werden

Die Video-App Tiktok optimiert die Auswahl der Videos, die sie ihren Nutzern zeigt, mithilfe maschinellen Lernens.

(Foto: Jens Kalaene/dpa-tmn)

Der Philosoph Thomas Metzinger rang in einer EU-Expertengruppe um den fairen Einsatz von Algorithmen - und prallte mit Industrievertretern zusammen. Was er von den EU-Plänen zu Echtzeit-Gesichtserkennung und Deepfakes hält.

Interview von Jannis Brühl

Während Unternehmen Milliardensummen in maschinelles Lernen investieren, tobt die Debatte, wie gefährlich solche lernfähigen Algorithmen sind. Thomas Metzinger ist Professor für Philosophie an der Uni Mainz. Er vertrat den Verband Europäischer Universitäten in einer "Hochrangigen Expertengruppe" der EU-Kommission. Die neuen Vorschläge der EU zur Regulierung von künstlicher Intelligenz (KI) basieren teils auf Empfehlungen der Gruppe.

SZ: Herr Metzinger, welche ethischen Fragen wirft denn KI auf?

Thomas Metzinger: Zum Beispiel die nach autonomen Waffensystemen, die selbständig kämpfen und töten. Oder biometrische Echtzeitüberwachung, etwa durch Gesichtserkennung in Kameras. Dazu die ständige Optimierung sozialer Medien. Die Leute haben gerade verstanden, dass KI im Schach oder Go gegen die besten Menschen gewinnt, dabei spielen künstliche Intelligenzen gerade ein anderes Spiel: Wer kontrolliert menschliche Aufmerksamkeit, die biologischen Gehirne der Individuen oder lernende KI-Algorithmen unserer medialen Umwelt? Facebook und Tiktok sind für mich eine systemgefährdende Hochrisiko-Technologie.

Fürchten Sie sich vor sogenannten Deepfakes, also algorithmisch erzeugten Illusionen?

Wir werden bald hochaufgelöste, fotorealistische Avatare haben, die in natürlicher Sprache mit uns reden. Es ist also gut, dass im neuen EU-Entwurf steht, dass eine KI sich immer sofort als solche zu erkennen geben muss.

Thomas Metzinger hat eine Senior-Forschungsprofessur an der Johannes Gutenberg-Universität Mainz inne. Bis 2019 war er dort Professor für Theoretische Philosophie. Seine Schwerpunkte sind Philosophie der Kognitionswissenschaft und Angewandte Ethik.

(Foto: privat)

Was halten Sie sonst von den Regulierungsplänen der EU?

Ich finde gut, dass sie explizit biometrische Überwachung im öffentlichen Raum verbieten will. Allerdings ist der Haken weiter hinten im Entwurf: Jeder Mitgliedstaat soll die Technik im Kampf gegen Verbrechen und Terrorismus bei bestimmten Straftaten sehr wohl einsetzen dürfen, bei "Gefahr im Verzug" auch ohne Gerichte einzuschalten. Das ist ein Gummiparagraf. Dass die EU Kinder als besonders verletzlich für die Technologien definiert, begrüße ich wiederum sehr.

Können Philosophen wie Sie denn Software beibringen, was falsch und was richtig ist?

Wir sind keine Heiligen, die wissen, was die Wahrheit ist. Trotzdem benutzen uns Unternehmen für ihr Marketing gerne als Dekoration: Seht her, wir haben hier Philosophen, die sagen, dass die Technologie sauber ist. Dabei muss die Zivilgesellschaft als ganze sich einigen, was sie mit der Technik machen will.

Sie nennen das Einspannen von Geisteswissenschaftlern "Ethics-Washing".

Ja, analog zum Greenwashing beim Umweltschutz. Unternehmen organisieren ethische Pseudo-Debatten, um Zeit zu kaufen, damit sie weiter Produkte in den Markt drücken und Regulierung erst einmal verhindern können.

Sie waren als Mitglied der Expertengruppe nah dran an der Entwicklung des EU-Entwurfs.

Das war für mich als Philosoph eine interessante Lernerfahrung. Ich hätte nie gedacht, dass die Wirtschaftslobby so stark ist. Der nun veröffentliche Gesetzentwurf ist ein Erfolg für die europäische Rüstungsindustrie.

Sie waren aber in der Expertengruppe, damit dort nicht nur kommerzielle oder strategische Fragen berücksichtigt werden.

Die autonomen Waffensysteme will auch das EU-Parlament verbieten. In der Expertengruppe konnten wir aber nur butterweiche Formulierungen dazu in den Empfehlungen unterbringen. Im Entwurf der Kommission ist das Thema nun explizit ausgeklammert.

Also waren auch Sie ein Teil der Dekoration?

Ja. Ich bin als dummer Junge dorthin gegangen und habe ernsthaft gedacht, ich kann etwas Gutes für Europa tun. Andere waren für Zalando oder SAP da oder wollten wohl vielleicht eher einmal in der EU-Verwaltung Karriere machen. Die Kommission hat gesagt: "Ethik kommt auf Platz eins" und dann waren von 52 Menschen in der Gruppe nur vier Philosophen, und einen von denen habe ich nie gesehen.

Wie laufen solche Ethik-Beratungen denn ab?

Darüber darf ich eigentlich nicht reden. Nachdem ich 2019 im Tagesspiegel darüber geschrieben hatte, gab es deutliche Empörung in der Gruppe. Trotzdem: Ich habe viel gelernt, und was wir jetzt haben, ist immer noch sehr viel besser als alles, was China und die USA haben.

Was waren die Streitpunkte in der Gruppe?

Mit Urs Bergmann von Zalando war ich Berichterstatter für "rote Linien" und habe recherchiert: Was sollte es in Europa nie geben, was ist unverhandelbar? Das waren dann Dinge wie eben KI-Überwachung des öffentlichen Raums. Daraufhin gab es einen Proteststurm der Industrievertreter. Einige sagten, das Wort "rote Linien" dürfe nicht im Abschlussdokument vorkommen, und so kam es dann.

Mittlerweile haben Google, Facebook und Twitter KI-Ethiker eingestellt, die über ihre Algorithmen wachen sollen.

Die Konzerne sind sehr an unserer Arbeit interessiert, Google hatte wohl immer Zugriff auf unsere Gruppe. Ich habe von der EU-Kommission viele interdisziplinäre Lehrstühle für KI-Ethik gefordert, während Facebook an der TU München längst einen unterhält. Die Konzerne ziehen bereits ihre eigenen Fake-Ethiker heran.

© SZ
Zur SZ-Startseite
Aras

SZ PlusKünstliche Intelligenz
:Der Papagei hat etwas Rassistisches gesagt

Die Debatte um Diversität und Diskriminierung ist die größte gesellschaftliche Revolution seit 1968. Sie erfasst nun die Zukunftstechnologien der künstlichen Intelligenz - weil die den Menschen nach dem Mund reden.

Von Jannis Brühl

Lesen Sie mehr zum Thema