Digitales Recht:Der redet nur Blech, doch das darf er

Meinungsfreiheit für Roboter? Es stellt sich die Frage, ob auch die Äußerungen intelligent gemachter Automaten und Programme geschützt sind und sie nun ihre Meinung frei äußern dürfen.

Von Adrian Lobe

Auf Twitter gibt es etwa 50 Millionen Bots. Laut einer Studie der "Carnegie Mellon University" wurde fast die Hälfte aller Tweets zum Thema "reopening America" von diesen Bots abgesetzt. Zuletzt bugsierte ein Botnetzwerk den Hashtag "#DCBlackout" in die Trending Topics von Twitter, obwohl es diesen Blackout nie gab. Doch automatisierte Skripte retweeten nicht nur Verschwörungstheorien und Fake News, sondern auch seriöse Inhalte, etwa zur Netzneutralität. Kann man die Maschinen also einfach abschalten? Oder haben Automaten auch ein Recht auf Rede- bzw. Meinungsfreiheit, was die Abschaltung dann gewissermaßen zur Zensur machte?

Nach klassischer Rechtsauffassung können nur natürliche Personen Träger des Grundrechts auf Meinungsfreiheit sein. Nur der Mensch kann seinen Standpunkt wählen; ein fremdgesteuerter, willen- und gewissenloser Automat kann das nicht. Würde man Robotern das Recht auf Meinungsfreiheit zugestehen, dann würde man den Wert menschlicher Meinung damit auch schmälern.

Diese Autonomiekonzeption stößt jedoch an ihre Grenzen, weil lernende Systeme mittlerweile weitgehend autonom operieren, zum anderen verbreiten Maschinen menschliche Meinungen verbreiten, weshalb es auf die Autonomie gar nicht ankommt. Nur weil eine Aussage von einem Roboter stammt, heißt das nicht, dass sie minder schutzwürdig ist. Im Umkehrschluss könnte man fragen: Warum gilt Meinungsfreiheit eigentlich nur für natürliche und nicht auch für juristische Personen? Ein Computerprogramm ist auch nur ein Medium wie Wort, Schrift und Bild, mit dem menschliche Ideen verbreitet werden.

Wenn man Meinungsäußerungen nur qualitativ bewertet, sind Trumps Tweets mitunter gefährdet

Vor wenigen Wochen hat Facebooks KI-basiertes Dialogsystem "Blender", das Chatantworten menschlicher machen sollte, antisemitische Äußerungen verbreitet: "Ich denke, dass Juden schreckliche Leute sind." Das Problem war ähnlich gelagert wie bei Microsofts Chatbot "Tay", der nach nur wenigen Stunden wieder abgeschaltet wurde, weil er die Nutzer anpöbelte.

KI-Systeme lernen, indem sie das menschliche Verhalten im Internet studieren und imitieren. Und weil Menschen dort menschenverachtendes Zeug posten, tut es auch die Maschine. Die Modelle sind damit ein Spiegel der Gesellschaft. Wenn man Robotern jetzt das Rederecht entzieht, wäre dies eine Ersatzhandlung.

Die Diskussion darüber ist in der deutschen Rechtslehre wenig vorangekommen. Im Gegensatz zu den USA, wo die Rechtsgelehrten seit Jahren über das Thema streiten. Vereinfacht gesagt gibt es zwei Denkschulen: eine funktionalistische, die einen restriktiven Schutzbereich von Meinungsfreiheit vertritt. Und eine eher liberale, die auch computergenerierte Meinungsbeiträge vom Anwendungsbereich der Redefreiheit umfasst sehen will.

Die Befürworter argumentieren ideengeschichtlich und demokratietheoretisch: Computer produzieren Information, die für die Demokratie wertvoll sind. Das First Amendment schütze die Rede (speech), aber nicht den Redner. Dass Roboter also keine Redner aus Fleisch und Blut sind, ist nicht von Belang. Es gibt ja auch juristische Personen wie Körperschaften. Und im Code manifestiert sich auch die Ausdrucksfreiheit der Programmierer. Für die Bewertung, ob etwas als Rede klassifiziert werden könne, komme es vor allem auf den Mehrwert für das Publikum an.

Die Rechtswissenschaftler Toni M. Massaro und Helen Norton führen in einem Aufsatz ("Siri-ously? Free Speech Rights and Artificial Intelligence") ein weiteres Argument an: die Gefahr staatlicher Zensur. Eine "orwellianische Regierung" könnte eine KI, die nicht das Lied des Regimes singt, einfach abschalten. Wenn eine KI hier nicht geschützt ist, wären der Zensur der Regierung keine Schranken gesetzt. Auch darum müsste man Computerprogramme mit Redefreiheit ausstatten.

Demgegenüber wendet der Jurist Tim Wu ein, dass die derart ausgelegte Redefreiheit der Freifahrtschein für autoritäre Herrscher wäre, Kritiker nun mit maschinellen Methoden mundtot zu machen. Er spricht von einer "umgekehrten Zensur". Wenn staatlich gelenkte Bot-Armeen das Netz mit Propaganda und Hass überziehen, sei das nicht schutzwürdig.

Wu stellt qualitative Voraussetzungen an die Redefreiheit. Er will darunter ausschließlich intelligible Systeme fassen. Bloße Informationsströme reichen ihm nicht aus. Er hebt bei seiner Prüfung darauf ab, ob Maschinen intelligente Entscheidungen treffen können.

Ist die Schummelsoftware von VW dann auch nur eine "Meinung"?

Ein Twitter-Bot, der bloß Tweets liket, stehe demnach nicht unter dem Schutz der Meinungsfreiheit, genauso wenig wie ein Robo-Caller, ein Automat, der millionenfach US-Haushalte anruft. Diese Lesart hat den Vorzug, dass Unternehmen und Parteien sich nicht auf die Meinungsfreiheit für propagandistische oder kommerzielle Zwecke berufen könnten. Gleichwohl muss man vorsichtig sein, qualitative Anforderungen an Meinungsäußerungen zu stellen. Dann wären auch Trumps Tweets mitunter gefährdet.

Der Supreme Court, der 1915 noch urteilte, dass Filme nicht unter den Schutz des First Amendment fallen, hat den Anwendungsbereich von free speech in den vergangenen Jahrzehnten immer weiter gefasst. Darunter sind nun auch Videospiele und Suchmaschinentreffer subsumiert. Die Indexierung und Selektion von Informationen im Netz ist nach Ansicht des Obersten Gerichts eine Stellungnahme bzw. Wertung, vergleichbar mit der redaktionellen Entscheidung einer Zeitung. "Information is speech", lautet der Leitsatz des Supreme Court. Google, Bing und Yahoo sind verfassungsrechtlich betrachtet "speakers". Diese Auslegung hat weitreichende Implikationen.

Die Problematik zeigt sich etwa bei der Dauerfehde zwischen Trump und Twitter. Nachdem der Kurznachrichtendienst Tweets des US-Präsidenten mit einem Warnhinweis versehen hat, geiferte der Mann im Weißen Haus, das Unternehmen unterdrücke die Meinungsfreiheit. Wenn Trump aber auf Twitter das Opfernarrativ der Neuen Rechten bemüht, wonach Social-Media-Unternehmen "konservative Stimmen" unterdrücken, dann ist dieser Behauptung der Boden entzogen, weil seine Verlautbarung ja genau Ausdruck jener Meinungsfreiheit ist, die er einfordert. Andererseits könnte Trumps Troll-Armee dann aber auch ganz legal maschinelle Meinungsmache betreiben. Schwerer wiegt aber das Problem, wenn der Programmcode zu einem völlig geschützten semantischen Container würde. Wäre die Schummelsoftware von VW dann auch eine "Meinung"? Nach dem Motto: Wir sind der Meinung, dass eure Umweltstandards zu streng sind und wir Geld verdienen wollen!

Der Frage ist deshalb, was eigentlich noch als Meinung gilt. Das Landgericht Berlin hat in seinem umstrittenen Künast-Urteil das Recht äußerst weit ausgelegt und nicht zitierfähige Gossensprache darunter subsumiert. Auf der anderen Seite lässt sich aber auch eine Tendenz beobachten, wonach unwahre Tatsachenbehauptungen von vornherein aus dem Schutzbereich herausfallen sollen. Das Bundesverfassungsgericht hat davor gewarnt, dass die "Anforderungen an die Wahrheitspflicht" keinesfalls so bemessen sein dürften, "dass dadurch die Funktion der Meinungsfreiheit in Gefahr gerät oder leidet". Die Frage, wo die Grenzen der Meinungsfreiheit liegen, kann kein Roboter beantworten.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: