Algorithmen, Recht und Ethik:Wer haftet für künstliche Intelligenz, wenn sie Mist baut?

Lesezeit: 4 Min.

Wir müssen klären, wer dann schuld ist. Und ob sich Menschen um Algorithmen kümmern müssen wie um Hunde.

Gastbeitrag von Andrej Zwitter

Roboter, die mit Menschen arbeiten oder sie ersetzen. Software, die so intelligent ist, dass sie besser Schach, Jeopardy und Go spielt als die größten Champions. Computer, die Bilder erkennen und Krankheiten diagnostizieren können. Helfer im Handy, die Flüge buchen. Und Maschinen, die selbständig Entscheidungen treffen und umsetzen - künstliche Intelligenz verändert bereits heute unser Leben. Und doch steht die Technik erst am Anfang. Den Fragen, die mit dem Siegeszug der künstlichen Intelligenz (KI) entstehen, widmet das Feuilleton eine Serie: Wie wird eine Zukunft mit Maschinen aussehen, die vieles besser können als der Mensch? Wer trägt die Verantwortung für ihre Handlungen? Was mag passieren und was bleibt, aller Utopie zum Trotz, doch nur eine Science-Fiction-Fantasie? In dieser Folge beschäftigt sich der Jurist Andrej Zwitter mit Fragen von Ethik und Recht in einer Welt voll künstlicher Intelligenz.

Glaubt man den Warnungen von Technologiepionieren wie Bill Gates und Elon Musk vor den Gefahren einer Künstlichen Superintelligenz, dann ist fast befürchten, dass uns das Ende durch Skynet (Terminator) oder durch die Matrix kurz bevorsteht. Wissenschaftler wie Stephen Hawking und Nick Bostrom etwa beschreiben das Prinzip der Singularität: Es geht um den Punkt, an dem künstliche Intelligenz die Intelligenz der Menschen übersteigt und so zur Bedrohung der Menschheit werden kann. Bislang haben wir diesen Punkt noch nicht erreicht, Befürchtungen wie diese gehören ins Reich der Science-Fiction. Und doch werden bereits ethische und rechtliche Konsequenzen sichtbar.

Künstliche Intelligenz beginnt bereits dann, wenn Algorithmen auf Umgebungseinflüsse reagieren, das ist relativ simple Automatisierung. Je weiter sich diese Automatisierung - manchmal auch selbständig - fortentwickelt, etwa durch maschinelles Lernen, desto dringlicher stellt sich die Frage, ob Programmierer noch für Entscheidungen der KI zur Rechenschaft gezogen werden können. Tatsächlich beruhen viele unserer täglichen Abläufe auf künstlicher Intelligenz, zum Beispiel Suchalgorithmen von Google oder Muster- und Gesichtserkennung auf Facebook.

Big Data und Big Nudging

Dabei sind zwei Schlagworte wichtig: Big Data und Big Nudging. Big Data, also jene riesigen Datenmengen, die sich durch das Internet ansammeln, können heutzutage mit bestimmten Analyse-Methoden verwendet werden, um unsere Werte und Wünsche zu analysieren, manchmal sogar, ohne dass wir uns ihrer bewusst sind. Für Marketing-Strategen hat sich damit ein Traum erfüllt, man denke nur an Amazons Kaufvorschläge ("Kunden, die diesen Artikel angesehen haben . . ."). Mit diesem Wissen lässt sich der Kundenservice verbessern, aber auch die Willensfreiheit einschränken, etwa wenn man auf Suchmaschinen nur noch benutzerspezifische Ergebnisse erhält oder bestimmte politische Themen ganz ausgeblendet werden. Letzteres praktizieren Suchmaschinen in nicht-demokratischen Ländern seit langen.

(Foto: Illustration: Sead Mujic)

Big Nudging beschreibt genau das: die Beeinflussung der Meinung und des Verhaltens einer Gesellschaft ohne ihr Wissen. Das ist ethisch problematisch, und doch gibt es kaum Gesetze, die es regulieren.

Viele Eingriffe in die Freiheit, Sicherheit und Privatsphäre der Nutzer sind durch Menschenrechte, Strafrecht und Zivilrecht gedeckt. Schwierig wird es jedoch in zwei Fällen: einmal bei grenzüberschreitenden Sachverhalten und zweitens dann, wenn Algorithmen eigenständig Entscheidungen fällen, die man dann demjenigen, der die Algorithmen programmiert hat, nicht mehr zuschreiben kann.

Im Oktober 2015 hat der Europäische Gerichtshof das Datenabkommen mit den USA aufgehoben, das so genannte Safe Harbor Abkommen. Damit bleibt eine rechtliche Lücke, was Datenmissbrauch betrifft. Was die grenzüberschreitende Manipulation von Internetsuchergebnissen angeht, so betrachtet sich die Europäische Kommission als zuständig. Zumindest auf dem Europäischen Markt will sie solche Praktiken, zumindest im Fall von Google, unterbinden.

Ethisch und rechtlich unklar sind hingegen jene Fälle, in denen autonome Entscheidungen von künstlicher Intelligenz menschlichen oder materiellen Schaden verursachen. Solange ein Algorithmus nicht selbständig lernfähig ist, können die Konsequenzen dem Programmierer noch relativ klar zugerechnet werden. Schwieriger wird es bei lernfähiger KI, insbesondere, wenn die Entscheidung auf eingespeisten Daten und Maschinenlernen beruht. Dies ist zum Beispiel beim automatisierten Börsenhandel der Fall. Dabei kaufen und verkaufen Algorithmen selbständig Aktien in Sekundenbruchteilen. Der so genannte Flashcrash im Jahr 2010, also der kurzzeitige Einbruch des Dow Jones um beinahe 1000 Punkte, gilt als das Werk von Börsen-KIs durch so genannte Quant-Hacker.

Auch selbstfahrende Autos basieren auf künstlicher Intelligenz. Juristisch betrachtet stellt sich die Frage, wem Unfälle angelastet werden mit Autos, die durch Künstliche Intelligenz gesteuert werden. Ist der Fahrzeughalter haftbar zu machen? Der Programmierer? Der Hersteller? Kann die Tatsache, dass künstliche Intelligenz Fahrzeuge steuert, nicht sogar positiv sein?

Im Fall des selbstfahrenden Google-Autos, das derzeit getestet wird, waren Unfälle in aller Regel nicht von der KI, sondern von anderen Unfallteilnehmern verschuldet. Und das waren Menschen. Im Zweifelsfall ist zumindest in diesem Fall der Mensch der Verursacher und nicht die Künstliche Intelligenz.

(Foto: SZ)

In den Bereich der Science-Fiction gehört derzeit noch eine künstliche Intelligenz mit einem Bewusstsein. Allerdings ist ein erster bescheidener, aber wichtiger Schritt in diese Richtung bereits geschehen. Roboter am Ransselaer Polytechnic Institute (USA) haben erste Tests zur Frage bestanden, ob sie ein Bewusstsein haben können. Roboter mit diesen Fähigkeiten berühren die philosophische Annahme, dass die Gleichheit aller Menschen auf ihrer Verstandesfähigkeit beruht.

Ethisch besteht kein Grund, einem verstandesfähigen Wesen gewisse Existenzrechte abzusprechen; aus Sicht der Aufklärung müsste man moralisch wohl gerade wegen dieser Vernunftbegabung und des Bewusstseins einer künstlichen Intelligenz gewisse Schutzrechte, wenn nicht sogar Entfaltungsrechte einräumen. Dieses Problem wird dem Gesetzgeber weitere Entscheidungen abverlangen. Ist KI durch das Gesetz gebunden oder in seiner Existenz geschützt, zumindest in dem Ausmaß, den der Gesetzgeber dem Tier (im Unterschied zur Sache) einräumt? Hat also der Besitzer einer KI eine dem Hundehalter ähnliche Sorgfaltspflicht? Kann eine künstliche Intelligenz, die den Punkt der Singularität erreicht hat und handlungsfähig ist, Rechte und Pflichten wahrnehmen? Setzen gesetzliche Strafen zum Zwecke der Erziehung des Straftäters und der Abschreckung von Nachahmern nicht auch eine Art von Empathie- und Reuefähigkeit voraus?

Diese und ähnliche Fragen wird die Juristen und Ethiker in Zukunft vermehrt beschäftigen. Künftig wird es zwingend sein, dass die Urheber von KI ethische Grundprinzipien bereits in den Kern ihrer Programme unüberschreibbar einbauen. So hat es bereits der Science-Fiction-Autor Isaac Asimow in seinen drei Gesetzen der Robotik vorgedacht hat. Dass es nicht einfach ist, einer künstlichen Intelligenz Regeln beizubringen, die selbst der Mensch oft nur intuitiv befolgt, versteht sich von selbst. Bislang aber mangelt es ohnehin an Standards und interdisziplinären Prinzipien. Die Lösung dieser Kernfrage in der Grundlagenforschung zu künstlicher Intelligenz und Ethik dringend erfordert eine engere Zusammenarbeit zwischen Ethikern, KI-Experten und Datenwissenschaftlern.

Andrej Zwitter ist Professor für Internationale Beziehungen und Ethik an der Universität Groningen (Niederlande). Zwitter forscht unter anderem zu Ethik und Recht von Big Data und künstlicher Intelligenz. Zuletzt erschienen von ihm "Big Data and International Relations" in der Zeitschrift Ethics & International Affairs und "Big Data Ethics", in Big Data & Society .

© SZ vom 09.02.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Künstliche Intelligenz
:Wie Google User für sich arbeiten lässt - unbewusst und unbezahlt

Smarte Algorithmen und selbstfahrende Autos: Googles scheinbar intelligente Technik wird von Menschen trainiert. Von Ihnen, liebe Leser.

Von Evgeny Morozov

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: