Künstliche Intelligenz:Software, die kein Mensch mehr versteht

Lesezeit: 2 min

Empfehlungen von Amazon erscheinen harmlos. Doch was, wenn Algorithmen über die Kreditvergabe entscheiden? "Machine Learning" wirft ethische Fragen auf.

Von Michael Moorstedt

Es gibt ein Missverständnis, dem die meisten Menschen unterliegen, wenn es um ihre Computer und Smartphones geht. Sie sind der Meinung, an den Schalthebeln von sagenhaften Wissensüberlieferungsmaschinen zu stehen. Dabei ist auch das Gegenteil der Fall. Die Geräte sind immer auch geheimnisvolle Operatoren, die verschleiern, wie sie eigentlich auf das kommen, was sie da servieren.

Dass das nicht mehr nur ein theoretisches Problem ist, belegen zwei Zitate: "Wir kommen schnell zu einem Punkt, an dem wir nicht mehr verstehen, wie Software funktioniert", sagte Peter Purgathofer, Professor an der TU Wien kürzlich auf einer Konferenz, die sich mit den Algorithmen beschäftigte und der Kontrolle, die sie über unser Leben ausüben. "Die Menschen überschätzen, inwieweit IT-Firmen verstehen, wie ihre eigenen Systeme arbeiten." Das sagt Andrew Moore. Er muss es wissen. Er ist Dekan des Instituts für Computerwissenschaft an der Carnegie Mellon Universität und war bis zum vergangenen Jahr Vizepräsident bei Google.

Eines des meistversprechenden neuen Felder der IT-Industrie ist auch das, welches Informationsethikern die meisten Sorgen bereitet. Machine Learning heißt es; stark vereinfacht ausgedrückt handelt es sich dabei um eine Vorstufe zur künstlichen Intelligenz. Gemeint ist die Fähigkeit von Software, aberwitzige Datenmengen zu analysieren, um eine Entscheidung zu treffen. Ein Forscher in Moores Institut entwickelte ein System, das mehrere Milliarden unterschiedlicher Datenpunkte verarbeiten kann. Da kann man als Mensch schon mal den Überblick verlieren.

Moore verdeutlicht seine Bedenken am Beispiel von Filmempfehlungen, wie man sie von Netflix oder Amazon kennt. "Maschine-Learning-Modelle nutzen für die Empfehlung große Informationsmengen, die frühere Nutzer hinterlassen haben", sagt Moore. "Das kann von der Farbe des Filmplakats bis hin zur räumlichen Nähe zu anderen Menschen, die diesen Film positiv bewertet haben, alles beinhalten."

Das mag harmlos erscheinen, solange es nur um Filme geht. Doch wenn Unternehmen sich bei ihren Geschäftsentscheidungen auf Algorithmen verlassen, sorgt das für erhebliche ethische Probleme. Bestes Beispiel ist das US-Patent Nummer 9100400, eingereicht im August von Facebook. Es trägt den Namen "Authorization and authentication based on an individual's social network". Ein Anwendungsbeispiel, das Facebook in dem Patent liefert, betrifft die Kreditvergabe. "Wenn eine Person ein Darlehen aufnehmen will", heißt es dort, "untersucht der Kreditgeber die Bonität der Mitglieder des sozialen Netzwerks des Individuums." Liegt die durchschnittliche Bonität dieser Mitglieder unter einem Mindestwert, wird der Antrag abgelehnt.

Die Systeme, die entscheiden, wie es uns im Netz ergeht, werden also nicht nur immer komplexer, sondern dadurch auch immer gefährlicher. Denn wann entscheidet das System, dass die Stichprobe aus dem Netzwerk ausreicht? Die Computer ziehen die Nutzer für etwas zur Rechenschaft, auf das sie keinen Einfluss mehr haben können.

© SZ vom 16.11.2015 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: