Künstliche Intelligenz:Wie Google User für sich arbeiten lässt - unbewusst und unbezahlt

Lesezeit: 5 min

Anfang Februar war Alphabet die wertvollste Firma der Welt - nicht zuletzt dank der Daten seiner Milliarden Nutzer. (Foto: Pier Marco Tacca)

Smarte Algorithmen und selbstfahrende Autos: Googles scheinbar intelligente Technik wird von Menschen trainiert. Von Ihnen, liebe Leser.

Von Evgeny Morozov

Roboter, die mit Menschen arbeiten oder sie ersetzen. Software, die so intelligent ist, dass sie besser Schach, Jeopardy und Go spielt als die größten Champions. Computer, die Bilder erkennen und Krankheiten diagnostizieren können. Helfer im Handy, die Flüge buchen. Und Maschinen, die selbständig Entscheidungen treffen und umsetzen - künstliche Intelligenz verändert bereits heute unser Leben.

Und doch steht die Technik erst am Anfang. Den Fragen, die mit dem Siegeszug der künstlichen Intelligenz (KI) entstehen, widmet das Feuilleton eine Serie: Wie wird eine Zukunft mit Maschinen aussehen, die vieles besser können als der Mensch? Wer trägt die Verantwortung für ihre Handlungen? Was mag passieren, und was bleibt, aller Utopie zum Trotz, Science-Fiction-Fantasie? In dieser Folge beschäftigt sich der Internetkritiker Evgeny Morozov mit dem Zusammenspiel von Big Data und künstlicher Intelligenz.

Captchas sollen Menschen von Maschinen unterscheiden

Jeder, der schon einmal versucht hat, mit der Plattform für Forscher von Google - sie heißt "Google Scholar" - zu arbeiten, stößt irgendwann gegen eine digitale Wand. "Google Scholar" verlangt dann vom Nutzer den Beweis, dass er kein Roboter ist. Der Nutzer wird dazu aufgefordert, ein sogenanntes "Captcha" zu lösen. Das ist in der Regel eine Kombination abenteuerlich geschriebener Buchstaben und Zahlen, die man lesen und in ein leeres Feld übertragen muss.

Solche Sperren sind im Netz längst allgegenwärtig. Sie verhindern, dass automatisierte Programme, die so tun, als seien sie Menschen, Schaden anrichten, zum Beispiel, indem sie Daten von Webseiten klauen oder massenweise begehrte Konzertkarten aufkaufen.

Im Fall von Google Scholar bestehen diese Captchas aus Fotos, deren Motive irgendwie mit der Navigation in urbanen und ländlichen Räumen zusammenhängen. Die Nutzer sollen zum Beispiel verschiedene Straßenschilder unterscheiden, Wasserfälle von Seen oder Sportwagen von Kleinlastern. Darüber hinaus findet man in Dutzende Einzelteile zerlegte Fotos von Straßen, auf denen die Nutzer erkennen sollen, ob Straßenschilder etwas Bestimmtes anzeigen, zum Beispiel eine Richtung oder ein Verbot.

Die Nutzer trainieren die Computer - ohne es zu wissen

Google schweigt zur Frage, warum die Captchas so seltsam sind. Man kann aber davon ausgehen, dass die Nutzer von Google Scholar beim Lösen einer solchen Sperre einen Nebeneffekt erzielen. Sie bringen wohl Googles selbstfahrenden Autos bei, wie sie in Städten navigieren und Verkehrszeichen lesen können.

Das ist Googles kleines Geheimnis: Während andere Technologiekonzerne so gut wie möglich versuchen, ein Straßenschild für ihre künstliche Intelligenz detailliert mit mathematischen Methoden zu beschreiben, kann Google ganz einfach eine Million Nutzer dazu bringen, dieses Wissen den Computersystemen beizubringen.

SZ PlusSerie zur künstlichen Intelligenz
:Mit Gefühl

Ohne seine Emotionen wäre ein Mensch kaum handlungsfähig, das fängt schon bei der Urlaubsplanung oder bei der Wohnungssuche an. Benötigen deshalb nicht auch Maschinen Gefühle?

Von Elisabeth André

Dass das geht, zeigt ein berühmtes "Deep Learning"-Experiment. In dessen Folge lernte eines von Googles Systemen, wie eine Katze aussieht, einfach nur durch die Betrachtung von Standbildern aus Katzenvideos auf Youtube. Der Dreh bei Google Scholar ist nun, dass Google die Fotos von Tausenden Menschen klassifizieren lässt und dabei umso schneller alles Wissenswerte über die Form und den Inhalt eines Stoppschildes lernen kann.

Hinter jeder KI steckt (mindestens) ein kluger Kopf

Drei Lehren lassen sich daraus ziehen: Erstens zeichnen sich zahlreiche Fortschritte bei der Entwicklung künstlicher Intelligenz durch den "Schachtürken"-Effekt aus - benannt nach dem Menschen, der sich im Inneren des berühmten Schach-Automaten versteckte. Soll heißen: Auch wenn es verlockend ist, zu denken, dass all die Fortschritte auf dem Gebiet der künstlichen Intelligenz nur auf die Genialität von Forschern oder deren große Ressourcen zurückzuführen sind, so sind sie doch auch ein Ergebnis der Fähigkeit, Daten zu sammeln, zu klassifizieren und zu analysieren. Und genau diese Aufgaben werden oft von ahnungslosen Menschen erledigt.

Ein Beispiel: "Google Now", ein virtueller Assistent von Google, weiß recht oft sehr genau, welche Artikel einem Nutzer gefallen haben. Das weiß er aber nicht, weil er die Persönlichkeit der Nutzer "geknackt" hat, wie man vermuten könnte. Nein, seine Empfehlungen sind so gut, weil er erstens weiß, welche Artikel jemand in der Vergangenheit gelesen hat und welche Artikel demjenigen gefallen haben; zweitens, weil er weiß, welche anderen Leute diese Artikel gelesen und ob sie wiederum diesen gefallen haben; und drittens, weil der Assistent weiß, welche dieser Artikel ein bestimmter Nutzer noch nicht gelesen hat.

Indem er nun exakt diese gut passenden, aber noch nicht gelesenen Artikel einem Nutzer vorschlägt, entsteht bei diesem eine Art Wow-Effekt: Wie clever ist doch dieses Empfehlungssystem! Dabei sind die Systeme eher dumm und algorithmisch. Sie sind nur deshalb gut, weil sie auf so viele Daten zurückgreifen können, die Nutzer generiert haben.

Google spannt Wissenschaftler vor den KI-Karren

Außerdem führt das ganze Sammeln und Analysieren von Nutzerdaten im Zusammenhang mit künstlicher Intelligenz dazu, dass man über eine politische Dimension der KI-Technik sprechen muss. Es ist zweifellos beeindruckend, dass so viele Wissenschaftler, die in öffentlich finanzierten Sachbereichen forschen, Google Scholar unterstützen - und dadurch Googles selbstfahrende Autos. Aber warum verrichten sie diese Arbeit kostenlos? Ist der Gegenwert hoch genug? Ist der Nutzen, den mir Google Now bietet, so viel wert wie derjenige meiner Daten für den Konzern?

Künstliche Intelligenz
:Sexy oder hässlich? Das entscheidet der Computer

Eine Schweizer Seite schätzt Ihr Alter und Ihre Attraktivität - anhand eines Bildes.

Googles Logik liegt hier offen zutage: Zunächst rückt der Konzern an und beansprucht die Daten, die sie bearbeiten, als seine eigenen und verstaut sie hinter Schloss und Riegel. Dann gestattet er in geringem Maß eine freie Nutzung dieser Daten - aber jeder, der sie in vollem Umfang nutzen will, wie bei groß angelegten Forschungsprojekten mit Google Scholar, wird umgehend vor den KI-Karren gespannt. Wenn Wissenschaftler dort zum Beispiel etwas über die Zitationsformen in Artikeln über römische Architektur erfahren wollen, müssen sie erst Google etwas über die Straßen von Rom beibringen.

Wer die Daten hat, hat die Macht

Letztlich sollte jeder, der sich für die Verlagerung der Macht - auch der Macht in der Informationssphäre - hin zu den Bürgern einsetzt, sich darüber klar werden, dass es nicht ausreicht, die Rechte an Daten zu bewahren und dafür zu sorgen, dass diese jenen Bürgern zukommen, die sie produzieren. Es mag sich gut anfühlen, dass man selbst oder eine Institution - meine Stadt oder mein Verband - die Daten, die man kostenlos an Google gibt, abrufen kann. Aber wird irgendjemand, der nicht Google ist, Nutzen daraus ziehen können? Leider nein, denn man benötigt auch die passende Infrastruktur, vom Umfang der Daten gar nicht zu sprechen, um auf erhellende Erkenntnisse zu kommen. Man kann kein Haus mit fünf Ziegeln bauen.

Folglich muss jeder, der sich für eine Verschiebung der Macht weg von Google und anderen Konzernen dieser Art einsetzt, einen ganzheitlichen Ansatz verfolgen und beide Seiten der Medaille betrachten; sich nur auf eine zu konzentrieren, zum Beispiel auf den Umgang mit Daten, wird dem Problem nicht gerecht. Denn man kann nicht ernsthaft bezweifeln, dass ein Großteil des Fortschritts im Bereich der künstlichen Intelligenz ebenso sehr ein Produkt politischer und ökonomischer Entscheidungen ist - inklusive der Entscheidungen über die Besitzverhältnisse von Daten - wie von echtem Fortschritt in der Theorie und Praxis der KI.

Es mangelt nicht an Jubelchören über das Silicon Valley, es soll ja der einzige Ort des Fortschritts sein. Aber es lohnt sich sicher auch, zu fragen, welchen Fortschritt man hätte erreichen können, wenn das System dort nicht das Datenhorten durch eine Handvoll Konzerne begünstigen würde. Genau diese Überlegung vermag uns auch in Richtung einer heiklen Frage zu führen: Wie sähe eigentlich ein vollständig demokratisierter Zugang zu KI-Technologien aus?

Evgeny Morozov gilt als einer der schärfsten Kritiker des Silicon Valley. Sein Buch "The Net Delusion" war ein internationaler Bestseller. Derzeit forscht er an der Harvard University über die Geschichte des Internets.​ Übersetzung: Philipp Bovermann.

© SZ vom 04.02.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Open AI
:So will Elon Musk künstliche Intelligenz bändigen

Selbst im Silicon Valley gibt es die Angst vor einer Zukunft, die den Maschinen gehört. Einige steinreiche Unternehmer wollen die Roboter-Herrschaft verhindern.

Von Hakan Tanriverdi, New York

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: