Algorithmen So trainiert Google künstliche Intelligenz

Alle großen Tech-Firmen setzen auf maschinelles Lernen und künstliche Intelligenz. Nur wenige können mit Google mithalten.

(Foto: Getty Images)
  • Google entwickelt in seinem europäischen Forschungszentrum in Zürich künstliche Intelligenz (KI).
  • Wissenschaftler und Programmierer bringen Computern bei, Bilder zu erkennen oder Songs zu identifizieren.
  • Das Terminator-Szenario muss niemand fürchten, dennoch birgt KI Risiken. Die meisten davon sind aber menschengemacht.
Von Helmut Martin-Jung, Zürich

20 Sekunden sind das Limit, aber wie zum Teufel zeichnet man eine Badewanne? Erst eine Art Kiste, dann eine Vertiefung hinein - knapp geschafft. "Ah, ich weiß: Badewanne", tönt es aus dem berührungsempfindlichen Monitor, der zugleich als Zeichenbrett dient. Und weiter geht es: Stuhl, Auto, und zwischendrin meldet sich der Computer mit Vorschlägen, was es sein könnte, das man da gezeichnet hat. Der Demonstrator des Internetunternehmens Google ist eine klug gewählte Möglichkeit zu zeigen, was künstliche Intelligenz (KI) inzwischen kann - Bilderkennung gehört auf jeden Fall dazu.

Dass Computer seit einigen Jahren mit immer besserer Trefferrate erkennen können, was Bilder zeigen, ist aber nur eine Fähigkeit, die sich sehr gut entwickelt hat. Spracherkennung und Übersetzung wären auch zu nennen und natürlich die Analyse von Daten zum Beispiel aus Industrieanlagen. Das gemeinsame Problem all dieser Fragestellungen: Die Menge an Daten ist riesig und sie wächst exponentiell, sprich: Sie vervielfacht sich ständig.

Um den Datenwust zu nutzen, braucht es Werkzeuge wie maschinelles Lernen (ML), einen wichtigen Bestandteil von KI-Systemen. Denn: "Man kann nur programmieren, was man dem Computer erklären kann", sagt Emmanuel Mogenet, Leiter von Googles Forschung in Europa. "Aber wie erklärt man einem Computer, wie eine Katze aussieht?" Daher sei man dazu übergegangen, Computer anhand von Beispielen mithilfe eines neuronalen Netzes lernen zu lassen. Mit etwa 100 000 bis einer Million Bildern müsse man ein solches System füttern, bis es in der Lage ist, eine Katze auch auf einem Bild zu erkennen, das dem Computer noch nicht bekannt war.

Den Computersystemen fehlt der gesunde Menschenverstand

Hat das System diese Verallgemeinerung einmal geschafft, kann es nun Bilder in übermenschlicher Geschwindigkeit und mit hoher Treffergenauigkeit analysieren - eine Fähigkeit, die in der Medizin immer wichtiger wird, zum Beispiel bei der Suche nach Krebszellen in Gewebeproben.

Noch steht diese Technologie aber ziemlich am Anfang, und auch viele Probleme zeichnen sich ab. Auch die Wissenschaftler, welche die mathematischen Regeln, die Algorithmen, für die KI-Systeme geschrieben haben, verstehen nicht genau, wie das System letztendlich zu verallgemeinernden Schlüssen kommt: "Ich kann nicht behaupten", sagt Emmanuel Mogenet, "dass wir genau wüssten, wie Generalisierung wirklich funktioniert."

Und was Computersystemen auch völlig fehlt, ist etwas, das man als gesunden Menschenverstand bezeichnen könnte oder auch die Fähigkeit, Rückschlüsse zu ziehen. "Jeder Mensch hat ein Modell der Welt", sagt Mogenet, "Computer haben davon keine Ahnung."

Menschen trainieren Algorithmen - aber die machen Fehler

Welche Ergebnisse eine KI hervorbringt, wird außerdem maßgeblich von den Trainingsdaten beeinflusst. Fernanda Viégas befasst sich bei Google explizit mit diesem Problem. Wie also vermeidet man, dass die Auswahl, die Menge oder auch die Qualität der Trainingsdaten zu Ergebnissen führen, die mit Vorurteilen behaftet sind?

Das muss nicht so offensichtlich sein wie bei dem Fall, als eine KI-Bilderkennung das Foto eines Afrikaners als Gorilla bezeichnete. Die größere Gefahr geht von subtileren Verzerrungen zu Ungunsten von Minderheiten aus. Das Problem ist zwar erkannt, aber, sagt Viégas, ein Wundermittel dagegen sei noch nicht gefunden.

Am schlimmsten ist es ihrer Erfahrung nach, wenn sich das System sehr sicher ist bei einer Zuordnung, diese aber total danebenliegt. Auch daran können wieder die Trainingsdaten schuld sein. So entdeckten die Forscher in einem Satz von Trainingsbildern von Katzen zum Beispiel das Bild eines Frosches. Den hatte ein menschlicher Betrachter irrtümlich als Katze markiert.

"Wir müssen proaktiv handeln, wenn es um Vorurteile und Ethik geht"

Was aber folgt daraus? Viégas, die bei Google die Initiative People in AI Research (Pair) leitet, sieht die Zeit gekommen, aktiv mitzubestimmen, was bei KI geschieht: "Wir müssen proaktiv handeln, wenn es um Vorurteile und Ethik geht." Die Probleme würden nicht einfach verschwinden, die Technik müsse ständig verbessert werden und dabei auch transparent sein. Sie ist deshalb auch der Meinung, dass alle Kinder programmieren lernen sollten. "Nicht um Programmierer zu werden", wie sie sagt, sondern um zu sehen, wozu die Technologie fähig sei. "Das sind mächtige Werkzeuge, die man in der heutigen Welt braucht."

Und die können in so kleinen Geräten wie Smartphones stecken. Blaise Agüera y Arcas leitet ein Team bei Google, das genau das macht, zum Beispiel also Software für Smartphones, die erkennt, welches Musikstück im Hintergrund läuft, oder eine, die Bilder von Gebäuden oder Firmenlogos erkennt. Der anerkannte Wissenschaftler bekennt: "Fast alles, was wir bisher gemacht haben, enthält in irgendeiner Form Vorurteile, wir müssen da sehr aufpassen."

Sein Kollege Greg Corrado, der Googles KI-Projekte abseits von Geräten leitet, mahnt ebenfalls: "Wir sollten uns Gedanken darüber machen, was die Technologie auslösen kann." Existenzielle Angst vor einer sich selbstentwickelnden allgemeinen KI hat er allerdings nicht. "Bis dahin ist es noch ein Riesensprung", sagt er, "was wir bisher gemacht haben, führt nicht automatisch dazu."