bedeckt München 22°

Big-Data-Analysen:Gesunder Verstand

(Foto: Plainpicture)

Künstliche Intelligenz trifft jetzt schon viele Entscheidungen. Man kann sie inzwischen sogar dazu bringen, dass es die richtigen sind.

Ein wenig mögen sie sich gefühlt haben wie die Helden jener billig produzierten CSI-Krimiserien, bei denen modernste Ermittlungsmethoden auf genialische Ermittler treffen. Die Forensiker der Stadt New York hatten in ihrem Labor unter anderem eine Methode entwickelt, mit der sich auch aus Proben, die die DNA mehrerer Menschen enthielten, eine Wahrscheinlichkeit dafür errechnen ließ, ob darunter die eines Verdächtigen war.

Für die einen war das "Forensic statistical tool" (FST) ein Segen, weil es im Gerichtssaal enorme Wirkung entfaltete. Doch für andere war es "ein Krebs, der sich ausbreiten könnte". Mittlerweile ist das FST nicht mehr im Einsatz, denn es gab ein Problem: Auch im New Yorker Forensik-Labor wusste kaum einer, wie der Software-Algorithmus eigentlich zu seinen Ergebnissen kam. Und als ein unabhängiger Experte auf Anordnung eines Gerichts Zugang zum Quellcode bekamen, war sein Urteil vernichtend. Es habe nicht den Anschein, dass das System von einem erfahrenen Team geschrieben worden sei, und: Ob die FST-Software sich korrekt verhalte, müsse ernsthaft in Zweifel gezogen werden.

Die große Frage bei diesem Fall, über den die New York Times berichtet hat, wird nun sein, ob Prozesse, bei denen FST eine große Rolle spielte, wieder aufgerollt werden müssen. Eines aber zeigt sich bereits jetzt: Wie gefährlich es sein kann, wenn Entscheidungen ausschließlich oder maßgeblich von Computern getroffen werden und wenn dazu noch kaum oder auch gar nicht bekannt ist, was die jeweilige Software eigentlich genau macht.

Bisher wird die Diskussion um Computer, die mithilfe künstlicher Intelligenz Entscheidungen treffen, überlagert von der Debatte um die Zukunft des Menschen angesichts immer schlauerer Maschinen. Klar, es ist nicht völlig auszuschließen, dass es gefährlich sein kann, wenn sich übermenschliche Intelligenz entwickelt, die die Menschen vielleicht an irgendeinem Punkt nicht mehr kontrollieren können, so wie etwa in der "Terminator"-Filmreihe.

Doch bis dahin ist es noch so weit, dass es schade und auch gefährlich wäre, sich aus lauter Furcht vor der Singularität - jenem imaginären Punkt, an dem uns die Kontrolle entgleitet - nicht um die Probleme zu kümmern, die uns heute schon beschäftigen. Die scheinbare Exaktheit, mit der Algorithmen Wahrscheinlichkeiten berechnen, die Vorurteile, die computerbasierte Systeme aus den Quellen übernehmen, aus denen sie lernen sollen - das sind die Probleme bei künstlicher Intelligenz, um die wir uns hier und jetzt kümmern sollten.

Längst arbeiten Polizeistellen mit Software, deren Algorithmen berechnen, wie hoch etwa die Gefahr ist, dass ein Täter rückfällig wird. Versicherungen bewerten uns, Auskunfteien wie die Schufa aggregieren Daten und ziehen daraus computergestützt ihre Schlüsse. Das alles passiert heute schon, und in den meisten Fällen ist es ziemlich bis völlig intransparent, wie genau die Algorithmen zu ihren Schlüssen kommen.

Doch woran liegt das eigentlich? Schließlich scheinen doch die von künstlicher Intelligenz angetriebenen Maschinen in jüngerer Zeit Dinge zu vollbringen, die Wundern gleichkommen. Etwa Alpha Go, das die britische Firma Deep Mind entwickelt hat. Indem das System zuerst Hunderttausende Partien des komplizierten, aus Asien stammenden Brettspiels analysierte, wurde es so gut, dass es den besten menschlichen Spieler schlug. Und dann ließen die Forscher der zu Google/Alphabet gehörenden Firma das System gegen sich selber antreten. Kurze Zeit und Millionen Partien später hatte die neue Version Alpha Go Zero durch Spielen gegen den Vorgänger einen Zustand erreicht, bei dem Menschen gar nicht mehr daran zu denken brauchen, eine Chance zu haben.

Tief im Programm stecken die Vorurteile der Menschen

Es ist verständlich, wenn solche Nachrichten vielen Menschen kalte Schauer den Rücken hinunterjagen. Vor allem, wenn man bedenkt, wie schnell das alles ging. Von ganz gut über ebenbürtig bis unschlagbar in wenigen Jahren. Das liegt daran, dass die Evolution der Technik auf vielen Feldern exponentiell verläuft, also in einem Tempo, das sich stets beschleunigt. Ist dabei ein gewisser Punkt überschritten, rast die Entwicklung nur noch so dahin. Den meisten Menschen fehlt die Vorstellungskraft dafür, wie schnell das dann geht.

Dennoch: Von einer allgemeinen künstlichen Intelligenz, die erst in der Lage wäre, den Menschen in allen Belangen zu übertreffen, sind wir noch weit entfernt. Selbst Optimisten rechnen erst in ein paar Jahrzehnten damit. Andere Experten glauben, dass es grundsätzlich möglich sei, aber noch Jahrhunderte dauern werde. Und wieder andere sagen, eine allgemeine künstliche Intelligenz werde es nie geben.

Gründe genug also, sich auf das Hier und Jetzt zu konzentrieren. Denn KI-Anwendungen sind längst allgegenwärtig. Mit Risiken und Nebenwirkungen. So wiesen etwa Forscher aus Princeton vor Kurzem nach, dass KI-Programme die impliziten Vorurteile übernehmen, die in Texten stecken. Blumen werden eher positiv gesehen, Insekten eher negativ. Vorteile bezogen etwa auf Geschlecht und Beruf werden ebenso widergespiegelt.

Doch damit belegten die Forscher lediglich, was man bis dahin nur ahnen konnte. Schlimmer, gefährlicher wird es, wenn die aus dem Computer stammende Information eine Exaktheit vorgaukelt, die die zugrunde liegenden Daten gar nicht hergeben. Entweder weil sie unsauber sind oder weil keiner darauf geachtet hat, dass sich darin implizite Vorurteile verstecken. "Die Algorithmen sind weniger das Problem, sondern die Datensammlungen", sagt Emmanuel Mogenet, der Leiter von Googles Forschungsaktivitäten in Europa.

Also Problem (von manchen) erkannt, doch wie ihm begegnen? Wie lassen sich zum Beispiel negative Stereotypen verhindern? "Das ist mathematisch ziemlich kompliziert", sagt Google-Forscher Mogenet. Alles hänge von den Trainingsdaten ab. "Schwierig wird es dann, wenn man nicht weiß, wie stark man an einer bestimmten Stelle nachsteuern muss."

Denn die Systeme könnten mittlerweile zwar schon sehr gut Muster etwa in Bildern erkennen, doch was ihnen fehlt, ist das, was im englischen Sprachraum als common sense bezeichnet wird, gesunder Menschenverstand: "Jeder Mensch hat ein Modell der Welt, das fehlt Computern völlig, die haben davon keine Ahnung", sagt Emmanuel Mogenet, "sie haben nicht wie wir diesen Welt-Simulator." Bis dato gebe es nur Teile eines großen Puzzles, aber, so glaubt er: "Wir können mit den Mitteln, die wir heute haben, da hinkommen."

Fernanda Viégas befasst sich bei Google ganz speziell mit dem Problem der impliziten Vorurteile. Es gebe Software-Werkzeuge, mit denen man sich ansehen kann, wo das System Fehler mache. Doch letztlich: "Ein Allheilmittel für faire KI-Systeme gibt es nicht", sagt Viégas, "man kann nicht mathematisch alle Arten von Fairness in einem Modell zusammenbringen." Sie ist der Meinung, dass der Zeitpunkt gekommen ist, an dem die Menschen proaktiv handeln müssten, um zu verhindern, dass sich etwa rassistisch oder sexistisch geprägte Vorteile in den Algorithmen manifestieren.

Über all diesen Problemen könnte man fast vergessen, dass künstliche Intelligenz, eben weil sie bestimmte Aufgaben erheblich besser, schneller und effektiver erledigen kann als Menschen, auch gewaltige Chancen bietet. Etwa in der Medizin. Lily Peng, auch sie eine Google-Forscherin, hat ein System entwickelt, das helfen soll, Netzhauterkrankungen bei Diabetikern in Indien früher zu erkennen. Dort fehlen mehr als 120 000 Augenärzte, deshalb bleibt die oft mit Diabetes einhergehende Retinopathie vielfach unerkannt und die Patienten erblinden. Ihr System, das noch in der Probephase steckt, erkennt aus Bildern der Netzhaut mit hoher Trefferquote, ob es Probleme mit den Blutgefäßen in der Netzhaut gibt. Falls ja, kann der Patient einen Augenarzt aufsuchen. Und das ist nur ein Beispiel von vielen für Dinge, die KI möglich macht.