Künstliche Intelligenz Der Computer als Rassist

Maschinen lernen immer besser, den Sinn von Sprache und Texten zu verstehen. Dadurch aber kopieren sie auch menschliche Schwächen - und verinnerlichen Vorurteile.

Von Eva Wolfangel

Michael Strube war beeindruckt, als er die Studie las. Ein Fachkollege hatte einer Software das Kinderbuch "Alice im Wunderland" zum Lesen gegeben, diese extrahierte dann allein aus dem Text das Beziehungs-Netzwerk zwischen den Personen der Geschichte! Etwas irritiert war der 51-jährige Computerlinguist vom Heidelberger Institut für Theoretische Studien jedoch, als er nachlas, wer die Untersuchung finanziert hatte: Es war die Defense Advanced Research Projects Agency (Darpa), die mächtige Forschungsbehörde des US-Verteidigungsministeriums.

Die Studie war ein Beispiel für das sogenannte Dual-Use-Problem, die Tatsache, dass die gleiche Forschung ebenso für zivile wie für militärische Zwecke verwendet werden kann. Hochgeschwindigkeits-Zentrifugen kann man in der Pharmakologie nutzen, oder, um Uran für Atombomben anzureichern. Algorithmen können vollautomatisch die Beziehungen zwischen Alice, Märzhase und dem verrückten Hutmacher klären - oder aus realem Mailverkehr herauslesen, welche Terroristen in welchem Verhältnis zueinander stehen. Die Kinderbuch-Studie zeigt, was Künstliche Intelligenz heute vermag: Sie kann Texte inhaltlich erfassen und Schlüsse aus ihnen ziehen - mehr oder weniger zuverlässig, zu guten wie zu fragwürdigen Zwecken.

"Wie die NSA so schnell so schlau wurde"

Strube erinnert sich noch, wie ihm das Problem erstmals schlagartig klar geworden war. Am 9. Juni 2013, zehn Tage nach den Snowden-Enthüllungen, befand er sich gerade auf einer Konferenz in den USA, als er zufällig auf eine Schlagzeile im Wall Street Journal stieß, das auf dem Frühstückstisch lag: "Wie die NSA so schnell so schlau wurde". Es ging um die Frage, wie der größte Auslandsgeheimdienst der USA seine Datenmassen hatte sammeln und auswerten können.

Algorithmus bewertet Vertrauenswürdigkeit von Menschen

Anhand eines Fotos schätzt eine neue Software ab, welchen ersten Eindruck jemand hinterlässt. Zur Überprüfung der Technik dienten Bilder von Edward Snowden. Von Christoph Behrens mehr ...

Der Artikel erläuterte detailliert, wie ausgerechnet Strubes Disziplin die Spione stark gemacht hatte: Beim sogenannten Natural Language Processing (NLP) lernen Computer, menschliche Sprache auch inhaltlich zu verstehen. Die meisten Menschen haben mit dieser Technologie zu tun, wenn sie Dienste wie Google Translate verwenden oder ihr Smartphone per Sprachbefehl bedienen. Die dunkle Seite ist weniger offensichtlich: "Der Öffentlichkeit ist zwar bekannt, dass die Geheimdienste auf Metadaten zugreifen", sagt Strube, also auf Daten wie Absender oder Betreff einer Mail. "Aber die Wenigsten wissen, wie gut wir unstrukturierte Daten analysieren können." Unstrukturiert ist beispielsweise die menschliche Sprache, die für Maschinen lange eine undurchsichtige Sache war. Und auch wenn man bereits aus den Metadaten viele Rückschlüsse auf eine Person und ihr Umfeld ziehen kann: Wer den Inhalt automatisch auswerten kann, erfährt natürlich noch viel mehr.

Auf einmal erschien Strube die Konferenz zweitrangig, die sich unter anderem damit beschäftigte, wie die Algorithmen noch genauer werden könnten. An ihm nagten Zweifel: Bringt meine Arbeit wirklich nur Gutes für die Gesellschaft? Er verbrachte den Tag mehr vor den Türen als in den Vortragssälen und diskutierte mit Kollegen: Unsere Forschung wird missbraucht, darüber müssen wir sprechen!

Je mehr Publikationen er in den folgenden Wochen las, umso unbehaglicher wurde ihm. Er konnte nicht mehr nur staunen, wie schlau die Computer nun schon waren und welche psychologischen Feinheiten sie aus den Texten der Menschen herauslesen konnten. Einen Aufsatz zur Frage, wie man ein Internet-Forum beeinflusst, las er nicht mehr nur aus reiner Forscherneugier. "Da wollten Kollegen eine Maschine bauen, die die Meinung von Menschen im Internet manipuliert", sagt er, "und denen war es gar nicht bewusst, dass das gefährlich ist."

Mittlerweile hat Strube Mitstreiter gefunden, etwa den Informatiker Dirk Hovy von der Universität Kopenhagen. "Bisher war unsere Forschung vor allem akademisch, man ist nicht davon ausgegangen, dass Individuen betroffen sein könnten", sagt Hovy heute, "deshalb sahen wir nicht die Notwendigkeit, das ethisch zu hinterfragen. Jetzt sind die Algorithmen an einem Punkt angekommen, an dem sie einen Impact haben können."