Debatte um Künstliche Intelligenz Wenn von den Algorithmen direkt Leben abhängen

Kritischer wird es noch, wenn von den Ergebnissen der Algorithmen direkt Leben abhängen - etwa in autonomen Fahrzeugen oder bei medizinischen Expertensystemen. Die Systeme sind aufgrund ihrer Komplexität nicht mehr nach konventionellen Methoden der Informatik zu beurteilen, bei der man einen Programmfluss analysiert und dann weiß, was das erwartete Ergebnis ist.

Das Programmieren von Algorithmen zum maschinellen Lernen hat das gleiche Problem wie jedes andere Softwaresystem auch: Programmierer werden immer Fehler machen, und hinreichendes Testen von Software ist teuer und aufwendig. Darüber hinaus aber soll künstliche Intelligenz Probleme erkennen und lösen, die vorher gar nicht klar benannt werden können: Muster sollen ja gerade erst gefunden und Schlüsse daraus erlernt werden. Das Ergebnis kann also nicht mit Sicherheit vorausgesagt werden.

Daher wird bei solchen Systemen ähnlich über die Qualität geurteilt, wie über die Fähigkeiten eines Menschen. Ob jemand ein guter Autofahrer oder Arzt ist, lässt sich aufgrund seiner Leistungen in der Vergangenheit beurteilen. Wir tun uns aber noch schwer damit, ähnliche Kriterien bei Computer-Programmen anzuwenden, auch wenn wir das intuitiv manchmal berücksichtigen.

Simulierte Menschen-Gehirne

Die Konsequenzen der Entwicklung hängen auch davon ab, welche Arten von künstlicher Intelligenz am Markt nachgefragt werden. Für simulierte Menschen-Gehirne gibt es eigentlich keinen Bedarf. Wohl aber für Systeme, die Teilaspekte des menschlichen Denkens und Könnens deutlich effizienter und besser erledigen können - schlicht, weil sie mit der Geschwindigkeit moderner Computer weitaus mehr Daten einbeziehen, aus mehr Beispielen lernen können und keine Müdigkeit kennen.

Stephen Hawking hat vor einem Jahr die Befürchtung geäußert, der Mensch könnte "verdrängt werden" von dieser überlegenen maschinellen Intelligenz. In vielen Bereichen ist das heute schon so, wir stören uns daran nur selten. Wovor Hawking warnt, sind aber sogenannte generelle KI-Systeme. Es gibt sie noch nicht wirklich, sie sind aber seit Langem ein Forschungsfeld. Sie sollen nicht auf eine spezifische Fähigkeit hin trainiert, nicht für einen konkreten Anwendungszweck gebaut und eingesetzt werden, sondern möglichst generische Intelligenz ermöglichen, die ein semantisches Verstehen integriert.

Hier ist es angemessen, vorsichtig zu sein, und über die Frage gründlich nachzudenken, ob, wo und durch wen solche Systeme gebaut und eingesetzt werden sollten. Auch wenn es bis zur Realisierung eines dem Menschen ebenbürtigen oder gar überlegenen Systems wohl noch einige Dekaden hin ist: Der richtige Zeitpunkt für die Diskussion ist schon jetzt.

Die Autorin ist Sprecherin des Chaos Computer Clubs und Autorin. Zuletzt erschien von ihr und Frank Rieger "Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen".

Mark Zuckerberg bastelt an künstlichem Butler à la "Iron Man"

Der Facebook-Chef will einen digitalen Assistenten programmieren, der ihn versteht und seine Tochter bewacht. Das passt zum Masterplan seines Konzerns. mehr...