Süddeutsche Zeitung

Gastkommentar:Menschlicher Faktor

Lesezeit: 4 min

Künstliche Intelligenz wird große Fortschritte machen - doch die Verantwortung für sie trägt weiterhin der Mensch

Von Christian Hoffmann

Viele Studien prognostizieren, dass der Aufstieg Künstlicher Intelligenz (KI) zu einem herben Rückgang von Arbeitsplätzen mit vornehmlich wiederholenden Tätigkeiten in den Volkswirtschaften dieser Welt führt. Eine scheinbar noch nie verzeichnete Entkopplung von Zuwächsen an ökonomischer Produktivität einerseits und von Job- und Gehaltssteigerungen andererseits durch KI-basierte Automatisierung veranlasst manche Tech-Begeisterte, Politiker oder Ökonomen wie Erik Brynjolfsson und Andrew McAfee vom Massachusetts Institute of Technology (MIT) gar dazu, das Ende der Arbeit heraufzubeschwören.

Solche Szenarien, wie realistisch und (un-)willkommen sie auch immer sein mögen, werfen drängende philosophische Fragen auf, etwa nach dem Stellenwert von Arbeit in einem erfüllten, glücklichen Leben. Grundsätzlicher und vorgeordnet sollte aber erforscht werden, wie weit KI auf der kognitiven Leiter mit ihren vier Sprossen Wissen, Intelligenz, Verständnis und Weisheit überhaupt emporzusteigen vermag. Und was das wiederum für die menschliche Verantwortungsbereitschaft bedeutet.

Das Erklimmen der kognitiven Leiter startet auf der untersten Stufe beim Wissen, das man gemeinhin als wahre, gerechtfertigte Überzeugung auffasst. Insofern weiß ich, dass es in Zürich den Üetliberg gibt, weil die Aussage wahr ist und ich gute Gründe habe (etwa weil ich den Berg sehe), die Aussage zu glauben. Die Hürde zum Wissen ist nicht sonderlich hoch - selbst Narren wissen etwas -, und auch wenn Maschinen streng genommen keine Überzeugungen besitzen, so kann eine KI doch "wissen", dass zum Beispiel eine Katze auf einem Bild ist, weil sie mit Millionen Katzenbildern trainiert wurde.

Bei der Anwendung von Wissen besticht KI bereits heute schon oft

Intelligenz hingegen setzt auf der zweiten Stufe die besondere Kompetenz voraus, das Wissen anzuwenden. Auch hier bestechen KIs heute schon oft; etwa dann, wenn die KI ihr "Wissen"/Training nutzt, um eine Katze auf einem neuen Bild zu identifizieren. Was ihr dann aber immer noch fehlt, ist die Beherrschung von mindestens einem Bereich der praktischen oder theoretischen Kognition. Damit ist die zentrale Anforderung an das Verständnis als allgemeine, nicht spezielle Kompetenz auf der dritten Ebene gesetzt. Entsprechend mag die KI nicht imstande sein, den Löwen mit seiner Mähne auf einem Bild als Katze zu erkennen, also andere Wissensdomänen (aus der Biologie etwa) auf das Problem anzuwenden. Auf der vierten und höchsten Sprosse der kognitiven Leiter befindet sich die Weisheit, die sich im Unterschied zum Verständnis durch ganzheitliche Werturteile auszeichnet. Dies schließt es ein, nicht bloß die Mittel zur Erreichung eines Ziels, sondern auch die Ziele selbst zu bewerten und zu hinterfragen. Während also zu den Mitteln der zweiten Stufe (Intelligenz) die ermittelten Muster aus den Trainingsdaten gehören, die dann auf der dritten Stufe (Verständnis) durch Erkenntnisse aus anderen Wissensgebieten angereichert werden, käme bei der vierten Stufe (Weisheit) die Bewertung hinzu, inwieweit es klug oder moralisch wäre, die Bilder überhaupt auszuwerten. In den kommenden Jahrzehnten werden KIs in vielen Bereichen zunehmend nicht nur intelligent, sondern "kompetent" erscheinen und somit Intelligenz sowie zumindest teilweise Verständnisfähigkeiten einsetzen, etwa durch die Anwendung von Techniken für Datenanalyse, Mustererkennung und Simulationen auf Probleme wie der Frühdiagnose von Krebs, Alzheimer und Parkinson.

Überdies ist keine offenkundige Barriere auszumachen, die Maschinen vom Erwerb von Abwägungs- und metakognitiven Fähigkeiten abhalten würde, die mit Expertise assoziiert sind. Das bedeutet einerseits, dass nicht bloß klar wiederholende Prozesse und Routine oder wenig anspruchsvolle Aufgaben automatisierbar sind: Eine KI wird nicht nur für den Kundendienst im Chat (Chatbot), sondern mutmaßlich auch als Radiologe taugen. Kurzfristig mögen unsere Vorteile bei reibungsloser manueller Geschicklichkeit, Kreativität oder sozialer Intelligenz zwar einen gewissen "Schutz" (im Denkschema "wir gegen die Maschinen") bieten. Aber nicht so sehr, wie wir vielleicht denken.

Das bedeutet aber nicht, dass alles, was technologisch möglich ist, auch reale wirtschaftliche Folgen zeitigt und dass dem technologischen Fortschritt keine Grenzen gesetzt wären. Es gibt keinen eindeutigen Entwicklungsstrang, auf dem KI so etwas wie Weisheit erlangen könnte. Intelligente Maschinen lassen die charakteristischen sozialen und psychologischen Bedingungen vermissen, die Weisheit erst möglich machen. Doch ist dieser vermeintliche Mangel gleichzeitig der Kern ihrer Stärke und kommerziellen Anziehungskraft. Weisheit für oder in KI ist zumindest in absehbarer Zukunft weder notwendig noch erwünscht!

Wiewohl somit Maschinen zu Experten auf verschiedenen Gebieten, etwa der Medizin, heranreifen mögen, bleibt ihnen doch die Erlangung von Weisheit verwehrt. Zum einen werden sie nicht zwischen letzten, aber unvereinbaren oder sehr abstrakten und komplexen Zwecken, Zielen und Werten wählen können; zum anderen werden sie nicht in der Lage sein, Verantwortung für Werturteile und daraus resultierenden Emotionen, Handlungen und Überzeugungen zu übernehmen. Die Lösung könnte darin bestehen, Künstliche Intelligenzen nicht als äußere Konkurrenten zu sehen, denen menschliche Akteure und Weisheit entweder passiv erliegen oder gegen die sie sich aktiv widersetzen müssen. Wer das Modell der kognitiven Leiter auf Maschinen anwendet, erkennt zwar, dass die meisten menschlichen Fähigkeiten nicht so einzigartig sind. Aber niemand zwingt uns, diese Lehre oder KIs als Bedrohung statt als das aufzufassen, was sie sind: Erweiterungen von uns selbst, für die wir verantwortlich sind und bleiben - auch wenn wir ihre kognitiven Prozesse nicht mehr steuern oder vollständig verstehen.

Wir sollten moralische Regeln dafür schaffen, wie die neuen Systeme gestaltet werden

Wir sind zur Übernahme von Verantwortung für KI aus mindestens drei Gründen aufgerufen: Erstens, weil sie durch uns für die Verfolgung unserer Ziele erschaffen wurde. Zweitens, weil sie in ihrer Existenz von unserer investierten Zeit, Energie, Unterstützung und von unseren Daten abhängt. Drittens und vor allem, weil wir im Gegensatz zu ihr Verantwortung wahrnehmen können.

Aber wie steht es um die Folgerungen eines Bekenntnisses zu unserer Verantwortung für KI? Sie sollten weniger mit dem Grübeln über Maschinenethik gezogen werden, als vielmehr auf moralische Spielregeln für die Gestaltung algorithmischer Systeme hinauslaufen, die nach wie vor den Menschen in den Mittelpunkt setzen. Hierzu stiftete unlängst etwa die Bertelsmann Stiftung mit Ihren Algo.Rules einen wertvollen Beitrag. Es ist höchste Zeit, uns zu fragen, für wen oder was wir unsere Welt gestalten wollen. Haben wir in unserer Eile, die Welt zum geeigneten Zuhause für intelligente Maschinen zu formen, unsere Verantwortung vergessen, auch eine Welt für intelligente und weise Menschen zu hinterlassen? Der Wert und die Kraft von Weisheit ist wiederum, tout court, die Praxis des Verantwortungsbewusstseins.

Christian Hoffmann forscht am Lehrstuhl für Entrepreneurial Risks der ETH Zürich

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4429268
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 03.05.2019
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.