Es wird eng für den Menschen, berichtet Judith Simon: "Wir werden eingekastelt. Wo sind noch Freiräume in der Gesellschaft, in denen ich nicht mehr nur über meine Datenpunkte klassifiziert werde?". Das fragte die Philosophin am Montag in ihrem Vortrag bei den Munich Economic Debates von Ifo-Institut und Süddeutscher Zeitung. Die Professorin für Ethik in der Informationstechnologie von der Universität Hamburg erklärte, vor welche Herausforderungen die datengetriebene künstliche Intelligenz (KI) die Menschheit stellt.
Simon ist Mitglied im Ethikrat, der die Bundesregierung zum Umgang mit riskanten Technologien berät. Er bekam noch mehr Arbeit, als das Unternehmen Open AI 2022 den KI-Chatbot Chat-GPT auf die Menschen losließ. "Chat-GPT war ein riesiges Sozialexperiment", sagt Simon. "Die haben das einfach auf den Markt geworfen und alle Risiken an andere ausgelagert. Das würde man in der Wissenschaft nie machen."
KI ist zunächst einmal konservativ
KI ist bald überall. Noch seien die sozialen Medien am stärksten von ihr durchdrungen. Selbstlernende Software sortiert und filtert Inhalte, bestimmt, welche Realität Nutzer sehen. Das ist erst der Anfang. In der Medizin, etwa bei der Tumorerkennung, könne KI ein Segen sein. "Ich will da nicht so weltuntergangsmäßig sein", sagt Simon. Wenn aber etwa Bonitätssoftware Männer und Frauen unterschiedlich einstufe, sei das Diskriminierung. So auch, wenn KI einem Unternehmen helfe, Kandidaten für eine Beförderung herauszufiltern und dabei Fehlzeiten ein Kriterium sind. Das benachteilige Frauen - weil sie sich meist um kranke Kinder kümmern oder sich mit ungünstigen Kita-Öffnungszeiten herumschlagen.
"KI ist ein inhärent konservatives Instrument. Da geht es aber nicht um links oder rechts, sondern der Kern von KI ist: Sie lernt aus alten Daten, und schreibt sie in die Zukunft fort", sagt Simon. Ideen, um die Welt zu verbessern, hat so ein System eher nicht - dafür eine altmodische Weltsicht, in der ausgeschlossene Menschen ausgeschlossen bleiben.
Simon erklärt, wie tückisch der Einsatz von KI in der Sozialbürokratie sein könnte. Zum Beispiel, wenn Software beurteilen soll, ob das Kindeswohl gefährdet ist. Sowohl eine falsche Einschätzung, ein Kind in einer Familie zu belassen, als auch eine fälschlicherweise empfohlene Inobhutnahme des Kindes habe verheerende Folgen.
Eine Idee hat die Philosophin, wie sich das ungute Verhältnis von Mensch und Maschine verändern lässt. Längst folgten Menschen der Software und Hardware, Motto: Wenn der Computer es sagt, dann muss es ja stimmen. Simon plädiert dafür, dieses Denken umzudrehen: "Ich muss dann nicht begründen, warum ich von der Empfehlung der Software abweiche, sondern warum ich ihr folge." So könnte der Mensch Autonomie zurückgewinnen.
Das Vertrauen in die Maschinen ist zwar bequem, aber diese Vereinfachung hat ihren Preis. Die Technologie könne die Komplexität der Welt nicht abbilden: "Beim Bauen von Software wird alles, was grau ist, schwarz und weiß gemacht. Das muss ein Pixel sein oder keiner, Null oder Eins", erklärt Simon. Das sei keine rein technische Frage: "Man tut so, als wäre das nur Mathematik und nicht Politik". Die von ihrer Grundanlage her konservative KI, sie kann also aus Simon Sicht die gesellschaftliche Erstarrung und das Denken in etablierten Mustern fördern.
Auf die Frage: "Und wenn ich mit KI Geld verdienen will?", antwortet Simon zur allgemeinen Erheiterung im Saal: "Dann fragen Sie keine Ethikerin." Menschliche Ethik und menschlicher Kommerz - das sind die Kräfte, die KI in Zukunft formen werden.