Künstliche Intelligenz Der gläserne Mensch wird durch KI noch transparenter

Künstliche Intelligenz kann viele Dinge besser als Menschen, sie weiß nur nicht warum.

(Foto: imago/Science Photo Library)
  • Deutschland liegt im Rennen um künstliche Intelligenz hinter anderen Nationen zurück.
  • Investitionen von EU und Bundesregierung sind deshalb eine gute Idee. Deutschland sollte dabei aber nicht auf ethische Standards verzichten.
  • So könnte künstliche Intelligenz "Made in Germany" einen unerwarteten Wettbewerbsvorteil erlangen.
Gastbeitrag von Peter Buxmann

Am Thema künstliche Intelligenz (KI) scheiden sich die Geister. Die einen befürworten eine intensive Nutzung von KI, darunter zum Beispiel der Facebook-Gründer Marc Zuckerberg. Er propagiert neue gesellschaftlich wünschenswerte Anwendungen wie etwa den Einsatz in der medizinischen Diagnose und Therapie. Eine große Zahl von Beratungsfirmen baut KI-Abteilungen auf und verdient damit viel Geld.

Der US-amerikanische Wirtschaftswissenschaftler Erik Brynjolfsson vom Massachusetts Institute of Technology bezeichnet künstliche Intelligenz als die bedeutendste "General Purpose Technology" (Basistechnologie) unserer Zeit. Die unzähligen Möglichkeiten, KI im Alltag oder branchenübergreifend in Unternehmen anzuwenden, scheinen ihm recht zu geben. Hinzu kommt, dass die Algorithmen viele Jobs in der Regel sehr gut erledigen: Sie analysieren auf Basis von CT-Bildern Krankheiten, sagen Aktienkurse vorher, erkennen Gesichter oder verhindern Cyberangriffe.

Peter Buxmann, 54, ist Universitätsprofessor für Wirtschaftsinformatik, Software & Digital Business an der TU Darmstadt und leitet dort auch das Innovations- und Gründungszentrum HIGHEST.

(Foto: OH)

Auf der anderen Seite gibt es viele Kritiker, Tesla-Chef Elon Musk etwa, und auch das verstorbene Physik-Genie Stephen Hawking gehörte dazu. Die Befürchtung: KI könnte sich eines Tages selbst verbessern, sodass in einem sich verstärkenden Kreislauf eine Superintelligenz entsteht - ein Intellekt also, der dem Menschen in allen Bereichen überlegen ist und ihn beherrscht. Zukunftsforscher Ray Kurzweil ist angeblich sogar in der Lage, ein Datum zu nennen, wann dies passieren wird: im Jahr 2045. Ob die Prognose seriös ist, darf bezweifelt werden.

Algorithmen sind bisher nur sehr beschränkt einsetzbar

Algorithmen oder Roboter, die der Menschheit überlegen sind, sind seit Jahrzehnten ein beliebtes Thema und Gegenstand von Dystopien oder Science-Fiction-Filmen wie "Alien", "Blade Runner" oder "Terminator". Herbert A. Simon, einer der Väter der KI, sagte schon 1965 voraus, dass es nur noch zwanzig Jahre dauern werde, bis Maschinen in der Lage seien, jede Arbeit zu erledigen, die bislang Menschen vorbehalten war. Der Status quo der KI-Anwendung sieht dagegen so aus: Algorithmen sind darauf spezialisiert, bestimmte Probleme zu lösen; darin sind sie kaum zu schlagen, aber kein Algorithmus würde auf die Idee kommen, sein Anwendungsgebiet zu erweitern. Es gibt auch keine erfolgversprechenden Ansätze, die in der Lage wären, eine solche Superintelligenz mit eigenem Bewusstsein zu entwickeln.

Bewerben Wenn der Computer Nein sagt
Bewerben

Wenn der Computer Nein sagt

Zunehmend wählen große Firmen ihre Bewerber mithilfe von Algorithmen aus. Viele Menschen, die einen Job suchen, wissen nicht, wie sie sich darauf einstellen sollen und wie man davon profitiert. Die wichtigsten Fragen und Antworten.   Von Sven Lüüs

Ist also alles in bester Ordnung? Können wir sorglos in eine Zukunft blicken, in der KI uns bei vielen Tätigkeiten und Entscheidungen unterstützt und unsere Gesellschaft dadurch verbessert? So einfach ist es leider nicht. Wir müssen beachten, dass es sich bei den meisten KI-Algorithmen um "Black Boxes" handelt. Sie geben häufig nicht preis, warum sie wie entschieden haben. Das mag in manchen Fällen unproblematisch sein, in vielen anderen ist es das aber nicht.

In einigen Unternehmen sind heute schon KI-Lösungen bei der Auswahl von Personal im Einsatz. Arbeitet der Algorithmus nach dem Black-Box-Prinzip, können wir die Auswahlentscheidung nicht erklären. Zudem wissen wir nicht, ob der Algorithmus Parameter wie Geschlecht, Hautfarbe oder Religion in seine Entscheidung einbezogen hat. Wollen wir solche Algorithmen? Die Antwort muss heißen: nein.