Künstliche Intelligenz:Zwischen Hilfe und Bedrohung

Lesezeit: 4 min

Künstliche Intelligenz: Nicht alle Roboter sehen wie Menschen aus: Der Tesla Bot in der Anmutung jedoch schon. Der humanoide Roboter wurde während der Eröffnungsparty "Cyber Rodeo" im April in der texanischen Tesla-Produktionsstätte vorgestellt.

Nicht alle Roboter sehen wie Menschen aus: Der Tesla Bot in der Anmutung jedoch schon. Der humanoide Roboter wurde während der Eröffnungsparty "Cyber Rodeo" im April in der texanischen Tesla-Produktionsstätte vorgestellt.

(Foto: Suzanne Cordeiro/AFP)

Roboter prägen unser Leben zunehmend stark. Sie machen Hoffnungen, schüren aber auch Ängste. Dabei sind Fragen von Moral und Haftbarkeit noch nicht beantwortet.

Von Marcel Grzanna

Roboter nehmen den Menschen immer mehr Tätigkeiten ab, die zeitraubend und energieaufwendig sind. Sie werden bereits für harte, körperliche Arbeit oder extrem präzise handwerkliche Tätigkeiten eingesetzt, sie planen die industrielle Logistik oder wählen die richtige Partnerin oder den richtigen Partner für eine romantische Beziehung aus. Sie sind zum Teil sogar schon selbst Bezugsobjekte von Menschen.

Optimus ist 1,73 Meter groß, wiegt 57 Kilogramm und soll einkaufen, putzen oder das Auto waschen

In Japan sind humanoide Roboter in Haushalten weit verbreitet. Sie analysieren menschliche Emotionen anhand von Gestik und Mimik und reagieren entsprechend darauf. Sie sollen dort auch dem Trend der Vereinsamung von Menschen entgegenwirken. Kürzlich kündigte der US-Milliardär Elon Musk an, einen humanoiden Allzweckroboter präsentieren zu wollen. Der Tesla Bot wird von der gleichen künstlichen Intelligenz gesteuert, die Tesla auch in seinen autonomen Fahrzeugen verwendet. Der Roboter trägt den Namen Optimus, ist 1,73 Meter groß, wiegt 57 Kilogramm und soll "langweilige" Aufgaben des menschlichen Alltags übernehmen - Einkaufen, Putzen, Autowaschen oder Ähnliches. Doch nicht alle Roboter erinnern an Menschen. Sie sind eher ein Sammelbegriff für alle Arten der Technologien, die das Leben heutzutage prägen und beeinflussen.

Computer und Internet bieten eine universelle Bibliothek, die Tag und Nacht abrufbar ist. Mobiltelefone ermöglichen es alle Facetten des Lebens in Echtzeit zu erfassen, identifizieren, berechnen, analysieren, verewigen oder verbildlichen zu können. Selbstfahrende Autos verzichten zunehmend auf die Konzentration des Fahrers auf den Straßenverkehr, Kühlschränke schreien selbständig nach Lebensmitteln. Im All reparieren Roboter Raumstationen, in menschlichen Blutbahnen in Zukunft möglicherweise auch defekte Zellen, um schweren Krankheiten vorzubeugen.

Die Autonomie von Robotern nimmt extrem stark zu

Und noch etwas weiter in der Zukunft beflügeln Gehirn-Computer-Schnittstellen sogar die Hoffnung auf übermenschliche Kräfte. "Sie versetzen Nutzer in die Lage, Prothesen und sonstige Geräte allein mit ihren Gedanken zu steuern", schreiben Mario Martini, Professor der Deutschen Universität für Verwaltungswissenschaften in Speyer, und Carolin Kemper, Wissenschaftlerin des Deutschen Forschungsinstituts für öffentliche Verwaltung, in ihrem im März veröffentlichten Aufsatz "Cybersicherheit von Gehirn-Computer-Schnittstellen", der im International Cybersecurity Law Review erschienen ist.

Die Autoren prognostizieren, dass Astronauten mithilfe dieser Schnittstellen "Roboterarme bei Reparaturen verwenden, ohne einen Außenbordeinsatz durchführen zu müssen. Auch Smart-Home-Systeme oder gar humanoide Roboter lassen sich in Zukunft womöglich mit dem Gehirn steuern. Dann reicht bereits ein Gedankenbefehl, damit der Hausroboter eine Pizza in den Ofen schiebt und im Arbeitszimmer serviert."

Die Vorstellung, Roboter mit der Kraft der eigenen Gedanken steuern zu können, scheint so lange attraktiv zu sein, wie sichergestellt ist, dass Menschen die Kontrolle bewahren über die künstliche Intelligenz. Zumal die Maschinen in vielen Bereichen des Lebens die Leistungsfähigkeit des Menschen in den Schatten stellen. Vermutlich kann die menschliche Eitelkeit das auch nur deshalb ertragen, weil Roboter bislang nur weitestgehend das tun, was der Mensch ihm ermöglicht. Ohne dessen Input sind Maschinen und künstliche Intelligenz noch so hilflos wie ein Neugeborenes.

"Wir haben das Potenzial, unsere Souveränität zu bewahren."

Aber zweifellos ebnen die Menschen den Weg dahin, dass die Autonomie von Robotern extrem schnell zunimmt und damit die Fähigkeit, eigenständige Entscheidungen zu treffen. Selbstfahrende Autos sind das anschaulichste Beispiel dafür. Denn sie sind in der Lage, im hektischen Betrieb auf Straßen Gefahren zu erkennen und zu bewerten und dann entsprechend zu handeln. Wir vertrauen also der künstlichen Intelligenz und überlassen ihr die Kontrolle.

Doch die Angst vor einer Kontrolle durch die Roboter schwebt über dem Streben nach Forschung und Entwicklung wie ein Damoklesschwert. Human Rights Watch (HRW) warnte schon vor zehn Jahren davor, dass Roboter gar zu Killern werden könnten statt zu Dienern der Menschen.

"Wir haben das Potenzial, unsere Souveränität zu bewahren. Wir müssen sie nur nutzen", sagt Peter Ganten, Software-Unternehmer und Vorsitzender der Open Source Business Alliance, eines Verbands, der sich für die digitale Souveränität von Bürgern einsetzt. Er verweist auf die Leistungsfähigkeit des menschlichen Hirns bei einer Energiezufuhr von nur 2000 Kalorien pro Tag. "Mit 15 Fahrstunden sind wir in der Lage, so gut wie überall auf der Welt ein Auto unfallfrei von A nach B zu bringen. Die künstliche Intelligenz benötigt Abermillionen Kilometer und Unmengen an Energie, um die gleiche Leistung zu schaffen", sagt Ganten.

Bei allen erdenklichen Einsatzmöglichkeiten der Roboter stellen sich Fragen von Moral und Haftbarkeit. Letztere beschäftigt Juristen und Philosophen schon eine ganze Weile. Denn wen trifft die Schuld, wenn Maschinen durch ihre zunehmende Fähigkeit, Entscheidungen zu treffen, gravierende Schäden hinterlassen? Von endgültigen Antworten ist das Rechtssystem noch weit entfernt. Hier sei der Staat aufgerufen, normative Lücken zu schließen und Vorsorgemaßnahmen zu ergreifen, schreiben Martini und Kemper. Dafür schlagen sie in ihrem Aufsatz etwa neue Vorschriften und Aufklärungspflichten für Hersteller, aber auch eine verstärkte behördliche Aufsicht vor, um die Sicherheit, Integrität und Vertraulichkeit der IT-Systeme zu gewährleisten.

Bliebe die Moral. In dem Essay "How Good Robots Will Enhance Human Life" aus dem Buch " A Treatise on Good Robots" definiert eine Autorengruppe um den Professor Kevin Warwick von der Coventry University "gute Roboter" als solche, die moralisch gut seien hinsichtlich ihres Verhaltens und der Konsequenzen daraus. Dabei hänge es vom Grad ihrer Autonomie, ihrer Einstellung, ihrer Disposition und ihrer Absichten ab. Es müsse ein Roboter sein, der keinen Schaden anrichtet und nicht ärgert oder gar verängstigt.

Inzwischen machen sich Philosophen auch darüber Gedanken, ob Roboter in der Zukunft als Sexualpartner und Sexualpartnerin infrage kommen könnten, um die Prostitution auf der Welt zu verringern und damit das Elend vieler Menschen, vorwiegend von Frauen, zu beenden. Ob das moralisch gut ist oder schlecht, "mag von der exakten Definition des Einzelnen abhängen", schreiben Warwick und seine Kolleginnen und Kollegen. Doch wenn Roboter den Menschen immer ähnlicher werden, stellt sich die Frage: Haben Roboter nicht auch Gefühle?

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Abo kündigen
  • Kontakt und Impressum
  • AGB