bedeckt München 22°

Kolumne: Silicon Future:Hallo, Computer

An dieser Stelle schreiben jeden Mittwoch Helmut Martin-Jung, Marc Beise (beide München), Karoline Meta Beisel (Brüssel), und Jürgen Schmieder (Los Angeles) im Wechsel.

Mehr und mehr elektronische Geräte wollen mit uns sprechen. Im Alltag ist das oft unpraktisch. Doch längst wird an ganz anderen Lösungen getüftelt.

Das wussten Sie natürlich längst. Windows, das bei weitem meistgenutzte Betriebssystem für Computer, hat eine eingebaute Spracherkennung. Seit zwölf Jahren schon. Wie, wussten Sie nicht? Aber Sie kennen doch Siri? Da ist die Stimme auf Ihrem iPhone, die manchmal losplappert, ohne dass man sie willentlich darum gebeten hätte. Auf Android-Handys gibt's das übrigens auch, da heißt die Funktion aber nur schnöde Google Assistant. Von Alexa, die langweilige Lautsprecher zu smarter Elektronik macht und in gewissem Sinne auch zur Wohnzimmer-Wanze, haben Sie aber bestimmt gehört.

Gemeinsam ist ihnen allen, dass sie uns befreien wollen von der Last, ein Eingabegerät zu benutzen, das die Natur nicht vorgesehen hatte: die Tastatur. Der Mensch kommuniziert ja auf vielfältige Weise. Nicht nur haben Menschen als einzige einen hohen Kontrast zwischen Augapfel und Iris - weil es für die Kommunikation von Bedeutung ist, wohin einer guckt. Menschen gestikulieren auch, vor allem aber nutzen sie Sprache. Warum also sollte der Mensch ein Werkzeug verwenden, um über und mit Technik zu kommunizieren? Warum spricht er nicht einfach mit ihr, sagt ihr, was er von ihr will?

Kaum ein Science-Fiction-Film, in dem das keine Rolle spielt, unvergessen zum Beispiel die schmeichelnd-hinterhältige Stimme des Bordcomputers HAL 9000 in Kubricks "2001 - Odyssee im Weltraum". HAL, den man nicht sehen kann, der aber selber alles sieht, versteht auch die Untertöne der Kommunikation der Besatzung, kann sogar von ihren Lippen lesen. Er gibt sich als netter Kumpel, aber eigentlich ist er nichts als eine perfide programmierte Maschine, die Empathie bloß heuchelt.

Ein gewisses Maß an Heuchelei steckt auch hinter den angeblich smarten Sprachassistenten von heute, denn das oberste Ziel der Konzerne dahinter ist nicht, den Menschen zu Diensten zu sein, sondern Geld zu verdienen. Doch diese digitalen Assis sind noch Lichtjahre davon entfernt zu verstehen, was die Menschen wirklich von ihnen wollen. Zwar klappt es gut, Sprache in elektronisch lesbaren Text umzuwandeln. Aber zu verstehen, was das Gesagte bedeutet, ist immer noch schwer.

Alexa, Siri und Co. umschiffen diese Klippen, indem sie vorschreiben, bestimmte Codewörter zu benutzen oder Befehle in einer fest gefügten Syntax zu sprechen. Und damit das mit dem Verstehen langfristig besser klappt, haben alle Anbieter eher mehr als weniger heimlich Menschen beschäftigt, die den Erkennungsalgorithmen auf die Sprünge helfen sollten. Schließlich werden die Gerätschaften ja als smart verkauft, als "künstlich intelligent".

Dass es damit nicht so weit her ist, wie gerne behauptet wird, erkennt man daran, dass die Siris und Alexas oft genug passen müssen. Die Kunst besteht dann darin, das eigene Versagen möglichst sympathisch rüberzubringen. Mehr als ein nettes Spielzeug sind sie also kaum, wenn man einmal absieht zum Beispiel von Sehbehinderten, die wesentlich mehr Motivation haben, sich die Befehlssyntax zu merken, weil es ihnen das Leben erleichtern kann.

Aus Sprachdateien kann man herausfinden, wie ein Mensch sich gerade fühlt

Bei der Nerdin, die es geschafft hat, ihre vernetzte Espressomaschine per Sprache anzuwerfen, sieht das schon anders aus. Vorausgesetzt, sie hat nicht vergessen, eine Tasse drunter zu stellen, funktioniert die Sache tatsächlich, nur: Wo ist der Mehrwert, außer dass es eben möglich ist? Für die Konzerne jedoch ist ihr Service ein klarer Mehrwert. Denn sie wissen nun, dass dieser Mensch eine Espressomaschine besitzt, wann er sie benutzt etc. Aus Sprachdateien lässt sich mit geeigneter Software sogar herausfinden, wie ein Mensch gerade emotional drauf ist. Die Konzerne jedenfalls profitieren davon, wenn sie möglichst viel über ihre Nutzer wissen.

Außerhalb der eigenen vier Wände liegt die Sache wieder anders. Zwar haben viele inzwischen ganz offenbar jede Hemmung abgelegt, Privatestes in aller Öffentlichkeit am Handy zu besprechen. Das öffentliche Einsprechen von Befehlen aber hat sich noch nicht durchgesetzt. Oft ist einfach der Geräuschpegel der Umgebung zu hoch, und Störgeräusche mögen die Spracherkennungssysteme gar nicht. Das ergäbe ja auch ein hübsches Durcheinander, wenn da alle in einer S-Bahn nicht bloß auf ihr Handy starren, sondern es auch noch mit Befehlen bombardieren würden.

Da ist es noch wahrscheinlicher, dass der Hansdampf in allen Technologie-Gassen, Elon Musk, sich mit seiner Idee durchsetzt, das Hirn doch gleich mit einem Computer zu verbinden. Dazu müsste man sich Elektroden ins Denkorgan einpflanzen lassen und ein Ding etwa so groß wie ein Hörgerät hinterm Ohr tragen. James Joyce hätte sich also nicht Ewigkeiten abmühen müssen, um den Bewusstseinsstrom seines Protagonisten im Roman "Ulysses" zu Papier zu bringen. Er wäre sozusagen von selbst in einen Computer geflossen.

Schöne Aussichten sind das nicht, auch wenn Elon Musk glaubt, die Menschheit käme gar nicht darum herum, sich elektronisch aufzumotzen, um gegen künstliche Intelligenzen eine Chance zu haben. Und Wissenschaftlern ist es gelungen, aus Signalen des Gehirns Sprache zu rekonstruieren. In letzter Konsequenz bedeutet das: Die Gedanken sind nicht mehr frei, sondern elektronische Daten - mit allen Chancen und Risiken der digitalen Welt. Da stimmt die Antwort, die einem Apples Siri, aufgerufen über die smarte Uhr des Konzerns, auf folgende Frage gibt, direkt froh. "Kannst Du Gedanken lesen?" - "Auf der Apple Watch kann ich Dir leider keine Inhalte vorlesen".

© SZ vom 28.08.2019
Zur SZ-Startseite