Süddeutsche Zeitung

Gipfelstürmer:Die Empfindsamen

Lesezeit: 3 min

Das Start-up Tawny will Maschinen lehren, Gefühle der Nutzer zu erkennen. Gelingt das, könnte das erhebliche Folgen für die Arbeitswelt haben.

Von Elisabeth Dostert, München

Michael Bartl weiß immer, wie es ihm geht. Er kann es nicht nur fühlen, er kann es sogar sehen: Bartl trägt eine Smart Watch, eine mit Sensoren ausgestattete elektronische Armbanduhr. Sie erfasst, wie lange er schläft, wie viele Schritte er geht, wie schnell sein Herz schlägt, wie hoch der Hautwiderstand ist und andere biometrische Daten. Daraus errechnet ein Algorithmus laufend Bartls Wohlbefinden. Er tippt auf sein Smartphone. Auf dem Bildschirm erscheint ein Diagramm mit zwei Koordinaten. Die vertikale Achse zeigt an, ob Bartl gerade aufgeregt oder eher ruhig ist, die waagerechte, ob er positiv oder negativ gestimmt ist. Bartl ist gerade ziemlich entspannt.

Bartl, 43, ist Mitgründer des Münchner Start-ups Tawny. Es arbeitet an Algorithmen und einer künstlichen Intelligenz, die Maschinen lehren will, die Gefühle der Menschen zu verstehen. "Bislang wissen Maschinen nicht, wie wir uns fühlen", sagt Bartl: "Wir machen die Maschinen empathisch." Aus den biometrischen Daten errechnet der Algorithmus, den Tawny entwickelt, die Stimmung: Ist der Mensch gerade unterfordert oder überfordert? Ist er angespannt oder nicht? Ist er gerade im richtigen "Flow", damit Mensch und Maschine optimal zusammenarbeiten?

Tawny ist eine Gründung des Münchner Inkubators Hyve, an dem Bartl beteiligt ist. "Es gibt keinen Mangel an Ideen", sagt Bartl: "Die Kunst besteht darin, eine Idee zur Marktreife zu bringen." Das will Tawny schaffen. Das Start-up ist gut ein Jahr alt. Der Name und das Logo, eine Eule, sind eine Botschaft: Tawny Owl heißt übersetzt Waldkauz, der Vogel gilt als klug und wachsam. Es gibt noch kein marktreifes Produkt. Aber das Münchner Start-up arbeitet mit einigen Firmen zusammen, um die ersten Versionen seiner Software zu testen. Bartl erzählt von einem Pilotversuch in einem Call-Center, das Handy-Verträge verkauft. Während und nach jedem Anruf seien einige Wochen lang mit Zustimmung der Mitarbeiter einige biometrischen Daten erfasst worden, etwa der Herzschlag. So konnte Twany schon vor dem nächsten Telefonat berechnen, mit welcher Wahrscheinlichkeit ein Mitarbeiter in einem bestimmten mentalen Zustand ein erfolgreiches Verkaufsgespräch führen werde. "Künftig könnte es so sein, dass ein Telefonat an den Mitarbeiter durchgestellt wird, der gerade in der besten Verfassung ist", sagt Bartl: "Das wird im Tagesverlauf nicht immer der gleiche Mitarbeiter sein."

Maschinen sollen nicht nur künstlich intelligent werden, sondern auch emotional. Es gibt verschiedene Stufen der emotionalen Intelligenz von Maschinen. Die primitivste war das Tamagotchi, ein in den 90er Jahren beliebtes Elektrospielzeug aus Japan. Ein virtuelles Küken reagierte auf Zuneigung. Blieb sie aus, starb das Küken. Es konnte aber wiederbelebt werden. "Inzwischen sind wir weiter", sagt Bartl. Das virtuelle Küken agierte ohne künstliche Intelligenz, es lernte nicht aus den gewonnenen Daten. "In der letzten Stufe emotionaler Intelligenz könnten Maschinen sogar Gefühle entwickeln. Dieses Niveau könnten wir in drei oder vier Jahrzehnten erreichen", sagt Bartl.

Die Daten sollen dann nicht mehr nur sogenannte Wearables liefern, also Sensoren und kleine Rechner, die direkt am Körper oder an der Kleidung getragen werden wie Smart Watches oder Handschuhe, sondern auch Kameras, die Bilder an eine Software zur Gesichtserkennung liefern oder Mikrofone, die die Stimmfrequenz erkennen und interpretieren. "Es gibt jede Menge Daten, schon heute", sagt Bartl. Die Kunst bestehe darin, die Daten und Algorithmen so auszuwählen, dass sie für eine bestimmte Anforderung an Maschine und Mitarbeiter das beste Ergebnis liefern.

"Je feinfühliger die Maschine ist, um so besser klappt die Zusammenarbeit mit dem Menschen", glaubt Bartl. Die unternehmerischen Ziele bleiben die alten: Die emotional intelligenten Maschinen sollen Fehler und Unfälle vermeiden und die Produktivität erhöhen. Bartl ist um kein Beispiel verlegen. Erkennt zum Beispiel das Auto, auch nur eine Maschine mit vier Rädern, dass der Fahrer aggressiv ist, passen sich die Assistenzsysteme dem Gemütszustand an. "Im Extremfall übernimmt in einem autonomen Fahrzeug dann der Autopilot das Steuer", sagt Bartl. "Technisch wird das möglich sein", sagt Bartl. Aber ob es kommt? Es klingt nach totaler Überwachung. Das weiß Bartl. "Ob es so weit kommt, darüber entscheiden Menschen", sagt er. Darüber müsse es einen gesellschaftlichen Diskurs geben, der zu Gesetzen und Regeln für eine digitale Arbeitswelt führt. "Es werden neue Geschäftsmodelle entstehen", erwartet Bartl. "Etwa Firmen, die nichts anderes tun, als Daten zu speichern und zu hüten, um sie dann in anonymisierten Kohorten für die Auswertung einzelnen Firmen zur Verfügung zu stellen." Das klingt nach einer Idee für das nächste Start-up.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4024633
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 21.06.2018
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.