Süddeutsche Zeitung

Spracherkennung:Na, schlecht gelaunt?

  • Ob wütend, fröhlich oder ironisch: Spracherkennungssoftware versteht mittlerweile Emotionen und Untertöne.
  • Die Programme können zum Beispiel in Callcentern eingesetzt werden, um Mitarbeitern abwechselnd genervte und entspannte Kunden zuzuteilen.

Von Helmut Martin-Jung

"Da hast du mir eine schöne Playlist zusammengestellt". Wer diesen Satz zu seinem vernetzten Lautsprecher sagen würde, bekäme im besten Falle ein "Dankeschön" zur Antwort. Dass es sich aber nicht um ein Lob handelt, sondern um sarkastische Kritik, ginge an dem Gerät völlig vorbei. Dagmar Schuller möchte das ändern. "Wir können mehr als 50 verschiedene Emotionszustände erkennen", sagt sie. Die Österreicherin, 42, gehört zu den fünf Gründern des Münchner Start-ups Audeering und kümmert sich als Geschäftsführerin um Strategie, Finanzen und rechtliche Fragen.

Obwohl die Firma bisher noch kein Marketing gemacht hat, ist sie in Fachkreisen schon weltweit bekannt. Das liegt zum einen daran, dass ihre Gründer - bis auf Dagmar Schuller - an der TU München schon viele Jahre Projekte zur Mensch-Maschine-Kommunikation betrieben, die in der Fachwelt viel Aufsehen erregten. 2012 entschloss sich die Gruppe dann dazu, Audeering zu gründen, um ihre Erkenntnisse zu vermarkten. Längst gehören große Unternehmen zu den Kunden, darunter zum Beispiel der chinesische Mobilfunk-Riese Huawei, Samsung, BMW, die Telekom und noch einige andere, die Schuller aus vertraglichen Gründen nicht nennen darf.

Was Audeering macht, ließe sich in der Kurzzusammenfassung beschreiben als Datenanalyse mithilfe künstlicher Intelligenz. "Die Extrovertiertheit der Menschen von heute hilft uns sehr", sagt Schuller. Videos auf der Plattform Youtube werten ihre Mitarbeiter genauso aus wie etwa Podcasts.

Das Spannende ist, dass dabei Modelle herauskommen, die unabhängig von der benutzten Sprache funktionieren. Das heißt, das System von Audeering erkennt auch, dass ein Mensch erregt ist, wenn es nicht mit der Sprache trainiert wurde, die dieser Mensch benutzt.

Die Flexibilität des Systems geht aber noch wesentlich weiter, wie Schuller sagt. Es kann zum einen auch erkennen, in welchem Kontext jemand spricht - entspannt bei einem Spaziergang im Park oder gestresst, weil nebenan die Autos lärmend vorbeirasen. Zum anderen ließen sich auch Frühindikatoren für Krankheiten wie Alzheimer oder Parkinson entdecken. "Wir sagen nicht, jemand hat Parkinson, aber wir können empfehlen, das überprüfen zu lassen." Und schließlich lässt sich das Programm auch noch in umgekehrter Richtung verwenden: Autistische Menschen könnten zum Beispiel damit lernen, wie sie Emotionen für Nicht-Autisten verständlich ausdrückten.

Spracherkennung könnte die Mitarbeiter besser machen

Die Emotionsanalyse könnte auch in Callcentern helfen, die Belastung der Mitarbeiter zu reduzieren, glaubt Schuller. Solche Mitarbeiter, die gerade ein sehr stressiges Gespräch hinter sich gebracht haben, sollten nicht gleich das nächste aufgebrummt bekommen. "Man könnte eine Win-Win-Situation schaffen", wenn man die Belastung besser auf die Mitarbeiter verteile. Dadurch würden dann auch die Gespräche mit den Kunden besser.

Speziell für Callcenter gedacht ist die Lösung, die der frühere Geschäftsführer des einst sehr erfolgreichen sozialen Netzwerks StudiVZ, Michael Brehm, mit seiner neuen Firma i2x entwickelt hat. Brehm, der auch erster Investor des Essens-Bringdienstes Lieferando war und eine erfolgreiche weltweit agierende Plattform für Online-Gutscheine aufgebaut hat, geht es nach eigenem Bekunden um "Software, die den Job besser macht und dabei hilft zu lernen".

In Callcentern würden die Mitarbeiter in der Regel nur einmal pro Woche geschult. Oft erführen sie dabei nur Kritik, sagt Brehm, positive Rückmeldungen seien eher selten. I2x hat eine Software entwickelt, die mittels Spracherkennung in Echtzeit aufzeichnet, was gesprochen wird und dazu Feedback gibt. Wenn der Callcenter-Mitarbeiter zum Beispiel bestimmte Schlüsselwörter erwähnen soll, werden ihm diese auf dem Bildschirm vorgeschlagen und abgehakt, wenn er sie im Verlauf des Gesprächs angebracht hat.

Droht die totale Kontrolle?

Die Software kann auf Wunsch zudem eine schwarze Liste führen, etwa für bestimmte Füllwörter oder Phrasen, die manche Menschen unbewusst sehr häufig verwenden, zum Beispiel "quasi" oder "entsprechend". Auch zu viele "Ähs" erkennt das System und weist die Mitarbeiter darauf hin.

Aber fühlen sich die Mitarbeiter dadurch nicht unter totaler Kontrolle? Michael Brehm widerspricht: "Wir wollen ihnen ja helfen, besser zu werden", sagt Brehm, die Mitarbeiter seien daher mit dem System zufrieden. Denn klar ist auch: Am Ende erfahren die Vorgesetzten sowieso, wer am Telefon erfolgreich und zum Beispiel etwas verkauft hat und wer nicht. Das System könne außerdem dabei helfen, neue Produkte oder neue Eigenschaften von Produkten ohne Zeitverzug an alle Mitarbeiter im Callcenter bekannt zu geben.

Zwei Jahre lang haben Brehm und sein Team im Stillen an der Software entwickelt, seit einigen Wochen erst ist sie jetzt live. Er legt Wert darauf, dass dabei nicht im Hintergrund das Spracherkennungssystem eines der großen US-Anbieter wie Google oder Microsoft werkelt. "Wir haben alles selbst entwickelt". Emotionen erkennt i2x noch nicht, "das ist die nächste Stufe", sagt Brehm.

Den größten Markt für sein Produkt sieht Brehm nicht in Deutschland, sondern andernorts. Die ersten beiden Kunden stammen aus Großbritannien. "Deutschland sehe ich eher als Entwicklungsstandort", sagt Brehm.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4048190
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 11.07.2018/vd
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.