Spracherkennung:Apple stoppt vorerst Siri-Auswertung durch Menschen

Apple - HomePod Release 2017

2017 stellte Apple den Home Pod vor. Auch in ihm ist der Sprachassistent Siri verbaut.

(Foto: picture alliance/AP Photo)
  • Apple will Nutzer bald ausdrücklich um Erlaubnis fragen, ob Mitarbeiter Ton-Mitschnitte abhören dürfen, die über den Sprachassistenten Siri aufgezeichnet worden sind.
  • Berichte, dass Menschen manche Aufnahmen abhören, in Einzelfällen auch Aufzeichnungen privater Gespräche, hatten Nutzer in den vergangenen Wochen verunsichert.

Apple hat als erster Anbieter digitaler Sprachassistenten angekündigt, seine Nutzer ausdrücklich um Erlaubnis fragen zu wollen, ob Mitarbeiter Ton-Mitschnitte nachträglich abhören dürfen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der Konzern dem Tech-Blog TechCrunch mit. Bis dahin werde die Praxis weltweit gestoppt und auf den Prüfstand gestellt.

Assistenzsoftware wie Amazons Alexa, der Google Assistant und Siri ist in Smartphones und Smart-Home-Geräten verbaut. Seit Jahren wurden Teile von Mitschnitten in manchen Fällen auch von Menschen angehört und abgetippt. Ziel ist den Unternehmen zufolge, die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen Sprachassistenten versagten, falsche Erkennung von Aktivierungswörtern oder dem System unbekannte Sprachen und Dialekte. Die Anbieter sagen, dass die Aufnahmen davor anonymisiert würden. Den Nutzern war die Praxis allerdings weitgehend nicht bewusst, bis vor einigen Monaten erste Medien darüber berichteten.

Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch "eine geringe Anzahl von Transkriptionen" für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings suchen - und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen. In der britischen Zeitung Guardian erzählte vergangene Woche der Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. Siri habe auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex aufgeschnappt.

Fehlerhafte Aktivierungen

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte "Hey, Siri" gehört zu haben, sind ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die gar nicht an den Sprachassistenten gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen und solche Fehler in Zukunft zu verhindern.

Früheren Angaben von Apple zufolge wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet. Erst am Donnerstag war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat. Dieser Stopp gilt noch mindestens bis Ende Oktober, teilte der Hamburger Datenschützer Johannes Caspar mit. Er hatte wegen der Praxis ein Verwaltungsverfahren gegen das Unternehmen eingeleitet, um das Anhören der Mitschnitte durch Mitarbeiter von Google oder Dienstleister des Konzerns zu untersagen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: