Stimmverlust durch Krankheit Millionen-Stimmen-Projekt

Nur wenige Menschen haben so schöne Stimmen wie diese Chorknaben von der St. Paul's Cathedral in London. Doch manche Menschen wären froh, wenn sie überhaupt noch eine eigene, persönliche Stimme hätten.

(Foto: REUTERS)

Stephen Hawkings Computerstimme ist alles andere als einzigartig. Für Kranke, die auf Sprechcomputer angewiesen sind, gibt es nur wenige und blechern klingende Stimmen. Forscher entwickeln individuelle Lösungen - und setzen auf Spenderstimmen.

Von Andrea Hoferichter

Es war eine skurrile Situation, die Rupal Patel von der Northeastern University in Boston vor ein paar Jahren auf einer Technikmesse für behinderte Menschen beobachtete. Ein kleines Mädchen unterhielt sich mit einem erwachsenen Mann, und beide sprachen mit der gleichen Stimme. Es war keine echte, sondern eine künstliche, roboterähnliche Stimme, erzeugt von kleinen Sprechcomputern.

"Mir wurde auf einen Schlag klar, dass das eigentlich nicht sein darf", sagt Patel. "Wie ungenügend diese Computerstimmen sind: Sie sind austauschbar und passen einfach nicht, weder zum Körper noch zur Persönlichkeit." Selbst die weltweit wohl berühmteste Computerstimme, die des Physikers Stephen Hawking, war auf dieser Messe gleich zigmal zu hören.

Das Erlebnis war die Initialzündung für ein Forschungsprojekt (vocalid.org). Gemeinsam mit dem Biomediziner Tim Bunnell vom Kinderkrankenhaus Nemours in Wilmington, Delaware, entwickelte Patel eine Methode, mit der sich persönliche Stimmen erzeugen lassen. Die Forscher machen sich zunutze, dass viele Menschen mit schweren Sprachbehinderungen durchaus noch charakteristische Laute von sich geben und diese auch in Tonlage, Tempo und Lautstärke variieren können.

Die oft dumpf klingenden Laute entstehen im Kehlkopf, wo Atemluft die Stimmbänder zum Schwingen bringt. Mit dem Alter werden diese Stimmlippen dicker, und die Töne verändern sich. Auch ohne Worte ist der Unterschied zwischen Kinder- und Erwachsenenstimme deutlich zu hören.

Diese ganz persönliche Stimmessenz mischen die Forscher nun im Computer mit Sprachaufnahmen von jemandem, der das gleiche Geschlecht hat, ähnlich alt und groß ist wie der Sprachbehinderte. "Wir borgen uns sozusagen den Filter einer gesunden Stimme", erklärt Patel. Gemeint ist der Vokaltrakt, der Resonanzraum aus Luftröhre, Rachen und Mundraum, denn erst hier bekommen die im Kehlkopf produzierten Töne einen klaren Klang und werden zu Vokalen und Konsonanten, zu Wörtern und ganzen Sätzen geformt.

Mangel an Spenderstimmen

Die Stimmenspender müssen etwa drei Stunden im Aufnahmestudio verbringen und möglichst ohne Betonung rund 3200 Sätze sagen wie "Der Himmel ist blau und wolkenlos", "Gestern Nacht war es dunkel". Diese Sätze zerlegen die Wissenschaftler in winzige Wortschnipsel und speisen diese in eine Datenbank. Aus dem Archiv lassen sich dann mit geeigneter Software beliebige Sätze bilden - gesprochen von einer ganz persönlichen Kunststimme. Sie klingt sehr natürlich und angenehm. Allerdings fehlen ihr die Dynamik und Sprachmelodie einer gesunden Stimme.

"Das ist ein tolles Projekt, denn unsere Stimme hat einen ganz großen Einfluss darauf, wie uns andere Menschen wahrnehmen", sagt Hartwig Eckert, emeritierter Professor der Universität Flensburg und Kommunikationstrainer in Hamburg. Sie sei Ausdruck der Persönlichkeit und oft wichtiger als das, was wir sagen. Doch eine Computerstimme wirkt oft unnatürlich und unangenehm. "Um ihr gerne zuzuhören, muss der Gesprächspartner erst einmal eine innere Barriere überwinden", so der Sprachforscher.

Hinzu kommt, dass Menschen sich unbewusst in ihr Gegenüber hineinfühlen, sich zum Beispiel räuspern müssen, wenn dieser mit heiserer Stimme redet. Der Effekt der internen Simulation ist Eckert zufolge gerade im Vokaltrakt sehr ausgeprägt. "Wenn mich ein Kind mit einer künstlichen Erwachsenenstimme anspricht, werde ich ganz automatisch wie zu einem Erwachsenen sprechen und zum Beispiel in eine tiefere Tonlage rutschen", erklärt er. "Eine solche Unterhaltung kann eigentlich nur schiefgehen."