SZ-Serie "Die Sinne" - Teil 2: Hören:Das Gehirn ist ganz Ohr

Lesezeit: 4 min

Schnell, genau und ständig wach: Der oft unterschätzte Hörsinn ist Vorbild für eine effiziente Datenanalyse.

Von Michael Brendler

Versetzen Sie sich in die Zukunft und stellen Sie sich vor, Sie kommen in eine Bar," pflegt der Wahrnehmungspsychologe István Winkler seine Vorlesung einzuleiten. "Kellnerinnen gibt es nicht mehr. Dafür sehen Sie einen Schlauch, der von der Theke zu den Tischen verläuft. Statt einem Glas drückt Ihnen der Barmann einen Strohhalm in die Hand.

"Wir hören nicht mit dem Ohr, sondern mit dem Hirn" (Foto: Foto: dpa)

Damit sollen Sie nun am Tisch das bestellte Getränk aus dem Schlauch zu sich nehmen. Sie wollen gerade ansetzen, als sie feststellen, dass offensichtlich alle Gäste aus demselben Schlauch trinken. Ihre Aufgabe ist es, aus dem bunten Gemisch in der Leitung ihren Whisky-Soda zu saugen. Unmöglich? Genau das ist es aber, was unser Ohr leistet."

Dem ungarischen Psychologen, der derzeit an der Universität Leipzig arbeitet, ist die Begeisterung anzumerken. "Sie müssen nur in einen Klassenraum kommen und schon vermischen sich Stimmen und Schallwellen von 30 Jugendlichen.

Trotzdem kostet es unser Gehirn nur ein paar Sekunden, bis es aus diesem Wellensalat die Stimmen von einzelnen Schülern herausfiltern kann."

"Wir hören mit dem Hirn"

Seit mehr als 20 Jahren beschäftigt sich Winkler mit der Frage, wie der Mensch aus dem Schallwellensalat auf der Straße, im Gespräch oder im Konzert den Mercedes-Diesel, den eigenen Namen oder eine Violine identifiziert. Auch will er wissen, wie das Gehirn Wichtiges von Unwichtigem trennt.

Für Winkler findet sich die Lösung nicht in den Tiefen der Gehörgänge, sondern unter den zehn Milliarden Nervenzellen, die im Gehirn Töne verarbeiten.

"Wir hören nicht mit dem Ohr, sondern mit dem Hirn", sagt Rainer Klinke, Neurophysiologe an der Universität Frankfurt. Das Ohr liefert nur die Roh-Information und leitet die Schallwellen als elektrisches Signal ins Gehirn. Mehr als "laut und leise" sowie "hoch und tief" kann es nicht unterscheiden.

Doch was machen die Nervenzellen aus diesen Rohdaten? Winkler erklärt das am Beispiel einer Jazzband: "Stellen sie sich vor, auf der Bühne spielen ein Gitarrist, ein Bassist und ein Schlagzeuger. Die muss ihr Gehirn nun auseinander halten."

Das Gehirn bediene sich nun verschiedener Hypothesen, um diese Aufgabe zu bewältigen:

"Erstens: Eine Tonquelle ändert nicht abrupt ihre Melodie.

Zweitens: In Höhe oder Klangfarbe ähnliche Töne gehören zusammen.

Drittens: Was zusammen lauter und leiser wird, gehört zusammen."

Schon Bach wusste um diese Tricks und nutzte sie, um in seinen Kompositionen mehr "vorzutäuschen", als vorhanden war. Denn spielt ein einzelnes Instrument eine Sequenz von hohen und tiefen Tönen schnell genug, meint der Zuhörer, zwei Instrumente zu vernehmen, eines mit einer hohen, eines mit einer tiefen Stimme.

Millionen von Schablonen"

"Für das Gehirn ist nun ein reichhaltiges Tablett an Schablonen entscheidend, mit denen es typische Muster erkennen und die Laute identifizieren kann", so Winkler.

Im Laufe des Lebens erlernt der Mensch Millionen davon. Wobei sich ein Indianer auf Laute des Urwalds konzentrieren wird, während der Europäer zum Spezialisten für Verkehrslärm mutiert - um eine helle Lärmquelle gleich als quietschende Reifen zu identifizieren.

Umgekehrt haben sechs Monate alte japanische Kinder noch die passende Schablone für R- und L-Laute und können diese auseinander halten. Für erwachsene Asiaten dagegen bedeuten sie oft eine Hürde: In der Muttersprache nie benutzt, haben sie die Unterschiede verlernt.

Rauschen und Ruhe

Das Tempo, in dem die Hörzentren solche Schablonen anlegen und wieder verwerfen ist atemberaubend: 50 Wortfetzen oder "Phoneme" pro Sekunde kann der Mensch unterscheiden. Das Auge dagegen sieht schon bei 24 Bildern pro Sekunde einen durchlaufenden Film.

Die Geschwindigkeit des Hörsinns versucht der Bielefelder Informatiker Thomas Hermann zu nutzen. Das Ergebnis klingt so: Es rauscht wie der Wind, darüber jagt ein wirrer Rhythmus heller, metallischer Klänge.

Dann kehrt Ruhe ein, der Wind verstummt, das metallische Geschnatter wird dünner. Eine Sekunde später geht alles von vorne los - bis es plötzlich dumpfer und langsamer wird und man den Eindruck hat, mit dem Kopf in ein Wasserbecken abzutauchen.

Warnzeichen vom Datenberg

So klingen zwölf Stunden Verkehr auf einer Autobahn zwischen Köln und Frankfurt, wenn man sie auf 21 Sekunden komprimiert. Die Nacht mit wenigen Fahrzeugen ist ebenso erkennbar wie der Stau in der Frühe. "Sonifikation" nennt sich das Verfahren, mit dem Hermann die Datenberge einer Verkehrsmessung oder eines EKG auf wenige Minute komprimiert akkustisch darstellt.

"Kein Sinnesorgan erkennt so schnell zeitliche und spektrale Muster wie das Gehör Rhythmen, Harmonien oder Muster einer Stimme", sagt der Informatiker.

Ziel des Hör-Erlebnisses der Autobahn war es, Warnzeichen von Staus zu finden und daraus Frühwarnsysteme zu entwickeln. "Wir können viele Dimensionen übereinander legen, mehr als bei grafischer Darstellung", so Hermann.

"Bei dem Stau-Stück steht die Tonhöhe für die Geschwindigkeit. Der Unterschied in der Klangfarbe sorgt für das Rauschen der Pkw und das Klimpern der Lkw. Die Tonlänge kodiert die Länge der Autos."

Hermann träumt sogar von sonifizierten Überwachungssystemen für Intensivstationen in Kliniken. Sie sollen es ermöglichen, lebenswichtige Messwerte vieler Patienten in einer Melodie zusammenzuführen - ähnlich wie das heute das Piepsen der Herzschlag-Überwachungsapparate leistet, nur viel komplexer.

Ideales Überwachungsorgan

Das Gehör ist als Überwachungsorgan ideal: Während der Blick am Monitor schnell müde wird, reicht es, "mit einem Ohr hinzuhören", um Veränderungen zu bemerken: Man ist vertieft in ein Gespräch, bis man plötzlich in einer Ecke den eigenen Namen hört.

Selbst im Schlaf lässt das Gehör den Menschen nicht im Stich, wie junge Eltern wissen. Die vorbeifahrende Straßenbahn wird überhört, das Babyphon weckt beide auf.

Wie das funktioniert, erklärt der Neuropsychologe Lutz Jäncke von der Universität Zürich: "Stellen Sie sich unsere Hörzentren im Gehirn wie einen Schreibtisch mit Ablage-Fächern vor."

Gelernte Signale

Unter dumpfem Licht überflögen die Nervenzentren einlaufende Informationen im Unterbewusstsein und steckten sie in die passenden Fächer. Der eigentliche Kegel der Schreibtischlampe aber scheine immer nur auf den Inhalt des Fachs, auf das wir uns konzentrieren.

Sobald der unbewusste Scan aber bestimmte Schlüsselreize registriere, wandere der Lichtkegel auf das betreffende Fach. "Schlüsselreize" sind neben Sprüngen in Rhythmus, Ton oder Lautstärke auch gelernte Signale wie der Name des Vorgesetzten.

Bei so vielen Qualitäten des Hörsinns erstaunt es, dass die meisten Menschen ohne zu zögern angeben, notfalls eher aufs Hören als auf das Sehen verzichten zu wollen.

Aber auch wenn das Auge schneller von der Menge der Eindrücke überfordert wird, den halben Tag kaum zu gebrauchen ist und viel weniger Raum erfassen kann - in einem Punkt ist es dem Hörsinn klar überlegen: In Ortsfragen ist das Ohr ein lausiger Ratgeber, wie jeder Besitzer einer Stereoanlage weiß, die seinem Ohr schon im kleinsten Zimmer die Illusion großer Konzertsäle vorgaukelt.

© SZ vom 16.1.2004 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: