Sonifikation:Haste Töne?

Lesezeit: 7 min

Der Mensch verlässt sich auf das, was er sieht. Dabei kann das Gehör helfen, Forschungsergebnisse besser zu verstehen und anzuwenden - wenn wissenschaftliche Daten zu Klangerlebnissen werden.

Von Esther Göbel

In den letzten Sekunden, wenn dem Klimawandel immer mehr Bäume zum Opfer fallen, wird das Klavier langsamer, die Streicher leiser, die Töne weniger und die Pausen immer länger. Ganz am Ende hört sich der Klimawandel an wie ein trauriges Nichts, in das sich nur noch einzelne Töne taumelnd verirrt haben.

Klingt nach einer tragischen Angelegenheit. Grund genug, melancholisch zu werden. Doch die beschriebene Melodie ist viel mehr als ein berührendes Klavierstück. Nämlich ein Stück Wissenschaft. "Data Sonification" nennt sich die Methodik: Wissenschaftliche Informationen werden in Töne und Geräusche übersetzt, um Erkenntnisse daraus zu ziehen; im Grunde macht jeder Arzt dasselbe, der mit einem Stethoskop dem Herzschlag eines Patienten lauscht. Seit Mitte der 1990er-Jahre beschäftigen sich auch Wissenschaftler mit der Frage, ob eine akustische Darstellung ihrer Forschungsergebnisse mit Hilfe von Computern nicht genau so sinnvoll sein kann wie die visuelle - oder manchmal sogar sinnvoller. Die Tonhöhe, die Rauigkeit, die Schärfe; eine Variation von Daten lässt sich in verschiedene Klangeigenschaften transformieren.

Im Jahr 1951 spuckte ein Computerprogramm erstmals überhaupt einen Ton aus. Ein paar Jahre später entwickelte der Elektroingenieur Max Mathews ein Programm, mit dem Computer Soundflächen produzieren konnten. 17 Sekunden lang war jene selbstkomponierte Melodie, die Mathews 1957 auf einem IBM-704-Computer zum Klingen brachte. Seitdem hat sich viel getan: Software ist mittlerweile in der Lage, mit Hilfe von Algorithmen komplizierte Kompositionen zu verfassen, elektronische Musik durchspült unseren Alltag. Aber wenn es um die Präsentation von Daten zum Zwecke der Forschung geht, verlassen sich Wissenschaftler noch immer überwiegend auf die visuelle Darstellung von Informationen: Überfrachtete Zahlengehäuse, die Tabellen sein sollen; komplizierte Graphen, deren Verläufe eher zu Schwindel als zu Erkenntnis führen; farbenfrohe Plots, die mehr an abstrakte Kunstwerke erinnern als an leicht interpretierbare Daten. Und das obwohl interdisziplinäre Forscherteams rund um den Globus bereits Proteinstrukturen, Einkommensunterschiede in New York City, Sonnenwindpartikel, Gravitationswellen, Herzrhythmusstörungen und noch mehr vertont haben - mit wachsender Begeisterung.

"Wir leben in einer stark visuellen Kultur, das steckt uns tief in den Knochen", sagt Thomas Hermann von der Universität Bielefeld. Der Physiker und Computerwissenschaftler hat von einer Wettervorhersage fürs Radio - er nennt es "Wettervorhörsage" - bis hin zu menschlichen Herzrhythmen schon alle möglichen wissenschaftlichen Daten in Töne und Klänge übersetzt, er forscht auf dem Gebiet. "Wir lernen von klein auf visuell und schreiben deswegen Dingen, die wir sehen, auch eine größere Glaubwürdigkeit zu", sagt er. Sinnsprüche aus dem Volksmund wie "Das glaube ich erst, wenn ich es sehe" oder "Das kenne ich nur vom Hörensagen" bezeugen Hermanns Aussage. Dabei kennt der Wissenschaftler die Fähigkeiten des menschlichen Gehörs: Es kann Frequenzen von 20 bis 20 000 Hertz wahrnehmen, reagiert außerdem sehr sensitiv auf Rhythmen und deren Änderungen. Auch kann das Ohr im Vergleich zum Auge zwei kurz aufeinanderfolgende Signale gut voneinander unterscheiden, nämlich 20 Signale pro Sekunde. Das Gehör kann also besonders differenziert einen Datenhaufen analysieren.

Deswegen liegt für Hermann der Schlüssel der Erkenntnis auch in dem, was er hört. Beziehungsweise: In dem, was er in seinem Labor anhand von Datensätzen und Computern hörbar macht. Die Gehirnströme eines Patienten beispielsweise, der gerade einen epileptischen Anfall erleidet, entfalten sich in Hermanns Design von einem Surren zu einem Zucken, immer schneller, immer härter, so als würde ein Trommler auf Speed in immer größeren Tempo auf eine Blechtrommel einschlagen. Ganz am Ende bricht sich eine Kakofonie aus Surren und Schlägen Bahn, die den Impuls auslöst, sofort wegzuschalten. Soviel Stress strahlt aus der kurzen Tonsequenz auf den Hörer ab.

Einen lauen Frühlingstag hingegen hat Hermann am Computer so "komponiert": Der angenehm warme Grundton eines hölzernen Xylofons, weich und regelmäßig angeschlagen, mittendrin ein kurzes, nicht zu schrilles Weckerklingeln, dann ein Vogelgezwitscher, später noch ein eingestreutes Kirchturmläuten. Der vertonte Frühling klingt wie ein sonniger Morgen, an dem man gern aufstehen mag. Wer diese "Wettervorhörsage" im Radio einschaltet, muss im Gehirn nicht lange prozessieren, sondern weiß sofort: "Okay, heute wird die Sonne scheinen, ich brauche nur eine leichte Jacke einzupacken."

Sachte Flötenklänge stehen für die steigende Zahl von Hemlocktannen

Hermann wird durch seine Arbeit ein Übersetzer von einer Sinneswelt in die andere; er macht trockene Daten und Zahlen erlebbar. Er tut mit seiner Arbeit aber auch das, was Forschern normalerweise schwerfällt: Er erzählt und verbreitet Geschichten aus der Wissenschaft, die durch den akustischen Zugang trotz ihrer Komplexität schnell verständlich werden.

Auch Lauren Oakes wollte eine Geschichte erzählen. "Es ist die eines Verlustes", sagt die Ökologin von der Universität Stanford. "Man kann hören, wie die Gelbzeder weniger und weniger wird." Gleichzeitig, sagt sie, spiegelten ihre Erkenntnisse aber auch die Geschichte einer Anpassung wider. Oakes erforscht die Auswirkungen des Klimawandels auf pflanzliche Ökosysteme. 2011 und 2012 führte sie Baummessungen im Alexanderarchipel an der südöstlichen Küste Alaskas durch. Sie konnte herausfinden, dass die Gelbzeder, eine Kiefer, innerhalb des Untersuchungszeitraumes zwar deutlich zurückging. Dafür aber breiteten sich zwei andere Kiefern-Arten immer stärker aus: die Westamerikanische Hemlocktanne und die Sitka-Fichte. Oakes beobachtete also, wie höhere Temperaturen und kürzere Winter den Wald umstrukturieren.

Oakes wollte diese Ergebnisse nicht nur einem Fachpublikum in Form eines wissenschaftlichen Aufsatzes präsentieren, sondern sie mit einem Laienpublikum teilen. Sie wollte, dass die Menschen verstehen. Also schickte sie eine E-Mail an Nik Sawe, Umweltwissenschaftler in Stanford und Amateur-Musiker. Sie fragte, ob er Lust auf eine Kooperation habe. Sawe wälzte sich durch Oakes' Datensätze, die beiden trafen sich auf dem Campus auf einen Kaffee, schließlich übersetze Sawe Oakes' Informationen in ein Musikstück. Er wählte melancholische Klavierklänge als Fundament - sie sollen das Absterben der Gelbzeder symbolisieren. Die Sitka-Fichte wird durch ein Cello vertont, eingetupfte, leichte Flötenklänge symbolisieren die steigende Anzahl Westamerikanischer Hemlocktannen. "Wir wollten auch ein bisschen Optimismus mit reinbringen", erläutert Oakes. Jeder Baum wird in dem Stück zu einer eigenen Note; tiefere, kürzere Töne symbolisieren jüngere Kiefern, höhere, längere Töne stehen für ältere Bäume. Tote Kiefern werden durch Pausen vertont. Die nehmen mit fortlaufender Zeit des Stückes zu - weil Oakes' Datensatz sich Richtung Süden des Archipels bewegt und dort mehr Gelbzedern sterben als im Norden. So kommt es, dass der Klimawandel an der Küste Alaskas schließlich klingt wie ein großes, trauriges Nichts.

Dabei verfolgt Lauren Oakes ein anderes Ziel als Thomas Hermann: Für ihn ist die Vertonung von Daten eine wissenschaftliche Methodik, die sich festen Regeln unterwerfen und zweckgebunden sein muss, um Interpretationen zuzulassen, und die sich beispielsweise in der medizinischen Diagnostik einsetzen lässt. Für Lauren Oakes stellt die Sonifikation vor allem ein Kommunikationsinstrument dar, mit dessen Hilfe eine Brücke zwischen Wissenschaftlern und der breiten Bevölkerung entsteht.

"Musik ist so etwas wie eine universale Sprache, die Menschen in einer ähnlichen Weise verstehen können", sagt sie. Sie ist überzeugt: "Wenn jemand ein Stück wie unseres hört, will er oder sie wissen, was man in der Musik hört. Und dann den größeren Zusammenhang verstehen, also was sich hinter den Daten, die in der Musik stecken, verbirgt." Oakes glaubt, dass Menschen durch den emotionalen Zugang, den Töne und Klänge liefern, eher für wissenschaftliche Probleme und Entwicklungen zu gewinnen sind.

Eine sechsstimmige Melodie soll die Funktionen von Aminosäuren verdeutlichen

Mit Problemen kennt Robert Bywater sich aus - sie gehörten zu seinem Job als Biochemiker am Francis Crick Institute in England. Jahre lang biss Bywater sich an jenen Molekülen die Zähne aus, die das menschliche Leben steuern wie keine anderen und die besonders komplex sind: Proteine. Etwa 100 000 verschiedene stecken im menschlichen Körper, sie alle setzen sich aus langen Aminosäureketten zusammen, die wiederum von Genen codiert werden. Die Art und Weise, wie die Aminosäuren im Protein kombiniert werden, bestimmt dessen Form. Und die wiederum die Funktion des Proteins. Schon eine einzige genetische Mutation kann die Form des Proteins verändern und so schwere Fehlfunktionen im Körper bewirken. Es ist ein hoch komplexer Prozess der Natur, den Biochemiker und -informatiker noch immer nicht lückenlos verstehen.

Wollen sie Proteine charakterisieren, müssen sie heute riesige Datensätze am Computer auswerten und komplizierte Verfahren anwenden. Etwa 3-D-Modelle erstellen, in aufwendiger Laborarbeit kleinste Mengen Protein herstellen und extrahieren, um anschließend dessen Form bestimmen zu können; wer sein Leben den Proteinen verschrieben hat, muss zäh sein. Bywater ist mittlerweile in Rente, aber noch immer forscht er weiter. "Mich interessieren Proteine, die eine falsche Form annehmen und so Krankheiten auslösen, besonders neuro-degenerative", sagt er. Und fügt dann diesen lustigen Satz hinzu: "Ich würde gerne sehen, wie es sich anhört, wenn ein Protein sich fehlerhaft faltet."

Seit zwei Jahrzehnten beschäftigt Bywater deswegen die Frage, ob es nicht noch eine andere Herangehensweise gibt als die komplizierte Visualisierung, um mehr über die Form eines Proteins zu verstehen. "Manchmal bin ich wirklich durcheinandergeraten mit all den Farben und Schemata in so einem 3-D-Modell." Deswegen beschloss Bywater, gemeinsam mit dem Musiker Jonathan Middleton von der Eastern Washington Universität und der Tampere Universität in Finnland, Proteine fortan zum Klingen zu bringen.

Vier verschiedene wählte das Duo aus und vertonte sie aufgrund von charakteristischen Parametern in Melodien, die all die Kurven, Schlaufen, Stränge und Helices akustisch darstellen sollen, die ein Protein eben so annehmen kann. Die Sequenzen klingen kühl, sie bestehen aus jeweils einer Tonspur und aus repetitiven Mustern, die sich immer dann ändern, wenn sich die Form des jeweiligen Proteins ändert. "Das menschliche Gehör merkt sich Melodien sehr gut, auch schon kleinste Unterschiede", sagt Bywater. "Wenn man also verschiedene Proteine vertont, kann man mithilfe der Erinnerung sagen: ,Ah, dieses Protein klingt so wie jenes, oder ganz anders. Also muss es eher zu dieser oder jener Familie gehören.'" So lassen sich schneller als mit dem Auge Unterschiede und mögliche Gemeinsamkeiten erkennen, glauben Bywater und sein Kollege. Im Praxistest unter 38 Forschern traf ihre Methodik auf gute Resonanz.

Ob die klingenden Proteine Musik darstellen oder nicht, darüber lässt sich streiten. "Einer meiner Studenten meinte mal, es sei mehr als Musik", sagt Jonathan Middleton. "Für mich ist es Musik mit einer ganz bestimmten Absicht." Sein Kollege Bywater hat indes schon eine Vision: eine Sound-Datenbank im Internet, in die Forscher weltweit ihre klingenden Proteine einspeisen. Und einen Traum hat er auch - Johann Sebastian Bach hat ihn dazu inspiriert: "Ich möchte eine sechsstimmige Melodie entwerfen, die verschiedene Aminosäuren ihrer Funktion nach in einem Protein akustisch hörbar macht."

Noch ist das Zukunftsmusik. Aber schon im Frühjahr werden Robert Bywater und sein Musiker-Kollege Jonathan Middleton sich wieder treffen, um weiter an ihrer Idee zu feilen.

© SZ vom 07.01.2017 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: