bedeckt München 10°

Demokratisierung der Musikproduktion:Als die Maschinen sprechen lernten

Gallery assistants pose for the media during the opening of  'Electronic: From Kraftwerk to The Chemical Brothers' in London

Musik, die mit Computern spricht: Bild aus der neu eröffneten Ausstellung „Electronic: From Kraftwerk to The Chemical Brothers“ im Design Museum in London.

(Foto: REUTERS)

Vor 30 Jahren ebnete die digitale Notensprache Midi den Weg zu einer Demokratisierung der Musikproduktion. Jetzt kommt Midi 2.0. Steht Musikfreunden also die nächste technische Revolution im Pop bevor?

Von Quentin Lichtblau

Bob Dylan greift zur elektrischen Gitarre, Kraftwerk zum Synthesizer, die Sugarhill Gang zum Mikrofon - spricht man von den Wendepunkten im Pop, springt im Kopf sofort die entsprechende Musik an: Die elektrisch verstärkten Riffs auf "Bringing It All Back Home", die synthetischen Flächen auf "Autobahn", oder eben die Zeile "Now, what you hear is not a test / I'm rappin' to the beat" . Und vielleicht fand genau deswegen eine große musikalische Revolution eher unter dem Radar der Pop-Chronisten statt: Die Erfindung von Midi im Jahr 1983.

Im Gegensatz zu E-Gitarren kann man Midi ja auch nicht hören, zumindest nicht als Mensch. Bei Midi - die Abkürzung steht für "Musical Instrument Digital Interface" - handelt es sich um eine digitale Notensprache, die es elektronischen Instrumenten erstmals ermöglichte, nach einem einheitlichen Standard miteinander zu kommunizieren, sich zu synchronisieren und Melodien zu schicken. Anders gesagt: Midi ist Musik in einer Sprache, die Maschinen verstehen konnten. Denn trotz ihrer elektronischen Klangerzeugung waren Synthesizer zunächst rein analoge Instrumente, unfähig zur digitalen Kommunikation mit anderen Geräten. Synthesizer-Entwickler wie der Brite Dave Smith hatten zwar schon Ende der Siebziger begonnen, kleine Chips in ihren Geräten zu verbauen - allerdings kochte im Neuland der elektronischen Musik noch jeder Entwickler sein eigenes Süppchen - und Synthesizer galten weiterhin als kompliziertes Nischen-Produkt für Sound-Tüftler. "In den frühen Achtzigern wurde uns dann klar, dass es ein bisschen dämlich ist, wenn unsere unterschiedlichen Geräte nicht miteinander sprechen können", erzählt Smith heute gegenüber dem Radiosender NPR.

Midi war entscheidend für die Electropop-Welle zu Beginn der Achtziger

Über die fünfpoligen Ein- und Ausgänge, ließen sich künftig in Synthesizer, Sampler und Drum-Machine einheitlich miteinander verkabeln. War ein einzelner Mensch vorher mit seinen zwei Händen schon bei der Bedienung von mehr als zwei Keyboards überfordert, konnte er nun einen ganzen Maschinenpark dirigieren und in Eigenregie komplexe, vielspurige Werke entstehen lassen - der sogenannte Bedroom-Producer war geboren, ein gigantischer Schritt in Richtung Demokratisierung der Musikproduktion. Aber auch weniger eigenbrötlerische Musiker konnten ihre Instrumente jetzt synchronisieren, die Entwicklung von Midi dürfte damit entscheidend für die Electropop-Welle zu Beginn der Achtzigern gewesen sein.

Eine Folge des neuen Midi-Standards, die deren Entwickler wohl noch gar nicht im Blick hatten, sollte sich allerdings erst im Laufe der Achtziger mit der des PCs abzeichnen: Durch Midi wurde Musikproduktion erstmals unabhängig von einem Ort, einer Zeit und einem Klang. Midi-Informationen, verpackt in einer Datei, sind nichts anderes als digitale Notenblätter, die man speichern, verändern und verschicken kann. So konnte ein Musiker ein Stück auf einem Midi-Keyboard einspielen - und hinterher, egal ob Tage oder Jahre später - noch einzelne Töne anpassen, dehnen oder löschen, oder sich bei der nachträglichen Auswahl des Klangs statt eines Pianos für eine Tuba entscheiden. Songs mussten nun nicht mehr in einem genialen Moment entstehen, sondern konnten auch von Musik-Laien erschaffen werden. Noch entscheidender für die Wirkung des Midi-Formats war dann das Internet: Heute fliegen Produktionsdateien von einem Ende der Welt ans andere, Musiker müssen nicht mehr im Studio zusammenfinden. Der Schlafzimmer-Beat eines niederländischen Produzenten landet in der midi-basierten Software eines jungen Rappers in Georgia - und fertig ist der Superhit des Jahres 2019, "Old Town Road" von Lil Nas X.

Trotz des damals immensen Potenzials der Midi-Technik zeigte sich mit den Jahren allerdings, dass ein Format von 1983 inzwischen doch auch Schwächen hat: Ließ sich die Dynamik eines einfachen Piano-Tastendruck noch einigermaßen aufzeichnen, wurde es etwa beim Zupfen einer Gitarrensaite oder dem Swing einer Snare-Drum schon schwieriger: Aufgrund der nach heutigen Maßstäben lächerlich geringen Auflösung von Midi ließ sich deren Anschlagdynamik nur bedingt digitalisieren. Midi kennt bezüglich der Töne nur wenige Werte: die Höhe der Note, "Note an" und "Note aus" sowie die jeweilige Anschlagstärke auf einer Skala von 0 bis 127. Zwar versuchten Entwickler, auch Midi-Geräte mit Saiten oder Mundstücken zu entwickeln, es blieb in der Übertragung ins Digitale aber immer eine anorganische Note.

"Ich glaube, dass die Instrumente durch MIDI 2.0 viel ausdrucksstärker werden."

Im Fall von elektronischer Musik wie Techno und House mag diese Mechanisierung geradezu stilprägend gewesen sein - in anderen, weniger sequenzbasierten Genres aber störte sie, vor allem in solchen, die sich außerhalb der westlichen Harmonien und Tonhöhen bewegten. Hinzu kam die stets neue Herausforderung, seine Midi-Gerätschaften richtig zu verkabeln: Da ein der Daten-Transfer nur in eine Richtung erfolgte, mussten sich Produzenten bei der Verbindung zweier Geräte immer entscheiden, welches der beiden den Ton angeben würde. Auf Youtube finden sich daher ellenlange Tutorials, in denen Produzenten ihren Ansatz zur Midi-Verkettung darlegen - und am Ende noch mit einem zusätzlichen Problem zu kämpfen hatten: Verzögerungen in der Übertragung, Latenzen, die sich immer irgendwann einschlichen, den synchronen Ablauf störten - und damit mit Sicherheit für Tausende Wutanfälle verantwortlich sein dürften.

Um diesen Problemen Herr zu werden, die im heutigen digitalen Zeitalter mehr als steinzeitlich wirken, hat sich die Midi Manufacturers Association, ein Zusammenschluss von Entwicklern und Herstellern, nun auf einen neuen Standard geeinigt: Midi 2.0. 38 Jahre nach den ersten Midi-Geräten sollen noch in diesem Jahr vermehrt Produkte mit dem neuen Standard auf den Markt kommen. Neben einer nun in beide Richtungen möglichen Kommunikation und - so zumindest das Versprechen - dem Ende der lästigen Verzögerungen, könnte eine Neuerung dabei eine weitere Revolution einläuten: Eine Auflösung von 16 Bit. Das bedeutet, dass Midi künftig wohl sämtliche Anschlagdynamiken von Gitarrensaite bis Bongo-Trommel abbilden kann - anstatt von 128 Werten gibt es schließlich nun 65 000.

"Das entspricht in etwa dem Schritt von den Röhrenfernsehern der Achtziger hin zu den High-Definition-Fernsehern von heute", verspricht dazu Mike Kent, einer der Entwickler, gegenüber dem Wirtschaftsportal Quartz. Er spiele zwar selbst Synthesizer und Trompete, die Trompete allerdings habe sich stets mehr wie ein Teil seines Körpers angefühlt: "Ich glaube, dass Synthesizer und andere Instrumente durch Midi 2.0 viel ausdrucksstärker werden." Es ist also durchaus möglich, dass künftige Midi-Geräte wie Blas- oder Saiteninstrumente aussehen, und dass sie alle Facetten der Tonerzeugung digitalisieren können. Und damit genau das erreichen, woran die alte Technik bisher noch scheiterte: die vollständige Verschmelzung von Mensch und Maschine.

© SZ vom 13.08.2020

Lesen Sie mehr zum Thema

Zur SZ-Startseite