instruktion und instrument - Institut für Elektronische Musik und Akustik

Werbung
instruktion und instrument
MUSIK UND KLANG IM DIGITALEN ZEITALTER
VON MARTIN RUMORI
ie Diskussion um die so genannte
«digitale Revolution» und ihre Auswirkungen auf die Musikwelt ist
ungebrochen lebendig. Gegenwärtige und
projektierte zukünftige Auswirkungen der
Verbreitung des digitalen Computers in der
neuen Musik werden kontrovers diskutiert,
etwa in dem kürzlich erschienenen Band
Musik, Ästhetik, Digitalisierung mit Beiträgen von Johannes Kreidler, Harry Lehmann
und Claus-Steffen Mahnkopf.1 Im September 2010 veranstaltete die Akademie der
Künste Berlin ein Festival mit dem Titel
«Zero ’n’ One: Komponieren im digitalen
Zeitalter»,2 bei dem Musikschaffende und
-ausführende wie auch Theoretikerinnen
und Theoretiker gleichermaßen zu Klang
und Wort kamen.
Entsprechend vielfältig gestalten sich die
Diskurse, die sich an der Thematik entzünden und die aufeinander bezogen oder auch
aneinander vorbei geführt werden. Dabei ist
zu beobachten, dass über den gemeinsamen
Gegenstand, den Begriff des «Digitalen»,
eine implizite Einigkeit zu bestehen scheint:
er wird jedenfalls selten selbst thematisiert.
In den meisten Wortmeldungen wird der
(digitale) Computer als Auslöser aller Entwicklungen, die der «digitalen Revolution»
zugerechnet werden, eindeutig identifiziert.
Von diesem Konsens ausgehend entfalten
sich Diskussionen, die vielfältiger kaum sein
könnten: etwa über soziale und ästhetische
Auswirkungen, heutige und zukünftige technische Möglichkeiten und Utopien, über die
Beschaffenheit des Computers als Werkzeug oder musikalisches Instrument oder
nostalgisch gefärbte Erinnerungen an historisch gewordene technische Artefakte.
D
WAS IST «DIGITAL»?
1
Aber was ist das «Digitale» an der «Digitalen Revolution»? Meinen wir «digital», wenn
wir über «den Computer» als Musikinstrument sprechen? Sind die Veränderungen, die
wir mit dem Computer verbinden, tatsächlich auch seiner digitalen Funktionsweise
geschuldet?
Der einleitende Satz des Festivalprogramms zu «Zero ’n’ One» nimmt direkten
Bezug auf die Repräsentation von Daten in
heutigen Computern: «Was geschieht mit
Musik, wenn wir sie in Nullen und Einsen
verwandeln?» Die Rede ist vom Binärcode.
In diesem Zahlencode gibt es nur zwei Ziffern: Eins und Null, Ja und Nein, Strom an
und Strom aus. Wie mit unserem gebräuchlichen Dezimalsystem lassen sich auch im
Binärsystem beliebig große Zahlen darstellen, wenn es dafür ausreichend viele Stellen
gibt. Technisch lässt sich die binäre Darstellung besonders gut mit elektrischen Schaltzuständen realisieren – der Hauptgrund dafür, dass unsere Computer binär arbeiten.
Das müsste nicht so sein: 1958 wurde in der
damaligen Sowjetunion der Setun entwickelt, ein ternärer Computer, der auf der
Basis einer dreiwertigen Logik arbeitet (beispielsweise «ja, nein, vielleicht»). Beides sind
digitale Repräsentationen. Die Unschärfe,
dass «digital» in unserem Sprachgebrauch
zumeist «binär» heißt, lässt sich im musikalischen und vielen anderen Kontexten aber
vernachlässigen, denn heute arbeiten praktisch alle digitalen Computer mit dem Binärsystem.
WAS HÖREN WIR?
Was also passiert mit Musik, wenn wir sie in
Nullen und Einsen verwandeln? Der Digitalisierungsprozess erlegt dem zu wandelnden Signal zwei Einschränkungen auf:
Es muss bandbegrenzt sein, und die maximal darstellbare Dynamik steht im Wechselverhältnis mit einem minimal erreichbaren
Rauschabstand. Der erste Parameter, die
höchste digitalisierbare Frequenz im Ausgangssignal, wird durch die so genannte Abtast-Rate bestimmt; der zweite Parameter
durch die Abtast-Tiefe (Bit-Tiefe). Bei heute
gebräuchlichen Werten für beide Größen
liegt die höchste abtastbare Frequenz weit
über dem Hörbereich des menschlichen Gehörs, während der Rauschabstand im Allgemeinen unterhalb dem der analogen Schaltungsteile, meist auch unterhalb der Wahrnehmungsschwelle liegt. Schließlich ist es
auch eine wesentliche Grundannahme, dass
die analogen Phänomene in der digitalen
Repräsentation so weit angenähert sind,
dass sie – zumindest in den von uns genutzten Wertebereichen – als Alternative dienen
kann.
Wie also kann Musik digital «sein» oder
zumindest so «klingen»? Derartige Zuschreibungen finden sich seit einigen Jahren vermehrt im semiprofessionellen «High-End»Bereich, aber auch in Zeitschriften für Studiotechnik. Häufig wird der «warme», analoge Klang mit dem «kalten, nüchternen»
Digitalklang konfrontiert. Was hier gemeint
ist, sind Hörgewohnheiten und deren subjektive Charakterisierung. Was als «warm»
empfunden wird, sind komplexe, nichtlineare Klangverfärbungen analoger Geräte,
denen das weitgehend erreichte nachrichtentechnische Ideal, die neutrale Linearität,
bei der digitalen Signalverarbeitung gegenübersteht. Liegt ein Signal einmal digital vor,
wird es verlustfrei gespeichert und übertragen. Es ist bislang nur unbefriedigend möglich, die oft sehr gerätespezifischen analogen
Artefakte digital zu modellieren. Ein prominentes Beispiel hierfür ist die analoge Bandsättigung: Das allmähliche Übersteuern eines
Magnetbandes bei der Aufzeichnung führt
zu einem typischen, sanft ansteigenden Kompressoreffekt und erst später zu nach und
nach zunehmender Verzerrung – beides wurde und wird in der Tonstudio-Technik bewusst als Effekt eingesetzt. Bei der digitalen
Aufnahme hingegen arbeitet der Wandler
entweder im definierten Wertebereich, dann
verhält er sich nahezu linear, oder die digitalen Amplitudenwerte werden nach oben
hart begrenzt: dann entsteht eine starke Ver-
n THEMA
zerrung, die das Signal im Allgemeinen unbrauchbar macht.
An dieser Stelle zeigt sich deutlich eine
indirekte Auswirkung der digitalen Audiotechnik, die man durchaus als Verdienst feiern kann: das nachrichtentechnische Ideal
der Linearität, das auch mit der analogen
Technik immer verfolgt wurde, ist durch
seine recht weitgehende Realisation in der
digital domain enttarnt. Das nachrichtentechnische Ideal ist nicht gleich dem ästhetischen Ideal. Freilich unterliegt letzteres
einer gesellschaftlichen Entwicklung, der
Verschiebung von Vorlieben, dem Zeitgeist
(das erste jedoch nicht), weshalb dieser Vergleich zwangsläufig hinken muss. Aber dennoch sagt er etwas aus über das Digitale,
dessen Verbreitung ebenfalls gesellschaftliche Entwicklung spiegelt.
NUTZUNG DES DIGITALEN
Tatsächlich gibt es jedoch genuin «digitale»
klangliche Artefakte, die vor allem dann
auftreten, wenn die Bedingungen des Abtast-Theorems nach Whittaker-KotelnikowShannon oder der Quantisierung verletzt
werden. Das erste, die digitale Übersteuerung, wurde bereits erwähnt. Normalerweise unerwünscht, wird sie vor allem in der
Popularmusik zum Effekt erklärt und – wie
vormals die Bandsättigung – zum «Anzerren» mancher Schlagzeug-Klänge verwendet. Ein weiteres digitales Artefakt ist das
aliasing, auch als Spiegelfrequenzen bezeichnet. Sie entstehen, wenn das zu digitalisierende Eingangssignal nicht bandbegrenzt ist,
also höhere Frequenzen enthält als die halbe
Abtast-Rate. Das kann auch bei der digitalen
Transposition oder der Anwendung mancher Klangsyntheseverfahren passieren, wenn
der Algorithmus dazu nicht sorgfältig umgesetzt ist. Spiegelfrequenzen sind typischerweise als hohes Klirren oder Zirpen hörbar
und ebenfalls (normalerweise) unerwünscht.
Auch ein drittes, das Quantisierungsrau-
schen, ist ein unerwünschtes Artefakt, das
bei einer zu geringen Auflösung der einzelnen Samples hörbar wird und ästhetisch auf
die Unzulänglichkeiten der frühen Digitaltechnik zurückweist. Bewusst herbeigeführt,
ist es unter dem Namen Bitcrusher längst in
die Plugin-Sammlungen diverser Audioprogramme eingezogen.
Schon früh wurde die digital domain für
eine Kompositionsweise entdeckt, deren
Gegenstände die diskreten Samples selbst
sind. Gottfried Michael Koenig etwa wandte
aleatorische Kompositionstechniken auf digitale Amplitudenwerte in seinem Programm
SSP an. Iannis Xenakis entwickelte Verfahren
zur stochastischen Klangsynthese auf der
Ebene der digitalen Repräsentation. Diese
direkte Anwendung von Kompositionstechniken auf digitale Samples, gemeinhin unter
dem Oberbegriff der Non-Standard Sound
Synthesis zusammengefasst, wird in den letzten Jahren von jüngeren Komponisten aufgegriffen und weiterentwickelt, etwa von Luc
Döbereiner. Das Digitale ist hier längst nicht
mehr nur eine universelle Repräsentation
von Signalen, sondern ein eigenständiger Zugang zu Klang und Musik, der sich analog
weder vorstellen noch realisieren ließe.
Das ist durchaus nicht so selbstverständlich, wie es scheinen mag. Die Theorie der
diskreten Signalverarbeitung ist abgeleitet
von der kontinuierlichen, und noch viel
mehr als sie ist unser Umgang mit der Digitaltechnik bis heute von analogen Metaphern bestimmt. Harddisk-Recording und
Sample-Editor, aber auch Filmschnittprogramme verweisen nahezu ausnahmslos auf
die vormaligen, linearen Trägermedien Tonband und Film. Auch die Bearbeitungsverfahren wie Kopieren, Schneiden und Montieren orientieren sich an den analogen Arbeitsschritten. Ein wesentliches Augenmerk
bei der Entwicklung von Effekt-Plug-ins
liegt auf ihrem optischen Erscheinungsbild:
Fotorealistische Nachbildungen klassischer
analoger Frontplatten und Bedienelemente
sollen vergleichbare Klangqualitäten, aber
auch einen haptischen Zugriff auf die Funktionen suggerieren. Viele grafische Programmiersprachen, darunter das populäre Max/
MSP, sind mit ihren Bausteinen und Verbindungskabeln Abbilder des analogen modularen Synthesizers. Letzterer ist eine Art
Analogrechner, der mathematisch formalisierbare Operationen auf Größen, repräsentiert durch Signale, ausführt. Sein Programm
ist in den Funktionsweisen der einzelnen
Module und ihren Verschaltungen kodiert,
die seinerzeit Patches genannt wurden – so
wie heute Max/MSP-Dokumente.
Selbst die Umdeutung von Daten, ihre
Interpretation mit einer anderen physikalischen Referenz als die ihrer Herkunft, ist
nicht erst durch die Digitalisierung ermöglicht. Die Digitalisierung hat sie nur technisch vereinfacht. Die uns inzwischen völlig
vertraute Wellenformdarstellung von Klangmaterial, aber auch die Interpretation von
Bild- oder Wetterdaten als Audiosignale
haben zur Voraussetzung eine universelle
Repräsentation der Daten, wie sie bereits die
Elektrizität ist. Notwendig dazu sind technische Verfahren, um etwa Luftdruckschwankungen in veränderliche Spannungen oder
Stromstärken umzuwandeln. Sie müssen
nicht als diskrete Samples vorliegen. Gleichwohl hat die Digitalisierung den Begriff
einer abstrakten, universellen Repräsentation erst geschärft, wenn nicht hervorgebracht.
Die beliebige zeitliche Manipulation von
Daten, etwa um Fledermaus-Klänge in für
uns wahrnehmbare Frequenzbereiche zu
transponieren oder eben eine Minute Klang
in ein grafisches Abbild seiner Wellenform
zu überführen, ist dadurch möglich geworden, dass wir Daten speichern können: nicht
notwendigerweise digital, nicht notwendigerweise verlustfrei. Auch ein veränderliches
Magnetfeld, auf Band festgehalten, ist eine
fixierte universelle Repräsentation, die den
zeitlichen Verlauf einer physikalischen Größe
in den Raum transformiert. Der Phonautograph, das erste überlieferte Gerät zur Schallaufzeichnung, wurde 1857 patentiert. Er wurde aber gar nicht zur späteren akustischen
Reproduktion, sondern gezielt zur visuellen
Untersuchung des Phänomens «Klang» konstruiert, denn man versprach sich davon
weitergehende Erkenntnisse über Schall.
Erst 2008 wurden erste Aufzeichnungen des
Phonautographen hörbar, nachdem sie optisch und damit für das Trägermedium zerstörungsfrei abgespielt werden konnten.
DIE ROLLE DES COMPUTERS
3
Die Umwälzungen, die der Einzug des
Computers in nahezu alle Lebensbereiche
ausgelöst hat, ist vor allem seiner unaufhaltsamen Verbreitung, der demokratisierten
Verfügbarkeit und der Miniaturisierung geschuldet. Mittelbar hat das auch mit seiner
technischen Beschaffenheit zu tun, denn offenbar sind die geschichtlichen Ausprägungen der Industrialisierung, Automatisierung
und weltweiten kommunikativen Vernetzung mit der Digitalisierung auf sehr fruchtbaren Boden gefallen. Die informationstheoretisch verlustlose Speicherung und Duplizierung, damit die prinzipiell uneingeschränkte Verbreitung einmal digitalisierter
Daten, ist Ausgangspunkt diverser gesellschaftlicher Veränderungen. Sie zeigen sich
heute an Fragen des Urheberrechts oder des
geistigen Eigentums, aber auch an den Problemen, die anwachsende Datenflut organisatorisch und konservatorisch zu beherrschen.
Hier offenbart sich ein wesentlicher
Kern des Digitalen: Der Verlust als entropischer Prozess, der bei der analogen Umwandlung, Speicherung und Verarbeitung
von Daten über die gesamte Signalkette graduell verteilt ist, wird durch die Diskretisierung aus den eigentlichen digitalen Verarbeitungsschritten verbannt und stattdessen
an den Anfang und an das Ende der Kette
verlagert: auf den Vorgang der Diskretisierung selbst. Das Maß des Verlusts kann
durch eine höhere Auflösung der Diskretisierung reduziert werden, zum Preis eines
erhöhten Aufwands für die Speicherung und
Verarbeitung.
Wie die verschiedenen Beispiele zeigen,
ist es zu kurz gegriffen, alle echten oder vermeintlichen Artefakte des Computers uneingeschränkt seiner digitalen Funktionsweise zuzurechnen. Auf der Grundlage der
Virtualisierung erscheint er mit seiner Oberfläche weitgehend von analogen Metaphern
geprägt, die uns den schnell erlernbaren,
verhältnismäßig einfachen Umgang erst ermöglichen. Erst sie, die Modellierung der
Software nach analogen Vorbildern, hat das
weite Vordringen des Computers in unsere
Alltagswelt möglich gemacht und vorangetrieben.
Trotzdem ist die Ansicht, der Computer
sei «nur» ein mehr oder weniger feststehendes Werkzeug, dessen zurückwirkendem
Einfluss man sich weitgehend entziehen
könne, eine trügerische. Am deutlichsten
wird das bei der Begegnung mit dem Computer in seiner ursprünglichen Funktion: als
symbolverarbeitende, universelle Rechenmaschine. Programmieren bedeutet, mit
abstrakten, symbolischen Entitäten schöpferisch zu operieren. Das schlägt eine Brücke zur Mathematik – und zum Komponieren von Musik. Vielleicht die interessanteste.
n
1
Johannes Kreidler / Harry Lehmann / Claus-Steffen
Mahnkopf: Musik, Ästhetik, Digitalisierung. Eine Kontroverse, Wolke, Hofheim 2010.
2
Zero ’n’ One: Komponieren im digitalen Zeitalter.
Online, http://www.adk.de/zero_one/, zuletzt abgerufen am 28.11.2010.
Martin Rumori, Jahrgang 1976, studierte
Musikwissenschaft und Informatik in Berlin. Freischaffende Tätigkeit als Klangkünstler und Klangprogrammierer. 2005–2010
künstlerisch-wissenschaftlicher Mitarbeiter
im Klanglabor der Kunsthochschule für
Medien Köln (KHM). Seit 2011 Mitarbeit
im Forschungsprojekt «The Choreography
of Sound» am Institut für Elektronische
Musik und Akustik Graz.
Herunterladen