instruktion und instrument MUSIK UND KLANG IM DIGITALEN ZEITALTER VON MARTIN RUMORI ie Diskussion um die so genannte «digitale Revolution» und ihre Auswirkungen auf die Musikwelt ist ungebrochen lebendig. Gegenwärtige und projektierte zukünftige Auswirkungen der Verbreitung des digitalen Computers in der neuen Musik werden kontrovers diskutiert, etwa in dem kürzlich erschienenen Band Musik, Ästhetik, Digitalisierung mit Beiträgen von Johannes Kreidler, Harry Lehmann und Claus-Steffen Mahnkopf.1 Im September 2010 veranstaltete die Akademie der Künste Berlin ein Festival mit dem Titel «Zero ’n’ One: Komponieren im digitalen Zeitalter»,2 bei dem Musikschaffende und -ausführende wie auch Theoretikerinnen und Theoretiker gleichermaßen zu Klang und Wort kamen. Entsprechend vielfältig gestalten sich die Diskurse, die sich an der Thematik entzünden und die aufeinander bezogen oder auch aneinander vorbei geführt werden. Dabei ist zu beobachten, dass über den gemeinsamen Gegenstand, den Begriff des «Digitalen», eine implizite Einigkeit zu bestehen scheint: er wird jedenfalls selten selbst thematisiert. In den meisten Wortmeldungen wird der (digitale) Computer als Auslöser aller Entwicklungen, die der «digitalen Revolution» zugerechnet werden, eindeutig identifiziert. Von diesem Konsens ausgehend entfalten sich Diskussionen, die vielfältiger kaum sein könnten: etwa über soziale und ästhetische Auswirkungen, heutige und zukünftige technische Möglichkeiten und Utopien, über die Beschaffenheit des Computers als Werkzeug oder musikalisches Instrument oder nostalgisch gefärbte Erinnerungen an historisch gewordene technische Artefakte. D WAS IST «DIGITAL»? 1 Aber was ist das «Digitale» an der «Digitalen Revolution»? Meinen wir «digital», wenn wir über «den Computer» als Musikinstrument sprechen? Sind die Veränderungen, die wir mit dem Computer verbinden, tatsächlich auch seiner digitalen Funktionsweise geschuldet? Der einleitende Satz des Festivalprogramms zu «Zero ’n’ One» nimmt direkten Bezug auf die Repräsentation von Daten in heutigen Computern: «Was geschieht mit Musik, wenn wir sie in Nullen und Einsen verwandeln?» Die Rede ist vom Binärcode. In diesem Zahlencode gibt es nur zwei Ziffern: Eins und Null, Ja und Nein, Strom an und Strom aus. Wie mit unserem gebräuchlichen Dezimalsystem lassen sich auch im Binärsystem beliebig große Zahlen darstellen, wenn es dafür ausreichend viele Stellen gibt. Technisch lässt sich die binäre Darstellung besonders gut mit elektrischen Schaltzuständen realisieren – der Hauptgrund dafür, dass unsere Computer binär arbeiten. Das müsste nicht so sein: 1958 wurde in der damaligen Sowjetunion der Setun entwickelt, ein ternärer Computer, der auf der Basis einer dreiwertigen Logik arbeitet (beispielsweise «ja, nein, vielleicht»). Beides sind digitale Repräsentationen. Die Unschärfe, dass «digital» in unserem Sprachgebrauch zumeist «binär» heißt, lässt sich im musikalischen und vielen anderen Kontexten aber vernachlässigen, denn heute arbeiten praktisch alle digitalen Computer mit dem Binärsystem. WAS HÖREN WIR? Was also passiert mit Musik, wenn wir sie in Nullen und Einsen verwandeln? Der Digitalisierungsprozess erlegt dem zu wandelnden Signal zwei Einschränkungen auf: Es muss bandbegrenzt sein, und die maximal darstellbare Dynamik steht im Wechselverhältnis mit einem minimal erreichbaren Rauschabstand. Der erste Parameter, die höchste digitalisierbare Frequenz im Ausgangssignal, wird durch die so genannte Abtast-Rate bestimmt; der zweite Parameter durch die Abtast-Tiefe (Bit-Tiefe). Bei heute gebräuchlichen Werten für beide Größen liegt die höchste abtastbare Frequenz weit über dem Hörbereich des menschlichen Gehörs, während der Rauschabstand im Allgemeinen unterhalb dem der analogen Schaltungsteile, meist auch unterhalb der Wahrnehmungsschwelle liegt. Schließlich ist es auch eine wesentliche Grundannahme, dass die analogen Phänomene in der digitalen Repräsentation so weit angenähert sind, dass sie – zumindest in den von uns genutzten Wertebereichen – als Alternative dienen kann. Wie also kann Musik digital «sein» oder zumindest so «klingen»? Derartige Zuschreibungen finden sich seit einigen Jahren vermehrt im semiprofessionellen «High-End»Bereich, aber auch in Zeitschriften für Studiotechnik. Häufig wird der «warme», analoge Klang mit dem «kalten, nüchternen» Digitalklang konfrontiert. Was hier gemeint ist, sind Hörgewohnheiten und deren subjektive Charakterisierung. Was als «warm» empfunden wird, sind komplexe, nichtlineare Klangverfärbungen analoger Geräte, denen das weitgehend erreichte nachrichtentechnische Ideal, die neutrale Linearität, bei der digitalen Signalverarbeitung gegenübersteht. Liegt ein Signal einmal digital vor, wird es verlustfrei gespeichert und übertragen. Es ist bislang nur unbefriedigend möglich, die oft sehr gerätespezifischen analogen Artefakte digital zu modellieren. Ein prominentes Beispiel hierfür ist die analoge Bandsättigung: Das allmähliche Übersteuern eines Magnetbandes bei der Aufzeichnung führt zu einem typischen, sanft ansteigenden Kompressoreffekt und erst später zu nach und nach zunehmender Verzerrung – beides wurde und wird in der Tonstudio-Technik bewusst als Effekt eingesetzt. Bei der digitalen Aufnahme hingegen arbeitet der Wandler entweder im definierten Wertebereich, dann verhält er sich nahezu linear, oder die digitalen Amplitudenwerte werden nach oben hart begrenzt: dann entsteht eine starke Ver- n THEMA zerrung, die das Signal im Allgemeinen unbrauchbar macht. An dieser Stelle zeigt sich deutlich eine indirekte Auswirkung der digitalen Audiotechnik, die man durchaus als Verdienst feiern kann: das nachrichtentechnische Ideal der Linearität, das auch mit der analogen Technik immer verfolgt wurde, ist durch seine recht weitgehende Realisation in der digital domain enttarnt. Das nachrichtentechnische Ideal ist nicht gleich dem ästhetischen Ideal. Freilich unterliegt letzteres einer gesellschaftlichen Entwicklung, der Verschiebung von Vorlieben, dem Zeitgeist (das erste jedoch nicht), weshalb dieser Vergleich zwangsläufig hinken muss. Aber dennoch sagt er etwas aus über das Digitale, dessen Verbreitung ebenfalls gesellschaftliche Entwicklung spiegelt. NUTZUNG DES DIGITALEN Tatsächlich gibt es jedoch genuin «digitale» klangliche Artefakte, die vor allem dann auftreten, wenn die Bedingungen des Abtast-Theorems nach Whittaker-KotelnikowShannon oder der Quantisierung verletzt werden. Das erste, die digitale Übersteuerung, wurde bereits erwähnt. Normalerweise unerwünscht, wird sie vor allem in der Popularmusik zum Effekt erklärt und – wie vormals die Bandsättigung – zum «Anzerren» mancher Schlagzeug-Klänge verwendet. Ein weiteres digitales Artefakt ist das aliasing, auch als Spiegelfrequenzen bezeichnet. Sie entstehen, wenn das zu digitalisierende Eingangssignal nicht bandbegrenzt ist, also höhere Frequenzen enthält als die halbe Abtast-Rate. Das kann auch bei der digitalen Transposition oder der Anwendung mancher Klangsyntheseverfahren passieren, wenn der Algorithmus dazu nicht sorgfältig umgesetzt ist. Spiegelfrequenzen sind typischerweise als hohes Klirren oder Zirpen hörbar und ebenfalls (normalerweise) unerwünscht. Auch ein drittes, das Quantisierungsrau- schen, ist ein unerwünschtes Artefakt, das bei einer zu geringen Auflösung der einzelnen Samples hörbar wird und ästhetisch auf die Unzulänglichkeiten der frühen Digitaltechnik zurückweist. Bewusst herbeigeführt, ist es unter dem Namen Bitcrusher längst in die Plugin-Sammlungen diverser Audioprogramme eingezogen. Schon früh wurde die digital domain für eine Kompositionsweise entdeckt, deren Gegenstände die diskreten Samples selbst sind. Gottfried Michael Koenig etwa wandte aleatorische Kompositionstechniken auf digitale Amplitudenwerte in seinem Programm SSP an. Iannis Xenakis entwickelte Verfahren zur stochastischen Klangsynthese auf der Ebene der digitalen Repräsentation. Diese direkte Anwendung von Kompositionstechniken auf digitale Samples, gemeinhin unter dem Oberbegriff der Non-Standard Sound Synthesis zusammengefasst, wird in den letzten Jahren von jüngeren Komponisten aufgegriffen und weiterentwickelt, etwa von Luc Döbereiner. Das Digitale ist hier längst nicht mehr nur eine universelle Repräsentation von Signalen, sondern ein eigenständiger Zugang zu Klang und Musik, der sich analog weder vorstellen noch realisieren ließe. Das ist durchaus nicht so selbstverständlich, wie es scheinen mag. Die Theorie der diskreten Signalverarbeitung ist abgeleitet von der kontinuierlichen, und noch viel mehr als sie ist unser Umgang mit der Digitaltechnik bis heute von analogen Metaphern bestimmt. Harddisk-Recording und Sample-Editor, aber auch Filmschnittprogramme verweisen nahezu ausnahmslos auf die vormaligen, linearen Trägermedien Tonband und Film. Auch die Bearbeitungsverfahren wie Kopieren, Schneiden und Montieren orientieren sich an den analogen Arbeitsschritten. Ein wesentliches Augenmerk bei der Entwicklung von Effekt-Plug-ins liegt auf ihrem optischen Erscheinungsbild: Fotorealistische Nachbildungen klassischer analoger Frontplatten und Bedienelemente sollen vergleichbare Klangqualitäten, aber auch einen haptischen Zugriff auf die Funktionen suggerieren. Viele grafische Programmiersprachen, darunter das populäre Max/ MSP, sind mit ihren Bausteinen und Verbindungskabeln Abbilder des analogen modularen Synthesizers. Letzterer ist eine Art Analogrechner, der mathematisch formalisierbare Operationen auf Größen, repräsentiert durch Signale, ausführt. Sein Programm ist in den Funktionsweisen der einzelnen Module und ihren Verschaltungen kodiert, die seinerzeit Patches genannt wurden – so wie heute Max/MSP-Dokumente. Selbst die Umdeutung von Daten, ihre Interpretation mit einer anderen physikalischen Referenz als die ihrer Herkunft, ist nicht erst durch die Digitalisierung ermöglicht. Die Digitalisierung hat sie nur technisch vereinfacht. Die uns inzwischen völlig vertraute Wellenformdarstellung von Klangmaterial, aber auch die Interpretation von Bild- oder Wetterdaten als Audiosignale haben zur Voraussetzung eine universelle Repräsentation der Daten, wie sie bereits die Elektrizität ist. Notwendig dazu sind technische Verfahren, um etwa Luftdruckschwankungen in veränderliche Spannungen oder Stromstärken umzuwandeln. Sie müssen nicht als diskrete Samples vorliegen. Gleichwohl hat die Digitalisierung den Begriff einer abstrakten, universellen Repräsentation erst geschärft, wenn nicht hervorgebracht. Die beliebige zeitliche Manipulation von Daten, etwa um Fledermaus-Klänge in für uns wahrnehmbare Frequenzbereiche zu transponieren oder eben eine Minute Klang in ein grafisches Abbild seiner Wellenform zu überführen, ist dadurch möglich geworden, dass wir Daten speichern können: nicht notwendigerweise digital, nicht notwendigerweise verlustfrei. Auch ein veränderliches Magnetfeld, auf Band festgehalten, ist eine fixierte universelle Repräsentation, die den zeitlichen Verlauf einer physikalischen Größe in den Raum transformiert. Der Phonautograph, das erste überlieferte Gerät zur Schallaufzeichnung, wurde 1857 patentiert. Er wurde aber gar nicht zur späteren akustischen Reproduktion, sondern gezielt zur visuellen Untersuchung des Phänomens «Klang» konstruiert, denn man versprach sich davon weitergehende Erkenntnisse über Schall. Erst 2008 wurden erste Aufzeichnungen des Phonautographen hörbar, nachdem sie optisch und damit für das Trägermedium zerstörungsfrei abgespielt werden konnten. DIE ROLLE DES COMPUTERS 3 Die Umwälzungen, die der Einzug des Computers in nahezu alle Lebensbereiche ausgelöst hat, ist vor allem seiner unaufhaltsamen Verbreitung, der demokratisierten Verfügbarkeit und der Miniaturisierung geschuldet. Mittelbar hat das auch mit seiner technischen Beschaffenheit zu tun, denn offenbar sind die geschichtlichen Ausprägungen der Industrialisierung, Automatisierung und weltweiten kommunikativen Vernetzung mit der Digitalisierung auf sehr fruchtbaren Boden gefallen. Die informationstheoretisch verlustlose Speicherung und Duplizierung, damit die prinzipiell uneingeschränkte Verbreitung einmal digitalisierter Daten, ist Ausgangspunkt diverser gesellschaftlicher Veränderungen. Sie zeigen sich heute an Fragen des Urheberrechts oder des geistigen Eigentums, aber auch an den Problemen, die anwachsende Datenflut organisatorisch und konservatorisch zu beherrschen. Hier offenbart sich ein wesentlicher Kern des Digitalen: Der Verlust als entropischer Prozess, der bei der analogen Umwandlung, Speicherung und Verarbeitung von Daten über die gesamte Signalkette graduell verteilt ist, wird durch die Diskretisierung aus den eigentlichen digitalen Verarbeitungsschritten verbannt und stattdessen an den Anfang und an das Ende der Kette verlagert: auf den Vorgang der Diskretisierung selbst. Das Maß des Verlusts kann durch eine höhere Auflösung der Diskretisierung reduziert werden, zum Preis eines erhöhten Aufwands für die Speicherung und Verarbeitung. Wie die verschiedenen Beispiele zeigen, ist es zu kurz gegriffen, alle echten oder vermeintlichen Artefakte des Computers uneingeschränkt seiner digitalen Funktionsweise zuzurechnen. Auf der Grundlage der Virtualisierung erscheint er mit seiner Oberfläche weitgehend von analogen Metaphern geprägt, die uns den schnell erlernbaren, verhältnismäßig einfachen Umgang erst ermöglichen. Erst sie, die Modellierung der Software nach analogen Vorbildern, hat das weite Vordringen des Computers in unsere Alltagswelt möglich gemacht und vorangetrieben. Trotzdem ist die Ansicht, der Computer sei «nur» ein mehr oder weniger feststehendes Werkzeug, dessen zurückwirkendem Einfluss man sich weitgehend entziehen könne, eine trügerische. Am deutlichsten wird das bei der Begegnung mit dem Computer in seiner ursprünglichen Funktion: als symbolverarbeitende, universelle Rechenmaschine. Programmieren bedeutet, mit abstrakten, symbolischen Entitäten schöpferisch zu operieren. Das schlägt eine Brücke zur Mathematik – und zum Komponieren von Musik. Vielleicht die interessanteste. n 1 Johannes Kreidler / Harry Lehmann / Claus-Steffen Mahnkopf: Musik, Ästhetik, Digitalisierung. Eine Kontroverse, Wolke, Hofheim 2010. 2 Zero ’n’ One: Komponieren im digitalen Zeitalter. Online, http://www.adk.de/zero_one/, zuletzt abgerufen am 28.11.2010. Martin Rumori, Jahrgang 1976, studierte Musikwissenschaft und Informatik in Berlin. Freischaffende Tätigkeit als Klangkünstler und Klangprogrammierer. 2005–2010 künstlerisch-wissenschaftlicher Mitarbeiter im Klanglabor der Kunsthochschule für Medien Köln (KHM). Seit 2011 Mitarbeit im Forschungsprojekt «The Choreography of Sound» am Institut für Elektronische Musik und Akustik Graz.