COIT November 2011 Erschienen in: Musik mit Musik. Texte 2005 - 2011 (April 2012) »Das Schreibzeug arbeitet mit an unseren Gedanken.« Was Nietzsche noch eine bahnbrechende Erkenntnis war, ist heute jedem Kind klar. Die Bedingungen des Schreibens sind mindestens zu kennen, wenn nicht zu hinterfragen, oder – am besten – aktiv zu gestalten. Für bestimmte kompositorische Ideen bedarf es erst Mittel zur Realisation. Um einen Sinustonakkord zu erhalten, ging der junge Karlheinz Stockhausen, der 1953 nur über einen (1) Sinustongenerator verfügte, mit hintereinandergeklebten Tonbandsegmenten der enthaltenen Töne in die Echokammer der Hörspielabteilung, wo das abgespielte Arpeggio zum gewünschten Klang verschmolz. Es lässt sich aber auch umdrehen: Manche Mittel bringen überhaupt erst bestimmte Ideen hervor. »Wir formen Medien, und danach formen Medien uns«, ist nicht nur eine nüchterne Feststellung Marshall McLuhans, sondern nachgerade eine Kreativitätsstrategie. Bekanntlich war Morton Feldman originell darin, zuerst an seinem Medium zu komponieren: Er legte zum Beispiel fest, dass er nur mit Tinte schreiben darf, um seine Konzentration maximal zu fordern; und wenn er sich einmal verschrieb, so musste der Fehler eingearbeitet werden. Auf diese Weise entstand eine andere Musik, als wenn er, wie üblich, Bleistift und Radiergummi verwendet hätte. Man kann die zwei Fälle unterscheiden: Erst gibt es eine musikalische Idee, wie in dem Beispiel Stockhausens, für die dann ein Medium gefunden wird, oder es gibt zuerst ein Medium, wie in Feldmans Fall, womit dann musikalische Ideen gefunden werden. Wahrscheinlich ist es öfter so, dass eine Technologie erst den Humus für neue künstlerische Ideen bildet, als dass eine Kunstidee die technische Entwicklung anstößt. Die Brüder Lumière haben die Kinematographie nicht aus expressiver Notwendigkeit erfunden – vielmehr dauerte es gut zwanzig Jahre, bis das Kino sich zur eigenen Kunstform entwickelt hatte. Welche Medien gibt es in der Musik, welche kann sich der Komponist formen? Von allen Dimensionen innerhalb der Noten abgesehen, wären da etwa die Stifte, das Papier, das Pult, die Instrumente, die Interpreten, die Aufführungsmodi, wenn nicht die Lebensumstände des Komponisten. Ich bin überzeugt, will man heute innovative Musik schaffen, muss man sich manche der genannten Ebenen von Musik vornehmen, ehe man damit beginnt, Ton für Ton zu setzen. So wie die musikalische Fantasie ab einem bestimmten historischen Zeitpunkt nicht 1 mehr nur auf die Möglichkeiten der Töne der diatonischen Tonleiter, sondern überhaupt auf die Möglichkeiten von Tonleitern gerichtet werden konnte, ist die schöpferische Kraft des Komponisten heute auch beim Design der Instrumente, bei der Art wie er die Noten schreibt usw. gefragt. Dem leistet noch Vorschub, dass mit dem Ende der Tonalität nicht nur theoretisch in der Musik nichts mehr sicher ist, sondern nun auch praktisch, durch die Digitalisierung, dem Komponisten ungleich mehr Produktionsmittel an die Hand gegeben sind. COIT Seit 2005 interessiert mich die Kombination von Live-Instrumenten und zugespielten Samples. Anfangs schrieb ich das noch herkömmlich, mit Druckminenstift, Radiergummistift und Lineal auf Notenpapier, das Metronom stand dabei. Die Klänge musste ich mir dabei vorstellen; die instrumentalen kannte ich, die zugespielten produzierte ich entweder davor am Computer oder danach, nach den schriftlichen Vorgaben. Diese Arbeitsweise am Schreibtisch war auf die Dauer unbefriedigend. Man kann sich das Klavier, dessen Klangwelt erschlossen ist, gut imaginieren, aber es wird schwer bei elektronischen Klängen, die unendlich variabel sind. Außerdem wollte ich verstärkt algorithmische Kompositionsweisen einbeziehen, bei denen der Computer nach bestimmten Vorgaben selbst Noten generiert oder verändert. Darum begann ich im Dezember 2007 mit der Programmierung der Software COIT. Der Name ist das Akronym von Calculated Objects in Time. Mit Calculated sind Algorithmen gemeint, Objects ist ein anderes Wort für Noten, also eine grafische Repräsentation, in Time betrifft das in der Zeit Abspielen der Noten. Ziel war ein Software, die möglichst viel vereint: Eine Notationsoberfläche, vergleichbar dem Notenpapier, auf der ich Noten, das sind in dem Fall grafische Objekte, platzieren kann; dann müssen sich diese Objekte auch durch Algorithmen generieren oder verändern lassen, und all das, ob Instrumental- oder elektronische Klänge, soll zum Anhören vorgespielt werden können. In der Open-SourceProgrammiersprache Pure Data waren mir die nötigen Werkzeuge zuhand: Algorithmen aller Art sind ureigene Möglichkeit jeder Programmiersprache; mit synthetischen oder konkreten Klängen hatte ich bis dato schon in Pure Data gearbeitet, denn die Software ist auf digitale Klangsynthese und -verarbeitung spezialisiert; die grafische Repräsentation wurde ermöglicht durch Data Structures, eine spezielle Funktion innerhalb von Pure Data. Hinzu kamen die mittlerweile umfassend existierenden Sample-Aufnahmen von Instrumentalklängen, die sogleich einen klingenden Eindruck des Komponierten geben können. 2 COIT war einerseits aus der Not geboren, für meinen ästhetischen Ansatz über ein geeignetes Kompositionsmedium zu verfügen, andererseits sollte es von sich aus Potenzial entwickeln, Musik zu komponieren oder mir abzugewinnen, die mir bislang nicht in den Sinn kam, ja, gar nicht in den Sinn kommen konnte! So entwickle ich seit vier Jahren die Software. Notation Die Notationsebene von COIT ist, wie in der traditionellen Notation, ein Koordinatensystem mit der Zeit auf der x- und der Tonhöhe auf der y-Achse. Statt der Fünfliniensysteme habe ich allerdings 88 äquidistante Linien in der Horizontalen angelegt, für alle chromatischen Tonhöhen im Ambitus der traditionellen Instrumente. Als Orientierungsmarken sind die ›schwarzen Tasten‹ dunkler gefärbt, die C-Linien sind schwarz, und der Kammerton a’ hat eine rote Linie. Die äquidistante Darstellung ist gewöhnungsbedürftig, aber mit der Zeit liest man sie flüssig. In der Atonalität machen Kreuze und Bs keinen Sinn mehr, erst recht nicht im Elektronischen; dass der Rechner nicht in Qualitäten, sondern in Quantitäten arbeitet (bzw. alles in die Qualitäten 0 und 1 codiert), ist in manchen Fällen unumgänglich. Mittlerweile identifiziere ich aber auch bei dieser Abbildung Qualitäten wie tonale Akkorde schnell. 3 Die Halbtonpositionen sind somit festgelegt; kleinere Abweichungen können mit einer zusätzlichen Cent-Angabe am jeweiligen Notenobjekt bestimmt werden, wie hier die »-50« am dritten Objekt: Grundsätzlich werden Dauern und Rhythmen in COIT als Space Notation festgelegt; d.h. die grafische Länge eines Objekts entspricht seiner zeitlichen Ausdehnung: Zur Orientierung und zur besseren späteren Übertragung in herkömmliche Notation sind jedoch die üblichen Divisionen (Viertel, Achtel, Sechzehntel, Zweiunddreißigstel, Triolen, Quintolen und Sechstolen) mit zusätzlichen, vertikalen Strichen in verschiedenen Farben als Gitter eingetragen: 4 Diffizilere Rhythmen sind natürlich auch möglich und ergeben sich beim Export der Space Notation in ein übliches Notensatzprogramm. In jedem Fall ist der Zeitstrahl in COIT so hoch aufgelöst, dass er die Möglichkeiten der traditionellen Rhythmusnotation weit übersteigt. Eingabe Sollen Noten einzeln, sozusagen »von Hand« geschrieben werden, so wählt man zuerst das Instrument und eine Spieltechnik aus, zum Beispiel Trompete in B mit Metal Straight Mute mezzoforte: 5 Darauf wird links neben dem Koordinatensystem eine Tastatur mit dem Ambitus dieses Instruments eingeblendet (linke Abbildung). Ich kann mir zunächst einmal all die möglichen Töne dieser Spieltechnik anhören, und dann durch Betätigen einer Taste ein Notenobjekt an denjenigen Zeitpunkt setzen, der mit dem Regler unter den 88 Linien vorher angewählt wurde (rechte Abbildung): Es erscheint ein Polygon, ein viereckiges grafisches Objekt. Der Koordinatenplatz seiner linken Unterkante bestimmt die Tonhöhe und den Zeitpunkt, die Länge des Objekts die Dauer, die Höhe die Lautstärke. Ich kann eine einfache Hüllkurve ziehen, oder durch Zusammensetzungen, quasi Überbindungen, beliebig viele Crescendi und Decrescendi für diesen Klang einzeichnen: 6 Eine weitere Möglichkeit der direkten Eingabe besteht per MIDI-Instrument, beispielsweise mit einem Keyboard. Auf diese Weise lassen sich auch Improvisationen aufzeichnen. Links neben jedem Noten-Objekt stehen zwei Zahlen. Die erste ist die Instrumentennummer. Anders als in einer herkömmlichen Partitur, bei der jedes Instrument in einem eigenen System notiert ist, stehen in COIT alle Instrumente (wie beim Particell) in demselben 88Liniensystem. Darum ist jedes Objekt mit einer Nummer versehen, die das Instrument angibt. Sämtliche instrumentalen Möglichkeiten sind durchnummeriert; entsprechend ändert sich die Farbe des Polygons. Der positive Zahlenbereich ist für die Instrumentalsamples reserviert, die später von LiveInstrumenten gespielt werden, die negativen Zahlen stehen für alle elektronischen Anteile, die nachher aus Lautsprechern zugespielt werden. Ein Objekt mit der Zahl 0 gibt das Tempo in der üblichen Metronomzahl an. In diesem Beispiel erklingt zuerst ein Geigen-pizzicato al ponticello - pianissimo (Instrument 130), darauf folgen zwei überlappende elektronische Klänge, die ich der -1 zugewiesen habe, alles im Tempo M.M.=120: 7 Die zweite Zahl gibt, wie oben schon erwähnt, die Cent-Abweichung an, welche manuell, quasi wie ein Vorzeichen, eingegeben werden kann. (Bei elektronischen Klängen ist die zweite Zahl als beliebiger Parameter nutzbar.) Hier eine Absenkung um 50 Cent, was einer Vierteltonerniedrigung entspricht: Die fertige COIT-Partitur lässt sich via MIDI-Konvertierung in ein herkömmliches Notensatzprogramm wie Finale oder Sibelius übertragen. Leider ist das nicht mit einem Knopfdruck getan; Nachkorrekturen sind bislang nötig. Das ist ein Ausschnitt aus der COIT-Partitur des Ensemblewerks Kantate. No Future now; derselbe Ausschnitt dann in Finale: 8 Algorithmische Komposition Es lassen sich zwei Arten algorithmischer Kompositionsweise unterscheiden: die generative und die editive. Zunächst die generativen Algorithmen: Ein Notenobjekt kann vom Computer erzeugt werden. Seine Parameter sind die Instrumentennummer, die zeitliche und chromatische Position, die Cent-Abweichung und die dynamische Hüllkurve. Man kann die Daten eingeben, der Computer erzeugt daraus das Objekt: 9 Auf diese Weise lassen sich im Nu große Aufträge abarbeiten: Eine einfache Formel wäre zum Beispiel, eine chromatische Tonleiter zu erzeugen, von unten nach oben für Vibraphon, harter Schlägel - pianissimo (= Instrument 656), begonnen bei c’, bis c’’’: Derart lassen sich nun generative Algorithmen jeder Komplexion, seien es rekursive Generationen, Fraktale oder was nicht alles eine mittlerweile umfangreiche Literatur beschrieben hat,1 in COIT bzw. Pure Data programmieren. Als nur ein (klassisches) Beispiel hier die Fibonacci-Reihe, angewandt auf Notenmenge und zeitliche Abstände: 1 Christopher Ariza hegt ein auf Vollständigkeit erpichtes Verzeichnis der Publikationen über Algorithmische Komposition seit den Anfängen: http://bit.ly/w2Nzqv. 10 Die zweite Weise, das Editieren, möchte ich ausführlicher beschreiben, denn sie ist meine bevorzugte Methode. Sie beginnt damit, dass ich zuerst selbständig mit lauter einzeln gesetzten Objekten etwas komponiere. Also zum Beispiel eine exponentiell auf- und dann wieder etwas absteigende Bewegung: 11 Nun setze ich darauf allerlei Algorithmen an, die diese kleine Musik verändern. Ich erläutere das im Folgenden immer anhand des Ausgangsbeispiels und hoffe, der Leser kann sich auch ohne klingende Vergegenwärtigung darunter etwas vorstellen. (Es ist bewusst eine simple Vorlage gewählt, anhand deren die Operationen anschaulich demonstriert werden können. In der wirklichen kompositorischen Praxis hat man es natürlich meist mit umfangreicheren musikalischen Zusammenhängen zu tun.) Als erstes Beispiel die Vertauschung mancher Töne. Ich gebe eine prozentuale Wahrscheinlichkeit an für die Häufigkeit von Vertauschungen. In der folgenden Bearbeitung wurden 50% (immer per Zufallsgenerator ausgewählt) aller Töne des obigen Zusammenhangs miteinander vertauscht, die Bewegung wird zackiger: Die Tonhöhen werden zu einer gegebenen Häufigkeit (hier 50%) um ein maximales Transpositionsintervall (hier fünf Halbtöne) versetzt, also eine leichte Verunklarung der Bewegungsrichtung: 12 Die Zeitpunkte werden zu einer gegebenen Häufigkeit (hier 100%) um ein maximales zeitliches Intervall (hier 100 Millisekunden) versetzt; ein leichtes Stocken entsteht: Form-Remix: Die Partitur wird in eine gegebene Zahl von Teilen geteilt, hier in drei Abschnitte, und diese werden in eine neue, zufällige Reihenfolge gebracht, was der Bewegung eine andere Gesamttendenz gibt: Die Partitur wird um einen Prozentsatz (hier 50%) ausgedünnt, wodurch die Bewegung nur noch angedeutet ist: Umgekehrt wird sie nun um einen Prozentsatz (hier 50%) angereichert, wie wenn Töne absplitterten: 13 Woher kommen die Töne, mit denen aufgefüllt wird? Jetzt sind wir bei der Verknüpfung von editivem und generativem Verfahren. Die neuen Objekte werden aus den existierenden abgeleitet, mit einer gewissen Varianz. So können auch nur die Pausen aufgefüllt werden, das Ganze wird motorischer: Oder eine Re-Komposition des Ganzen wird via Markov-Ketten erstellt, was zu einem chaotischeren Ergebnis führt: Zuletzt die Funktion add unknown: COIT erstellt automatische Backups; jede jemals abgespielte Partitur wird separat gespeichert. Aus diesem ständig wachsenden Fundus wählt add unkown zufällige Teile aus, instrumentiert sie für die Besetzung der aktuellen Partitur um und inkorporiert sie darin. Denkbar wäre in Zukunft natürlich auch, Partituren anderer Komponisten heranzuziehen – eine »Archéologie automatique«: 14 Diese Beispiele sind zur Verständlichkeit schlicht gehalten. Wenn man sich nun ausmalt, derlei auf ein Partiturbild wie vorhin der Kantate. No Future now anzuwenden, wird die Potenz dieser Verfahren hoffentlich ersichtlich. Hier das Beispiel, um 50% an Tönen angereichert, 50% der Tonhöhen um maximal sieben Halbtöne versetzt, und um den Ton c’ gespiegelt (ausgenommen alle Aktionen ohne bestimmte Tonhöhe): 15 Das als basale Möglichkeiten für algorithmisches Editieren; viele weitere Module, wie Transposition, Lautstärkeänderung, Geschwindigkeitsänderung, Krebs oder Umkehrung habe ich im Repertoire, und füge weiterhin neue hinzu; der Fantasie sind hier kaum Grenzen gesetzt – es wären zum Beispiel noch etliche Uminstrumentierungsvorgänge denkbar. Der Clou ist, dass durch den Anteil von Zufallsgeneratoren Resultate entstehen, die man auch mit der größten Fleißarbeit so nicht erhalten hätte, und das alles automatisiert und in Millisekundenschnelle. Natürlich kann ein Eingriff begrenzt werden auf ein bestimmtes Zeitfenster innerhalb der Partitur oder nur für bestimmte Instrumente. Allzu unmögliche Rhythmen lassen sich quantisieren, unspielbare oder zumindest problematische Instrumentalpassagen werden automatisch gemeldet. ePlayer Ein Novum sind die Sample-Datenbanken von Instrumenten. Mittlerweile kann jeder einzelne Klang eines Instruments in all seinen Schattierungen hochwertig aufgenommen, gespeichert und abgerufen werden. Das verdankt sich den heutigen Speicherkapazitäten und Rechenleistungen. Aus diesen Atomen lässt sich dann theoretisch jede instrumentale 16 Klangverbindung synthetisieren. Der Philosoph Harry Lehmann hat die realistische Abspielfunktion jener speziellen Samples »ePlayer« getauft.2 Zum ersten Mal verwendet habe ich solche Samples 2005 im Klavierstück 5. Die Idee war, glissandierende und über den Ambitus gehende Klaviertöne, also real unspielbare Aktionen, mit dem Live-Klavier zu kombinieren. Im Internet fand ich sogleich einen Satz Klaviersamples, mit dem ich das durchführen konnte. Im Konzert dann funktionierte die Mischung von Live-Klavier und zugespielten Klaviersamples verblüffend gut, oft konnte man nicht unterscheiden, woher was kommt, live oder von der Zuspielung. Danach begann ich systematisch, Instrumentensamples zu sammeln oder selber aufzunehmen (gegenwärtig besitze ich rund 50 Gigabyte). Auch fing ich damit an, Aufnahmen von Stücken durch gemischte Verfahren zu erstellen: Teilweise wurden Ensembles komplett aufgenommen, oder die Musiker wurden in einzelnen Sessions via Clicktrack aufgezeichnet, sodass sie später synchronisierbar waren, oder ich habe sie mit mehr oder weniger hohem Anteil an Instrumentensamples ergänzt. 2007 war es so weit, dass ich ein ganzes Ensemblestück mittels ePlayer komponieren und zu einer Aufnahme zusammensetzen konnte: die 3300 Klänge; gleichsam war die massenhafte Verfügbarkeit von Klängen Thema. Im November 2008 wurde das Stück aufgeführt und prompt fiel ein Schlagzeuger aus. Es blieb nichts anderes übrig, als seinen Part als ePlayer zuzuspielen – was nicht weiter auffiel. Ähnlich erging es mir bereits im Frühjahr mit einer Aufführung von Dekonfabulation, als ebenfalls der Schlagzeugpart wegen eines erkrankten Spielers zugespielt werden musste. Dennoch erschien mir das bis dahin mehr als Notbehelf. Die Aura und Einmaligkeit des ausführenden Musikers ist ein hohes Gut, und wenn zu viele Spieler fehlen, fehlt etwas (und die menschliche Stimme in Elemente zu zerlegen ist bislang fast unmöglich). Im ePlayer liegt aber ein beträchtliches Potenziel für das Komponieren, bei der Erstellung von Aufnahmen und bei der Aufführung – das hat mir erst Harry Lehmann zu Bewusstsein gebracht. So habe ich bei der Uraufführung des Stückes Fremdarbeit (2009), in dem es um ökonomische Effizienz geht, erstmals die Technik mit Nachdruck exponiert, als Konzept. Seit Living in a Box (2010) kombiniere ich gezielt im Konzertsaal die Live-Instrumente mit den Möglichkeiten der ePlayer. Diese sind: - beliebige Mengen, wie 40 Posaunen, und menschenunmögliche Virtuosität (wie Conlon Nancarrow mit dem PlayerPiano schon vor Jahrzehnten verwirklichte, was 2 Harry Lehmanns Definition: http://bit.ly/xqqqns. 17 jetzt aber mit allen Instrumenten möglich ist, also zum Beispiel PlayerTrompete, PlayerMarimba oder ein ganzes PlayerEnsemble) - Glissandi jeder Steigung und Mikrointervalle selbst in unhörbaren Abstufungen, beispielsweise Glissandi und Vierteltöne von Klavierklängen - unmögliche Register durch Transpositionen, zum Beispiel das Klavier in der sechsten Oktav - hybride Instrumente, deren Samplesätze aus diversen Ausgangsaufnahmen gekreuzt wurden, etwa ein Klavier-Vibraphon oder ein Geigenkratzen hinterm Steg mit Trompeten- oder Kettensägenanteil.3 Seit das musikalische Material über die einfachen Tonhöhen weit hinausgegangen ist, hat das Klavier als Arbeitsplatz des Komponisten ausgedient. Wer Geld und die Fähigkeiten besaß, konnte vielleicht noch ein Cello oder eine Flöte zur Hand haben, worauf sich ein extremes Pizzicato oder ein Luftgeräusch ausprobieren ließ; letztlich war aber der taube Beethoven zum Urbild des Komponierens im 20. Jahrhundert geworden: Man musste sich am Schreibtisch all die erforschten Instrumentalmöglichkeiten und vor allem -kombinationen im Kopf vorstellen. Bald nach Beginn der Arbeit an COIT habe ich die ePlayer-Technik implementiert, damit ich instrumentale Klänge neben den elektronisch produzierten auf derselben Ebene parat habe und mir die Komposition immer gleich anhören kann. Vor allem ermöglichte dies, zu experimentieren, Dinge auszuprobieren, die man erst hörend beurteilen kann – vormals war das nahezu unmöglich, denn wer hat schon ein ganzes Instrumentalensemble im Arbeitszimmer. Alles in allem unterstützen die Instrumentensamples das Komponieren ungemein, wenn es auch auf Dauer einige Konzentration beansprucht, sich immer so viel anzuhören. Das Verfahren ist umstritten.4 Noch sind die Instrumente nicht umfassend durch Samples abgebildet, und das Abspielen am Computer entspricht nicht exakt dem, wie ein Mensch ein Instrument spielen würde, darum gibt der Rechner teilweise keinen realistischen Eindruck wieder. Hier ist noch immer die praktische Erfahrung und Vorstellungskraft gefragt (und manchmal ist die Vorstellungskraft alleine auch ein starkes Medium). Ich sehe bei der Technik aber erherbliches Optimierungspotenzial. Vielleicht liegt die Lösung nicht nur in der Zahl der aufgenommenen Samples, sondern auch bei der Kombination von Sampling und anderen Techniken. Zum Beispiel ließe sich, wo Dateien fehlen, zwischen zwei vorhandenen 3 Siehe dazu auch das Kapitel »ePlayer« von Harry Lehmann in: Johannes Kreidler, Claus-Steffen Mahnkopf, Harry Lehmann: Musik, Ästhetik, Digitalisierung – eine Kontroverse, Hofheim 2010, S. 161-167. 4 Ebd., vor allem S. 40ff, S. 61f und S. 161ff. 18 Samples algorithmisch interpolieren; so werden in COIT die Centabweichungen durch granulare Transposition der chromatisch vorliegenden Samples bewerkstelligt. Ebenso könnten auch Daten der physikalischen Nachbildung, dem Physical Modelling, mit in die klangliche Umsetzung einfließen, und die Imperfektion des menschlichen Spielers ließe sich noch simulieren, so wie der Film mit 24 Einzelbildern pro Sekunde Bewegung glaubhaft vortäuscht; schließlich wäre mit Verräumlichungsalgorithmen auch eine Konzertsaalatmosphäre herstellbar. Natürlich ist grundsätzlich zu bedenken, dass die Sample-Aufnahmen in ihrer Qualität variieren können, dass Studio- und Konzertsaalakustik verschieden sind, dass Lautsprecher nicht die physisch-akustische Präsenz eines Instruments haben (und stattdessen ihre eigenen Klangcharakteristika besitzen) und dass nachher menschliche Spieler die Noten interpretieren, was nicht zuletzt der Musik Leben einhaucht. Doch der Schritt vom bloßen Imaginieren zum hilfsmäßigen Sample-Abspielen ist für das Komponieren schon groß.5 Kombinatorische Anwendung Verschiedene Arbeitsweisen haben sich durch die Möglichkeiten von COIT ergeben. Das einfache Notensetzen ist immer eine Option. Daneben eröffnen sich mit den Algorithmen weitere Kompositionsstrategien. Beispielsweise beginne ich gern die Arbeit damit, dass ich durch eine Formel gleich einen größeren Komplex an Tönen generieren lasse. Danach greife ich wiederum von Hand ein, füge Abweichungen, Fehler hinzu oder was auch immer mir dazu einfällt. Ebenso ist die Prozedur umkehrbar: Erst setze ich Noten, und lasse sie dann vom Computer bearbeiten. So geht der Koitus hin und her. Ein wesentliches Prinzip, das dabei zum Einsatz kommt, ist das evolutionäre: Mutation und Selektion. Ich erstelle beispielsweise von Hand eine längere Passage und lasse dann die Remix-Funktion über sie gehen, viele Male. Es kommt dabei eine Menge Unbrauchbares heraus, aber immer wieder ergeben sich auch Klangkombinationen, die wunderbar sind, auf die ich selber nicht gekommen wäre (»Serendipität«, die überraschende Entdeckung von etwas ursprünglich nicht Gesuchtem). Dann wähle ich eine solche Stelle aus, die mir gut gefällt, und generiere als nächstes lauter Varianten dieser einen Verbindung, wie wenn eine neue Tierart entstünde. Das müssen gar nicht unbedingt Abläufe in der Zeit sein – auch einzelne Akkorde habe ich auf diese Weise schon wochenlang gebaut. 5 Zur kompositorisch-praktischen Nutzung der ePlayer-Technik siehe auch: Thomas Hummel: Not als Innovationsmotor, in: Dissonance 113, S. 18-22, http://bit.ly/pTEHJW. 19 Mancher Leser wird beim Kapitel Algorithmische Komposition vorhin vielleicht gedacht haben, hier läge das ideale Tool für den Komponisten von 1955 vor. Freilich geht es zunächst um angestammte strukturalistisch-parametrische Techniken, die im 20. Jahrhundert entwickelt wurden. Ich bin aber der Ansicht, dass die einfache Handhabe und die Möglichkeiten der Verschaltung einen qualitativen Sprung bedeuten. Der leichte Zugriff ermöglicht wiederum die riesige Potenzierung, die Verknüpfungen führen zu stilistischen Feldern, die in ihrer Wirkung wie auch in ihrer Semantik auf einer höheren Stufe genutzt werden können. Außerdem ist nun das gesamte Spektrum an erweiterten Spieltechniken und digitalen Klängen dabei. Die Algorithmen lassen sich modular verketten: So können die Module zu typischen Effekten zusammengeschaltet werden: Zum Beispiel füge ich einer vorliegenden Partitur 50% an Tönen hinzu und lasse per Zufall alle Rhythmen um wenige Zeiteinheiten und alle Tonhöhen um wenige Halbtöne versetzen; das bewirkt eine Art Verwischungseffekt, »Blur«, wie es vergleichbar in Bildbearbeitungsprogrammen heißt. Im vorliegenden Fall wurde eine einfache chromatische Tonleiter ›verrauscht‹: 20 Das führt allmählich zu Funktionen, welche ganze Techniken und bekannte Verfahren der Neuen Musik umsetzen – von der Reduktionsästhetik bis zum Komplexismus, von der Addition erweiterter Spieltechniken bis zur spektralen Modulation. Harry Lehmann hat dies folgendermaßen beschrieben: »Denkbar ist, dass jeder Komponist am Computer auf eine Vielzahl von generalisierten Kompositionstechniken zurückgreifen kann, dass er ein universelles Kompositionswerkzeug in die Hand bekommt, mit dem sich klassische, romantische, atonale, serialistische, komplexistische, stochastische oder spektralistische Klangtypen generieren, variieren, kombinieren, auswählen und verwerfen lassen. Ein Umbruch, wie ihn das PhotoshopProgramm für die Bildkunst darstellt, steht der Neuen Musik noch bevor. Es dürfte nur eine Frage der Zeit sein, bis ein analoges Soundshop-Programm erhältlich sein wird. [...] Die sich abzeichnende Neuerung wäre, dass ein ganzes Arsenal an musikalischen Objekten und Prozessen aus dem Repertoire der Neuen Musik zur Verfügung steht – wie etwa Lachenmann’sche Geräuschfelder, Ferneyhough’sche Texturen oder Grisey’sche Spektralakkorde –, die sich in Analogie zum grafischen Programm mit wenigen Handgriffen stauchen oder strecken, instrumental färben oder homogenisieren, rhythmisch schärfen oder verlangsamen, mit dem Pathos-Generator beschweren, mit der Fragment-Funktion nonoisieren oder mit dem Neue-Spieltechniken-Plugin avantgardisieren lassen.«6 Dies entfachte eine heftige Diskussion. Claus-Steffen Mahnkopf entgegnete: Johannes Kreidler, Claus-Steffen Mahnkopf, Harry Lehmann: Musik, Ästhetik, Digitalisierung – eine Kontroverse, vgl. Anm. 3, S. 16f., http://bit.ly/neI1VQ. 6 21 »Die von Lehmann anvisierten Programme [Soundshop] kommen, wenn überhaupt, stets zu spät (und das ist gut so), als daß sie für Neue Musik relevant wären. [...] Und selbst wenn doch: Wer würde mit solchen Programmen arbeiten? Sicherlich nicht Komponisten, sie möchten in der Regel ihre eigene Musik schreiben.«7 Und Golo Föllmer sekundierte: »Lehmanns schwerstes Missverständnis liegt darin, dass er Kunst und Handwerk in einen Topf wirft und davon spricht, dass »Soundshop«, ein fiktives musikalisches Pendant zur Fotobearbeitungs-Software Photoshop, die Kategorie des Komponierens transformiere – banalisiere wäre hier das passendere Verb gewesen, denn Lehmanns Vorstellung einer Software, die den Nutzer über ein »...Arsenal von musikalischen Objekten... - wie etwa Lachenmann'sche Geräuschfelder, Ferneyhough'sche Texturen oder Grisey'sche Spektralakkorde...« gebieten ließe, könnte womöglich Anmutungen der imitierten Stile erzeugen, besitzt aber keine Möglichkeiten, selbst stilbildend im Sinne der Erfindung menschenvalider Konzepte wie Geräuschfeld, Textur und Spektralakkord zu werden.«8 Meines Erachtens hat der angesprochene Kategorienwechsel längst stattgefunden – willkommen in der Postmoderne! All das ist eben selten noch Zweck, sondern heutzutage meistens Mittel. Es ist ja nicht die Rede davon, dass der Computer selbständig einen niegehörten Stil hervorbringt. Natürlich ist der Meta-Stil, der sich aus der Anwendung ergibt, ein eklektischer; ich würde heute sogar von Paneklektizismus sprechen, denn das Meiste in der Kultur ist entlehnt, was mit der Digitalisierung vollends zu Bewusstsein kommt. Hinter diesen Kenntnisstand sollte man aber nicht mehr zurückfallen, und was in der Kunst technisch machbar ist, soll auch gemacht und gründlich erforscht werden. Kombinationen, die mir da ästhetisch interessant und aktuell erscheinen, sind zum Beispiel die Inklusion von Pop-Samples in einen pointilistischen Satz, oder eine Klangfarbenmelodie, in der der Akkord zeitweise mit einer gefilterteten Politikerrede ersetzt wird; wenn bruitistischer Impressionismus, serieller Spektralminimalismus und stochastisch fragmentierter Strukturexpressionismus betrieben werden; wenn die inhärenten Semantiken im Sinne einer »gehaltsästhetischen Wende« (Lehmann) gezielt zum Einsatz kommen und dramaturgisch entfaltet werden. 7 8 Ebd., S. 44 und 46. Positionen 87 (2011), S. 43. 22 Performance In der elektronischen Musik ist in den letzten Jahren die Performance-Form des Live Codings entstanden: vor Publikum wird Klang programmiert. So habe ich im Dezember 2009 bei einem Konzert in Frankfurt live mit COIT ein Musikstück komponiert: Aussicht COIT ist zum unverzichtbaren Teil beinahe meiner gesamten kompositorischen Arbeit geworden. Fast jedes Stück meiner Konzertsaalmusik seit 2008 ist ausschließlich damit entstanden, während ich auf Notenpapier nur noch äußerst selten schreibe. Abgeschlossen ist die Arbeit nicht; abgesehen von den unendlichen Möglichkeiten der generativen und editiven Algorithmen und der Verbesserung der ePlayer-Technik bleiben noch einige Wünsche offen. Ein großes Limit sind die heutigen Displays – sie sind zu klein! Es ist mir unverständlich, warum Monitore (bzw. ihre Auflösungen) nicht längst so groß wie die ganze Tischplatte sind, wo doch das Betriebssystem vom »Desktop« spricht und wir im analogen Leben auch mit Dokumentengrößen wie der einer aufgeschlagenen Zeitung umgehen. Beispielsweise ist optional eine Aufteilung der Partitur in herkömmliche Instrumenten-Systeme wünschenswert, also ein eigenes Notensystem für jedes Instrument; das würde den auf einem heutigen Monitor vorhandenen Platz jedoch bei weitem sprengen (Scrollen oder Umschalten ist zu mühsam). Ideal wäre, wenn auf einem zweiten, großen 23 Monitor alles was man schreibt parallel auch in herkömmlicher Notation angezeigt würde, und man hier wie dort, in der COIT-eigenen Space Notation oder in der traditionellen Notation arbeiten könnte. Außerdem wäre hilfreich, wenn mit einem Stift direkt auf einen mobilen, großen Monitor »geschrieben« werden könnte. Eine Maus ist praktisch, aber ein Stift fühlt sich für mich intuitiver an, durch ihn fließen die Gedanken besser. Diese Technik des Touchscreens existiert zwar schon, ist aber noch sehr teuer. COIT bleibt also ein Work in Progress. Weiterhin ist anzunehmen, dass – so wie die Idee ihre Vorläufer hat, voran Iannis Xenakis’ UPIC-System – eine Software dieser Art irgendwann von anderen (vielleicht sogar kommerziell) aufgezogen wird, etwa vom IRCAM in Paris oder von vielen anderen Programmierern auf der Welt, oder es gibt sie schon und ich kenne sie nicht. Ich bin allerdings der Ansicht, dass jeder Komponist sich sein eigenes »Schreibzeug« schaffen sollte. Sonst sehe ich die Gefahr einer ästhetischen Uniformierung. Eine andere Gefahr liegt eventuell in der Vereinfachung. Irgendwann habe ich mich dabei ertappt, wie ich die Oberfläche von COIT immer noch praktischer und geleckter gestaltete. Ob das dem Komponieren wirklich hilft? Auch bei den Algorithmen entsteht allmählich ein Mißtrauen, wenn der Computer immer selbständiger komponieren soll, bis hin dass er doch gleich das ganze Werk alleine schaffen möge. Braucht das Komponieren nicht auch stimulierende Widerstände, Anstrengung, Unzulänglichkeiten und Verzögerungen, den produktiven Effekt des Fehlers? Nach nun mehrjähriger Praxis ist die Frage für mich beantwortet: Die Gefahr der kontraproduktiven Vereinfachung besteht nicht. Wir können über jede Erleichterung froh sein, Probleme gibt es auf der Welt noch genug. Dass die Maschine ohne Zutun ein Meisterwerk ausgibt, ist nicht zu erwarten, und wenn sie es täte, würde mich das als Kunstbegeisterter freuen; protestantische Arbeitsethik gehört der Vergangenheit an. Um Fehleranfälligkeit muss man sich bislang nicht noch sorgen; und notfalls könnte man sie sogar simulieren. Jedenfalls ist es sehr zu begrüßen, dass der Computer dem Menschen Handwerk abnimmt, um nicht zu sagen: wegnimmt. Denn dadurch gibt es keine Berechtigung mehr für unoriginelle, bloß gut gemachte Musik. 24