Hochschule für Musik Detmold Erich-Thienhaus-Institut Diplomarbeit Aspekte der Reproduzierbarkeit von Zeitgenössischer Musik mit Live-Elektronik und ihrer Interpretationspraxis vorgelegt von: Hendrik Manook Siebengebirgsallee 10 50939 Köln Studiengang: Musikübertragung (Tonmeister) Betreuer: Prof. Michael Sandner 28. September 2006 Inhaltsverzeichnis 1. Einleitung 4 2. Die technischen Komponenten 6 2.1 Historie 6 2.2 Funktionsbereiche 11 2.2.1 Klanggenerierung 13 2.2.2 Klangergänzung 16 2.2.3 Klangveränderung 22 2.2.3.1 Zeit 22 2.2.3.2 Raum 25 2.2.3.3 Frequenzbereich 41 2.2.3.4 Pegel 46 2.2.4 Schallwandlung 49 2.2.4.1 Mikrofone 51 2.2.4.2 Lautsprecher 52 2.2.5 Steuerung 53 2.3 Signalfluß 56 2.4 Computeranalphabetismus und Bedienerfreundlichkeit 57 2 3. Überlegungen zur Interpretation 3.1 Der künstlerische Umgang mit Verstärkung 62 62 3.1.1 Änderung der Dynamik 62 3.1.2 Änderung der Klangfarbe 63 3.1.3 Subjektive Nähe 64 3.1.4 Lokalisation 65 3.1.5 Absolute und relative Lautstärke 65 3.1.6 Rückkopplungen 66 3.2 Aufführungsräume 67 3.3 Klangideale und Mischreferenzen 69 3.3.1 Aufnahmen 70 3.3.2 Schriften / Programmtexte 71 3.3.3 Interviews / Porträts 72 3.4 Alte oder neue Technik? 72 3.5 Identität von Werken und die Freiheit der Interpretation 74 4. Entwurf einer Methodik zur strukturellen Vorgehensweise 78 4.1 Technik 78 4.2 Aktion 81 4.3 Notation 82 4.4 Archivierung 84 5. Fazit 91 Quellenangaben 93 Danksagung 97 3 1. Einleitung Musik lebt durch ihre Produktion und Reproduktion, und besonders im Umfeld der klassischen Musik ist der Bereich der aktiven Reproduktion sehr bedeutend. Dies zeigt sich bereits in der Tatsache, daß die Arbeitsbereiche der beteiligten Personen schon durch ihre Ausbildung in Komposition und Interpretation getrennt werden, zur Ausführung von Musik aber in Kombination auftreten müssen. So ist die Überlieferung von allen Werken klassischer Musik als Teil unserer gelebten Kultur nur dann möglich, wenn es immer wieder Interpreten gibt, die sich dieser Werke annehmen, sie einstudieren und öffentlich präsentieren. Man kann davon ausgehen, daß diejenigen Werke, die als besonders gut und wertvoll betrachtet werden, immer wieder gespielt und angefordert werden und daß sich so im Laufe der Zeit eine Auswahl der beliebten Stücke weiterverbreiten wird; der Rest wird eventuell vergessen oder geht ganz verloren. Daher ist es völlig natürlich, daß es in Zeitgenössischer Musik viele Werke gibt, die produziert werden, aber davon nur wenige auch noch nach langer Zeit immer wieder aufgeführt, also reproduziert, werden. Nach inzwischen mehrjähriger aktiver Beschäftigung mit der Zeitgenössischen Musik des 20. und 21. Jahrhunderts, insbesondere als Klangregisseur und Aufnahmeleiter, bin ich persönlich zu der Überzeugung gekommen, daß durch die Ergänzung des akustischen Instrumentariums mit live eingesetzter Elektronik seit inzwischen mehreren Jahrzehnten dieser Selektionsprozeß empfindlich gestört wird. Durch mangelhafte, unzureichende oder schlicht nicht vorhandene Dokumentation der Apparaturen der Elektronik in Verbindung mit ihrer schnellen Veränderung gehen die für eine Reproduktion notwendigen Informationen nämlich ungewollt verloren. Diese Dokumentation ist aber nötig, da die Vielfältigkeit der Geräte der Elektronik und insbesondere deren Kombinierbarkeit die Varianten der traditionellen Instrumente bei weitem übersteigt. Die Selektion der Werke findet also nicht mehr nur über die Bewertung der Stücke in ihrer musikalischen Qualität statt, sondern ist zudem abhängig von der Qualität der Dokumentation, die der Elektronik beigegeben wurde. 4 Dies mag daran liegen, daß der Komponist fast immer bei den ersten Aufführungen anwesend ist und sich nicht bewußt macht, wie viele Informationen nur er liefern kann, die für eine adäquate Realisierung der Technik und für ihren genauen Einsatz im Stück notwendig sind. Auch wenn er nicht selber die Klangregie führt, so wird er doch in Proben und eventuell auch im Konzert korrigierend eingreifen, indem er Anweisungen gibt, die den Interpreten weitere Informationen über die Realisierung oder den Umgang mit der Elektronik bieten, zumindest in der jeweiligen Situation. Aufgabe dieser Arbeit soll es nun sein, Kriterien für eine unabhängige Dokumentation von Musik mit Live-Elektronik zu finden, die den beteiligten Personen bei der Reproduktion eines solchen Werkes zur Umsetzung dienlich sein können. Dies gilt insbesondere für den Fall, daß weder der Komponist, noch sonstige Personen, die mit ihm das betroffene Stück erarbeitet haben, anwesend sind und für Nachfragen zur Verfügung stehen, ebenso für eine sinnvolle Archivierung in nicht mündlicher Form. Die Arbeit teilt sich in drei große Abschnitte: • Zunächst werde ich eine Auflistung der gängigsten technischen Komponenten für Live-Elektronik durchführen, systematisieren und dann auf die genannten Kriterien hin analysieren. Es sei darauf hingewiesen, daß diese Auflistung zwar den Anspruch einer umfassenden Systematisierung hat, aber die Auswahl der Komponenten subjektiv und exemplarisch ist, sich also weitere finden lassen, die aber meiner Meinung nach zweitrangig sind. • Danach werde ich verschiedene Aspekte des interpretatorischen Umgangs mit dieser Elektronik betrachten und hier ebenfalls Kriterien für eine allgemeingültige Dokumentation herausarbeiten. • Schließlich stelle ich eine Methodik vor, die mein Vorschlag für eine sinnvolle Vorgehensweise bei der Entwicklung einer Dokumentation im oben genannten Sinne ist. Es sei darauf hingewiesen, daß ich in dieser Arbeit ausschließlich die Audio-relevanten Aspekte von Live-Elektronik betrachten werde, da mein Studienfach dies nahelegt. 5 2. Die technischen Komponenten 2.1 Historie Die Entwicklung der tontechnischen Gerätschaften hat insbesondere in der zweiten Hälfte des 20. Jahrhunderts einige grundlegende und strukturelle Veränderungen hervorgebracht, die sich weitreichend in ihrer Funktionalität und Bedienbarkeit im Kontext von Live-Anwendungen niedergeschlagen haben. Analog und digital Historisch gesehen lassen sich im Wesentlichen drei Phasen feststellen: Zunächst wurde bis in die 60er Jahre die elektroakustische Übertragungstechnik stets verfeinert, es wurden elektronische Klangerzeuger entwickelt, Medien zur Schallspeicherung bis hin zum Tonband erfunden und so erstmals feiner Tonschnitt möglich. Bis zu diesem Zeitpunkt war aber aller Technik gemein, daß sie nur auf analogen Prinzipien basierte. Durch die raschen Entwicklungen der Computertechnik seit den 50er Jahren einerseits und durch die Erfindung der spannungsgesteuerten Verstärker (VCA) Mitte der 60er Jahre andererseits wurde es in der Folge möglich, die weiterhin analogen Prozesse zur Klangerzeugung und -verarbeitung digital zu steuern. Dadurch gewann die Möglichkeit der Automatisierung und Programmierung von ganzen Arbeitsabläufen enorm an Bedeutung und erlaubte die Realisierung von wesentlich komplexeren technischen Aufbauten auch im Kontext von Live-Anwendungen. Seit Anfang der 70er Jahre wurden dann auch digital arbeitende Klangerzeuger gebaut, wenig später immer zufriedenstellender funktionierende Geräte zur digitalen Speicherung von Klängen wie Sampler und digitale Tonbandgeräte und im Laufe der folgenden Zeit wurden sämtliche analogen Prozesse der Klangerzeugung, -verarbeitung und -speicherung ebenfalls digital realisierbar. 6 Es veränderten sich analoge Systeme zunächst zu digital gesteuerten (sogenannten hybriden) Systemen und schließlich zu nahezu vollends digitalen Systemen. Allein die Schallwandlung an beiden Enden der elektroakustischen Übertragungskette blieb zwingend analog, zum einen Mikrofone und die zugehörigen Vorverstärker, zum anderen Lautsprecher mit den zugehörigen Endverstärkern. In jüngster Zeit gibt es nun sogar auf diesem Gebiet weitere Entwicklungen hin zur digitalen Signalverarbeitung, zumindest hinsichtlich der Verringerung der analogen Übertragungswege: Es werden inzwischen Mikrofone auf dem Markt angeboten, die im Gerät selber direkt hinter dem Schallwandler die A/D-Wandlung vollziehen. Konsequenzen der Entwicklung Im Zuge der fortschreitenden Entwicklung der Musikelektronik lassen sich drei Prinzipien erkennen, die die Erscheinung der Technik qualitativ prägen: die Miniaturisierung der technischen Geräte trotz ihrer technischen Weiterentwicklung, die Standardisierung der physikalisch vorhandenen Geräte, also der Hardware, und schließlich die Verkürzung der Innovationszyklen bei den aufeinander folgenden Generationen der Technik, also der exponentiell ansteigende technische Fortschritt. Die Verkleinerung des Geräteparks, die sich in fast allen Bereichen der Tontechnik finden läßt, hat zur Folge, daß die Systeme heutzutage wesentlich leichter transportiert und installiert werden können als früher. Dies heißt auch, daß in bestehende Geräteprinzipien bei gleichbleibender Größe immer mehr Funktionen integriert werden und so weitere Geräte wegfallen können.1 Eine Ausnahme bilden einige Komponenten, die aufgrund ihres Funktionsprinzips nur begrenzt miniaturisiert werden können, wie beispielsweise Lautsprecher2 oder Controller, die zur manuellen Bedienung angenehme Maße besitzen sollen. Bei den Lautsprechern wurden allerdings Fortschritte des Wirkungsgrads erreicht und sie konnten so zumindest an Gewicht einbüßen. 1 Dieser Fall läßt sich immer wieder bei digitalen Mischpulten oder Digitalen Audio Workstations (DAWs) finden, aber auch bei der Entwicklung der Computerschnittstellen. 2 Lautsprecher können bei zu kleinen Abmessungen tieffrequente Schallwellen rein physikalisch nicht mehr produzieren, da diese so große Abmessungen besitzen. 7 Während für einige Stücke mit Live-Elektronik am Anfang, also in den sechziger und frühen siebziger Jahren, noch individuelle Apparaturen gebaut wurden3, wurden in der Folgezeit allgemeiner verfügbare Geräte, wie beispielsweise Synthesizer oder Sampler, in Kombination mit einigen speziell konstruierten Komponenten für Live-Elektronik4 eingesetzt. Diese speziell entwickelten Geräte wurden nun aber nicht mehr für nur ein bestimmtes Stück konstruiert, sondern als ein Element der Elektronik, das dann in vielen Werken genutzt werden konnte. Im Laufe der neunziger Jahre wurde dann durch den zunehmenden Einsatz von rein computergestützten Systemen, die nicht explizit für elektroakustische Zwecke konstruiert wurden, die Standardisierung der Geräte weiter gefördert. Durch die strikte Trennung von Hard- und Softwareindustrie, die aus Gründen der Effektivität und der Kostensenkung durch Massenproduktion marktwirtschaftlich naheliegend ist, wurde es nun möglich, speziell programmierte Software auf einer sehr großen Zahl „fremder“ Hardware laufen zu lassen, da diese Hardwaresysteme eine Plattform für vielerlei Anwendungen bilden und sich demzufolge großer Verbreitung erfreuen. Für die Fälle, in denen man tatsächlich spezielle Hardware zur Anbindung an das individuelle Elektronik-Setup benötigt, wird diese über die standardisierten Schnittstellen der Hardware in Form von zusätzlich entwickelten Adaptern realisiert, die dann nur in Kleinauflagen und in Abstimmung auf die standardisierte Hardware produziert werden. Beispiele hierfür sind Audio- und MIDI5-Interfaces, spezielle Controller oder individuell entwickelte Schnittstellen, die derzeit üblicherweise per USB6- oder FireWire-Schnittstellen an die standardisierten Computer angeschlossen werden. Diese Entwicklung widerspricht der eben genannten Tendenz zur Integration von Geräteprinzipien keineswegs, da Hard- und Software unabhängig voneinander betrachtet kein eigenständig funktionierendes System bilden und nur in Kombination für die Anwendung im Bereich der Musikelektronik in Frage kommen. Zudem wird die Integrati3 Dies geschah beispielsweise 1966 für Stockhausens SOLO, wo in der Partitur zusätzlich zur Funktionsbeschreibung der elektronischen Apparatur die exemplarische Realisierung in Bildern dokumentiert ist und sich sogar eine Adresse findet, wo man diese ausleihen kann. Auch für MANTRA wurde 1970 eine Apparatur in Auftrag gegeben, die dann der Anlaß zur Gründung des Experimentalstudios des SWR wurde (nachzulesen bei Haller 1995 Bd. 2, S. 10ff.) 4 Hierzu zählen beispielsweise das Raumsteuerungsgerät „Halaphon“ im Freiburger Experimentalstudio (siehe Kapitel 2.2.3.2 unter „Verräumlichung“) oder das Computersystem 4X im Pariser IRCAM. 5 musical instrument digital interface 6 universal serial bus 8 on von diversen Geräteprinzipien in größere Geräte nun sogar in wesentlich umfangreicheren Maße möglich. Der besondere Vorteil, den diese Entwicklung mit sich gebracht hat, liegt darin, daß zunehmend keine besonderen Geräte mehr transportiert werden müssen, oder nur noch in wesentlich geringerem Maße, sondern daß vor Ort vorhandene Hardware genutzt werden kann und auf dieser die spezielle Software mit den klangerzeugenden, klangverarbeitenden und steuerungsrelevanten Komponenten der Elektronik geladen und angewendet werden kann. Gerade in Zeiten von fast allgegenwärtiger Vernetzung muß inzwischen nahezu nichts mehr postalisch gesendet werden, sondern man kann die Software überall aus dem Internet herunterladen. Dies vereinfacht die Verbreitung von Werken mit Elektronik sowie deren Aktualisierung in einem bisher nicht denkbaren Maße und löst die Bindung von ihren Aufführung an bestimmte Lokalitäten, wo die zugehörige Technik vorhanden ist oder wohin sie mit vertretbarem finanziellem und organisatorischem Aufwand transportiert werden kann, weitgehend auf. Das enorme Problem, das durch die Loslösung speziell entwickelter Software von der früher einmal zugehörigen speziell entwickelten Hardware entstanden ist, liegt in der Notwendigkeit, diese beiden Teile zueinander kompatibel zu halten. Für neu entwickelte Software und Hardware wird nicht uneingeschränkt Kompatibilität zu älterer Software und Hardware angestrebt, zum einen aufgrund der wirtschaftspolitischen Forderung, trotz gesteigerter Produkt- und Innovationszyklen Anreize zum Neukauf von alter Technik zu schaffen, die im Umfeld der neuen Komponenten nicht mehr ins Gesamtsystem zu integrieren ist und somit inkompatibel wird, zum anderen wegen mangelnder Nachfrage nach dieser Kompatibilität auf dem gesamten Markt für die genannte Hardware, wobei ja der Markt für Audioanwendungen insbesondere im Kontext von LiveElektronik nur einen kleinen Ausschnitt darstellt. Demzufolge erlangt die Forderung, die vollständige Funktionalität der Elektronik unabhängig vom gesamten System zu beschreiben, eine neue Qualität von Notwendigkeit, wenn ein zukünftiger Einsatz auch nur von Teilen der speziell programmierten Elektronik möglich sein soll. Früher war diese Dokumentation nur dort nötig, wo ein kompletter Nachbau vom gesamten System in Frage kam, zum Beispiel wenn durch Neuentwicklungen der elektronischen Bauteile Verbesserungen der Audioqualität zu 9 erwarten waren oder falls Teile beschädigt wurden und ein stabiler Ablauf nicht mehr möglich war. Nun muß der Möglichkeit Rechnung getragen werden, daß aufgrund von Inkompatibilitäten Anpassungen der Software auf neue Hardware vorgenommen werden müssen.7 Es besteht natürlich weiterhin die Möglichkeit, lokal gebunden ein funktionierendes Gesamtsetup der Elektronik für jedes Werk zu konservieren, doch dies würde alle oben beschriebenen Vorteile der Befreiung der Software von den physikalisch vorhandenen Hardwarekomponenten zunichte machen. Durch die rasant fortschreitenden Entwicklungen auf dem Gebiet der Audiotechnik ist die Frequenz, mit der neue Generationen von technischen Geräten auf den Markt kommen, sehr hoch geworden. Insbesondere seit der Durchdringung der Geräte mit digitalen Technologien und dem weitverbreiteten Einsatz von Computern ist dies der Fall, und die von Gordon Moore schon in den sechziger Jahren prophezeite Verdopplung der Anzahl der Transistoren auf einem integrierten Schaltkreis (also auch in Computerprozessoren) in regelmäßigen Abständen von ca. 18 bis 24 Monaten scheint sich bis heute hartnäckig zu halten. So kommt es, daß die zur Aufführung eines Werkes mit LiveElektronik eingesetzte Technik, wenn sie computergestützt ist, heutzutage schon innerhalb eines Jahrzehnts als völlig veraltet und überholt gelten muß; man kann in solch einem Fall bereits von historischer Technik sprechen. Zudem ist durch die Beschleunigung der Produktzyklen und durch die gesunkene Lebensdauer einer Generation technischer Geräte die Verfügbarkeit von älterer Hardware sowie der Support von älterer Software ebenfalls schon nach wenigen Jahren nicht mehr gewährleistet 8. Die Frage nach dem Umgang mit dieser kurzen Lebensdauer der technischen Komponenten im Kontext von Musik mit Live-Elektronik soll im Kapitel 3.4 thematisiert werden. 7 Anpassungen von Hardware an Software wären prinzipiell natürlich auch möglich, allerdings nicht sehr praktikabel, denn mit der Hardware als standardisierte, offene Plattform muß ja Kompatibilität zu vieler Software angestrebt werden. Daher ist die Anpassung einer speziellen Software an die Hardware, die man als allgemein verfügbar voraussetzen kann, zu leisten, denn diese wird schließlich nicht für bestimmte Software konstruiert. 8 Eigentlich ist inzwischen nicht das Sinken der Lebensdauer, sondern der durchschnittlichen Nutzungsdauer von einer Generation von Technik relevant, da viele Geräte unbrauchbar und inkompatibel werden, bevor sie verbraucht und kaputt sind. 10 2.2 Funktionsbereiche Um der Forderung einer adäquaten Beschreibung der technischen Komponenten von Live-Elektronik zur besseren Reproduzierbarkeit sowie unabhängig von bestimmten Hardware- und Softwaresystemen Rechnung zu tragen, soll hier eine Systematisierung der gängigsten Komponenten oder Prinzipien der Technik unter dem Gesichtspunkt ihrer Funktionalität im jeweiligen musikalisch-technischen Kontext vorgenommen werden. Zur Kategorisierung der Technik möchte ich jedoch möglichst Abstand nehmen von der weit verbreiteten Herangehensweise der primären Betrachtung der elektroakustischen Verarbeitungsprozesse, wie man sie häufig in historisierenden oder chronologischen Darstellungen, insbesondere einzelner Studios und Forschungseinrichtungen, findet. Hans Peter Haller wählt beispielsweise eine Unterteilung in drei Kategorien, nämlich Frequenzumsetzung (Tonhöhenveränderung), Klangselektion (Eingriff in das Frequenzspektrum) und Klangsteuerung (hinsichtlich diverser Parameter wie Lautstärke, Klangfarbe, Ort, Bewegung oder zeitlicher Versetzung).9 Somit differenziert er primär, wie in die Natur der Signale technisch eingegriffen wird. Die akustischen Konsequenzen hinsichtlich der unterschiedlichen musikalischen Ebenen sind in dieser Kategorisierung nachgeordnet. Ich werde vielmehr eine Betrachtung in Kategorien der wahrnehmbaren musikalischen Konsequenzen der Technik, insbesondere derer akustischer Natur, anstreben10, die mir aus folgenden Gründen für diese Aufgabe als wesentlich naheliegender erscheint: • Sie ist als Notationssystem in der Partitur, auch für Instrumentalisten und auf diesem technischen Gebiet nicht spezialisierte Personen, wesentlich universeller und nachvollziehbarer. • Sie bietet ein Beschreibungssystem für eine retrospektive Analyse von Stücken und eventuelle Rekonstruktion von einzelnen Elementen von Elektronik, die mangelhaft dokumentiert sind. 9 Haller 1995, Bd. 1, S.25f. 10 Wie bereits erwähnt soll sich diese Arbeit nur mit den für das Audio relevanten Komponenten beschäftigen 11 • Sie erlaubt eine präzise Einordnung von neuen Technologien und kennzeichnet ebenso Verwandschaften von technischen Systemen, die einander ersetzen können. Das Bescheibungssystem von Verarbeitungsprozessen wird man trotzdem dort beibehalten müssen, wo sich einige technische Komponenten auf diese Weise präziser, kürzer oder überhaupt nur so festhalten lassen, jedoch schlage ich vor, diese Kategorisierung der wahrnehmungsorientierten Systematisierung unterzuordnen. Die verschiedenen Komponenten der Live-Elektronik sollen nach ihrer Systematisierung auf ihre wesentlichen Parameter hin untersucht und diese schließlich hinsichtlich der Eignung zur Dokumentation von Live-Elektronik betrachtet werden. Im Anwendungsfeld der Live-Elektronik gibt es so fünf wesentliche Funktionsbereiche der Technik, die hier analysiert werden sollen. • Zunächst gibt es das umfangreiche Gebiet der Klanggenerierung, das sehr eng verbunden ist mit der Tradition der rein elektronischen Musik, der Computermusik sowie den elektronischen Klangerzeugern, die in der Popmusik weite Verbreitung fanden und große Entwicklungsschübe verursacht haben. • Als weiteres Feld kommt der Umgang mit vorgefertigten Klängen hinzu, die unabhängig von ihrer Entstehung und von ihrer weiteren Verwendung im Stück auf einem adäquaten Medium zur Verfügung gestellt und wiedergegeben werden. Dieser Bereich läßt sich mit dem Begriff Klangergänzung beschreiben, da er Klänge bereitstellt, die ansonsten nicht verfügbar wären. • Der Bereich, der der Musik mit Live-Elektronik wahrscheinlich am meisten zueigen ist, läßt sich unter dem Begriff der Klangveränderung zusammenfassen. Hierunter fallen alle Prozesse, die Klänge, ob live oder zuvor erzeugt, in ihrer Erscheinungsweise verändern, um sie dann hörbar zu machen oder für weitere Verarbeitungsprozesse zu verwenden. • Als vierte Kategorie gibt es alle Prozesse zur Schallwandlung, die im Rahmen des Einsatzes von Live-Elektronik anfallen. Hier werde ich die elektroakustischen Schnittstellen betrachten, die eingangs- und ausgangsseitig zur Wandlung 12 von Schall in elektrische Informationen und zurück genutzt werden, insbesondere Mikrofone und Lautsprecher. • Als fünfter und letzter Funktionsbereich ist sämtliche Steuerung zu nennen, die im Kontext der angewandten Technik anfällt und Auswirkung auf die Erscheinungsweise der Musik hat. In dieser Arbeit sollen zwar nur Auswirkungen auf das klangliche Ergebnis betrachtet werden, im Prinzip läßt sich dieser Bereich aber auf alle Medien ausdehnen, die inbesondere in der Multimedia-Kunst immer häufiger in einem Verbund und interdependent auftreten. Darüber hinaus gibt es immer wieder Situationen in Musik mit Live-Elektronik, in denen Technik übergeordnete Funktionen einnimmt, wie beispielsweise formbildende oder organisatorische. Diese Anwendung ist aber in der Regel nicht direkt mit dem akustischen Ergebnis verbunden und soll daher ebenfalls nicht Gegenstand dieser Arbeit sein. Es wird sich zeigen, daß sich bestimmte Gerätekonzepte nicht immer auf nur eines dieser Gebiete einschränken lassen11, aber zur Definition der jeweiligen Funktion der Technik im Kontext eines bestimmten Werkes wird es beitragen, die Live-Elektronik hinsichtlich dieser Bereiche voneinander getrennt zu dokumentieren, um die Integration von zukünftigen oder altenativen Gerätekonzepten zu erleichtern. 2.2.1 Klanggenerierung Historische Instrumente zur elektronischen Klanggenerierung Bereits seit Anfang des zwanzigsten Jahrhunderts finden sich immer wieder individuelle Erfindungen von elektronischen Musikinstrumenten. Hierzu gehören beispielsweise Thaddeus Cahills Dynamophon, Jörg Magers Sphärophon und das von Trautwein entwickelte und nach ihm benannte Trautonium.12 Diese Instrumente haben sich jedoch in der Musikliteratur der Folgezeit mit Ausnahme einiger weniger Kompositionen kaum 11 Dies wird insbesondere unterstützt durch die bereits genannte Tendenz zur Integration von unterschiedlichsten Funktionen in übergeordneten technischen Gesamtsystemen. 12 vgl. hierzu und im Folgenden Ruschkowski 1998, S. 15-75 13 erhalten, es bildete sich folglich auch keine Tradition für Interpreten oder Komponisten. Nur zwei Instrumente haben es immer wieder geschafft, in Kompositionen Einzug zu erhalten und sogar in den Kreis der Instrumente zu gelangen, die an staatlichen Hochschulen unterrichtet werden. Dies sind das von Lew Thermen entwickelte Theremin sowie Maurice Martenots Ondes Martenot. Noch heute gibt es eine Klasse für Theremin am Moskauer Konservatorium und eine Klasse für Ondes Martenot am Pariser Conservatoire Supérieur. Gefördert durch diese Umstände konnte sich folglich für diese beiden Instrumente eine Tradition der Technik sowie der Interpretation entwickeln, die sehr am jeweiligen Instrument orientiert spezielles Wissen darüber vermitteln kann. So besteht weiterhin eine Nachfrage für diese Instrumente und sie haben damit den Status der traditionellen Musikinstrumente mit spezialisierten Instrumentenbauern und Instrumentalisten erreicht: Sie brauchen auch zukünftig nicht ersetzt zu werden. Klangsynthese Die Klangsynthese als Methode der Verarbeitung von einfachsten elektronischen Elementen zur Erzeugung von komplexen Klanggemischen ist die am weitesten verbreitete Form der elektronischen Klanggenerierung. Bereits bei der Arbeit in den elektronischen Studios der 50er Jahren haben sich erste Methoden zur Klangsynthese herausgebildet, die später verfeinert und erweitert wurden, aber weitestgehend immer noch die prinzipielle Grundlage für heute genutzte Verfahren bilden. Die Ursprünge der jeweiligen Verfahren waren aber immer in der rein elektronischen Musik zu finden, da es hier möglich war, bereits in wesentlich früheren Entwicklungsstadien der jeweiligen Technik mit langandauernden Bearbeitungsverfahren oder Berechnungen sowie fragileren Aufbauten Formen der Klangsynthese anzuwenden, die der Forderung nach Echtzeitfähigkeit und Stabilität nicht nachkommen mußten, wie sie für den Einsatz im Umfeld von LiveElektronik notwendig ist. Daher sind auch die jeweiligen Verfahren der Klangsynthese in der Literatur der elektronischen Musik bzw. Computermusik recht vielfältig und gut dokumentiert13 und sollen hier nur rudimentär beschrieben werden. 13 vgl. z.B. Roads 1996, Supper 1997, Ruschkowski 1998 14 Zur Klassifizierung der Verfahren zur Klangsynthese schlägt Martin Supper zwei Prinzipien vor: vertikale und horizontale Synthese, die auch kombiniert auftreten können.14 Zur vertikalen Synthese, der Synthese im Frequenzbereich, gehören dann die additive Synthese, die Klänge aus einzelnen sinusförmigen Teiltönen zusammensetzt, die subtraktive Synthese, die aus frequenzreichen Klängen mittels Filtern bestimmte Frequenzen abschwächt oder entfernt und zuletzt die FM-Synthese, die Klänge aus der Modulation von einfach strukturierten Signalen erzeugt. Zur horizontalen Synthese, der Synthese im Zeitbereich, gehört insbesondere die Granularsynthese, die auf der Aneinanderreihung von zahlreichen sehr kurzen Samples, den sogenannten Grains, basiert, die aufgrund ihrer Kürze nicht mehr als Einzelklänge wahrgenommen werden können, sondern neue Klangeindrücke hervorrufen. Ein Beispiel für ein kombiniertes Syntheseverfahren ist das „physical modelling“, das anhand von akustischen Modellen und ihres Schwingungsverhaltens die resultierenden Klänge errechnet. Für den Umgang mit Klangsyntheseverfahren hinsichtlich deren Reproduzierbarkeit ergibt die Nutzung von frei programmierbarer Hardware einen entscheidenden Unterschied zu der Nutzung von herstellergebundenen Systemen. Während bei ersterer der Benutzer die Programmierung der Klangsynthese von Grund auf durchführen und überblicken muß, also auch einen vollständigen Überblick über alle Vorgänge der Synthese haben muß, besteht bei herstellergebundenen Komplettsystemen prinzipiell die Gefahr, daß bestimmte Schalt- und Rechenvorgänge dem Benutzer nicht zugänglich sind und auch nicht offen dokumentiert sind, so daß es bei manchen Programmen oder Systemen unmöglich ist, die exakten Vorgänge der Synthese abstrakt zu dokumentieren, um sie eventuell später auf anderer Hardware neu zu programmieren. Diese Dokumentation sollte bei der Nutzung offener Hardware für den Nutzer immer möglich sein, häufig ist er sogar schon vor der Programmierung mit einem Entwurf der Klangsynthese in abstrakterer Form beschäftigt und setzt diesen Entwurf dann auf der jeweiligen Plattform um. Dieses Problem stellt sich im übrigen bei aller Hard- sowie Software, bei der dem Be- 14 Supper 1997, S. 38 15 nutzer Informationen nicht zugänglich sind, die für den audioverarbeitenden Prozeß genutzt werden.15 Insbesondere in den 1980er Jahren wurden durch die weite Verbreitung einiger Synthesizermodelle, beispielsweise des DX7 von Yamaha oder des Synthi 100 von EMS, einige zeitweilige Standards für die Erzeugung synthetisierter Klänge geschaffen. Diese Geräte waren problemlos erhältlich, die Zahl der potentiellen Benutzer enorm und die Auswahl der Typen gering. So wurden diese Geräte auch immer wieder in zeitgenössischer Musik eingesetzt und die Steuerdaten in proprietären Formaten gespeichert. Heutzutage ist es allerdings zunehmend problematisch, die originalen Geräte zu erhalten und so ist die Gefahr groß, daß viele der zu den Werken gehörigen Klänge nicht mehr einzusetzen sind, wenn es nicht gelingt, sie quasi rückwirkend auf einem noch laufenden System zu analysieren und zu dokumentieren. 2.2.2 Klangergänzung Zuspielbänder Es ist zwar umstritten, ob die Wiedergabe von vorproduzierten Klängen während eines Konzertes mit live spielenden Instrumenten als Live-Elektronik gelten kann, unabhängig von dieser Definitionsfrage ist es aber üblich, daß bei Musik mit Live-Elektronik zugespielte Klänge immer wieder eingesetzt werden, deshalb darf auf ihre Besprechung insbesondere hinsichtlich der Reproduzierbarkeit hier nicht verzichtet werden. Zudem ist es so, daß vorproduzierten Klänge diesbezüglich eine Sonderstellung zugesprochen werden muß: Sie müssen in einer Form archiviert werden, in der sie immer wieder gelesen werden können, oder zumindest auf ein neues Medium kopiert werden können, daß dann seinerseits wieder die Funktion eines „Originals zweiter Generation“ einnehmen kann. Der Grund hierfür ist darin zu suchen, daß aufgenommene Klänge bereits eine transkribierte Form von akustischen oder elektronischen Signalen sind, die in ihrer Erscheinung während der Aufnahme entweder später überhaupt nicht reproduziert werden können, oder deren Ursprung zumindest aus der Transkription auf dem Aufnahme15 siehe auch Kapitel 2.4 „Computeranalphabetismus und Bedienerfreundlichkeit“ 16 medium nicht mehr entnommen werden kann. Das muß nicht heißen, daß man Aufnahmesituationen nicht reproduzieren kann, in denen Zuspielbänder nach Vorgabe des Komponisten für die aktuelle Anwendung produziert werden können16; hingegen ist es so, daß man mit Hilfe von Aufnahmen Klänge oder elektronische Signale aus ihrem Kontext entfernen kann oder auch einmalige Ereignisse festhalten kann, die dann in transkribierter Form auf einem Tonträger vorliegen und nur wiedergegeben werden können, wenn der Tonträger adäquat gelesen werden kann. Diese Feststellung ist sehr wichtig, da sie besagt, daß man aufgenommene Klänge im Gegensatz zu allen anderen hier vorgestellten technischen Komponenten der Live-Elektronik nie durch Abstraktionen ersetzen oder auf grundlegende Funktionen reduzieren können wird. Wenn es nicht gelingt, die Originale oder zumindest Kopien davon wiederzugeben, sind die Informationen unwiederbringlich verloren. Darüber hinaus gibt es seit der Nutzung von digitaler Schallspeicherung ein weiteres Kriterium, das der Reproduzierbarkeit von gespeicherten Klängen hinderlich sein kann. Da die Klänge nicht mehr analog, also auf einen Datenträger transkribiert, sondern auch codiert werden müssen, um sie überhaupt digital verarbeiten und speichern zu können, muß der entsprechende Code bei der Wiedergabe oder zumindest bei der Kopie in ein anderes Format, die ja bei digital gespeicherten Klängen auch ohne Wiedergabe erfolgen kann, verfügbar sein. Dies ist besonders dann problematisch, wenn der Code nicht offen verfügbar ist, sondern rechtlich geschützt ist und nur in ausgewählten Produkten eingesetzt wird. Entsteht die Situation, daß der Proprietär des Codes nicht mehr verfügbar ist, daß die Produktion und der Support der entsprechenden Produkte eingestellt ist, ist nicht nur der Code verloren, sondern auch die Möglichkeit, die codierten Aufnahmen zu lesen. Diese Problematik ist derzeit bei Audiodateien nur wenig zu finden, sondern hauptsächlich bei Dateitypen, die an eine bestimmte Software gebunden sind, doch läßt die momentane Entwicklung um digital rights management (DRM) und die Lizenzierung von Dateitypen, die im Internet zum Herunterladen vorgesehen werden die Befürchtung entstehen, daß auch bei Audiodateien zukünftig die Frage der proprietären Codierung eine größere Rolle spielen könnte. 16 Schöne Beispiele hierfür sind die „Counterpoint“-Stücke von Steve Reich oder „Dialogue de l'ombre double“ von Pierre Boulez, in denen die notwendigen Anweisungen für instrumentale Aufnahmen gegeben werden, die der Interpret dann als Zuspielband, gleichsam im Dialog mit sich selbst, nutzen kann. 17 Unabhängig von den Fragen des Lesens und der Codierung der Klänge muß für eine eindeutige Reproduktion eine adäquate Beschreibung dessen vorliegen, was sich auf dem Zuspielband befindet. Hierzu gehören formale Angaben wie Länge, Format, Spuranzahl, Spurbelegung, Zuordnung zu bestimmten Lautsprechern oder weiterer elektronischer Verarbeitung (beispielsweise aufgezeichnete Steuerspannungen oder MIDIBefehle), Start-Punkte oder Tracks usw. Diese sollten in einer allgemein lesbaren und möglichst standardisierten Form aufbereitet werden. Darüber hinaus stellt sich die Frage der Notation bzw. Verschriftlichung des Zuspielbands in der Partitur, die insbesondere bei angestrebter Synchronität mit live zu Spielendem unabdingbar ist. Die Art und der Umfang der Notation ist allerdings sehr vom Kontext des Zuspielbandes im Stück abhängig.17 Zur Archivierung von Zuspielbändern werde ich nähere Ausführungen im Kapitel 4.4 machen. Sampler Eine Besonderheit bei der Arbeit mit Zuspielklängen ist der Einsatz von Samplern. Als Basismaterial nutzen sie ebenfalls gespeicherte Klänge, auf die alle im vorigen Abschnitt genannten Eigenschaften und Forderungen zutreffen. Sampler waren aber von Beginn an (das erste Gerät wurde 1979 von der Firma CMI-Fairlight Systems vorgestellt) auf digitale Klangverarbeitung und einfache sowie schnelle Bedienbarkeit ausgelegt und besitzen deshalb einige Funktionen, die über den Einsatz von konventionellen Zuspielbändern hinausgehen. Sampler werden üblicherweise über eine Klaviatur bedient. Als Schnittstelle zur Kommunikation hat sich bis heute weitestgehend das Anfang der 80er Jahre entwickelte MIDI erhalten. Daher haben die im MIDI-Protokoll übertragenen Daten18 auch die in Samplern zur Steuerung üblicherweise eingesetzten Parameter entscheidend geprägt. Zwar ist die Möglichkeit, diese Parameter den unterschiedlichen Zuspiel- und Klangbe17 vgl. hierzu ausführlich Pfeifer 2002 18 MIDI überträgt außer den gespielten Tonhöhen (in Form von den Tasten eindeutig zugewiesenen Nummern) weiterhin Daten wie Anschlagstärke, Aftertouch, Steuerdaten wie Kanal- und Programmnummern, Betriebsmodi, Werte von Pedalen, Modulationsrädern oder „Breath Controllern“ und weitere, teilweise vom Benutzer frei definierbare Steuerdaten. (vgl. hierzu ausführlich Ruschkowski 1998, insbesondere „Die MIDI-Kommunikation“ S. 371-412) 18 arbeitungsprozessen zuzuordnen durch den Ruf nach einfacher Bedienbarkeit stets einigermaßen übersichtlich geblieben, doch müssen zur einwandfreien Reproduktion bereits diese Zuordnungen genau notiert werden.19 So kann es beispielsweise vorkommen, daß über eine einzige Taste bei unterschiedlicher Anschlagsdynamik verschiedene Samples abgerufen werden, die auch noch in ihrer Tonhöhe und Dauer beeinflußt werden. Gerade bei früheren Modellen wurde außerdem viel mit Loops gearbeitet, da der zur Verfügung stehende Speicherplatz extrem begrenzt war. Hierbei müssen dann auch noch Start- und Endpunkte, Blenden, Abspielvarianten usw. dokumentiert werden. Im Zuge der sich stets weiter verbreitenden Software-Sampler scheinen die genannten Zuordnungen von Steuerparametern zu Bearbeitungsprozessen nun aber doch zunehmend komplexere Möglichkeiten zu bieten. Dies liegt vermutlich daran, daß durch die bereits beschriebene Zusammenfassung von Geräteprinzipien in einer programmierbaren Umgebung ihre Interaktionsmöglichkeiten umfangreicher werden. Es findet sich immer mehr Software, die Sampler, Synthesizer, Filter, Raumsteuerung und weitere Effektgeräte kombiniert. So wird beispielsweise für einen der bekanntesten SoftwareSampler folgendermaßen geworben: „Fünf Sampler-Betriebsarten ermöglichen klassisches Sample-Playback, Echtzeit Time-Stretching und Pitch-Shifting, Pitch-Kompression sowie das Beat-Slicing zur Tempoanpassung von Loops. Die intuitiven Mapping-, Loop- und Gruppen-Editoren sowie mehr als 30 exzellente Filter und Effekte inklusive eines Faltungseffekts eröffnen neue Perspektiven für das kreative Produzieren. [...] Die ausgereiften Surround-Sound-Features mit Unterstützung aller Surround-Formate bis hin zu 16 Kanälen ermöglichen das räumliche Bewegen von Sounds.“20 Neben der Dokumentation der Zuordnungen und Klangverarbeitungen21 ist bei der Betrachtung von Samplern zu bemerken, daß es erst in jüngster Zeit bei vielen Modellen ermöglicht wurde, mit standardisierten Dateiformaten wie z.B. AIFF oder Broadcast Wave und ebenso standardisierten Datenträgern wie Festplatten zu arbeiten. Lange Zeit hatte jeder Hersteller sein proprietäres Format für Audiodaten und Speichermedien, und für die Speicherung der erwähnten Zuordnungen in sogenannten „Programs“ haben sich 19 siehe hierzu im Kapitel 2.2.5 über Steuerung 20 Native Instruments: Präsentation des Kontakt 2, http://www.native-instruments.com/index.php?id=kontakt_de [Stand 2006-09-25] 21 Diese können mit den Methoden beschrieben werden, die ich im Kapitel 2.2.3 analysieren werde. 19 nach wie vor herstellerspezifische Formate erhalten. Dies macht eine allgemeingültige Dokumentation umso nötiger. Live-Sampling Neben der beschriebenen Möglichkeit, vorproduzierte Klänge zuzuspielen oder als Ausgangsmaterial für live vollzogene Klangbearbeitungen zu nutzen, gibt es auch die Möglichkeit, das so genutzte Material erst aus den live stattfindenden Aktionen zu gewinnen. Dieses Verfahren wird auch als „performed tape“ bezeichnet.22 Da hierzu als Grundbedingung nur eine adäquate Apparatur für Aufnahme und Wiedergabe benötigt wird, wurde dieses Verfahren bereits seit den 50er Jahren immer wieder eingesetzt. Ein Beispiel hierfür ist SOLO von Karlheinz Stockhausen, entstanden 1966, wo während der gesamten Aufführung eine Aufnahmeapparatur läuft und von Zeit zu Zeit einzelne Passagen daraus verzögert wiedergegeben werden. Der Aufbau ist wie folgt: Abb. 1: Aufführungstechnik für SOLO 22 Gordon Mumma, zit. nach Supper 1997 S.15 20 Durch die rasche Verbreitung von Samplern und hardwaregestützten Aufnahme- und Wiedergabesystemen wurden die Möglichkeiten zum Live-Sampling enorm erweitert, insbesondere da diese digitalen Systeme wesentlich leichter und komfortabler automatisierbar sind als analoge und so präzisere und ökonomischere Einsatzmöglichkeiten entstehen. Es wurden beispielsweise für SOLO 1966 vier Assistenten zusätzlich zum Klangregisseur benötigt, inzwischen gab es einige Versionen, in denen nur der Klangregisseur mit einem die Technik überwachenden Assistenten das Stück aufführen konnte, zudem mit wesentlich größerer Präzision. Heute gibt es Software, die speziell für diese Zwecke konzeptioniert ist, wie bereits ihre Namensgebung erahnen läßt, beispielsweise das vom amsterdamer STEIM entwickelte LiSa (Live Sampling) oder das von der berliner Firma Ableton entwickelte „Ableton Live“. Instrumentenspezifische Manipulation bei Zuspielern Bei Geräten zur Wiedergabe gespeicherter Klänge ist es immer so gewesen, daß jede Generation von Technik ihre instrumentenspezifischen Methoden zur Manipulation bei der Wiedergabe entwickelt hat. Diese haben sich häufig aus einem „Mißbrauch“ der vorgesehenen Wiedergabetechnik entwickelt, die sich dann als ästhetisch interessant herausgestellt hat. Insbesondere bei analogen Zuspielern gibt es viele Punkte, an denen man bereits mechanisch in den Wiedergabevorgang eingreifen kann. Das prominenteste Beispiel hierfür ist wohl die Entwicklung der vielfältigen DJ-Techniken im Umgang mit Plattenspielern, aber auch die Techniken zur Tonbandmanipulation durch ungewöhnliche Schnitte und Wiedergabe von präparierten Bändern fallen darunter. Auch bei digitalen Zuspielern wird beispielsweise mit instabiler System-Clock experimentiert, um die Wiedergabe zu manipulieren. Will man derartige Prozesse zum Eingreifen in die übliche Wiedergabe dokumentieren, muß nicht nur eine Aktionsschrift für die Vorgänge zur Manipulation gefunden werden, sondern es muß auch beschrieben werden, wie das Wiedergabesystem reagieren soll, da man bei solcher Grenzüberschreitung nicht automatisch davon ausgehen kann, daß jedes System identisch reagiert. Je vielfältiger die Variationsmöglichkeiten der eingesetzten 21 Technik dabei sind und je weniger Konsens es im Umgang mit ihr gibt, desto eindeutiger muß die Beschreibung des zu erreichenden Resultats in Kombination mit den auszuführenden Aktionen sein. 2.2.3 Klangveränderung Die ureigenste Qualität von Musik mit Live-Elektronik ist wohl die Veränderung (Transformation) von live erzeugten Klängen im Konzert, um diese dann in Echtzeit oder zeitversetzt wieder hörbar zu machen. Meiner Ansicht nach lassen sich die Methoden zur Transformation der Klänge in vier Ebenen beschreiben: • Veränderungen in der Zeit • Veränderungen im Raum • Veränderungen im Frequenzbereich • Veränderungen der Lautstärkepegel Es gibt Transformationsvorgänge, die sich sehr deutlich einer dieser Ebenen zuordnen lassen, andere, die Einfluß auf mehrere dieser Ebenen zugleich haben und solche, die derart komplex sind, daß sie sich nur unzulänglich und kaum sinnvoll einordnen lassen und wohl passender ausschließlich durch ihre elektroakustische Verschaltung oder mathematische Algorithmen zu beschreiben sind. 2.2.3.1 Zeit Musik besteht aus in der Zeit geordneten Klängen. Daher ist ein naheliegender Eingriff, den man an ihr vornehmen kann, die Veränderung des zeitlichen Ablaufes. Da allerdings bei Musik mit Live-Elektronik oft eben live gespielte akustische Instrumente zum Einsatz kommen, muß berücksichtigt werden, daß in diesen Fällen immer der unveränderte Klang im Raum hörbar ist und Veränderungen, die in Echtzeit am Klang vorgenommen werden und hörbar gemacht werden, zusätzlich zum Original erklingen. Bei 22 den in den folgenden Kapiteln beschriebenen Transformationsformen im Frequenzbereich und im Pegel, sogar im räumlichen Erscheinungsbild, läßt sich der Originalklang bis zu einem gewissen Grad verdecken, beispielsweise durch hohen Pegel des veränderten Klangs. Aber gerade bei der Manipulation in der zeitlichen Ebene ist dies fast nie der Fall, es sei denn, daß der Originalklang für das Publikum nahezu unhörbar gemacht wird, beispielsweise durch den Einsatz von Wänden zur akustischen Trennung oder von starken Dämpfern. Ansonsten wird man immer in der Summe von Originalklang und transformiertem Klang beide hören, da sie verschiedene Zeitstrukturen besitzen. Zudem gibt es viele zeitbezogene Transformationsprozesse, die prinzipiell nicht echtzeitfähig sind, Dehnung der Zeitebene kann beispielsweise nicht synchron zum Eingangssignal erfolgen. Folglich bieten sich hier für Live-Elektronik weniger nutzbare Transformationsvorgänge als bei der Anwendung auf vorher aufgenommene Klänge, die im Konzert abgespielt werden. Delay Ein beliebter Effekt zur Transformation in der Zeitebene ist die Nutzung eines Delays. Hierbei wird ein ankommendes Signal gespeichert und zeitverzögert wiedergegeben. Wird der Ausgang des Delays dem Eingang wieder zugeschaltet, erhält man ein „Feedback“: Das Signal ist in Abständen der Zeitverzögerung des Delays immer wieder zu hören. Um den Vorgang endlich zu machen, führt man üblicherweise das Signal mit verringertem Pegel zurück, so entsteht eine Abfolge von Wiederholungen, die nur eine bestimmte Zeit lang wahrnehmbar sind und dann im Rauschen des Raums oder des verarbeitenden Systems untergehen. Diese Konfiguration des Delays mit Feedback wird auch als Echo bezeichnet. Bis zur Einführung von digitalen Delays wurden diese Verzögerungen mit Tonbandmaschinen realisiert, wobei Bandschlaufen zwischen Aufnahme- und Wiedergabekopf gespannt wurden, um aufgrund der Laufzeit des Bandes die benötigte Verzögerung zu erreichen. In manchen älteren Partituren finden sich immer noch Tonbandlängen für die Delays, die in Abhängigkeit von der Laufgeschwindigkeit des Bandes aber in Verzöge- 23 rungszeiten umgerechnet werden können.23 Ein Delay wird durch wenige Parameter exakt definiert, das sind die Verzögerungszeit und, falls vorhanden, der Anteil des Feedbacks. Dieser wird bei digitalen Delays üblicherweise in Prozent des Eingangssignals angegeben. Im Delay finden sich häufig noch zusätzliche Funktionen wie beispielsweise die räumliche Verteilung der unterschiedlichen Wiederholungen beim Feedback24, diese lassen sich dann mit den Parametern der Verräumlichung25 beschreiben. Timestretching/Umkehrung Weitere Formen der Transformation in der Zeitebene sind das Timestretching, das Verlängern bzw. Verkürzen von aufgenommenen Audio-Sequenzen und die Invertierung, das Rückwärtsabspielen eben solcher Sequenzen. Beide Techniken haben ihren technischen Ursprung in der unkonventionellen Nutzung von Tonbandmaschinen. Umkehrung wurde durch rückwärtiges Abspielen des Bandes erreicht, Timestretching mit Tonhöhenveränderung durch variieren der Abspielgeschwindigkeit. Eine Apparatur für Timestretching ohne Tonhöhenveränderung erfand Gabor als eine Bandmaschine mit rotierenden Tonköpfen. Abb. 2: Analoge Timestretching-Maschine nach Gabor 23 In Abbildung 1 sieht man die Anordnung von Bandschleifen mit mehreren Tonköpfen ebenso wie die Angabe der Bandlängen und Verzögerungszeiten. 24 Dies geschieht beispielsweise bei den sogenannten Multi-Tap-Delays oder Pingpong-Delays 25 Siehe im Kapitel 2.2.3.2 24 Nach demselben Prinzip entwickelte Springer das Tempophon, das im Studio für elektronische Musik des WDR Köln bei Herbert Eimert zum Einsatz kam.26 In der Folgezeit wurden noch weitere, ähnliche Systeme entwickelt, doch erst nach Entstehung der digitalen Sampler wurde es mit vertretbarem Aufwand möglich, das Verfahren auch im Live-Betrieb einzusetzen. Wie schon erwähnt ist naturgemäß eine Dehnung oder Stauchung der Zeitebene nicht mit Echtzeit-Anspruch möglich, auch eine Invertierung nicht. Daher muß immer ein Schritt zur Zwischenspeicherung erfolgen, es wird ein Gerät zum Live-Sampling genutzt, das dann die aufgenommenen Signale wie vorproduzierte zur Verfügung stellt, verarbeitet und wiedergibt27. Ähnliches gilt auch für Verfahren zur künstlichen Verlängerung von Tönen, die in der Regel auf Loopstrukturen basieren, sogenanntes „Freezing“ oder „Unendlich-Hall“. Timestretching wird in der Regel durch Angabe der prozentualen Dehnung bzw. Stauchung definiert, auch möglich ist die Angabe der Veränderung der Laufgeschwindigkeit einer Tonbandmaschine oder der Wechsel des Tempos in Schlägen pro Minute (BPM28), alle diese Angaben können einfach ineinander umgerechnet werden. Zusätzlich wird die Angabe notwendig, ob das Timestretching mit oder ohne Tonhöhenveränderung geschehen soll, wobei tonbandgestützte Systeme letztere Möglichkeit nicht zulassen und digitale Systeme genutzt werden müssen. Zur genaueren Definition von Loops siehe die Beschreibung der speziellen Klangveränderungen unter den klangergänzenden Zuspielern in Kapitel 2.2.2. Heutzutage wird sowohl Timestretching als auch Freezing meistens mit Hilfe von Granularsynthese realisiert.29 2.2.3.2 Raum Der reale, architektonische Raum prägt eine Aufführung von Musik prinzipiell in zweierlei Hinsicht: Zunächst stellt er die Lokalität dar, in der die Musik zur Aufführung ge26 27 28 29 vgl. Morawska-Büngeler 1988 S.47 siehe hierzu auch „Live-Sampling“ im Kapitel 2.2.2 beats per minute siehe hierzu auch „Klangsynthese“ im Kapitel 2.2.1 25 langt und in der sowohl die Schallquellen und die Interpreten als auch das Publikum ihren Platz finden. Diese Lokalität ist also eine notwendige Voraussetzung dafür, daß die Musik überhaupt entstehen kann. Zweitens verändert der Raum durch seine akustischen Eigenschaften alle Schallereignisse, die in ihm stattfinden. Diese Veränderung ist dem Raum immanent und macht ihn wiedererkennbar, wenn die akustischen Eigenschaften außergewöhnlich sind. Wird der erste Aspekt der räumlichen Verteilung auf Schallquellen, akustischer oder elektronischer Art, und Interpreten fokussiert, kann man hier von einer aufführungstechnischen Dimension des Raums sprechen. Für eine Aufführung ist es nämlich relevant, die Positionen von Instrumenten und Lautsprechern im Raum zu definieren, da sie einen großen Teil des akustischen Resultats direkt bedingen und so Möglichkeiten zur Strukturierung der Musik geben. Der zweite Aspekt, der als akustische Dimension des Raums bezeichnet werden kann, verändert die im Raum entstandenen Klänge erst in zweiter Instanz und kann daher als von der Entstehung der Klänge getrennt betrachtet werden. Der Einsatz von Elektronik kann die akustischen Eigenschaften eines Raumes simulieren und damit die akustische Dimension eines Raumes herstellen, der physikalisch gar nicht genutzt wird. Historisch gesehen wurde bereits im 16. Jahrhundert ausgehend von der Zweiten Venezianischen Schule und begünstigt durch die Bauweise der Markuskirche mit zwei Orgelemporen die räumliche Aufteilung der Instrumentalisten ein Kompositionskriterium. Besonders durch Gabrieli hat die Mehrchörigkeit dort eine frühe Blüte erreicht, sie war durch das Prinzip des Dialogisierens geprägt. Die Aufteilung der musizierenden Protagonisten blieb jedoch zunächst auf die geistliche Vokal- und Orgelmusik beschränkt, wenig später auch unter Hinzuziehung von Instrumentalchören, beispielsweise bei Mozarts Notturno KV286 für vier Orchester. Erst im 19. Jahrhundert finden sich Fernorchestern und -chöre auch in der Oper und in sinfonischer Musik, häufig mit programmatischem Hintergrund und Funktion der Dramaturgie. Es ist zu bedenken, daß die Verteilung im und außerhalb vom Aufführungsraum nur soweit möglich war, wie die Musiker sich untereinander hören konnten, oder zumindest der Dirigent als zentraler Koordinator sich mit allen gut verständigen konnte, um ein sinnvolles Zusammenspiel möglich und kontrollierbar zu machen. Zu große Laufzeiten 26 des Schalls, wie sie beispielsweise bei Fernorchestern oder Orchesterkonzerten mit Kirchenorgeln leicht entstehen, konnten ein fast unlösbares Hindernis darstellen. In der Mitte des 20. Jahrhunderts gab es dann zwei Entwicklungen, die der Betrachtung des Raums in der Musik eine neue Qualität zukommen lassen. Zum einen bildete sich die serielle Schule heraus, die es ermöglichte und forderte, den Raum und die räumliche Verteilung von Klangquellen als strukturellen Parameter in Kompositionen mit einbezuziehen. Zum Anderen wurde durch die Entwicklung der elektroakustischen Übertragungstechnik die Grundlage für eine solche parametrische Behandlung des Raums mit elektroakustischen Mitteln überhaupt erst verfügbar: Die Mobilität und Qualität von Tonbandgeräten, Mikrofonen, Mischpulten, Lautsprechern und Verstärkern erreichte langsam eine Stufe, die es ermöglichte, sie in einem Konzert zufriedenstellend nutzbar zu machen und live oder zuvor erzeugte Klänge über Lautsprecher im und außerhalb des Konzertraums zu verteilen. Auch die Entwicklung und flächendeckende Einführung des Tonbands als Speichermedium und seine Nutzung zur synchronen Wiedergabe von mehreren getrennten Spuren war als Grundlage zur präzisen Montage und Fixierung von Klangereignissen und deren Wiedergabe über mehrere im realen Raum verteilte oder sogar einen virtuellen Raum schaffende Lautsprecher vonnöten. Ebenso wurde die Möglichkeit der präziseren Kommunikation über weite Entfernungen unter Zuhilfenahme von akustischem oder sogar Video-Monitoring geschaffen, die heute als Basis der Realisierbarkeit vieler Stücke mit Raumverteilung gelten muß. Martin Supper nennt für die Verwendung des Raumes in der Musik mit Live-Elektronik drei Möglichkeiten:30 • Den Raum als Instrument • Virtuellen und simulierten Raum • Die Bewegung des Klanges im Raum Hier werde ich diese Kategorien etwas verändern, wie im Folgenden beschrieben. Die Nutzung der Akustik des Raums als Instrument werde ich im Abschnitt „Arbeit mit der 30 Supper 1997 S. 121ff. 27 realen Raumakustik“ um einige Überlegungen zur Modifikation dieser hinsichtlich bestimmter Musik ergänzen. Sie kommt in der Praxis in Kombination mit Live-Elektronik allerdings nur sehr selten vor. Im Kapitel “Virtueller und simulierter Raum“ legt Supper viel Gewicht auf die elektroakustische Übertragung von Räumen in andere Räume, beispielsweise beim Hören von Aufnahmen oder bei Soundinstallationen, ich möchte in meinem Kapitel „Hall“ detaillierter auf das Erschaffen von virtueller Räumlichkeit durch Hallerzeuger eingehen, da dies in der Praxis der live-elektronischen Musik wesentlich bedeutender und üblicher ist. Zusätzlich möchte ich noch die Existenz von natürlichen resonierenden Systemen erwähnen, die keine architektonischen Räume sind, aber trotzdem hallartige Wirkung entfalten. Die Kategorie der Bewegung des Klangs im Raum möchte ich ergänzen durch die Betrachtung statischer Disposition von Klängen im Raum, zusammengefasst im Kapitel zur Verräumlichung. Arbeit mit der realen Raumakustik Wie bereits gesehen war schon in der Venezianischen Schule der bewußte Einsatz von im Raum verteilten Klangkörpern in Zusammenwirkung mit dem verschmelzenden Effekt des Nachhalls ein wesentliches Kompositionsmerkmal, und schon immer hat die Wechselwirkung von Raumakustik und den Kompositionen, die in diesen Räumen zum Klingen gebracht wurden, die Beteiligten beschäftigt. Gut dokumentiert sind beispielsweise die Einflüsse der Akustik der Konzerträume auf die Kompositionen Beethovens 31 wie auch der Bau des Festspielhauses in Bayreuth nach den speziellen akustischen Anforderungen Richard Wagners32, ganz zu Schweigen von Instrumenten, die nur für bestimmte Räume gebaut werden, wie beispielsweise Kirchenorgeln33. Die Vorsehung von baulichen Maßnahmen zur flexiblen Anpassung der Raumakustik auf die aufzuführenden Werke ist naheliegend, sei es in Form von absorbierenden Vorhängen, von akustisch koppelbaren „Hallkammern“34 oder als gänzlich modulare Be31 32 33 34 Weinzierl 2002 Meyer 1999 S. 304f. Meyer 2003, insbesondere S. 235ff. Morton H. Meyerson Symphony Center, Dallas 1989; Symphony Hall, Birmingham 1991; KKL, Luzern 2000 28 stückung der Wände35. Trotzdem wird immer wieder beklagt, daß nur sehr wenige Konzerträume geeignet für die Präsentation elektroakustischer Musik seien, nicht nur wegen zu wenig flexibler Akustik, sondern auch wegen mangelnder Bestuhlungsfreiheit, nicht ausreichender Anschlüsse oder Hängemöglichkeiten für die Lautsprecher und sonstige Technik. Die Nutzung von Aufführungsräumen unter Einbeziehung von deren akustischen Eigenschaften als Bestandteil einer Komposition muß demzufolge weitestgehend an bestimmte Lokalitäten gebunden bleiben, je unüblicher die Akustik, desto mehr. Eine Ausnahme aus jüngerer Zeit, allerdings ohne Elektronik, bildet hier beispielsweise das auf den Donaueschinger Musiktagen 2005 aufgeführte FAMA von Beat Furrer, einem „Hörtheater für großes Ensemble, acht Stimmen, Schauspielerin und Klanggebäude“, bei dem im Konzertsaal ein speziell entworfenes Klanggebäude aufgebaut wird, in dem sich die Plätze für das Publikum befinden. An allen Seiten dieses Klanggebäudes befinden sich Klappen, die Einfluß auf die Akustik im Inneren nehmen können, zumal meist die Solisten innen und das Ensemble außen spielen. Der Komponist beschreibt die Eigenschaften des Raums folgendermaßen: „[...] das Gebäude ist eigentlich nichts anderes als ein Instrument, und seine Resonanz funktioniert im Prinzip ganz ähnlich wie das Mundstück eines Blasinstruments oder der Korpus eines Streichinstruments. Es ist ein einziger großer Transformator des Klanges, ein Resonator, ein Meta-Instrument. Wir haben die beiden Seiten der Klappen, die sich öffnen und schließen lassen wie beim Schwellwerk einer Orgel, die man aber auch um 180° drehen kann, unterschiedlich beschichtet, die eine Seite mit einer Metallschicht wie das Erz beim "Haus der Fama" -, die den Klang ganz direkt reflektiert, die andere Seite mit einem speziellen Kunststoff, der den Klang trocken, aber gleichzeitig ganz präsent macht. [...] es sind spezielle Filterungen und Richtungseffekte möglich. Man kann etwa außen ein Ereignis mit einer langen Nachhallzeit haben und innen gleichzeitig ganz trockene und klare Klänge. Wenn die Klappen geschlossen sind, hört man manchmal nur den Reflexionsklang, bei metallenen Klängen verlieren gewisse Teile des Spektrums schnell ihre Energie. Oder es gibt Klänge, die schwer zu orten sind und von überall herzukommen scheinen: Der Raum spielt immer mit, und das Phänomen der klanglichen Präsenz in diesem Raum wird zum Thema.“36 35 IRCAM, Espace de projection, Paris 1976 36 "Der Raum spielt immer mit", Beat Furrer im Gespräch mit Daniel Ender in Programmheft der Donaueschinger Musiktage 2005 29 Ein solcher Bau kann, allerdings mit entsprechend großem logistischen Aufwand, dann in jedem ausreichend großen Saal aufgebaut werden und als Instrument genutzt werden. Es wird deutlich, wie der Raum durch akustische Modifizierbarkeit Möglichkeiten zur kompositorischen Nutzung bekommt und mit der Akustik des Konzertsaales kommuniziert. Die Schnittstelle zur Live-Elektronik wird an zwei Stellen möglich, zum einen, wenn die Vorgänge zur akustischen Modifikation automatisierbar sind und die Elektronik diese steuert, zum anderen wenn die so geformte raumakustische Umgebung in den weiteren elektroakustischen Bearbeitungsprozeß eingebunden wird. Ein prominentes Beispiel hierfür ist Alvin Luciers „I am sitting in a room“ (1970) für Stimme und Tonband. Hier wird ein vorgegebener Text gelesen und auf Tonband aufgenommen, diese Aufnahme wird dann über einen Lautsprecher in den Raum projiziert und mit Hilfe eines Mikrofons aufgenommen. Dieser Prozeß von Wiedergabe und Aufnahme wird dann mit der jeweils resultierenden Aufnahme bei identischer Lautsprecher- und Mikrofonposition so oft wiederholt, bis ausschließlich Raumresonanzen hörbar bleiben. Lucier kommentiert dazu: „[...] the space acts as a filter, it filters out all of the frequencies except the resonant ones. It has to do with the architecture, the physical dimensions and acoustic characteristics of the space.“37 Der Raum mit seiner spezifischen Akustik ist als ein Glied in der elektroakustischen Übertragungskette zu begreifen, das der eingesetzten Technik und ihren jeweiligen klanglichen Eigenschaften als auch ihrer Positionierung und Ausrichtung im Raum als gleichwertig zur Seite gestellt wird. Der Raum als Instrument38 wird in diesem Falle in seiner Einzigartigkeit charakterisiert und für eine Realisierung in einem anderen Raum wird gerade nicht die Übertragung der raumakustischen Eigenschaften gefordert, sondern des Prinzips des Umgangs mit der Technik. Sollte in anderen Fällen die exakte Übertragung der akustischen Eigenschaften des Raumes nötig sein, gibt es nur die Möglichkeit einer exakten Kopie desselben (wie es beispielsweise mit der transportablen Raum-in-Raum-Konstruktion bei Furrer realisierbar ist) unter spezieller Beachtung der akustischen Eigenschaften des Materials der Wände. 37 Lucier 2005, S.88 38 siehe Supper 1997 S. 122f. 30 Hall Obwohl das Phänomen des Halls sich bei detaillierter Analyse aus Veränderungen im Frequenzgang, in der Zeit, im Raum und im Pegel zusammensetzt, soll in dieser Arbeit die Einordnung unter der Kategorie der räumlichen Veränderung geschehen. Unser Gehör bildet nämlich bei der Wahrnehmung von natürlichem Nachhall und auch bei künstlichem Hall, der an natürliche Phänomene angelehnt ist, in erster Linie Assoziationen zu räumlichen Strukturen. Der wahrnehmungsorientierte Ansatz soll hier, wie bereits dargelegt, im Vordergrund stehen. Selbst bei intensiver Auseinandersetzung und viel Training erreicht die diskrete auditive Erfassung der Strukturen des Pegels, des Frequenzgangs und des Zeitverlaufs im Hall nie eine annähernde Qualität und Präzision wie die intuitive Erfassung der räumlichen Strukturen eines Halls. Die Entwicklung der Tontechnik war eine notwendige Voraussetzung, um den Nachhall auch ohne Berücksichtigung der realen Raumakustik gestaltbar und kompositorisch nutzbar zu machen, um ihn flexibel auch innerhalb von Werken und kleinerer Zeiteinheiten zum Einsatz zu bringen, und um sogar nicht real existierende Räume simulieren zu können. Zunächst wurde mit der elektroakustischen Übertragung durch Mikrofon, Verstärker und Lautsprecher die Möglichkeit gewonnen, auch lokal entkoppelte Räume mit besonderer Akustik als Übertragungssystem zu nutzen und so, beispielsweise durch die Nutzung von eigens gebauten Hallräumen, mit in die Musik einzubeziehen.39 Die Erfindung von Hallplatten, Hallfedern und Hallfolien als ebenfalls analogen Übertragungssystemen erlaubten die vollständige Loslösung von real existierenden Räumen und stellten somit die ersten simulierten Räume dar. Allerdings mußten zumindest Hallplatten weiterhin in akustisch isolierten Räumen platziert werden, um Störungen zu vermeiden. Erst die Einführung von digitalen Hallgeräten in den siebziger Jahren führte zur Möglichkeit einer umfangreicheren Nutzung des Halls als Parameter der Komposition. Erst nun wurde es sinnvoll, einzelne Parameter von Nachhall in numerische Werte zu fassen, die dann unabhängig voneinander zur Generierung künstlichen Halls genutzt werden 39 vgl. Arbeit mit der realen Raumakustik 31 konnten. Bei analoger Hallerzeugung mußten nicht nur die akustischen Eigenschaften der hallerzeugenden Systeme gemessen und dokumentiert werden, sondern zudem bei jeder Reproduktion wieder ein adäquat gebauter Hallerzeuger gefunden werden. Digitale Hallerzeugung ermöglicht heutzutage zudem eine wesentlich größere Variationsbreite innerhalb eines Gerätes und den Einsatz von künstlichem Hall, der in realen Räumen nicht zu erzeugen ist. Für die Charakterisierung von künstlichem Nachhall haben sich die Parameter der Raumakustik, wie sie zur Beschreibung natürlicher Räume üblicherweise zu finden sind, weitestgehend etabliert, vor allem in standardisierten digitalen Hallgeräten. Nur stellt sich aufgrund der Fülle dieser Parameter die Frage nach ihrer jeweiligen Relevanz für eine Übertragbarkeit zur Realisierung in verschiedenen realen Räumen. Zunächst ist es einleuchtend, daß die Wahrnehmbarkeit von künstlichem Hall in einem Saal entscheidend davon abhängig ist, inwieweit dieser sich vom natürlicherweise im Raum entstehenden Hall unterscheidet. Wenn der Aufführungsraum selbst bereits eine üppige Akustik bietet, werden nuancierte Veränderungen im Kunsthall wesentlich unauffälliger und schwerer zu differenzieren, häufig nur noch, indem dieser unverhältnismäßig laut und überzeichnet abgemischt werden muß. Daher empfiehlt es sich allein aus Gründen der Gestaltbarkeit sowie der Übertragbarkeit der akustischen Parameter für die Aufführung von Werken mit expliziten klanglichen und zeitstrukturellen Anforderungen an den Nachhall recht trockene und klanglich neutrale Aufführungsräume zu nutzen. Auch die Dämpfung der gegebenen realen Raumakustik ist hierfür häufig in Betracht zu ziehen. Da in der Realität häufig Aufführungen unter ungünstigen akustischen Bedingungen stattfinden müssen, bleiben nur wenige akustische Parameter übrig, die sich in Addition mit der realen Raumakustik für eine Wiedererkennbarkeit von künstlichem Hall eignen. Dazu gehört erstens die Länge des Halls, die als Nachhallzeit angegeben wird. Da diese gemittelt in der Realität von Konzerträumen außer in Kirchen nur selten über 3 s liegt, in Konzertsälen in der Regel bei ca. 1,5-2,5 s40 und in Theatern und Opern noch sogar 40 Meyer 1999, S.161ff. 32 deutlich darunter41, ist es naheliegend, bei längeren Dauern des künstlichen, zugefügten Halls diesen in nahezu jedem Aufführungsraum adäquat zur Geltung bringen zu können. Zu beachten ist allerdings, daß bei großer Nachhallzeit das Risiko von Rückkopplungen deutlich zunimmt, da der Pegel des Halls ansteigt und so der Abstand von Stör- und Nutzpegel auch am Ort des Mikrofons geringer wird. Zweitens kann die Klangfarbe des Halls in Form von Pegelunterschieden und Abklingdauern von einzelnen Frequenzgruppen gegenüber deren Summe als Parameter gelten. Auch hier muß diese natürlich in Addition zur Klangfarbe des Aufführungsraums gesehen werden und eventuell daraufhin modifiziert werden. In der Praxis kann man sich die Angabe einer Filterkurve des Halls vorstellen, um beispielsweise einige künstliche Raummoden zu betonen oder zu unterdrücken, oder aber um Luftabsorption bei hohen Frequenzen zu simulieren. Beachtenswert ist, daß der Frequenzverlauf der „EarlyDecay-Time“, die den Pegelabfall über die ersten 10 dB als Grundlage nimmt und auf 60dB Pegelabfall umrechnet, im Bereich von 125 bis 2000 Hz besonders charakteristisch für die Klangfärbung durch den Hall ist.42 Die Betrachtung von künstlichen frühen Reflexionen erscheint mir in Hinsicht auf die Realisierbarkeit in verschiedenen Räumen problematisch, da selbst bei wenig halligen Räumen meist einige ausgeprägte frühe Reflexionen wahrzunehmen sind, die bereits auf die realen Raumdimensionen und architektonischen Gegebenheiten schließen lassen. Zudem sind diese an verschiedenen Punkten im Raum extrem unterschiedlich, da bereits recht große Laufzeiten sowohl der realen Reflexionen als auch der Signale von den Lautsprechern entstehen. Durch ein Zumischen künstlich erzeugter früher Reflexionen ergibt sich ein Reflexionsmuster, daß sowohl den realen als auch den künstlichen Raum in seinen Dimensionen darstellt, und man wird das irritierende Gefühl von zwei Räumen bekommen, die gleichzeitig vorhanden sind. Der Einsatz eines präzise bestimmten Predelays dürfte ebenfalls aus Gründen der vorhandenen Laufzeiten nicht so ausschlaggebend sein, wie beispielsweise bei Aufnahmen, bei denen nur ein Hörplatz geschaffen wird (wenn er auch in der Realität des Raums nicht vorhanden ist). Vielmehr ist hier die Anpassung auf den realen Aufführungsraum vonnöten, um die Verzögerung des künstlichen Nachhalls mit den frühen Reflexionen 41 Meyer 1999, S. 183ff. 42 Lehmann, zit. nach Meyer 1999 S. 150 33 des realen Raumes in sinnvoller Weise zusammenzufügen. Die Angabe der Raumgröße als Parameter nimmt meist direkten Einfluß auf die Nachhallzeit, verändert aber auch die Reflexionsstruktur des künstlichen Halls. Sie mag zur Dokumentation als grobe Angabe sinnvoll sein, aber zur präzisen Nachbildung ist sie aufgrund ihrer ungenauen Definition meist nicht ausreichend. In den letzten Jahren hat sich zunehmend die Faltung als weitere Form der digitalen Hallerzeugung etabliert, die erst neuerdings durch die enorm gestiegene Rechenkapazität auch im Live-Einsatz möglich wird. Da hier sämtliche Informationen zur Erzeugung des immer identischen Halls in Form einer Impulsantwort des zu erzeugenden künstlichen Raumes vorliegen, wird sich in diesem Zusammenhang die Übertragung von Räumlichkeiten als wesentlich praktikabler darstellen, als es mit sämtlichen vorherigen Methoden möglich war. Gespeichert werden muß nur die Impulsantwort, die in Form eines Soundfiles vorliegt, denn das gesamte Verfahren zur Errechnung des Halls ist klar und einfach mathematisch definiert und jederzeit wieder nachzuvollziehen. Zu beachten bleibt, wie bei aller künstlicher Hallerzeugung, die Anpassung der künstlich erzeugten Räumlichkeit auf die real vorhandene, aber auch hier findet sich inzwischen die Möglichkeit, in Programmen für Faltungsoperationen die Impulsantwort derart zu verändern, daß einzelne klangliche oder zeitliche Parameter modifiziert werden können. Durch die gestiegene Leistung von Computern ist in den letzten Jahren auch die von Akustikern gerne genutzte Auralisation von Räumen in rechnergestützten Systemen echzeitfähig geworden. Dieses Verfahren, das eine modellbasierte Berechnung des akustischen Verhalten eines Raumes anhand der Angabe von geometrischen und akustischen Eigenschaften ermöglicht, kann ebenfalls zur Erzeugung von künstlichem Hall genutzt werden und bietet gegenüber allen bisher vorgestellten Methoden den Vorteil, daß die Abstrahlcharakteristik der Schallquelle mit in die Berechnung des Halls einfließen kann. Der Einsatz dieses Verfahrens zur Hallerzeugung bietet sich unter dem Aspekt der Reproduzierbarkeit von Hall deswegen an, weil seine Berechnung unter Zuhilfenahme der eingegebenen Raumabmessungen sowie der akustischen Eigenschaften von Raum und Schallquelle erfolgt. Diese Daten liegen in Textform vor und können somit leicht archiviert werden. Allerdings ist zu erwähnen, daß zur Anwendung der Aura34 lisation stets die entsprechenden Modelle programmiert werden müssen, was zumindest derzeit noch einigen Aufwand bedeutet. Vielleicht werden hierfür in den kommenden Jahren ja weitere Anwendungshilfen entstehen, die den Umgang mit der Auralisation beschleunigen können, um sie auch in der Live-Elektronik besser einsetzen zu können. Weitere resonierende Systeme In zeitgenössischer Musik finden sich neben realen und virtuellen Räumen außerdem vielfältige weitere Resonanzsysteme, die zur Übertragung und Transformation von Klängen genutzt werden und hallähnliche Eigenschaften besitzen. Auf rein akustischer Basis tritt beispielsweise der Flügel mit einer vorgegebenen Struktur freischwingender Saiten auf, in den ein Instrument, das wegen ausreichenden Schalldrucks vorwiegend Bläser ist, hineinspielt. Dieses Prinzip wird auch im Zusammenhang mit elektroakustischer Übertragung eingesetzt, z.B. bei Boulez „Dialogue de l'ombre double“ für Klarinette und Elektronik. In einem akustisch vom Spielort getrennten Raum wird ein Flügel mit niedergedrücktem Pedal aufgestellt, ein Lautsprecher unter dem Flügel regt dieses schwingende System mit Signal von live gespielten Passagen der Klarinette an, und ein Mikrofon über dem Flügel überträgt die Resonanzen für eine Wiedergabe in den Konzertsaal zurück. Abb. 3: Flügel als Resonanzraum bei Boulez 35 Des weiteren gibt es den Fall, daß Lautsprecher auf resonierende Instrumente, vorzugsweise des Schlagzeugs, gelegt oder geklebt werden, um diese zur Übertragung zu nutzen. Dies geschieht beispielsweise bei „Music for Solo Performer“ von Alvin Lucier, wobei vom Solisten erzeugte Alpha-Gehirnwellen verstärkt werden, über auf diverse Idiophone und Membranophone geklebte Lautsprecher wiedergegeben werden und so überhaupt erst hörbar werden. Prinzipiell lassen sich alle konstant resonierenden Systeme auch durch die oben genannte Faltung simulieren, wenn es gelingt, eine Impulsantwort des Systems aufzuzeichnen. Dies ist im Falle des genannten Stückes von Boulez auch bereits zur Anwendung gekommen, dadurch ließ sich sogar unerwünschtes Übersprechen zwischen Lautsprecher und Mikrofon vermeiden, welches das Resonanzsystem Flügel umging. Es ist beim Ersatz von resonierenden Systemen durch Faltung nur zu bedenken, daß dadurch dann ein wesentlicher Teil der szenischen Wirkung verändert wird, wenn das entsprechende resonierende System sich auf der Bühne befindet und Teil der Inszenierung der Interpretation ist. Verräumlichung Unter dem Begriff der Verräumlichung oder Spatialisierung lassen sich alle Vorgänge zusammenfassen, die die traditionelle frontale Ordnung von Instrumenten und anderen Klangquellen gegenüber dem Zuhörer aufheben und die Erscheinungsweise von Schallquellen im Raum hinsichtlich deren Lokalisierung um das Publikum herum anordnen. Zwar gab es bereits in der Tradition der europäischen Kunstmusik immer wieder Tendenzen zur räumlichen Verteilung von Instrumenten, jedoch werden durch die Einbeziehung von elektronischen Geräten einerseits und der seriellen Kompositionstechnik andererseits wesentliche Möglichkeiten zur kompositorischen Nutzung der Verräumlichung als einer den anderen Toneigenschaften gleichberechtigten musikalischen Qualität überhaupt erst geschaffen. Daß dies wenig mit der Verräumlichung früherer Musik gemeinsam hat, hat Karlheinz Stockhausen 1959 in seinem Artikel „Musik im Raum“ beschrieben: 36 „In der Komposition „Gesang der Jünglinge“ habe ich versucht, die Schallrichtung und die Bewegung der Klänge im Raum zu gestalten und als eine neue Dimension für das musikalische Erlebnis zu erschließen. [...] Von welcher Seite, mit wievielen Lautsprechern zugleich, ob mit Links- oder Rechtsdrehung, teilweise starr und teilweise beweglich die Klänge und Klanggruppen in den Raum gestrahlt werden: das alles ist für das Verständnis dieses Werkes maßgeblich. [...] Die Raumposition der Töne spielte ja bis dahin in der Musik überhaupt keine aktive Rolle; man empfand sie deshalb als eine „ganz andere“ klangliche Eigenschaft, die wohl kaum je dazu in der Lage wäre, über die zeitlichen Toneigenschaften zu dominieren. (Das hat sich mittlerweile grundlegend geändert, und wir bemerken mehr und mehr, wie sich alle musikalischen Vorstellungen in zunehmendem Maße verräumlichen)“43 Unter Einbeziehung von elektroakustischer Übertragungstechnik lassen sich prinzipiell zwei Arten der Verräumlichung unterscheiden, statische und dynamische (also bewegte). Statische Verräumlichung wird durch jede Wiedergabe oder Verstärkung von akustischen Signalen im Aufführungsraum verursacht, die eine feste Lokalisation der jeweiligen Klangquellen um den Hörer herum ermöglicht, sei es durch Lautsprecher am Ort der Klangquelle oder durch Phantomschallquellen im Raum. Dynamische Verräumlichung verlangt zudem, daß die elektronisch zu übertragenden Signale entweder manuell oder automatisch in ihrer Zuordnung zu unterschiedlichen Lautsprechern (Routing) während der Übertragung verändert werden. Dies kann sowohl in Schritten als auch sukzessive geschehen. Automatisiertes Routing wurde überhaupt erst durch die Einführung von spannungsgesteuerten Verstärkern und entsprechender Systeme zur Aufzeichnung und Wiedergabe der Steuerspannungen möglich. Anbei sei bemerkt, daß bereits der Einsatz von traditioneller Stereo-Panorama-Regelung bei Anwendung auf im Raum verteilte Lautsprecher zur dynamischen Verräumlichung genutzt werden kann. Die Vorgänge zur Verräumlichung lassen sich sehr klar definieren und ebenso auch in die Überlegungen zur Reproduktion integrieren. Zunächst muß festgelegt werden, welches Signal zu verräumlichen ist. Das können Informationen von einem Zuspielband sein, live erklingende Instrumente oder jede weitere Audio-Information, die am Ort der Elektronik zur Verfügung steht. Weiterhin muß verdeutlicht werden, wo dieses Signal 43 Stockhausen 1959 S. 60f. 37 im Raum erklingen soll, am besten auch, in welcher Art der Lokalisation, d.h. ob als Phantomschallquelle oder als reale Schallquelle durch einen dort positionierten Lautsprecher. Der Einfluß der Richtcharakteristik der Lautsprecher und der Notwendigkeit der Beschallung eines größeren Areals im Raum läßt sich nicht immer zufriedenstellend lösen, weil häufig einzelne Lautsprecher zu nah am Publikum plaziert werden müssen, vor allem Phantomschallquellen werden in ihrer Lokalisation durch die entstehenden Laufzeit- und Pegelunterschiede im Publikum verzerrt, und auch die Überlagerung von natürlichem Schallfeld und der elektronisch zugefügten Signale ist an verschiedenen Hörplätzen oft ungleichmäßig verteilt. Bei dynamischer Verräumlichung ist es zusätzlich notwendig, Zeitpunkt und Geschwindigkeit der zu vollführenden Bewegung festzuhalten. Bei simplen Bewegungen werden Lautsprecher sukzessive angesteuert, deshalb sollte bei diesen Klangbewegungen auch die Art der Überblendung von einem zum nächsten Status festgehalten werden. Abb. 4: Prinzipschaltbild des HaLaPHONs mit steuernden Pegelkurven 38 Dies kann zunächst durch die Angabe von Pegelkurven der einzelnen Lautsprecher als zeitabhängigen Funktionen geschehen, wie es Hans Peter Haller und Peter Lawo in ihr seit 1971 entwickeltes Halaphon (HAllerLAwoPHON) als grundlegendes Prinzip integrierten. Die Speicherung von Pegelkurven in der beschriebenen Weise stellt dann allerdings die Bedingung, daß die Lautsprecher exakt im vorgeschriebenen Setup installiert werden müssen, um die zuvor programmierten Abläufe ebenso wieder abzubilden. Als wesentlich universeller und auf variierte Lautsprechersetups anwendbar stellt sich in diesem Zusammenhang der Einsatz von vektorbasierter Darstellung der Klangbewegungen dar, die bei Systemen auf Grundlage von Ambisonics zur Anwendung kommt. Dies ist eine mathematische Methode zur punktbezogenen Darstellung eines dreidimensionalen Schallfelds, die Anfang der 1970er Jahre von einer Gruppe um Michael A. Gerzon und Peter Fellgett entwickelt wurde und auf vektorieller Basis arbeitet. In seiner einfachsten Form, Ambisonics erster Ordnung, wird das Schallfeld im sogenannten B-Format mit vier Werten dargestellt, einem richtungsunabhängigen Schallpegelwert sowie den Schallschnellewerten in den drei Raumdimensionen, ein dynamisches System natürlich als zeitabhängige Funktion. Bei diesem Prinzip wird jedes Lautsprechersignal für das Schallfeld aus den vektoriellen Angaben zur Bewegung des Klangs berechnet, folglich kann auch eine geänderte Lautsprecherposition in kurzer Zeit neu berechnet werden, inzwischen sogar dank schneller rechnergestützter Systeme in Echtzeit. Die Darstellung der Klangbewegung wird also unabhängig von den räumlichen Begebenheiten eines konkreten oder idealen Raums dokumentierbar. Zu einem realistischen Eindruck der Bewegung von Klang im Raum mit Hilfe eines festen Lautsprechersetups tragen weiterhin die Berücksichtigung von entfernungsabhängigen Phänomenen bei, die auch bei realen Bewegungen zu beobachten sind, insbesondere Doppler-Effekt, Absorption durch die Luft und das Verhältnis von Direktschall, Diffusschall und frühen Reflexionen. Sowohl bei späteren Generationen des Halaphons44 als auch beim „Spat“ des IRCAM als Beispiel für eine vektorbasierte Realisation sind diese Phänomene vorgesehen. Dabei ist der Doppler-Effekt als Tonhöhen- 44 Haller 1995 Bd. 1, S. 79ff. 39 funktion, die Luftabsorption als spektrale Filterkurve und die Zusammensetzung des Schallfelds als Parameter künstlichen Nachhalls zu betrachten und auch als solche dokumentierbar.45 Ein nicht zu vernachlässigender praktischer Aspekt der Steuerung bei vektorbasierten Raumsteuerungssystemen ist die einfache Umsetzbarkeit in graphische Benutzeroberflächen oder vektorbasierte Controller, die sehr veranschaulichend und intuitiv genutzt werden können. Ein schönes Beispiel für auskomponierte dynamische Verräumlichung mit präzisen Angaben zur Realisierung dieser Verräumlichung ist in Pierre Boulez „Dialogue de l'ombre double“ für Klarinette und Live-Elektronik zu finden. Die Einsätze werden in der Partitur numeriert und das Routing wird durch die direkte Angabe der zu nutzenden Lautsprecher ebenfalls als Nummern notiert. Abb. 5 a+b: Lautsprecherdisposition und dynamische Verräumlichung bei Boulez 45 siehe jeweils dort 40 2.2.3.3 Frequenzbereich Bei der Klangveränderung in der Frequenzdomäne gibt es zwei Bereiche, die sich in ihrer Konsequenz für die Wahrnehmung der Klänge unterscheiden. Erstens gibt es Prozesse, die Veränderungen der wahrgenommenen Tonhöhe zur Folge haben, bei Geräuschen entsprechend Veränderungen der Lage im Frequenzspektrum, zweitens gibt es Prozesse, die Veränderung auf dem Gebiet der Klangfarbe, also der spektralen Zusammensetzung von Klängen, hervorrufen. Diese Unterteilung ist nicht für alle Veränderungsprozesse möglich, bei komplexeren Operationen sind oft auch beide Bereiche betroffen, jedoch ist bei einigen grundlegenden Prozessen eine Einordnung möglich und auch sinnvoll. Harmonizer / Pitch shifter Zur Veränderung der Tonhöhenwahrnehmung ist die naheliegendste Methode die harmonische (also logarithmische) Versetzung des gesamten Spektrums. Wie bereits im Zusammenhang mit Timestretching erwähnt, führt bei der einfachen Wiedergabe von gespeicherten Klängen die Änderung der Abspielgeschwindigkeit bei Tonbandmaschinen oder die Änderung der Auslesegeschwindigkeit (Samplingfrequenz) bei digitalen Systemen zu einer gekoppelten Änderung von Tonhöhe und Dauer: Geschieht die Wiedergabe schneller, steigt die Tonhöhe, umgekehrt ebenso. Für eine wenig aufwendige Änderung der Tonhöhe muß man also die entsprechende Änderung der Zeitstruktur in Kauf nehmen, wie es beispielsweise bei Samplern der Fall ist.46 Um eine Änderung der Tonhöhe ohne Dehnung bzw. Stauchung der Zeitebene zu erreichen, und somit ein System zu erlangen, daß für den Einsatz in Echtzeit geeignet ist, kommt auch hier digitale Signalverarbeitung zum Einsatz. Allerdings war dies mit den bereits erwähnten Springer-Tonbandmaschinen prinzipiell auch schon möglich. Heutzutage benutzt man hier in der Regel ebenfalls Granularsynthese. Zwar muß systembedingt auch bei diesen Prozessen eine Zwischenspeicherung stattfinden, doch kann in der Digitaltechnologie die Verarbeitung in so kurzer Zeit geschehen, daß sich die Latenz zwischen eingehendem Signal und Ausgabe des transponierten Signals auf die Dauer 46 Dies ist auch der Grund dafür, warum man bei der Erstellung von Samples über den gesamten Spielbereich von akustischen Instrumenten eine wesentlich bessere Qualität erhält, wenn man die Intervalle zwischen den gesampleten Tönen verringert. 41 weniger Wellenlängen reduzieren läßt und somit im Bereich der ohnehin im Raum vorhandenen Laufzeiten zwischen Instrument, Lautsprechern und Reflexionen quasi in Echtzeit wahrgenommen wird. Die Tonhöhenveränderung wird meist entweder in traditionellen Intervallen und Cent oder prozentual angegeben. Ringmodulator Die Technik des Ringmodulators entstammt der analogen Nachrichtentechnik, wo sie insbesondere zur Signalübertragung genutzt wird. Zur Nutzung als Prozeß der Tonhöhenänderung besitzt sie das Charakteristikum, daß Spektren nicht logarithmisch, sondern linear versetzt werden und somit das Resultat verglichen mit den Eingangssignalen inharmonische Versetzungen enthält. Es werden stets zwei Eingangssignale benötigt, die miteinander multipliziert werden, deren Spektren also addiert und subtrahiert werden. Häufig wird als eines der Eingangssignale ein Sinuston benutzt, um das Resultat besser kalkulierbar zu machen, da das eine Spektrum dann konstant ist und nur aus einer Frequenz besteht. Um in diesem Fall nicht zwei resultierende Signale zu erhalten (durch Addition und Subtraktion) kann man durch Anwendung der Einseitenbandmodulation die Versetzung nur in eine Richtung erreichen. So kann die Ringmodulation als Prozeß zur Tonhöhenveränderung mit inharmonischer Veränderung der spektralen Zusammensetzung funktionieren. Der Prozeß der Ringmodulation mit zwei komplexeren Eingangssignalen führt nur dann zu Ergebnissen, die als Tonhöhenversetzung wahrgenommen werden, wenn beide Signale ein hinreichend grundtonlastiges Spektrum besitzen, ansonsten muß er eher dem Bereich der Klangfarbenänderung zugeordnet werden. Ergänzend zu erwähnen ist, daß es bei der Modulation mit einem Sinuston noch zwei Sonderfälle der Wahrnehmung gibt: Zum einen nimmt man durch einen Sinus mit geringer Frequenz (kleiner als 15Hz) nur noch Amplitudenmodulation wahr, zum anderen sind bei Modulation von zwei Signalen mit sehr nah beieinanderliegenden Tonhöhen die Resultierenden in sehr extremen Frequenzbereichen und es entsteht die Wahrneh- 42 mung von Schwebung um eine Tonhöhe zwischen den Eingangssignalen.47 Zur Dokumentation ist die Ringmodulation als mathematischer Prozeß eindeutig definiert, es muß nur angegeben werden, ob spezielle Effekte wie die genannte Einseitenbandmodulation eintreten sollen. Abb. 6: Ringmodulation bei „Drama“ von Vinko Globokar Filter Der Einsatz von Filtern ist wohl die universellste Methode, die spektrale Zusammensetzung von Signalen zu bearbeiten. Ursprünglich der Meßtechnik entstammend, wurden sie bereits seit den 50er Jahren in den Studios für elektronische Musik eingesetzt. Grundlegend betrachtet gibt es nur wenige Typen von Filtern, die auf einfachen analogen Schaltungen basieren. Hoch- und Tiefpaßfilter senken alle Signale unterhalb bzw. oberhalb einer definierten Grenzfrequenz mit einer Flankensteilheit ab, die in dB pro Oktave angegeben wird. Bandpaßfilter ermöglichen eine Anhebung oder Absenkung des Spektrums um eine Mittenfrequenz herum bzw. innerhalb von zwei Grenzfrequenzen, die Änderung des Pe47 vgl. Ringmodulation ausführlich bei Haller 1995, Bd. 1, S. 26 ff. 43 gels wird in dB angegeben, die Bandbreite als Güte Q. Bei diesen parametrischen Filtern reichen für die Definition eines Filters diese zwei bzw. drei Parameter aus, Grenzfrequenz und Flankensteilheit beim Hoch-/Tiefpaß sowie Mittenfrequenz, Anhebung/Absenkung und Güte beim Bandpaß. Es ist zu erwähnen, daß beim Einsatz dieser Filter in ihrer einfachen Form stets Phasenverschiebungen einzelner Frequenzgruppen entstehen, die in der Regel nicht beabsichtigt sind. Ihre Stärke ist von der Flankensteilheit der Filter abhängig.48 Durch die Erfindung digitaler Filter wurde es möglich, auch ungewöhnliche und komplexe Frequenzkurven zu realisieren, insbesondere durch Anwendung von FFT-Filtern, die auf FFT-Analyse und Resynthese basieren. Ebenso wurde es möglich, phasenlineare Filter zu bauen, die einheitliche Laufzeiten für alle Frequenzen besitzen. Im Allgemeinen läßt sich aber für alle diese Filter, wie auch sämtliche weiteren speziellen Anwendungen von Filtern, die Angabe einer Übertragungskurve des Frequenzgangs zur Dokumentation eines Filters angeben. Sie kann dann je nach aktueller und verfügbarer Technik neu realisiert werden. Wenn sie besonders zur Anwendung beitragen soll, kann auch die Kurve des Phasenganges über der Frequenz angegeben werden. Übertragung der Hüllkurve des Spektrums Ein weiterer beliebter Eingriff in die Zusammensetzung von Frequenzspektren ist die Übertragung von spektralen Hüllkurven von einem Klang auf einen anderen, auch als „Morphen“ von Klängen bezeichnet. Im Prinzip eine spezielle Form des Filterns, wird hier zunächst das Spektrum des modulierenden Signals analysiert, in einer Übertragungskurve über der Frequenz festgehalten und dann als Filter auf das zu modulierende Signal angewandt. Bei ausreichender Geschwindigkeit des Analyseteils ist die fortlaufende Aktualisierung des Frequenzgangs gegeben und die Hüllkurvenübertragung wird in Echtzeit möglich. Das Prinzip der spektralen Hüllkurvenübertragung kam in analoger Form bereits früher 48 Diese Phasenverschiebungen entstehen durch den Einsatz von kapazitiven und induktiven Bauteilen in Kombination, wie sie in den analogen Bandpaßfiltern eingesetzt werden. 44 im Vocoder zur Anwendung. Hier wird das modulierende Signal zur Analyse durch eine Filterbank geschickt, der Pegel der einzelnen Bänder gemessen und mit Hilfe von Gleichrichtern und spannungsgesteuerten Verstärkern über eine identisch aufgebaute Filterbank auf ein Ersatzsignal aufmoduliert, das in der Regel künstlich erzeugt war (beispielsweise Rauschen). Abb. 7: Prinzip des Vocoders nach Dickreiter Zur exakten Definition der Übertragung der spektralen Hüllkurve ist eine Beschreibung des Analyseverfahrens notwendig, das zur Erlangung der Hüllkurve eingesetzt werden soll, ebenso das Verfahren, mit dem die Hüllkurve auf das Zielsignal übertragen werden soll. Heutzutage wird in beiden Fällen üblicherweise die FFT eingesetzt, da diese inzwischen auch in Echtzeit möglich ist. Verzerrung Analoge Verzerrung als ein Verfahren, das die Nichtlinearitäten von Tonbändern oder von Verstärkerkennlinien bei Übersteuerung ausnutzt, um damit die spektrale Zusammensetzung von Klängen zu verfremden, ist nur schwer in Parametern zu fassen, da die 45 klanglichen Eigenschaften der analogen Bauteile, die verwendet werden, eben an diesen Grenzbereichen des ursprünglich vorgesehenen Übertragungsbereichs kaum zu bestimmen sind. So wäre es zwar denkbar, die Kennlinie eines Verstärkers oder eines Tonbands anzugeben, um dann den exakten Wert der durch Übersteuerung erreichten Verzerrung zu errechnen, diese Methode ist aber weder praktikabel noch anschaulich. Die Verzerrung ist nun tatsächlich ein Prozeß zur Klangverformung, bei dem die Definition kaum anhand von abstrakten Parametern geschehen kann, sondern exemplarisch erfolgen muß. Einzig die Angabe von dynamischen (also dynamikabhängigen) Filtern in Kombination mit einem dynamikabhängigen Obertongenerator wäre denkbar, doch weder in ihrer Abstraktion aus einem bestehenden Kompressor noch in der Reproduktion sinnvoll. Gleiches gilt auch für digitale Verzerrung. Zwar ist hier durch den Zustand der eindeutigen Vollaussteuerung die theoretische Wellenform eines verzerrten Signals gut berechenbar, doch gilt hier wiederum, daß in diesem Grenzbereich die praktische Umsetzung ins Analoge zur Wiedergabe sehr abhängig von den D/A-Wandlern ist, da es sich um einen Bereich handelt, für den diese nicht entwickelt und optimiert wurden. 2.2.3.4 Pegel Die Veränderung der Lautstärkepegel ist die vierte grundlegende Kategorie, in der qualitative Änderungen in der Musik mit Elektronik vorkommen. So ist es auch kein Zufall, daß beim Mischpult als wohl unumstrittene Schalt- und Regelzentrale von Klangregie die meistgenutzte und augenfälligste Regelmöglichkeit der Einsatz der Fader zur Pegelbeeinflussung ist. Gerade durch die Möglichkeit der fernsteuerbaren und automatisierbaren Pegel hat sich ein großes Feld aufgetan, Manipulationen an Klängen vorzunehmen. Verstärkung Nicht nur elektronische Musikinstrumente und elektronisch generierte oder modifizierte Signale bedürfen der Verstärkung, um überhaupt hörbar gemacht zu werden, sondern es 46 hat sich herausgestellt, daß in vielen Fällen auch akustische Instrumente verstärkt werden müssen, um ihre akustischen Eigenschaften besser auf die Umgebung abstimmen zu können, insbesondere in Kombination mit Elektronik. Auf den künstlerisch-technischen Einsatz von Verstärkung und seine verschiedenen musikalischen und wahrnehmungsrelevanten Aspekte werde ich im Kapitel 3.1 detailliert eingehen. Daß aber durch den Einsatz von regelbaren Widerständen und spannungsgesteuerten Verstärkern (VCAs) die Möglichkeit entstanden ist, live entstehende Klänge ferngesteuert in ihrer Lautstärke zu beeinflussen, ist ein zentraler technischer Aspekt der Verstärkung und soll deshalb hier erwähnt werden. Vor der Erfindung von Verstärkern gab es nur die Möglichkeit, durch akustische Tricks, wie beispielsweise Trichter, die Lautstärke von live erzeugten Klängen zu vergrößern. VCAs bieten nun die Möglichkeit, beliebige steuernde Komponenten zu nutzen, um die Pegel von Signalen zu regeln, die in elektronischer Form vorliegen. Kompressor/Limiter/Expander Die häufig unter „dynamics“ zusammengefassten Prozesse zur Veränderung der Dynamik von Signalen finden sich auch bei Musik mit Live-Elektronik in den technischen Setups wieder. Neben dem beliebten Einsatz von Kompressoren bei einfacher Verstärkung von akustischen Signalen49 können die genannten Prozesse auch vielfältig an anderer Stelle des Signalflusses eingesetzt werden, wo eine automatisierte Regelung der Pegel erwünscht ist. Kompressor und Limiter (Begrenzer) engen die Dynamik oberhalb eines bestimmten Schwellenwertes (Threshold) ein, Kompressoren dabei in einem definierten Verhältnis der Eingangs- zur Ausgangsdymanik (Ratio), Limiter hingegen gänzlich oberhalb des definierten Grenzpegels. Beide Prinzipien greifen also erst ein, wenn der absolute Pegel des Eingangssignals über dem definierten Threshold liegt, darunter wird die Dynamik des Signals nicht verändert. Da so die Spitzenpegel abgesenkt werden und das gesamte Signal leiser wird, ist üblicherweise noch eine Regelmöglichkeit zur Anhebung des Pegels vorgesehen (Gain, 49 siehe Kapitel 3.1 „Der künstlerische Umgang mit Verstärkung“ 47 auch automatisierbar als „Auto Gain“), die aber die spezifische Klangveränderung durch den Kompressor nicht weiter beeinflusst. Expander hingegen vergrößern die Dynamik, indem sie unterhalb eines Schwellenwertes den Pegel in einem definierten Verhältnis absenken. Diese werden ebenfalls als Threshold und Ratio bezeichnet. Es ist wichtig zu erwähnen, daß das bearbeitete Signal nicht notwendigerweise das steuernde Signal sein muß, sondern daß man ein zweites Signal zur dynamischen Steuerung zuführen kann. Weiterhin gibt es wesentliche Angaben zum zeitlichen Reaktionsverhalten oberhalb bzw. unterhalb des Threshold, da es sich herausgestellt hat, daß man die Veränderungen der Dynamik nur sinnvoll einsetzen kann, wenn man eine gewisse Zeit für den Regelvorgang vorsieht. Die Parameter dieses Reaktionsverhaltens werden als Attack- und Release-Zeit angegeben. Manchmal finden sich auch zwei weiterere Parameter, einer, der ein Zeitpuffer zwischen Attack und Release einfügt und als Hold-Zeit bezeichnet wird, ein weiterer, der eine Glättung der Kompressions- bzw. Expansionskurve am Threshold, am sogenannten Knie, einstellen kann. Die wesentlichen Parameter für Kompressor, Expander und Limiter sind aber zusammengefasst: Threshold, Ratio (nicht beim Limiter), Attack- und Release-Zeit. Gate Eigentlich eine spezielle Form des Expanders, ist ein Gate, auch als „Noise Gate“ bezeichnet, ein Prozeß, der unterhalb einer eingestellten Schwelle (Threshold) den Signalfluß komplett unterbricht. Auch hier werden weiterhin Attack- und Release-Zeit angegeben, doch gibt es eine weitere Eigenschaft, durch die das Gate sich von den anderen „dynamics“ unterscheidet: Durch die Invertierung eines Gates erhält man einen Prozeß, der ein Signal nur unterhalb des Schwellwertes durchläßt, so kann in Kombination von einem invertierten und einem nichtinvertierten Gate bei gleichem Threshold ein Signal ohne weitere Analyse auf dynamischer Ebene geteilt werden und so beispielsweise als Steuersignal eingesetzt werden.50 50 vergleiche Haller 1995 Bd. 1, S.68ff. 48 Abb. 8: Klangbewegung mit zwei Gates 2.2.4 Schallwandlung Eine der zentralen Aufgaben der Klangregie ist die Übertragung von akustischen Signalen in die Apparaturen der Elektronik hinein und ebenso das rückwärtige Übertragen von Signalen, die aus der Elektronik herauskommen. In dieser Arbeit werde ich nur den Bereich der Schallwandler betrachten, speziell Mikrofone und Lautsprecher. Der Bereich der Wandler, die beispielsweise Bewegungen erfassen und graphische Elemente projizieren können, wie sie bereits im Kapitel über Steuerung ansatzweise zur Sprache kamen, soll hier nicht untersucht werden, da sie nicht dem Bereich der Audiotechnik entstammen. Ebenso halte ich die Betrachtung von speziellen Schallwandlern, wie beispielsweise MIDI-Flügeln oder jegliche Art von selbstgebauten Schallwandlern, für eine allgemein angelegte Untersuchung wie diese nicht für angemessen. Sie sind derart eigen, daß man sie nicht als allgemein verfügbar voraussetzen kann und im jeweiligen Fall des Einsatzes eine präzise Beschreibung für eventuellen Nachbau oder sogar das jeweilige Gerät mitliefern muß. Generell wird die Beschreibung des Einsatzes von Mikrofonen und Lautsprechern bei der konkreten Realisierung eines Werkes mit Live-Elektronik weniger präzise ausfallen und mehr Freiheiten bieten müssen als die Beschreibung der Geräte und Prozesse, die innerhalb der elektronischen Ebene genutzt werden. Das liegt zunächst daran, daß jedes eingesetzte akustische Instrument, wie auch jeder Aufführungsraum, unterschiedliche klangliche und bauliche Eigenschaften besitzt, wie auch jeder Interpret mit seinem In- 49 strument anders umgeht und das akustische Resultat verschieden ist. Darüber hinaus ist durch die Vielfalt der auf dem Markt verfügbaren und sich auch ständig weiterentwickelnden Mikrofone und Lautsprecher wesentlich weniger Kontinuität gegeben, als es bei Prozessen innerhalb des elektronischen Setups sein kann, die sich funktional abstrahieren lassen.51 Auch ist es naheliegend, daß bei der Wandlung von Schall in elektronische Informationen und zurück wesentlich weniger präzise Vorgaben gemacht werden können, als es bei Verarbeitungsprozessen innerhalb der Elektronik der Fall sein kann. Die Prozesse zur A/D- bzw. D/A-Wandlung sind inzwischen derart präzise, daß in vielen Fällen Unterschiede zwischen analoger und digitaler Signalverarbeitung nicht mehr über die Wahrnehmung differenziert werden können. Allerdings wird man nie ein ideales Mikrofon bauen können, und eine Lautsprechermembran wird immer eine gewisse Trägheit besitzen, die sich auf das Impulsverhalten auswirkt. Bedingt durch die verschiedenen Konstruktionsprinzipien wie unterschiedliche Membrangröße oder Richtcharakteristik wird es immer klangliche Unterschiede zwischen Modellen geben, die sich aber typisieren lassen, beispielsweise durch diese Konstruktionsprinzipien.52 Es muß also für eine Dokumentation umso mehr angestrebt werden, die Funktion, die Mikrofone oder Lautsprecher übernehmen sollen, unabhängig von technischen Daten zu formulieren und, soweit es möglich ist, das klangliche Ergebnis der Schallwandlung zu beschreiben. Eine Angabe wie „Die Streicher sollen Live etwas lauter und gewagter klingen als auf der Einspielung“53 kann eine wesentlich präzisere Dokumentation sein als die exakte Vorschrift von Meßdaten der gesamten Signalkette. Demgegenüber lassen sich präzise Anforderungen an Mikrofone und Lautsprecher häufig erst nach der Erfahrung von vielen Proben und Konzerten, möglichst auch in unterschiedlichen Sälen, derart formulieren, daß sie Rückschlüsse auf ihren generellen Einsatz für dieses Stück möglich machen. Dann kann auch die exemplarische Auflistung der eingesetzten Technik sehr hilfreich sein. 51 Natürlich klingt auch jeder Hall-Algorithmus oder jedes Filter unterschiedlich, doch lassen sich innerhalb der Elektronik viele Prozesse finden, die sich über ihre Funktion zumindest theoretisch eindeutig beschreiben lassen, wie z.B. Delays, Harmonizer, Syntheseverfahren, usw. 52 Siehe Kapitel 2.2.4.1 für Mikrofone und 2.2.4.2 für Lautsprecher 53 Auszug der Aufführungsanweisungen in der Partitur zu Steve Reichs „Different Trains“ für Streichquartett und vorproduziertes Zuspielband 50 2.2.4.1 Mikrofone Die Umsetzung von akustischen Signalen in elektrische Signale tritt in der Musik mit Live-Elektronik besonders häufig bei der Abnahme von akustischen Instrumenten auf, wesentlich seltener nur sollen Umgebungsgeräusche, Nebengeräusche oder ähnliches mikrofoniert werden. Als vorteilhaft erweist sich, daß man im allgemeinen eine umfangreiche Hörerfahrung mit traditionellen Instrumenten voraussetzen kann, sei es im Rahmen von Aufnahmekritiken, Konzertbesuchen oder auch aus eigener Musizierpraxis, bei der sich sowohl ein spezifisches Vokabular im Umgang mit den Instrumenten als auch gewisse Konventionen finden lassen, wie die Instrumente klingen sollen und welche Anweisungen dafür zur Kommunikation geeignet sind. Auf Basis dieser Erfahrungen, die außerdem durch die langjährige Tradition der Ausbildungen an Musikhochschulen stets weitervermittelt werden, läßt sich für viele Angaben zur Abnahme von akustischen Instrumenten bereits auf eine etablierte Sprache zurückgreifen, die allerdings durchaus sehr instrumentenspezifisch oder auch spieltechnisch geprägt sein kann. Es sei nebenbei bemerkt, daß eine solche Tradition der instrumentenspezifischen Klangkonventionen und der entsprechenden Spieltechniken bei den elektronischen und elektroakustischen Instrumenten wie Synthesizer und Sampler sich zumindest in der klassischen Musiktradition kaum finden läßt, eher noch in der Popmusik, bei der sich allerdings auch erst in jüngster Zeit gewisse Schulen ausbilden. Neben der Beschreibung der zu erreichenden Klanglichkeit gibt es aber weitere Angaben zur Mikrofonierung von Instrumenten, die sich recht gut dokumentieren und reproduzieren lassen, wie beispielsweise die Positionierung der Mikrofone. Gut untersucht ist die Abstrahlcharakteristik bei den traditionellen akustischen Instrumenten54, so daß sich daraus auch Rückschlüsse auf die zu erreichende Klanglichkeit ziehen lassen. Gerade in der zeitgenössischen Musik werden zusätzlich viele Spieltechniken gefordert, die ungewöhnlicher Mikrofonpositionen bedürfen. Deren Dokumentation kann in solchen Fällen sehr aufschlußreich für die zu erreichenden klanglichen Ergebnisse sein. Ebenso festgehalten werden sollte der Einsatz von bestimmten Mikrofonprinzipien, die auf Übertragungseigenschaften des Mikrofons schließen lassen. Nicht nur der Nahbesprechungseffekt bei Nierencharakteristik, die verschiedene Richtwirkung von Mikrofo54 vgl. z.B. Meyer 1999 S. 107-142 51 nen oder der Unterschied von großen und kleinen Membranen, sondern gerade die Nutzung von Kontaktmikrofonen sind gute Beispiele für Techniken der Mikrofonierung, die in jedem Fall zu dokumentieren sind, wenn sie aus Gründen des klanglichen Ergebnisses explizit ausgewählt wurden. 2.2.4.2 Lautsprecher Viele klangliche Anforderungen, die im Umgang mit Mikrofonen als für die Dokumentation nötig herausgearbeitet wurden, treffen in gleichem Maße auf die Auswahl der Lautsprecher zu, da insbesondere beim Einsatz von live bearbeiteten oder nur verstärkten Instrumenten die gesamte Signalkette für das klangliche Ergebnis verantwortlich ist. Darüber hinaus gilt es aber für den Einsatz von Lautsprechern immer, den Raum mit zu berücksichtigen. Zunächst hat die Positionierung und Auswahl der Lautsprecher einen wesentlich höheren Einfluß auf den beim Zuhörer erzeugten Eindruck von Räumlichkeit als die entsprechenden Parameter bei Mikrofonen. Der Grund hierfür ist die unter Umständen recht große Entfernung der Zuhörer von den Lautsprechern, während die Mikrofonposition bei der Weiterverarbeitung für Live-Elektronik fast immer sehr nah beim Instrument liegt. So beeinflußt die Positionierung und Richtwirkung der Lautsprecher recht stark den Eindruck der Räumlichkeit, während die Richtwirkung und Positionierung bei Mikrofonen eher für die Signaltrennung und für die abgenommene Klanglichkeit verantwortlich ist. Für die Höhe der Rückkopplungsgrenze bei Verstärkung sind beide Richtwirkungen und Positionierungen gleichermaßen wichtig. Hinsichtlich der Lautsprecher läßt sich weiterhin anfügen, daß die Abstrahlcharakteristik und die Positionierung ebenfalls von der Disposition des Publikums im Raum, also von der Verteilung der zu beschallenden Bereiche, abhängen muß.55 Diese Frage kann bei der Planung eines Stückes natürlich nur begrenzt berücksichtigt werden, es sei denn, man schreibt einen ganz bestimmten Raum oder exakte Sitzpositionen vor, die bei jeder Realisierung eingehalten werden müssen, unabhängig vom jeweiligen Aufführungsraum. Sollen die Lautsprecher allerdings nach Kriterien einer bestimmten Klanglichkeit oder definierter Lokalisation im Raum ausgewählt werden, so sollte man dies dokumen55 siehe hierzu auch im Kapitel 3.2 „Aufführungsräume“ 52 tieren. Für jeden Aufführungsraum muß dann in Vorbereitung eines Konzertes ohnehin ein adäquates Beschallungskonzept erstellt oder modifiziert werden. Angaben dazu, welche Bereiche des Publikums aus welcher Richtung und Höhe welche Signale idealerweise wahrnehmen sollten, sind dabei in der Regel hilfreicher, als definitive Vorgaben zu Typen oder Positionierung von Lautsprechern. Eine prinzipielle Ausnahme bildet hierbei der Einsatz von Lautsprechern zum Zweck des Monitoring, da es in diesem Falle alleine um die gute Verständigung und Hörbarkeit von Signalen auf der Bühne geht. Monitoring soll so wenig wie möglich Einfluß auf das akustische Geschehen im Zuschauerraum haben und wird auch stets daraufhin eingerichtet. Sowohl das Konzept als auch der Einsatz von Monitoring sind immer abhängig vom Aufführungsraum, aber auch vom Geschmack der Instrumentalisten, die das Monitoring benötigen. Daher kann man beim Monitoring ausschließlich auf individuelle Situationen bezogen arbeiten, stets ist ein Kompromiß zu finden zwischen einer guten Arbeitsumgebung auf der Bühne und so wenig wie möglich störenden Einflüssen im Zuschauerraum. So ist es wenig sinnvoll, allgemeine Vorschriften zum Monitoring zu machen, allenfalls der Hinweis auf häufig entstehende Kommunikationsprobleme und ihre Beschreibung aus der Erfahrung im Umgang mit dem Stück sind sehr hilfreich für eine Dokumentation. Zusammenfassend läßt sich also sagen, daß mit Ausnahme von Monitoring für die Lautsprecher eher die Funktion im Raum hinsichtlich des Resultats für das Publikums zu beschreiben ist, für die Mikrofone eher die Funktion am Instrument hinsichtlich des in die Elektronik eingehenden Signals. 2.2.5 Steuerung Die Betrachtung der Elemente von Technik, die zur Steuerung der bisher besprochenen Prozesse angewandt werden, ist so umfangreich, daß hier nur die unterschiedlichen Prinzipien besprochen werden sollen, unter denen sich Steuerelemente zusammenfassen lassen. Es gibt Forschungsgruppen, Teile der Audioindustrie und spezialisierte Institute, die sich sehr umfangreich mit dem Erstellen von „Controllern“, wie die Hardware53 Apparaturen zur Steuerung genannt werden, mit dem Entwickeln von Methoden zur gestischen Steuerung und der Forschung an den zugehörigen Schnittstellen (Interfaces) zur Datenübertragung beschäftigen.56 Da jeder Controller unterschiedliche Konfigurationen von Steuerelementen enthält, denen jeweils verschiedenste Parameter entnommen werden können, gibt es zwei zentrale Fragen beim Einsatz zur Steuerung von den bereits besprochenen Prozessen. Erstens muß definiert werden, wie aus dem Controller die entsprechenden Parameter entnommen werden sollen. Dies ist allerdings nur bei konkreter Realisierung von Controllern wichtig, oder hinsichtlich der von uns betrachteten Reproduzierbarkeit ebenso bei Nachbauten von Controllern. Auch bei Parametergewinnung aus analysierten Audio- oder Videodaten ist dieser Prozeß zu definieren. Zweitens muß die Zuordnung der Parameter der Steuereinheit zu den Parametern des gesteuerten Prozesses festgelegt werden. Dieses Zuordnen bezeichnet man auch als Mapping von Parametern. Unmittelbare Steuerung Wird ein Prozeß der Audiobearbeitung, -generierung oder -zuspielung direkt über einen Controller gesteuert, ist also für den Interpreten die direkte Verbindung von Daten aus seiner Steuereinheit und von gesteuerten Parametern gegeben, dann kann man von direkter oder unmittelbarer Steuerung sprechen. Beispielsweise kann die Tonhöhenangabe über eine Klaviatur oder die Einordnung im Panorama über einen Drehregler in dieser Form vorliegen. Zur unmittelbaren Steuerung versucht man, wie in den genannten Beispielen, häufig Steuerelemente zu konstruieren, die an analogen Vorbildern orientiert sind, da der Interpret in diesem Falle auf Erfahrungen und Training mit entsprechenden analogen Instrumenten zurückgreifen kann. Zur Definition benötigt man die aus der Steuereinheit entstehenden Daten, die Daten des zu steuernden Gerätes oder Prozesses und das zugehörige Mapping. 56 vgl. z.B. die „Discussion Group on Gesture Research in Music“ am Pariser IRCAM: http://recherche.ircam.fr/equipes/analyse-synthese/wanderle/Gestes/Externe/ [Stand 2006-09-25], und auf ihrer CD-Rom „Trends in Gestural Control of Music“, Ircam - Centre Pompidou, Paris 2000 oder verschiedene Projekte am Amsterdamer STEIM: http://www.steim.org/steim/ [Stand 2006-09-25] 54 Mittelbare Steuerung Generiert die Steuereinheit die Kontrolldaten nicht direkt, sondern werden sie erst durch eine Analyse erstellten Materials gewonnen, dann kann man von mittelbarer Steuerung sprechen. Es ist kein Controller zur direkten Eingabe vorhanden, sondern man muß Algorithmen zur Analyse von vorliegendem oder live erstelltem Material liefern. Man kann beispielsweise Audiosamples, gefilmte Bewegungen, Lichtspektren usw. untersuchen und daraus die Daten zur Steuerung von den oben genannten Prozessen generieren. In diesem Fall benötigt man zusätzlich zu den bei der unmittelbaren Steuerung nötigen Angaben den Analysealgorithmus, der eingesetzt werden soll. Steuerung aus unkalkulierbaren Prozessen Eine abgewandelte Form von mittelbarer Steuerung entsteht, wenn die Analyse nicht auf manuell erzeugtes Material angewandt wird, sondern auf Prozesse, in deren Ablauf kein Interpret mehr eingreift. Zufällige, chaotische oder unbewußt erzeugte Informationen werden ausgewertet und die gewonnenen Daten zur Steuerung eingesetzt. Man kann zum Beispiel chaotische Algorithmen einsetzen, die sich selbst anregen und so unvorhersehbare Daten produzieren, oder auch Rauschen, Signalstörungen oder Umweltgeräusche zur Steuerung analysieren. Im Prinzip gehört auch Radioempfang zu dieser Gruppe von steuerndem Material. In diesem Fall benötigt man Informationen über die Art, das Material zu gewinnen, es zu analysieren, die Ergebnisse der Analyse auf Parameter der zu steuernden Prozesse anzuwenden und darüber, wo man doch manuell eingreifen soll, und sei es nur zum Einoder Ausschalten. Automatisierte Steuerung Schließlich gibt es weiterhin den Fall, daß Daten zur Steuerung überhaupt nicht während des Ablaufs eines Stückes erstellt werden, sondern sämtlich vorprogrammiert werden können. Ein sehr gutes Beispiel hierfür ist die Automatisierung einer Mischung am Mischpult, die dann jederzeit abgerufen werden kann. 55 Zur Dokumentation einer solchen automatisierten Steuerung ist es unerheblich, auf welchem System die Daten zur Automation gespeichert werden, solange das System die Anforderungen der Steuerung erfüllen kann. Es müssen nur die zu steuernden Vorgänge und ihre Zuordnungen zur Zeitachse festgehalten werden. Bei teilweise automatisierter Steuerung kann dies beispielsweise durch die Angabe von Synchronisationspunkten57 in der Partitur oder anhand einer Zeitleiste geschehen, an denen dann manuell Steuerungsmechanismen ausgelöst werden. Bei vollautomatisierter Steuerung werden diese Mechanismen automatisch ausgelöst, was ebenfalls durch eine am Timecode orientierte Liste geschehen kann, oder aber durch ein computergestütztes „score-follower“Programm, das sich direkt an der Partitur orientiert und nach Eingabe der Tonhöhen, -dauern und Pausen diese mit dem live Gespielten synchronisiert. Die übrigen Parameter, die man bei nicht automatisierter Steuerung detailliert notieren muß, brauchen nicht angegeben zu werden, sondern müssen erst bei der Vorbereitung auf den Einsatz je nach vorhandenem Automatisierungssystem erzeugt werden. Die Angabe von Daten des steuernden Systems sowie der Zuordnungen der Parameter kann völlig entfallen und ist nur als exemplarische Realisierung relevant. 2.3 Signalfluß Betrachtet man nun Konstellationen, in denen die bisher vorgestellten Komponenten von Elektronik zusammengeschaltet werden, muß nicht nur die Frage nach der Definition von Ein- und Ausgang der elektroakustischen Übertragungskette gestellt werden, sondern auch die Übergänge des Audio zwischen den einzelnen Geräten oder Prozessen betrachtet werden. Man kann feststellen, daß einige der genannten Apparaturen oder Verarbeitungsprinzipien je nach Verhalten des eingehenden Signals extrem unterschiedliche Ergebnisse liefern, was auch später nicht durch reversible Operationen wieder ausgeglichen werden kann. Dies betrifft nicht nur Aspekte der Audioqualität, wie den Abstand des Signals zum Grundrauschen, sondern eben auch die Parameter, die von den Apparaturen verän57 Man spricht in diesem Zusammenhang oft von „Cue“-Punkten, kurz „Cues“ 56 dert werden sollen. Beispielsweise regelt ein Kompressor weniger, je niedriger der Eingangspegel ist, wenn der Spitzenpegel unterhalb des Threshold liegt, ist er sogar völlig außer Funktion. Dies kann später auch nicht durch Anhebung des Pegels kompensiert werden. Ebenso verhält sich ein Hall, in den man ein sehr baßlastiges Signal hereingibt: Man kann durch Absenkung der Bässe im gleichen Maße später auch nicht das Ergebnis „retten“. Dies bedeutet, daß man bei genauer Angabe der zu verändernden Parameter nicht nur die Reihenfolge dokumentieren muß, in der die klanglichen Transformationsprozesse aufeinander folgen sollen, sondern auch notieren muß, wie ein Gerät oder ein Prozeß hinsichtlich des Pegels und des Frequenzganges angesteuert werden muß, um so zu arbeiten, wie es beabsichtigt ist. Sehr oft zu kontrollieren sind diesbezüglich die Systeme direkt nach der ersten Schallwandlung, da das einem Mikrofon entstammende Signal nie exakt vorherzubestimmen ist und zudem fast ausschließlich davon abhängig ist, was vor dem Mikrofon passiert, und das ist eben nie identisch. Dennoch müssen auch die Übergänge zwischen den verschiedenen Transformationsprozessen überprüft und gegebenenfalls korrigiert werden, was bei extrem komplex programmierter Automatisierung oder vielseitigem Routing schnell unmöglich werden kann, entweder aus Gründen der Übersichtlichkeit oder weil die entsprechenden Kontroll- und Regelfunktionen nicht vorgesehen wurden. 2.4 Computeranalphabetismus und Bedienerfreundlichkeit Seit in den fünfziger Jahren die elektronischen Studios als eine Ansammlung von technischen Geräten entstanden, die über ihre elektroakustische Funktion klassifiziert werden konnten, wurde es zunehmend praktikabel, das Instrument Elektronik58 als ein modulares System zu behandeln, in dem baukastenartig aus einigen grundlegenden Ele58 Hier und im Folgenden werde ich den Begriff des Musikinstruments auf die Elektronik insofern ausdehnen, daß ich eine vollständige, aus vielen elektronischen Komponenten zusammengesetzte Apparatur, die als solche bestimmte musikalische Funktionen einnehmen kann, jeweils als EIN Instrument betrachten werde. 57 menten immer neue Kombinationen gebildet werden können. Insbesondere seit der Nutzung von Softwareplattformen für Programmierung von Musikelektronik ist diese Kombinierbarkeit von grundlegenden Elementen in ihrer Komplexität enorm gewachsen, da man ohne großen logistischen Aufwand das Ergebnis jederzeit speichern, laden oder ändern kann59. Somit wird durch den Einsatz von elektronischen Apparaturen Komponisten in einem viel größeren Maße als jemals zuvor ermöglicht, ein individuelles Instrument zu erstellen. Allerdings ist auch zu erwähnen, daß die umfangreiche Beschäftigung mit den technischen Grundlagen für Musikelektronik sehr viel Zeit in Anspruch nimmt, und man sich viele Kenntnisse aneignen muß, die früher aus dem Gebiet der Nachrichtentechnik, heute aus dem Gebiet der Informatik stammen und mit Musik zunächst nicht viel zu tun haben. Daher findet man seitens der Komponisten immer zwei Standpunkte im Umgang mit Elektronik: Die einen sind primär daran interessiert, die Elektronik in der Musik als ein weiteres, allerdings sehr umfangreiches Instrument zu nutzen, möchten aber die technischen Grundlagen nur insofern kennenlernen, um damit das Resultat für die Komposition abschätzen zu können. Die anderen begeistern sich daran, auf der Basis von Elektronik immer neue Instrumente zu entwickeln, erstellen diese häufig von Grund auf selber und beschäftigen sich daher aus eigenem Interesse viel mit den technischen Grundlagen, um diese auch in ihrer direkten elektronischen Wirkung besser verstehen zu können. Den Ersteren kommt es zugute, daß in den großen elektronischen Studios stets Ingenieure und Programmierer arbeiten, die ihnen dort unterstützend zur Seite stehen, weil sie alleine ihre Ideen in der Elektronik nicht umsetzen könnten. So beschreibt beispielsweise Hans Peter Haller, der Gründer des Experimentalstudios des SWR in Freiburg, 59 Es sei darauf hingewiesen, daß es natürlich weiterhin Programme für Elektronik gibt, die TextzeilenProgrammierung nutzen, aber die beiden meistverbreiteten Programme für Live-Elektronik, Max/Msp von Cycling '74 und Miller Puckettes PD als open-source-Alternative, arbeiten beide auf der Basis von objektorientierter graphischer Programmierung mit einzelnen Bausteinen (Objekten) und Verbindungslinien in einer Art Schaltplan. 58 seinen Eindruck von Luigi Nono folgendermaßen: „Nono hat sich nie für die Innereien eines Gerätes näher interessiert, sein Bestreben lag im Kennenlernen, im Studieren, im Experimentieren mit dem klingenden Ergebnis (Output).“60 Ebenso berichtete Pierre Boulez, auf dessen Initiative das Pariser IRCAM gegründet wurde, noch vor nicht einmal zwei Jahren in einem Interview: „Viele [Komponisten] haben keinen Sinn für Technologie. Ihnen ist es zu kompliziert, sich das vorzustellen. Eigentlich ist es im Umgang mit der Elektronik gar nicht so viel anders, als wenn man für ein Orchester komponiert. Da müssen sie auch nicht selbst Oboe oder Pauke spielen können, sondern nur wissen, wie das Instrument funktioniert. So ist es bei den technischen Dingen auch. Ich selbst bin auch kein Programmierer. Aber ich weiß, wie man die Elektronik einsetzen kann.“61 Da allerdings die traditionellen Strukturen der großen elektronischen Studios stark erodieren, diese teilweise sogar geschlossen werden, wie das Studio für Elektronische Musik des WDR im Jahre 2002, zeichnet sich ein Umbruch in der Szene der elektronischen Studios ab. Es ist seit einigen Jahren mit überschaubarem finanziellem Aufwand möglich, sich zu Hause ein Studio einzurichten, das aus nicht mehr als einem Computer, entsprechender Software und einigen wenigen Zusatzgeräten besteht und in vielen Bereichen für die Belange der Komponisten ausreichend ist. Sollen dann aufwendigere Live-Elektronik oder Raumsteuerungen angewendet werden müssen, kann man immer noch einen größeren Raum und Material mieten, da das eigene Setup mit der vorbereiteten Elektronik extrem mobil ist. Für diejenigen Komponisten, die, wie die beiden oben zitierten, eher angewandt arbeiten wollen, und sich von der Programmierung weitgehend fernhalten möchten, begann die Industrie zunehmend Oberflächen und Interfaces zu entwickeln, die bedienerfreundlicher sein sollen als die direkte Programmierung. Laut Friedrich Kittler wird dadurch aber eine Trennung von den Benutzern und den Programmierern forciert: „[Es gibt] nämlich [unter] den Computerkünstlern manchen, der Computercodes zwar lesen und deshalb 60 Haller 1997, Bd. 2, S. 118 61 Siemes/Spahn 2004, S.44 59 auch einsetzen kann, aber ihr Anschreiben sogenannten Programmierknechten überlassen muß. [...] Den Computeranalphabeten, die Codes weder lesen noch schreiben können, soll dadurch geholfen werden, daß sie mit binären Zahlen und unverständlichen Buchstabenfolgen überhaupt nicht mehr in Berührung kommen. Die Innereien der Maschine bleiben selbstredend weiter digital, weil sie sonst gar nicht laufen würden, aber ihre Benutzerschnittstelle nimmt mehr und mehr die Züge analoger Unterhaltungsmedien an, wie sie seit gut hundert Jahren vertraut sind. [...] So wird die Trennlinie zwischen einer neuen Elite und dem Rest der Welt zum integralen Teil von Hardware und Software gleichermaßen, also zementiert.“62 Wenn es nun Komponisten gibt, die unter Zuhilfenahme solcher vermeintlich bedienerfreundlicher Oberflächen arbeiten und Klänge oder Klangverarbeitungsprozesse für ihre Kompositionen benutzen, deren Ursprung man zumindest anhand des Interfaces allein nicht erklären kann, wenn man nicht die genauen Algorithmen kennt, entsteht hinsichtlich der Reproduzierbarkeit ein enormes Problem. Man ist in der Folge darauf angewiesen, exakt diese Oberfläche zu nutzen, um das gewünschte Resultat zu erhalten, zumindest solange der Programmcode unter Verschluß gehalten wird. Eine Abstraktion zum Zwecke der allgemeingültigen Dokumentation ist nicht möglich. Kittler beschreibt im weiteren Verlauf sehr kritisch, daß dort, wo den Nutzern durch den Einsatz von geschützter Software jede Möglichkeit des tieferen Eingreifens in die Software verwehrt bleibt, nur die finanziellen Interessen der Industrie bedient werden. Für ihn ist die Förderung und Nutzung von Software, die nachvollziehbar bis zur Systemebene in den Computer eingreift, das Mittel der Wahl: „Wo immer eine Anwendung die Kluft gegenüber der Systemprogrammierung einebnet, weil sie wie die sogenannte Anwendung namens Programmierung schlicht und einfach das tut, wofür Computer schließlich konstruiert worden sind, fällt mit den graphischen Benutzeroberflächen auch die künstliche Mauer zwischen Herstellern und Benutzern wieder dahin. Eine Maschine, die nach Turings Definition alle anderen Maschinen soll imitieren können, kann eben keine unveränderbaren Zustände einnehmen. Sie stellt den Begriff des geistigen Eigentums, an dem die Computerindustrie inständiger festhält als alle Schriftsteller, die diesen Begriff seit Fichte und Goethe erfunden haben, grundsätzlich in Frage. Sicher, ein technisch gezüchteter und zementierter Computeranalphabetismus wirft Geld ab: Leute, die Codes weder lesen noch schreiben können, werden unmöglich zu Hackern. Aber ob dieser elektronische Protektionismus [...] sein Geld wert ist, steht in den Sternen“63 62 Kittler 2002, S. 122ff. 63 Kittler 2002, S. 127f. 60 Darüber hinaus steht allerdings auch in den Sternen, wie in dem von uns betrachteten Fall der Anwendung auf Live-Elektronik der Code zur Dechiffrierung der entsprechenden Informationen auch in Zukunft verfügbar sein wird, wenn dessen Aufrechterhaltung und Pflege von finanziellen Interessen abhängt, die aufgrund der fehlenden Masse der Benutzer in diesem speziellen Bereich nicht zu leisten sind. Wie bereits im Zusammenhang mit Zuspielbändern angesprochen, ist es in jedem Fall sicherer und einfacher, wenn der Code offen zur Verfügung steht, wie Miller Puckette erwähnt: „An artist who thinks carefully about preserving his or her work will naturally prefer the open source solution, because it's much easier to keep running than a proprietary one can ever be.“64 64 Scheib 2006, S.168 61 3. Überlegungen zur Interpretation Während im letzten Kapitel Aspekte der Funktionalität der Technik analysiert wurden, stellt sich bei der Aufführung eines Werkes mit Live-Elektronik darüber hinaus die Frage nach dem interpretatorischen Umgang mit der Technik. Es reicht nicht aus, daß man die Technik funktionsfähig macht, man muß auch die Fragen beantworten, wie man sie akustisch umsetzen kann, und welche ihrer Komponenten wie zu behandeln sind. 3.1 Der künstlerische Umgang mit Verstärkung Beim erwünschten oder zumindest explizit tolerierten Einsatz von Verstärkung65 von akustisch vorhandenen Informationen gibt es einige Parameter, die in Angaben zum interpretatorischen Umgang mit einem Stück gesondert betrachtet werden sollten. Wie schon beim Einsatz von Lautsprechern erwähnt, gilt auch für die Verstärkung, daß sie extrem situations- und raumbezogen eingesetzt werden muß. Jedes individuelle Instrument hat spezielle Eigenheiten im Abstrahl- und Frequenzverhalten, jeder Raum reagiert anders auf Verstärkung, daher sollte auch hier sinnvollerweise die Beschreibung des erwünschten Resultats einer technischen Beschreibung des Vorgangs der Verstärkung vorgezogen werden. Im Folgenden sollen einige akustische Auswirkungen von Verstärkung analysiert werden, um diese in einer Dokumentation zu ihrem Einsatz in einem Werk adäquat differenzieren zu können. 3.1.1 Änderung der Dynamik Daß Verstärkung Auswirkungen auf die in den Raum projizierte Dynamik eines Instru65 Wenn hier und im Folgenden von „Verstärkung“ die Rede ist, soll immer die Verstärkung von akustischem, meist instrumentalem Klangmaterial in Echtzeit gemeint sein, für die Umsetzung von sämtlichem sonstigen Audiomaterial werde ich den allgemeineren Begriff „Beschallung“ verwenden. 62 ments hat, ist evident, jedoch gibt es einige Aspekte der Veränderung der Dynamik, die darüber hinaus stets zu beachten sind. Da das zu verstärkende Signal üblicherweise recht nah mikrofoniert wird und dort mit einer großen dynamischen Bandbreite abgenommen wird, kommt es vor, daß bei entsprechender Verstärkung die beim Zuhörer ankommende Dynamik sehr groß ist, zu groß sogar, um noch einer instrumental erzeugten Dynamik nahezukommen. Dies ist insbesondere bei sehr leisen Signalen oft der Fall, die in Relation zu lauten Signalen deutlich mehr verstärkt werden müssen. Ist dann das Ziel der Verstärkung, die natürlich klingenden Instrumente unauffällig zu unterstützen, wird es oft notwendig, die Signale der sehr nah mikrofonierten Instrumente vor der Projektion etwas zu komprimieren oder sie ständig mitzuregeln. Andererseits kann diese vergrößerte Dynamik von akustischen Signalen auch gerade dazu genutzt werden, die dynamische Verhaltensweise von akustischen Instrumenten derer elektronischer Instrumente anzupassen, wenn sie zusammen in einem Stück vorkommen. Da bei rein elektronischen Instrumenten oder vorgemischten Zuspielbändern der Dynamik nur die physikalischen Grenzen der Lautsprecher und Verstärker gesetzt sind, anders als bei akustischen Instrumenten, wo Physis des Spielers und das Material weitgehend die dynamischen Grenzen bestimmen, passiert es häufig, daß diese beiden Ebenen sehr verschieden sind. 3.1.2 Änderung der Klangfarbe Für die Auswirkungen der Verstärkung auf die Klangfarbe gelten recht ähnliche Kriterien wie die der Dynamik der verstärkten Instrumente. Durch die nahe Mikrofonierung kann für die Verstärkung ein Klangspektrum abgenommen werden, das fast nicht von der Akustik des Raums nivelliert ist und wesentlich differenziertere Frequenzen enthält als diejenigen, welche beim Zuhörer ohne Verstärkung ankommen. Vor allem hochfrequente Anteile sind noch nicht durch lange Wege von der Luft absorbiert worden. Hinzu kommt die Positionierung der Mikrofone in Relation zum Instrument als wesentliches Kriterium für die zu erhaltenden Frequenzanteile, wie bereits im Absatz über Mikrofone erwähnt. So werden immer einige Teile des Spektrums des zu verstärkenden Signals mehr und einige andere weniger stark hervorgehoben. Gerade die genannten hochfre63 quenten Anteile des Klangspektrums von Instrumenten sind häufig bedeutend, um so eine Angleichung an das Spektrum von elektronischen Instrumenten zu ermöglichen. 3.1.3 Subjektive Nähe Sowohl die Vergrößerung der Dynamik als auch die Projektion von Klangfarben, die normalerweise nur in geringer Entfernung vom Instrument vorhanden sind, haben bei starkem Einsatz von Verstärkung zur Folge, daß sich für den Zuhörer ein Gefühl der akustischen Nähe zum Instrument einstellt, welches dem visuellen Eindruck widerspricht. Zudem ist es möglich, daß durch die Positionierung der Lautsprecher, die sich in der Regel näher am Zuhörer befinden als die zu verstärkenden Schallquellen, dieser Effekt noch verstärkt wird. Um diesem Phänomen entgegenzuwirken gibt es die Möglichkeit, die Lautsprechersignale derart mit Delay zu versehen, daß sie für den Zuhörer zusammen mit oder sogar nach dem Direktschall vom Instrument eintreffen. Nach dem Gesetz der ersten Wellenfront wird das Instrument dann wieder aus der Richtung des Direktschalls geortet 66 und die Verstärkung weniger wahrgenommen, da die Kopplung an den visuellen Eindruck wieder stimmig ist. Auch die Dynamik der verstärkten Signale kann, wie bereits erwähnt, mit Kompressoren an die Dynamik der Originalsignale angeglichen werden, ebenso die Klangfarbe über Filter. Allerdings funktionieren alle diese Schritte zur Verschmelzung des verstärkten Klanges mit dem Originalklang nur dann, wenn die Verstärkung nicht zu groß ist, ansonsten verdecken die Lautsprechersignale nahezu völlig die Originalsignale und diese sind nicht mehr differenziert wahrzunehmen. Es gibt allerdings auch den Fall, daß sich die Diskrepanz zwischen Originalklang und verstärktem Klang als künstlerisch interessant herausstellt und sogar besonders gefördert wird. So bemerkt der Komponist Heiner Goebbels hierzu beispielsweise: „Generell versuche ich mit den Lautsprechern nicht, die Distanz, die sich zwischen Bild und Ton ergibt, zu überspielen, sondern zu vergrößern. [...] Mich interessiert es, den Körper vom Klang zu trennen und 66 Siehe auch Kapitel 3.1.4 64 dann als Zuschauer die Verbindung wiederherzustellen. [...] Ich schaffe damit eine akustische Bühne, die ich von der optischen Bühne trenne, eine zweite Bühne also. In dem Zwischenraum werde ich als Zuschauer aktiv.“67 3.1.4 Lokalisation Befindet sich beim Einsatz von Verstärkung der Lautsprecher nicht am gleichen Ort wie das zu verstärkende Signal, wie es meist der Fall ist, gibt es zwei reale Schallquellen für das gleiche Signal (oder zumindest für sehr ähnliche), beim Einsatz von allen Formen von Phantomschallquellen sogar noch mehr Quellen. Der exakte psychoakustische Prozeß, nach dem sich die subjektive Lokalisation dann vollzieht, ist recht komplex. Es läßt sich aber generell feststellen, daß je nach Disposition, Pegel, Frequenzanteilen und auch je nach Hörplatz die Lokalisation von verstärkten Signalen im Raum enorm beeinflußt werden kann: Entweder bleibt sie bei der originalen Schallquelle, oder sie wird teilweise oder auch gänzlich von den Lautsprechern bestimmt. Auch wenn jeder Raum sowie jedes Lautsprecherkonzept individuell reagiert, kann zumindest dokumentiert werden, inwieweit die Lokalisation der Schallquellen sich von ihrer realen Position lösen dürfen oder sollen und wie sie sich dann verhalten sollen. Es muß allerdings beachtet werden, daß es in der Realität der heute vorhandenen Konzertsäle oft nur an den wenigsten Hörplätzen tatsächlich möglich ist, einigermaßen optimale akustische Bedingungen für eine Lokalisation von allen Seiten zu schaffen.68 3.1.5 Absolute und relative Lautstärke Ein weiterer Aspekt von Verstärkung ist neben dem Hörbarmachen von sehr leisen akustischen Signalen die generelle Möglichkeit, die Gesamtlautstärke in einem Maße zu heben, wie es mit den Signalen bei rein akustischer Übertragung nie möglich wäre. Insbesondere bei klangästhetischen Ansätzen, die popmusikalisch geprägt sind, wird häufig die Forderung nach einer erhöhten Durchschnittslautstärke gestellt, um gewisse physi67 Persönliches Gespräch mit dem Autor am 30.05.2006 68 Mehr dazu in Kapitel 3.2 Aufführungsräume 65 sche Aspekte des Klangs nutzen zu können und einem Publikum zu vermitteln, das selber in seinen Hörgewohnheiten von den physischen Aspekten der Popmusik geprägt ist. Die Frage der Lautstärke ist also stark genreabhängig und zudem mit der Hörgewohnheit des Publikums verknüpft. Während letzteres oft situationsgebunden im Konzert am Mischpult entschieden werden muß, ist die Frage nach der absoluten Lautstärke einer Verstärkung immer sehr schwer allgemein zu vermitteln. Wenn eine Orientierung an der Lautstärke der unverstärkten Instrumente stattfinden soll, kann man diese als Referenz setzen und relativ dazu Abweichungen dokumentieren. Man hat dann allerdings das Problem, daß die Referenzlautstärke nicht über Pegel innerhalb des Verstärkungssystems zu fassen ist, daß man also auch die Abweichungen von ihr außerhalb des elektroakustischen Systems fassen muß, beispielsweise über verbale Formulierungen. Dies wird deutlich, wenn bei einer neuerlichen Aufführung desselben Werks in einem anderen Raum die Werte der Pegel im Mischpult korrigiert werden müssen. Soll die Verstärkung sich nicht an der Lautstärke der unverstärkten Instrumente orientieren, sondern deutlich darüber liegen, ist eine Referenz noch schwieriger zu definieren, nur ein Schallpegelmesser ist für die subjektiv empfundene Lautstärke, an der man sich orientieren soll, nicht ausreichend. Hier kann nur die Erfahrung und der Geschmack entscheiden. Jedoch ist in diesem Fall die Frage der Relation von abweichenden Pegeln besser zu vermitteln, da sämtliche akustisch relevanten Signale durch die Beschallungsanlage erzeugt werden und so innerhalb des Mischpults Pegelverhältnisse definiert werden können. 3.1.6 Rückkopplungen Nicht zu vergessen ist der Aspekt der Rückkopplungen, die bei Verstärkung entstehen können. Da sie in der Regel nicht erwünscht sind, müssen sie bereits bei der Planung eines Lautsprechersetups und der zugehörigen Mikrofonkonfiguration bedacht werden und Vorkehrungen zu ihrer Unterdrückung getroffen werden. In der Regel benutzt man heutzutage stark gerichtete Mikrofone und Lautsprechersysteme, mit denen man relativ klar die Bereiche, für die die Verstärkung greifen soll, von den Bereichen trennen kann, 66 in die die Verstärkung nicht gelangen soll. Darüber hinaus ist das Rückkopplungsverhalten stark von der Halligkeit des Aufführungsraumes abhängig, auch hier können absorbierende Maßnahmen zur besseren akustischen Trennung des zu beschallenden Raumes von den Bereichen, aus denen beschallt werden soll, getroffen werden. Schließlich werden zur Vermeidung von Rückkopplungen außerdem möglichst schmalbandige Filter eingesetzt, die die resonierenden Frequenzen im Pegel absenken können, manchmal kommen dafür auch Laufzeitglieder zum Einsatz, die die Phasenlage des verstärkten Signals im Raum, also auch am Ort des Mikrofons, ändern. 3.2 Aufführungsräume Im Gegensatz zu einer Aufnahme steht man bei der Beschallung eines Konzertes immer vor der Problematik, daß die erstellte Mischung nicht nur für einen Hörplatz optimiert werden kann, sondern daß die Vielfalt der Hörplätze im Aufführungsraum mit ihren akustischen Eigenschaften berücksichtigt werden müssen. Unabhängig davon, daß ein Klangregisseur während der Beschallung immer nur von einem Ort aus zeitgleich hören kann, und daher der Vergleich verschiedener Hörpositionen ohnehin schon schwer fällt, ist es naheliegenderweise überhaupt nicht möglich, ein einheitliches Klangbild an jedem Hörplatz zu erzeugen, alleine wegen der realen Akustik des Aufführungsraums. Es gibt zwar neuere technische Entwicklungen wie die Wellenfeldsynthese, die es theoretisch erlauben, identische Ortung an vielen Plätzen im Hörraum zu erreichen, dieses funktioniert aber nur in extrem schallarmen Räumen (wie es bei Konzertsälen nie der Fall ist) und bei reiner Wiedergabe von Tonträgern. Zudem sind diese Systeme zumindest derzeit noch viel zu leistungsschwach für große Beschallungsanlagen. Folglich ist es also notwendig, für jeden Aufführungsraum in Abhängigkeit vom jeweiligen Werk und seinen speziellen Anforderungen ein neues Beschallungskonzept zu erstellen, das es für den individuellen Raum und die entsprechenden Hörplätze ermöglicht, eine bestmögliche akustische Qualität für den Großteil der Hörer zu gewährleisten. Daß die meisten heute verfügbaren Konzerträume in ihrer Bauweise für solche Aufgaben denkbar ungeeignet sind, sieht man schnell, wenn man sich vor Augen hält, daß es bereits rein logis67 tisch oft unmöglich ist, Lautsprecher hinter oder seitlich des Publikums mit adäquatem Abstand zu installieren, von Systemen zur Installation an der Decke ganz abgesehen. Schon 1972 hat Stockhausen in einem Vortrag auf der Tonmeistertagung gefordert, es sollen in Aufführungsräumen für zeitgenössische Musik „keine Balkone mehr gebaut werden und Lautsprecher rings um die Hörer in genügender Tiefe [...] und in genügender Höhe [...] angebracht werden“69, jedoch werden auch heute noch viele Konzertsäle mit fester Bestuhlung und frontaler Sitzordnung, mit Balkonen und unzureichenden Hängevorrichtungen gebaut. Dieser sehr zu bedauernde Umstand trägt aber umso mehr dazu bei, daß keine generellen Beschallungskonzepte für einzelne Werke entwickelt werden können, sondern daß man immer nach Kompromissen in den jeweiligen Räumen suchen muß. Zudem bleibt ebenso die eigene Akustik des Aufführungsraums, die zusätzlich zur rein baulichen Problematik die Projektion von Musik über Lautsprecher negativ beeinflussen kann. Wie bereits erwähnt sind hier in einigen Konzerträume Vorkehrungen zur Veränderung der Akustik durch Vorhänge, Reflektoren oder Schallkammern vorhanden, selbst diese sind aber in der Regel auf die Anpassung der Akustik im Rahmen unverstärkter Musik ausgelegt. Sobald Lautsprechersysteme installiert werden, müssen oft weitere Maßnahmen zur Dämpfung der Akustik getroffen werden. Ist die Beschreibung des Lautsprechersetups in der Weise vorhanden, wie ich sie weiter oben gefordert haben, nämlich als Beschreibung der Funktion, die die Lautsprecher für den jeweiligen Hörer im Raum einnehmen sollen, dann ist die Adaption auf einen Aufführungsraum in jedem Fall besser zu realisieren, als wenn zunächst aus einem festgeschriebenen Setup erahnt werden muß, welche diese Funktion ist. Weiß man, welche Signale aus welcher Richtung zu orten sein sollen, dann kann man auch für die „benachteiligten“ Hörzonen im Saal versuchen, durch Stützlautsprecher die verlorengehenden Informationen aufrechtzuerhalten und so eine Angleichung der akustischen Qualität auf den verschiedenen Sitzpositionen zu erreichen. Schließlich bleibt ein weiterer Punkt, der sich zwar eher auf die Realisierbarkeit als auf die Dokumentation auswirkt, aber ebenfalls schon in dem erwähnten Vortrag von Stockhausen angesprochen wurde, und immer wieder zu Konflikten führt: dies ist die 69 Stockhausen 1974 S. 436 68 Möglichkeit, die Position des Mischpultes und der am FOH-Platz70 darüber hinaus benötigten Technik an einer geeigneten Position im Publikum zu installieren, so daß dem Klangregisseur überhaupt eine sinnvolle Beurteilung des klanglichen Resultats während der Aufführung möglich ist. 3.3 Klangideale und Mischreferenzen Durch das Auftreten einer enormen Stilvielfalt in der zeitgenössischen Musik hat sich in den letzten Jahrzehnten herausgestellt, daß es sowohl seitens der Komposition als auch der Interpretation immer mehr Bestrebungen zu einer extremen Individualisierung gibt. Dies hat zur Folge, daß sich wesentlich weniger als früher Schulen von Stilen mit einer eigenen Tradition bilden können, sondern daß häufig für jeden Komponisten oder sogar für jedes Werk individuelle Kriterien der Interpretation zu finden sind, die sich nur aus dem Umgang mit Materialien erschließen lassen, die dem persönlichen oder zumindest sehr nahem Umfeld des Komponisten entstammen. Der persönliche Kontakt zum Komponisten oder auch zu Personen, die unmittelbar mit ihm und für ihn gearbeitet haben, ist natürlich eine sehr zuverlässige und authentische Quelle. Auf diesem Wege kann sich eine mündliche Tradition bilden, wie sie auch derzeit im Umgang mit der musikalischen Literatur der Werke der zeitgenössischen Musik nahezu ausschließlich zu finden ist. Es ergibt sich dann auch, daß an einigen Punkten, in der Regel an entsprechenden Instituten oder bei recht aktiven und prominenten Interpreten, viele solcher mündlichen Traditionen von unterschiedlichsten Komponisten zusammenlaufen und sich diese Personen oder Institute dann auch als Vermittler der zugehörigen Informationen anbieten. Bei der Dokumentation eines Werkes mit Live-Elektronik stellt sich aber nun die Frage, wie es gelingen kann, für zukünftige Interpreten diejenigen ästhetischen Aspekte, die über eine rein funktionale Beschreibung der Technik hinausgehen, auch unabhängig von solcher direkter mündlicher Tradition so weit wie möglich faßbar zu machen und welche Formen der Präsentation sich dafür anbieten. 70 „Front Of House“ bezeichnet den Platz im Saal, an dem die Klangregie, inklusive der dort benötigten Apparaturen, plaziert ist. Idealerweise ist dies mitten im Publikum, quasi am durchschnittlichen Hörplatz. 69 Im Folgenden werde ich einige Medien analysieren, die häufig im Zusammenhang mit einem existierenden Werk oder Komponisten erhältlich sind und deren Tauglichkeit für zusätzliche Informationen zu einem Werk mit Live-Elektronik prüfen. Wie Informationen innerhalb der Partitur möglichst universell verständlich umgesetzt werden können, soll im Kapitel 4.3 thematisiert werden. 3.3.1 Aufnahmen Sehr oft lassen sich von Werken, die im Rahmen von Konzertreihen und Festivals zeitgenössischer Musik (ur)aufgeführt wurden, Mitschnitte verschiedenster Art finden, bisweilen auch Studioproduktionen, insbesondere bei prominenten Komponisten. Es stellt sich die Frage, inwieweit eine solche Aufnahme dem Zugang zu einem Werk dienlich sein kann, oder unter welchen Aspekten es auch problematisch sein kann, adäquate Informationen von ihr zu erhoffen. Zunächst ist zu klären, ob der Komponist die Aufnahme kennt und beurteilt hat, ob er vielleicht sogar anwesend war, um spezielle Adaptionen während der Aufnahme vorzunehmen oder beratend tätig zu sein. Weiterhin ist es gut zu wissen, unter welchen Umständen die Aufnahme stattfand, ob es eine Studioproduktion war, bei der zumindest davon auszugehen ist, daß technisch alles funktioniert hat und daß auch der interpretatorische Teil eine Auswahl aus vielen Versuchen überstanden hat, oder ob es sich eventuell um einen echten Konzertmitschnitt handelt, bei dem sich im Ablauf Fehler eingeschlichen haben können. Bei Konzerten hingegen ist es häufig so, daß die Interpreten besonders viel Wert auf die Wirkung im Großen legen, auch die innere Spannung ist höher und besonders bei improvisierter Musik kann die direkte Rückmeldung aus dem Publikum für zusätzliche Inspiration sorgen. Zudem kann man sich aufgrund des hohen Zeitaufwands für Studioproduktionen manchmal gute Räume oder Instrumente nur für Konzerte leisten. Aspekte der Räumlichkeit von mehrkanaliger Beschallung lassen sich insbesondere bei den meist zu findenden Stereo-Aufnahmen nur unzulänglich beurteilen, jedoch ist dies sehr abhängig davon, wie mit dem im Raum verteilten Material bei der Mischung umgegangen wurde. So können beispielsweise kopfbezogene Mischungen oder sogar Kunst70 kopfaufnahmen bei der Wiedergabe über Kopfhörer wesentlich bessere Eindrücke vermitteln, als sogar manche Surround-Aufnahmen über mehr als zwei Lautsprecher. Die Darstellung der Verteilung und Wirkung von vertikal im Raum verteilten Klangereignissen dürfte selbst so problematisch bleiben. Durch den Einsatz von Stützmikrofonie oder direkter Abnahme von Elektronik bei der Aufnahme kommt es darüber hinaus meistens zu Verzerrungen des Klangbilds gegenüber dem Klangeindruck im Zuschauerraum. Betroffen sind die meisten Parameter, die im Zusammenhang mit interpretatorischen Aspekten der Verstärkung im letzten Kapitel besprochen wurden, nur daß in diesem Fall der aufnehmende bzw. mischende Toningenieur oder Tonmeister die Instanz zur Bewertung dieser Verzerrungen war. So können auch bei Aufnahmen über die Veränderung der Dynamik, der Klangfarben der Instrumente, der Lokalisation und der subjektiven Nähe Klänge aneinander angeglichen oder voneinander unterschieden werden. Dies trifft in besonderem Maße auf elektronische oder elektroakustisch veränderte Klänge und ihr Verhältnis zu den akustischen Klängen zu, wenn sie nicht im Raum über Mikrofone aufgenommen werden, sondern vor der Projektion über die Beschallung für die Aufnahme bereitgestellt werden. Gerade dann ist ein Kommentar des Komponisten oder des Klangregisseurs zu der Aufnahme vonnöten, um diese Unterschiede qualitativ erfassen zu können und wieder Rückschlüsse auf die beabsichtigte Wirkung im Raum zu ermöglichen. Eine Videoaufnahme der Interpreten ist im Übrigen hilfreich für die Dokumentation der Inszenierung und der Aktionen der Interpreten, kann aber nur selten als Orientierung für die akustische Projektion genutzt werden. 3.3.2 Schriften / Programmtexte Bei Schriften über Komponisten oder einzelne ihrer Werke, die ästhetische Vorstellungen über die Gestalt der jeweiligen Musik und ihrer adäquaten Interpretation vermitteln können, muß zunächst getrennt werden, ob der Komponist selbst der Autor dieser Schriften ist oder nicht. Sollte dies nicht der Fall sein, ist es wichtig herauszufinden, wie sehr der Autor in Arbeitsprozesse von Proben und Aufführungen von Werken des Komponisten involviert war, wie sehr seine ästhetische Vorstellung also durch Arbeitspro71 zesse mit dem Komponisten geprägt ist. Wenn es so gelingt, an verläßliche Informationen über die mehr oder wenige individuelle Ästhetik zu gelangen, dann können Texte über Komponisten oder einzelne ihrer Werke gute Hinweise auf entscheidende Aspekte der Interpretation geben, den Fokus der Arbeit an einem Werk auf für den Komponisten sehr Wichtiges lenken und beispielsweise so das Verhältnis des Komponisten zur Technik und zu den mit ihr beschäftigten Personen verdeutlichen, um die Rolle zwischen Interpret und Techniker zu definieren, die einem Klangregisseur in der Aufführung zukommen soll. Auch historische Hintergründe und Umstände der Entstehung oder Aufführung eines Werkes, die für die Interpretation Bedeutung erlangen, können über Schriften jeglicher Art recht gut kommuniziert werden. 3.3.3 Interviews / Porträts Jegliche Form von Interviews oder auch Porträts eines Komponisten können ähnliche Informationen beinhalten, wie die gerade besprochenen Schriften, jedoch ist es hierbei offensichtlich, daß die Darstellung der Person und ihrer Ansichten sehr von der Art der Interviewführung oder Regie des Porträts beeinflußt ist. Gerade durch gezieltes Fragen im Interview kann ein Gespräch inhaltlich stark gelenkt werden, ebenso kann bei der Zusammenstellung eines Porträts durch subjektive Auswahl beim Schnitt der Schwerpunkt einer Darstellung innerhalb gewisser Grenzen verschoben werden. 3.4 Alte oder neue Technik? Vor dem Hintergrund der schnellen Alterung der technischen Komponenten der LiveElektronik ist es fraglich, inwieweit und nach welchen Kriterien man bei der Aufführung älterer Werke die „originale“, also die bei der Uraufführung eingesetzte Technik benutzen sollte, wenn dies möglich ist, oder ob man versuchen sollte, wo immer es sinnvoll und machbar ist, neuere Technik zu verwenden. 72 Außerdem muß bei der Erstellung von Werken mit Live-Elektronik die Frage gestellt werden, wie weit man die Konfiguration für zukünftige Entwicklungen in der Technik öffnet. Bei der Aufführung solcher Werke mit Live-Elektronik, deren Technik heute als historisch gelten muß, ist es naheliegend, daß man durch den Einsatz der technischen Aufbauten, die bei der Entstehung der Werke genutzt wurden, die größtmögliche Annäherung an Aufführungen der Entstehungszeit erreichen kann. Dies ist natürlich nur dann möglich, wenn die „originale“ Technik zur Verfügung steht und voll funktionsfähig ist und wenn man ebenso ihre Bedienung in einer adäquaten Weise garantieren kann. Im selben Zuge wird man dann allerdings auch mit den eventuellen technischen Problemen konfrontiert werden, vor denen die Ausführenden bereits früher gestanden haben, obwohl es dafür unter Umständen in der aktuellen Situation einfache Lösungen gäbe. Die mögliche Annäherung an eine Aufführung der Entstehungszeit muß jedenfalls nicht notwendigerweise der Idee des Komponisten hinsichtlich des Einsatzes der Technik nahekommen. Sich dieser Idee zu nähern ist nur möglich, wenn es gelingt zu ergründen, warum bestimmte Apparaturen zur Zeit der Uraufführung oder auch bei einzelnen Konzerten genutzt wurden, falls deren Einsatz überhaupt dokumentiert wurde. Die entscheidende Frage ist hierbei, ob bestimmte technische Komponenten oder Verfahrensweisen, die Eigenheiten beispielsweise klanglicher Art besitzen, eben wegen dieser Eigenheiten ausgewählt wurden, oder ob der Komponist eher auf den prinzipiellen Prozeß der Bearbeitung oder Steuerung Wert gelegt hat, unabhängig von der konkreten Art der Realisierung. Gelingt es, darüber Informationen zu erlangen, kann man daraus ableiten, ob die Übertragung des betrachteten Teils der Live-Elektronik auf andere Technik dem intendierten Einsatz der Elektronik widerspricht oder ob es sich nur um eine alternative Realisierung desselben Konzeptes der Elektronik handeln würde. Ist es nur möglich, Informationen über die ursprünglich eingesetzte Technik ohne eine Wertung dieser seitens des Komponisten oder anderer ursprünglich Beteiligter zu erhalten, ist nicht immer ersichtlich, ob bestimmte technische Komponenten, die vom heutigen Standpunkt aus als verbesserungswürdig erscheinen, nur aus Mangel an Zeit, Geld oder Verfügbarkeit eingesetzt wurden, oder ob nur sie Eigenschaften besitzen, die für 73 das Werk von besonderer Bedeutung sind. Erstellt man heute ein neues Werk mit einem zugehörigen Konzept für ein LiveElektronik-Setup, kann man konstatieren, daß die Hardware, die, wie bereits erwähnt, wesentlich standardisierter ist als früher (mit Ausnahme der Mikrofone und Lautsprecher), durch präzisere Fertigungs- und Meßmethoden immer weniger individuellen und unbeabsichtigten Einfluß auf das Signal nimmt. Demzufolge muß heutzutage die Frage nach dem expliziten Einsatz bestimmter Prozesse im Bereich der Software gestellt werden, auch Programmierstrategien gehören beispielsweise dazu. Durch die Möglichkeiten, die aktuelle, sehr frei anwendbare Software ihm bietet, kann ein Programmierer mit großer Präzision die Prozesse der Elektronik in ihrem Erscheinungsbild festlegen und so exakt definieren, welche elektronischen Eingriffe in den elektroakustischen Signalfluß explizit erwünscht sind und welche nur eine mögliche Realisation einer prinzipiellen Verarbeitung sind. Genau diese Frage ist nämlich die zu klärende bei der Übermittlung jeder exemplarischen Realisierung eines Konzeptes für Live-Elektronik. 3.5 Identität von Werken und die Freiheit der Interpretation „Interpretation heißt: die Komposition so komponieren, wie sie von sich aus komponiert sein möchte.“71 Diese Aussage Adornos umreißt die Problemstellung der Interpretation so scharf, wie sie zu ihrer Lösung in keinster Weise beiträgt. Eine Komposition beinhaltet demnach Intentionen, die sich aus ihr selbst ergeben und zu ihrer Interpretation erkannt werden sollen, denn „Die wahre Interpretation ist die vollkommene Nachahmung der musikalischen Schrift.“72 Wie diese Erkennung aber nun funktionieren soll, das ist die eigentliche Frage, die un- 71 Adorno 2005, S. 169 72 Adorno 2005, S. 83 74 beantwortet bleibt. Meiner Meinung nach krankt die Position Adornos zumindest hinsichtlich der zeitgenössischen Musik daran, daß es inzwischen ein allgemeines Bestreben von Komponisten geworden ist, eine grundlegend individuelle Sprache ihrer Musik und ihrer Ästhetik zu finden, die sich allerdings im Gegensatz zu älterer Musik oft nicht mehr aus einem historischen Kontext erschließen läßt. Diese Sprache, die sich also nicht unbedingt nur aus dem Werk allein mitteilt, muß dem Interpreten für eine adäquate Interpretation deutlich werden, vor allem wenn über sie wichtige Inhalte der Komposition vermittelt werden. Eine sehr extreme Position stellt die Nutzung offener Formen dar, wie sie seit den fünfziger Jahren in der zeitgenössischen Musik Einzug erhielt. Dieses Phänomen beschreibt Umberto Eco folgendermaßen: „Der Künstler, so kann man sagen, bietet dem Interpretierenden ein zu vollendendes Werk: er weiß nicht genau, auf welche Weise das Werk zu Ende geführt werden kann, aber er weiß, daß das zu Ende geführte Werk immer noch sein Werk, nicht ein anderes sein wird, und daß am Ende des interpretativen Dialogs eine Form sich konkretisiert haben wird, die seine Form ist, auch wenn sie von einem anderen in einer Weise organisiert worden ist, die er nicht völlig vorhersehen konnte: denn die Möglichkeiten, die er dargeboten hatte, waren schon rational organisiert, orientiert und mit organischen Entwicklungsdrängen begabt.“73 Um die Vielfalt dieser Möglichkeiten für die Interpretation nutzbar zu machen, ist es nötig, daß der Komponist dem Interpreten den genauen Rahmen hinterläßt, innerhalb dessen er agieren kann. Diese Forderung trifft aber nicht nur auf die von Eco explizit angesprochenen Werke der fünfziger und sechziger Jahre zu, sondern prinzipiell auf jedes Werk, daß zu seiner Ausführung eines Interpreten bedarf und diesen auch voraussetzt. Also ist im Besonderen auch die Interpretation von Live-Elektronik betroffen, gerade weil sich hierfür bisher nur individuelle Notationsweisen gebildet haben, die genutzte Sprache häufig sehr technisch geprägt ist und folglich, zusammen mit den mit ihr verbundenen technischen Apparaturen, einer schnellen Alterung unterliegt. Wenn man nun die Frage nach der Definition dieses Rahmens für die elektronischen Komponenten einer Komposition stellt, kann man sowohl auf Basis der Funktionalität 73 Eco 1977, S. 55, Hervorhebungen im Original 75 der Technik Grenzen ziehen, als auch im interpretatorischen Umgang mit ihr. Kriterien dafür habe ich bisher umfangreich herausgearbeitet. Dabei kann man entweder Wert auf die Beschreibung des akustisch zu erzielenden Resultats legen, oder es wird eher dort ein Rahmen gesetzt, wo das konkrete akustische Ergebnis nachrangig ist und hauptsächlich Fragen der Form, der Gestik oder des Prinzips der Steuerung gestellt werden. Es gibt noch einen weiteren Aspekt im Umfeld von Steuerung, der bisher nicht erwähnt wurde, für die Rezeption einer Aufführung von Musik mit Live-Elektronik aber ebenfalls sehr entscheidend sein kann: die physische Aktion der Interpreten und ihre optische Wirkung. Wenn bestimmte physische Aktionen visuell an verschiedene Elemente der LiveElektronik direkt gekoppelt sind, dann muß auch hierbei der Rahmen festgelegt werden, innerhalb dessen sich diese Bewegungsabläufe vollziehen müssen. Soll beispielsweise ein Interpret in einem Musiktheater einen Lautsprecher über die Bühne schieben, ist der Effekt sicherlich ein anderer, als wenn der Lautsprecher ohne sichtbare Einwirkung aus dem Off gezogen wird. Auch die Größe des Lautsprechers könnte in diesem Fall übrigens entscheidenden Einfluß haben, sogar ohne Beisein eines Interpreten. Ein anderes Beispiel wäre das Abrufen von Samples während eines Stückes. Ein Interpret, der an einem Keyboard agiert, weckt völlig andere, zudem durch die Ähnlichkeit zur traditionellen Spielweise des Klaviers geprägte Assoziationen beim Zuschauer als derselbe Interpret an einer Computertastatur oder an einem Controller mit Tastern, obwohl sich für den Zuhörer dasselbe akustische Ergebnis einstellen kann. Bei aller Bestrebung, der Vorstellung des Komponisten nahezukommen, darf aber auch eines nicht vergessen werden: „Die Werke verändern sich: das heißt auch: gegen den Willen des Autors“74 Dabei muß ja nicht einmal dem Komponisten aktiv widersprochen werden, denn bereits die von Eco so treffend beschriebene Situation der Interpretation, die „er [der Kompo- 74 Adorno 2005, S. 122 76 nist] nicht völlig vorhersehen konnte“75 reicht bisweilen aus, um ein Ergebnis zu erzielen, dem der Komponist in dieser Form vielleicht nicht seine Zustimmung geben würde, obwohl es sich immer noch um sein Werk handelt. Wenn ein Komponist solche Situationen ausschließen möchte, muß er seine Musik von der Kultur der Interpretation lösen und dazu übergehen, auf Tonträgern festgeschiebene Musik zu produzieren, die dann allerdings nicht einmal mehr im Konzert präsentiert werden dürfte, denn das wäre ja ebenfalls wieder eine Interpretation bezüglich Auswahl und Positionierung der Lautsprecher, gewählter Lautstärke usw. Um bei der Interpretation Bezüge zur Gegenwart der Interpreten und des Publikums herstellen zu können, ist es hingegen immer wieder nötig, die Rezeptionssituation neu zu überdenken. So kann man mit Sicherheit sagen, daß sich die Rezeption von mehrkanaliger Beschallung in zeitgenössischer Musik stark gewandelt hat, seit die mehrkanalige Wiedergabe von Filmen in den Kinos zur Normalität geworden ist, die inzwischen sogar in immer größerer Anzahl auch beim Publikum zu Hause Einzug erhält. Zudem sind seit einigen Jahren immer mehr Tonträger und sogar Radiosendungen in Surround verfügbar. 75 Eco 1977, S. 55 77 4. Entwurf einer Methodik zur strukturellen Vorgehensweise Im Folgenden soll eine Methodik erstellt werden, anhand derer eine Komposition mit Live-Elektronik auf einer allgemeinen Ebene mit denjenigen Fragestellungen konfrontiert werden kann, die für eine möglichst universelle Dokumentation hinsichtlich der in den letzten Kapiteln untersuchten Aspekte dringend benötigt werden. Dieser allgemeine Ansatz kann dann unter Zuhilfenahme der untersuchten Parameter und Entscheidungskriterien weiter differenziert werden. 4.1 Technik Um die funktionalen Zusammenhänge der technischen Komponenten der Elektronik zu erfassen, bietet es sich an, diese zu visualisieren, um sie lesbar und übersichtlich zu gestalten. Je nach Bedarf bieten sich dafür verschiedene Schemata an, die auch kombiniert genutzt werden sollten: • Schaltpläne der elektronischen Bauteile76 (mit Symbolen nach DIN EN 60617) • Plan des Routings z.B. in Form einer Matrix • Flußdiagramme der programmierten Software (mit Symbolen nach DIN 6600177) • Zuweisung und spezielle Anwendung (z.B. Loops) von Samples, die ansonsten wie herkömmliche Tonträger archiviert werden können78 • Aufbaupläne für alle Instrumente, Spielerpositionen, Lautsprecher- und Mikrofonpositionen sowie spezielle Setups von Controllern zur Steuerung der Elektronik 76 Ein Beispiel ist in Abbildung 9 zu finden 77 Siehe Abbildung 10 78 Siehe zur Archivierung Kapitel 4.4 78 • Beschreibungen des Setups der Elektronik in Form von Texten79 • Exemplarische Equipmentliste (Technical Rider) mit Angabe der bei einer Realisierung bereits eingesetzten Komponenten, insbesondere der leicht austauschbaren Komponenten wie Mikrofone, Lautsprecher, gängige Effekte und Mischpult • Exemplarische Realisierung von automatisierten Steuerungen oder programmierter Elektronik, beispielsweise Max/MSP-Patches oder Sampler-Programmen Abb. 9: Schaltplan mit genormten Symbolen bei Stockhausen Gerade im Falle von programmierter Software, aber auch bei Schaltplänen, hängt die Dokumentierbarkeit enorm davon ab, wie sehr sich die vorliegende Technik abstrahieren läßt und ihre Funktionalität sich in eine allgemein lesbare Sprache, beispielsweise mit den vorgeschlagenen graphischen Symbolen, übertragen läßt. Bei geschützter Software wie gewissen Plugins oder auch bei herstellergebundener Hardware wie z.B. Synthesizern kommt es oft vor, daß es Parameter gibt, deren Skalierung oder klangliche Auswirkung auf das akustische Endergebnis nicht dokumentiert und offiziell zugänglich sind. In diesem Fall kann man nur das konkrete Produkt dokumentieren und darauf hoffen, daß es auch in Zukunft in dieser oder alternativer Form zugänglich sein wird. Wie bereits erwähnt, entsteht dieses Problem bei Open-Source-Software nicht. 79 Als gutes Beispiel kann man die Verbalpartituren von Alvin Lucier betrachten. (Lucier 2005) 79 Abb. 10: Sinnbilder nach DIN 66001 An dieser Stelle sei ausdrücklich darauf hingewiesen, daß die alleinige Erfassung und Weitergabe von exemplarischen Auflistungen und Realisierungen meistens nur eingeschränkte Rückschlüsse auf die Anforderungen an die Elektronik zuläßt. Zudem besteht die enorme Gefahr, daß für Software Kompatibilitätsprobleme durch Alterung der Hardware entstehen, oder daß auch akustische Eigenschaften von alter Hardware nicht mehr zu recherchieren sind und damit die gesamte Information verlorengeht. 80 4.2 Aktion Um eine Grundlage für eine sinnvolle Notation80 für Interpreten entwickeln zu können, bedarf es einer Analyse der von den Interpreten auszuführenden Aktionen. Bei Aktionen auf dem akustischen Instrumentarium ist durch die Tradition der jahrhundertelangen Musizier- und Unterrichtspraxis eine Basis vorhanden, die auch neuartige Spieltechniken zunehmend integriert und standardisiert. Für den Bereich des elektroakustischen Instrumentariums gibt es diesen Konsens jedoch kaum. Das liegt darin begründet, daß es dieses Instrumentarium erst seit einigen Jahrzehnten überhaupt gibt, daß es sich in dieser Zeit aber auch ständig in seinem Erscheinungsbild geändert hat. Zudem ist der Aufbau der Elektronik als Instrument für nahezu jedes Stück unterschiedlich und bietet sich auch daher nicht gerade für eine Standardisierung an. Wenn auch die konkrete Erscheinung in jedem Werk unterschiedlich ist, so kann dennoch eine standardisierte Vorgehensweise für deutliche und universelle Resultate Sorge tragen. Die Aktionen, die bei der Ausführung von Live-Elektronik anfallen, lassen sich zunächst linear anhand einer Zeitleiste einordnen. Damit bietet es sich auch an, sie in einer (wenn auch speziell präparierten) Partitur in der Art einer traditionellen Instrumentalstimme einzufügen. Weiterhin kann man bei genauerer Betrachtung der Aktionen feststellen, daß fast alle Aktionen im Umgang mit der Elektronik sich auf Schalter oder Regler beziehen. Dabei kann man immer für die Schalter eine bestimmte Anzahl an festen Einstellungen definieren, für die Regler hingegen einen Regelbereich, der anhand einer gewissen Skalierung oder einer Regelkurve innerhalb von zwei Grenzwerten definiert werden kann. Kennt der Interpret diese Parameter und ihre Auswirkungen, kann er die daran auszuführenden Aktionen vorbereiten, bei schwierigen Passagen auch üben. In jedem Fall müssen ihm die Auswirkungen seiner Aktionen vorhersehbar sein, damit er eine zuverlässige Interpretation gewährleisten kann. Bei der Nutzung von speziellen Controllern wie Datenhandschuhen, Bewegungssensoren oder jeglichen Analog-to-MIDI-Convertern läßt sich ebenfalls die Einteilung in Schalter und Regler vornehmen, nur werden diese nicht direkt bedient, sondern über 80 Genaueres hierzu im Kapitel 4.3 81 Mapping der jeweiligen controller-eigenen Parameter gesteuert. Schließlich gibt es noch eine weitere Kategorie von Aktionen, die entstehen, wenn bei der Kontrolle von zuvor automatisierten Aktionen ein manuelles Eingreifen nötig wird. Automatisierte Parameter verhalten sich prinzipiell nicht anders, als wenn ein Beteiligter diese live steuern würde, nur sind sie exakter, zuverlässiger und identisch reproduzierbar. Da der kontrollierende Interpret die Aktionen allerdings nicht direkt reflektieren und gegebenenfalls korrigieren kann, wie bei der manuellen Ausführung, muß ihm genau ersichtlich sein • was automatisiert wurde, • wie die Automatisierung synchronisiert wird (z.B. Timecode oder Cue-Punkte) • ob die Automation über Anzeigen oder motorisierte Controller ersichtlich ist oder nur anhand des (akustischen) Resultats überprüft werden kann und • wie er im gegeben Falle eingreifen kann. 4.3 Notation Die oben beschriebene Dokumentation des technischen Setups sollte der Partitur beigefügt sein oder zumindest von Personen oder Institutionen zu erhalten sein, deren Kontaktdaten aus der Partitur ersichtlich sein sollten. Darüber hinaus gibt es aber Informationen zur Interpretation eines Werks mit Elektronik, die nur in der Partitur notiert sein können. Dies sind einerseits alle oben beschriebenen Aktionen, die im Zusammenhang mit der Elektronik auszuführen sind, darüber hinaus aber andererseits alle Angaben zu den in den vorigen Kapiteln herausgearbeiteten Parametern der akustischen Funktion der Elektronik, wie beispielsweise Klanglichkeit, Lokalisation, Balance, Räumlichkeit oder Dynamik, die nicht schon vollständig über die Dokumentation des technischen Setups zu erschließen sind. Insbesondere bei Parametern, die sich im Verlauf des Stückes ändern sollen, müssen diese innerhalb der Partitur vermerkt sein. 82 Möchte man Aktionen notieren, gibt es zunächst die Möglichkeit, in der Partitur an den entsprechenden Stellen verbale Anmerkungen einzufügen. Dies bietet sich besonders an bei schaltbaren Vorgängen, da man diese genau definiert hat und in der Regel die Einstellungen bereits numeriert oder binär (ein/aus) vorliegen. Auch sämtliche Angaben, die sich nicht über Schalter oder Regler fassen lassen, sondern auf Bewegung im Raum oder Bedienung spezieller Controller beruhen, lassen sich gut verbalisieren, wenn man nicht eine individuelle Notation erfinden möchte. Für kontinuierliche Regelvorgänge hingegen bietet sich vielmehr eine Notation an, die graphisch über der Zeitachse als Amplitude aufgetragen wird. So kann man innerhalb von zwei Linien als Grenzwerten und mit einer zu definierenden Skala eine kontinuierliche Kurve auftragen, die als Visualisierung des dynamischen Verlaufs gelten kann. Nicht zufällig wird diese Form der graphischen Darstellung auch in Sequenzern für die Darstellung von automatisierten Parametern genutzt. So kann man pro variablem Parameter eine Kurve über der Zeit auftragen und eine exakte Notation gewährleisten. Während die Beschreibung der Aktionen prädestiniert ist für die direkte Beschreibung steuernder Vorgänge, wird man für die Beschreibung des akustisch zu erzielenden Resultats in der Partitur die von mir in den vorherigen Kapiteln herausgearbeiteten Parameter nutzen oder sich der herkömmlichen musikalischen Symbole und Anweisungen bedienen. So sind beispielsweise die klassischen Angaben zur Dynamik universell verständlich und leicht lesbar.81 Wenn für die genannten Parameter keine Symbolsprache erfunden werden soll, wird man sich hierfür meistens kurzer Anmerkungen als ausformuliertem Text bedienen. Nur wenige unter den Parametern eignen sich für eine graphische Notation, wie beispielsweise die Angaben zur Lokalisation. Für die Übersichtlichkeit in der Partitur und für die Praxis der Interpretation ist es im allgemeinen wünschenswert, wenn der Komponist eine Hierarchie der Parameter und Aktionen aufstellt, um sie in ihrer Wichtigkeit für das vorliegende Werk einordnen zu können. So kann man sich auch vorstellen, bei einer großen Anzahl von Parametern und 81 Auf die Problematik der absoluten Lautstärke habe ich bereits in Kapitel 3.1.5 hingewiesen, daher können diese Angaben nur relativ eingesetzt werden. Allerdings kann man Vergleiche für die Angaben absoluter Lautstärke suchen, beispielsweise im Bezug zu Instrumenten oder akustischen Ereignissen, die man als bekannt voraussetzen kann, und diese in einer Legende oder an der entsprechenden Stelle der Partitur definieren. 83 Aktionen die weniger wichtigen nur in einer „Dokumentationspartitur“ zu notieren und dann in einer zweiten, übersichtlicheren „Arbeitspartitur“ die wichtigsten für die praktische Anwendung zusammenzufassen. 4.4 Archivierung Bei sämtlichen bisherigen Überlegungen in dieser Arbeit stand das Bestreben an erster Stelle, so viele reproduktionsrelevante Aspekte der Live-Elektronik wie nur möglich zu abstrahieren, um diese von konkreten Systemen unabhängig verbalisieren und notieren zu können. Meiner Meinung nach ist dieses Abstrahieren schließlich in nur wenigen Fällen prinzipiell nicht möglich: • Künstlerische Nutzung von „Fehlern“ in der Technik, die nicht reproduzierbar und somit nicht messbar sind • Nutzung von physikalischen Phänomenen oder akustischen Eigenschaften vorhandener Räume oder Instrumente, die zu komplex sind, um sie messen oder simulieren zu können • Nutzung von Geräten aus anderen als akustischen Eigenschaften, z.B. wegen der Optik • Aufgenommene Klänge, die nicht reproduziert werden können Bei den ersten drei Fällen ist für eine Archivierung nur eine Konservierung der vorhandenen Gegenstände denkbar oder tatsächlich die Erstellung einer exakten Kopie, falls alle dafür nötigen Informationen und technischen Grundlagen zur Verfügung stehen. Der für uns hier interessanteste Fall ist die Archivierung von aufgenommenen Klängen. Da Aufnahmen immer zu einem bestimmten Zeitpunkt unter Einsatz von dann verfügbarer Technik durchgeführt werden und wurden, befinden sie sich stets auf Speichermedien, die ebenfalls einer speziellen Epoche entstammen. Dabei ist es prinzipiell völlig 84 egal, ob es sich um Bänder, Spulen oder Festplatten handelt, sie werden in ihrer Funktion als Tonträger eingesetzt. Diese Tonträger sind für die Wiedergabe der Klänge nur wertvoll in Verbindung mit der entsprechenden Lesevorrichtung, die aus dem Tonträger die akustischen Informationen wieder herauslösen kann. Daß diese derselben Epoche entstammen muß wie der Tonträger, ist dabei evident. Ergänzend müssen noch alle Informationen für die Anpassung des Tonträgers auf seine Lesevorrichtung festgehalten werden, die dieser nicht selber liefern kann. Diese können mit anderen „Metadaten“ üblicherweise in Text- oder Tabellenform notiert werden, was die Archivierbarkeit enorm erleichtert. Wichtig für die Archivierung von Audio ist der prinzipielle Unterschied zwischen der Speicherung codierter und nicht codierter Daten: Während es bei letzterer alleine darum geht, den Datenträger lesbar zu halten, weil die gelesenen Informationen sich dann analog zum Spannungsverlauf der aufgenommenen Klänge verhalten, müssen bei codierter Speicherung die gelesenen Daten zunächst decodiert werden, bevor sie weiter genutzt werden können. Diese Codierung besteht sowohl bei analogen als auch digitalen Medien, mit dem Unterschied, daß bei digitaler Datenspeicherung die Werte diskret vorliegen und somit codiert werden müssen. Bei analoger Speicherung kann ein Code vorliegen, wie beispielsweise die Entzerrung für Schallplatten durch die genormte RIAA82-Kennlinie oder die Frequenzmodulation bei Radioübertragung, er ist aber nicht zwingend nötig. Der jeweilige Code ist immer essentieller Bestandteil der Lesevorrichtung und muß ihr beigefügt sein. Dem ist besonders dann Beachtung zu schenken, wenn der Code von der Hardware der Lesevorrichtung getrennt werden kann, wie es beispielsweise bei Computern oft der Fall ist, wo der Code als zusätzliches Programm vorliegt. Es gibt drei Forderungen, die an die genannten drei Komponenten (Tonträger, Lesevorrichtung, Metadaten) gestellt werden sollten, um eine Reproduzierbarkeit zu gewährleisten: 82 „Recording Industry Association of America“, wurde 1952 gegründet, um einen Standard für die Schallplatte zu schaffen 85 • Haltbarkeit (damit eine Generation von ihnen lange Zeit nutzbar ist) • Fähigkeit zu Sicherungskopien (um weitere Generationen anfertigen zu können, gilt vor allem für Tonträger und Metadaten) • Übertragbarkeit auf ein anderes System (falls es unmöglich wird, das System aufrechtzuerhalten; gilt für alle drei Komponenten im Verbund) Zu erwähnen ist, daß durch den Einsatz digitaler Speicherung die Möglichkeit gegeben wird, Sicherungskopien und Übertragungen auf andere Systeme verlustfrei zu machen, jedoch nur, solange die Codierungen der Systeme gegenüber dem nicht codierten Original verlustfrei sind. Handelt es sich hingegen um Datenreduktion, gehen bei jedem Vorgang einer Codierung Daten verloren, was sich bei Kopien zwischen datenreduzierenden Systemen summieren kann. Dabei ist nicht zu vergessen, daß ein digitales Signal prinzipiell bereits einen Verlust von Informationen gegenüber dem jeweiligen analogen Signal bedeutet, da es nur diskrete Werte abtasten und speichern kann. Glücklicherweise gibt es im Bereich der Archivierung von Audio ein wesentlich größeres kommerzielles Interesse als bei der Archivierung von Live-Elektronik, da auch sämtliche Tonträgerarchive vom Rundfunk oder von privaten Plattenfirmen mit der Problematik der Archivierung von ihren Beständen konfrontiert sind. Dies läßt darauf hoffen, daß es immer ausreichend Nachfrage und finanzielle Mittel für Forschung und Entwicklung im Bereich der Tonträger geben wird, die insbesondere Lösungen für die Übertragung von alten auf neue Speichersysteme bieten kann. Die Frage der Metadaten, die zur Archivierung in Datenbanken erfasst werden sollen, muß im Kontext der Musik mit Live-Elektronik völlig neu gestellt werden. Schon bei der herkömmlichen Tonträgerarchivierung ist der nötige Umfang der Metadaten umstritten, üblicherweise werden aber mindestens folgende Angaben erfasst: • Komponist • Werk • Interpret • Tonträger (Format und Quelle) 86 Derzeit wird von der ARD, dem ZDF und dem Deutschen Rundfunkarchiv ein neues „Regelwerk Mediendokumentation“ ausgearbeitet, das dann als Rahmenrichtlinie für die Dokumentation sowohl bei der Produktion als auch bei der Archivierung von jeglichen Medien gelten soll.83 Hier eine graphische Darstellung der ausgearbeiteten Struktur aus einer Präsentation, die im Internet zum Download bereitsteht: Abb. 11: Metadaten nach dem neuen „Regelwerk Mediendokumentation“ Man erkennt die deutlich deskriptive Ausrichtung des Archivs hinsichtlich der zu archivierenden Medieninhalte, die größte Gruppe von Metadaten beschreibt das dokumentierte Ereignis, daneben gibt es Metadaten zur Produktion, also den Auftraggebern, und zu den Personen und Institutionen, die bei der Realisierung des dokumentierten Ereignisses mitgewirkt haben. Recht klein ist der Bereich der formalen Daten des Mediums ausgefallen, und der Verweis auf die Partitur sieht nur einen Standort und Seitenzahl vor. Dieses Beispiel ist ein klassischer Fall der Optimierung eines Archivs für Tonträger in standardisiertem Format, in dem man viele Informationen über ihren Inhalt einbringen kann. Die Reproduzierbarkeit wird als gegeben vorausgesetzt und daher werden 83 ARD/DRA: Regelwerk Mediendokumentation: http://rmd.dra.de/arc/php/main.php [Stand 2006-09-22]; die Seite befindet sich derzeit noch im Aufbau 87 hierzu keine umfangreichen Daten gesammelt. Für die Dokumentation von Musik mit Live-Elektronik müssen im Vergleich zur Dokumentation von Tonträgern Angaben in den Metadaten ergänzt werden, die bei einer Reproduktion von dem dokumentierten Werk für die Beteiligten nötig sind. Hierzu gehört insbesondere Folgendes: • Daten mit technischen Angaben zur Live-Elektronik, die nicht in der Partitur vermerkt sind84 • Kontaktpersonen oder Institute, die den elektronischen Part des Stücks bereits realisiert haben • detaillierte Angaben zu bisherigen Aufführungen und früheren Versionen der Elektronik Einen Entwurf für die Archivierung elektronischer Musik legte im Jahre 2004 das Institut für elektronische Musik und Akustik (IEM) der Universität für Musik und darstellende Kunst Graz in Form des „Internet Archivs für Elektronische Musik“ (iaem)85 vor. Es ist offensichtlich, daß bei diesem Archiv die technischen Kriterien des Mediums und auch seiner Inhalte wesentlich detaillierter ausgearbeitet worden sind, als bei der zuvor besprochenen Archivstruktur. Es wird nicht von standardisierten Datenformaten ausgegangen, und die notwendigen Informationen zur Wiedergabe von den entsprechenden Tonträgermedien sind vielfältig. Dennoch wird auch hier auf die speziellen Belange der Live-Elektronik eher nicht eingegangen, die Informationen zur Technik der Entstehung der Archivinhalte, die für eine Reproduktion der technischen Apparaturen nötig wären, sind kaum vorgesehen. Ebenso werden die Daten nicht für eine Weitergabe hinsichtlich erneuter Aufführungen vorbereitet. Interessant ist aber, daß bei dem Grazer Archiv zumindest eine Koppelung an eine Nutzung von Raumsimulation mit Binaural-Transformation durch Ambisonic angestrebt wird, um die Projektion von mehrkanaligen Werken in virtuellen Räumen umzusetzen. 84 Siehe hierzu die Auflistung unter 4.1 85 IEM: Internet Archiv für Elektronische Musik: http://iem.iaem.at/ [Stand 2006-09-22], Seite veraltet 88 Hier eine Darstellung der angestrebten Metadaten-Struktur des Grazer Archivs: Abb. 12: Metadaten-Struktur des iaem Zusammenfassend möchte ich hier diejenigen Daten darstellen, die ich für die Struktur eines Archivs für Musik mit Live-Elektronik als notwendig erachte. Die Aufbereitung für eine Reproduktion des archivierten Werkes steht hierbei als primäres Ziel im Vordergrund. Neben den Daten bezüglich Werk, Komponist und Interpreten gibt es das große Feld der technischen Dokumentation, das danach aufgeteilt ist, ob man die Technik abstrahieren kann oder nicht. Dies wirkt sich nämlich in der Art der Archivierung aus, da man die nicht abstrahierbaren und die exemplarisch realisierten Komponenten aufwendig lagern und konservieren muß86, während die Abstraktionen als Texte oder Grafiken einfach zu archivieren sind. Darüber hinaus werden Informationen zur Ästhetik des Werkes oder des Komponisten gesammelt, die Aufschluß über die Anforderungen an die Interpretation geben sollen. Schließlich ist zu erwähnen, daß sowohl die technischen Komponenten als auch die weiteren Informationen von Aufführung zu Aufführung differieren können, daher sollte man die Historie der Aufführungen sowohl in 86 Das muß aber nicht notwendigerweise in diesem Archiv geschehen, es kann Verweise geben, z.B. auf Personen, Institutionen o.ä., die historische Abspielgeräte oder Klangerzeuger lagern und pflegen. 89 der technischen Dokumentation als auch in der Sammlung der weiteren Informationen deutlich kennzeichnen. Folgend mein Vorschlag: Komponist (Name, Geburtsdatum, Kontaktdaten) Werk (Titel, Untertitel, Besetzung, Versionen, Entstehungsdaten, Verlag usw.) bisherige Aufführungen bisherige Interpreten (Klangregie, Dirigenten, Instrumentalisten; jeweils mit Kontaktdaten) Technische Dokumentation (je Aufführung getrennt) nicht abstrahierbare Technik • Medien (Zuspielbänder, Samples) • Hardware (spezielle Klangerzeuger und Controller) • spezielle Software abstrahierte Technik (als Schaltpläne, Routing, Programmstrukturen) • Klangerzeugende Elemente • Schallwandler • Klangverarbeitende Elemente • Klangspeichernde/-wiedergebende Elemente • Steuerung exemplarische Realisation • Aufführungsraum • Pläne für die Positionierung von Instrumenten, Spielern und Technik • Technical Rider • Patches gängiger Programmierumgebungen (z.B. Max/Msp und PD) • Samplerprogramme Informationen zur Interpretation und zur Ästhetik (je Aufführung getrennt) an Aufführungen gebunden • Audioaufnahmen • Videoaufnahmen und Fotos • Programmtexte • Kritiken/Rezensionen allgemein • Schriften • Interviews 90 5. Fazit In der vorliegenden Arbeit konnte gezeigt werden, wie sehr die schnell fortschreitende Entwicklung der technischen Komponenten, die im Kontext von Musik mit LiveElektronik eingesetzt werden, Einfluß auf die Aufführbarkeit von Werken nimmt. Diese Entwicklung hatte in der Vergangenheit wesentliche strukturelle Änderungen der Arbeitsweise mit der Technik zur Folge, und es ist davon auszugehen, daß dies auch zukünftig der Fall sein wird. Die von mir eingangs aufgestellte Forderung nach systemunabhängiger Dokumentation wird so bestärkt. Um hierfür notwendige Kriterien herauszuarbeiten, wurde eine Strukturierung der technischen Komponenten vorgestellt, anhand derer meiner Meinung nach sämtliche Prozesse der Live-Elektronik funktionell abstrahiert und eingeordnet werden können sowie ihre Verwandschaft zu anderen Prozessen aufgezeigt werden kann. Für wichtige Geräteprinzipien, die in der Live-Elektronik häufig vorkommen, wurden die jeweils reproduktionsrelevanten Parameter genannt und erörtert, wie diese in eine Dokumentation eingehen können. Weiterhin wurden wesentliche Parameter der Interpretation, also der Anwendung von Live-Elektronik, definiert und für ihren Einsatz in Dokumentationen analysiert. Auf der Basis der so erarbeiteten Kriterien konnte ich eine Methode vorstellen, die als generelle Herangehensweise an die Erstellung einer Dokumentation im genannten Sinne gelten kann. Nach der Analyse der zu dokumentierenden technischen und interpretatorischen Parameter wird der Fokus hier schließlich auch auf die Niederschrift in der Partitur und auf die Archivierung weiterer zum Stück gehörender Medien gelenkt. Die erarbeitete Auflistung von Metadaten bietet eine Fokussierung auf die Angaben, die für eine Reproduktion relevant sind und läßt eine Einordnung der Technik hinsichtlich ihrer Historie zu, insbesondere bezüglich früherer Aufführungen. Diese Arbeit versteht sich als grundlegender Beitrag zu einem Leitfaden, der helfen soll, die Vorgehensweise für Dokumentationen von Musik mit Live-Elektronik lückenloser 91 zu gestalten, als dies derzeit häufig der Fall ist, um so eine standardisierte Notation und die einheitliche Aufbereitung von zusätzlichen Medien zu fördern, wo dies möglich ist. So kann sie ein Ausgangspunkt für weitere Untersuchungen auf dem Gebiet der Musik mit Live-Elektronik sein, beispielsweise für • die Entwicklung einer systemunabhängigen, schriftlich notierbaren MetaSprache für die üblicherweise eingesetzten Computerprogramme zu Zwecken einer Archivierung, die dauerhafter ist als diese Programme selbst • die Sammlung von technischen Daten und praktischen Bedienungsanleitungen historischer Technik, insbesondere solange die Entwickler und ehemaligen Anwender noch leben • die Aufbereitung von Partituren und zusätzlichen Medien für die Veröffentlichung im Verlagswesen • den Entwurf von Strategien und Techniken zur Archivierung historischer Klangerzeuger. 92 Quellenangaben Literatur Theodor W. Adorno: Zu einer Theorie der musikalischen Reproduktion Suhrkamp, Frankfurt am Main 2005 Donaueschinger Musiktage 2005, Programmheft Pfau-Verlag, Saarbrücken auch unter: http://www.swr.de/swr2/donaueschingen/archiv/2005 /werkbeschreibung/furrerfama.html [Stand 2006-09-19] Umberto Eco: Das offene Kunstwerk Suhrkamp, Frankfurt am Main 1977 Hans Peter Haller: Das Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestrundfunks Freiburg 1971-1989. Die Erforschung der Elektronischen Klangumformung und ihre Geschichte Nomos Verlagsgesellschaft, Baden-Baden 1995, 2 Bände Friedrich Kittler: Short cuts Zweitausendeins, Frankfurt am Main 2002 daraus S. 109-133: Computeranalphabetismus ursprünglich in F. Kittler / D. Matejowski (Hg.): Literatur im Informationszeitalter, Campus, Frankfurt am Main 1996 Alvin Lucier: Reflexionen. Interviews, Notationen, Texte 1965-1994 MusikTexte, Köln 1995, 2. Auflage 2005 93 Jürgen Meyer: Akustik und musikalische Aufführungspraxis Verlag Erwin Bochinsky, Frankfurt am Main 1972, 4. erweiterte Auflage 1999 Jürgen Meyer: Kirchenakustik Verlag Erwin Bochinsky, Frankfurt am Main 2003 Marietta Morawska-Büngeler: Schwingende Elektronen. Eine Dokumentation über das Studio für Elektronische Musik der Westdeutschen Rundfunks in Köln 19511986 P.J. Tonger, Köln-Rodenkirchen 1988 Roman Pfeifer: Schrift und Klang. zur Verschriftlichung von Tonbandmusik Diplomarbeit, Essen 2002 http://icem.folkwang-hochschule.de/Publikationen/diplome.php?mid=17 [Stand: 2006-09-19] Curtis Roads: The Computer Music Tutorial MIT, Cambridge, Mass. 1996 André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen Reclam, Stuttgart 1998 Christian Scheib: Two rooms. A short conversation with Miller Puckette in bang. Pure Data, S. 165-169 Wolke Verlag, Hofheim 2006 Christof Siemes / Claus Spahn: Das Problem fängt mit den Posaunen an. Interview mit Pierre Boulez Die Zeit 30.12.2004, Feuilleton-Spezial: Die digitalen Künste, S. 44-45 auch unter: http://www.zeit.de/2005/01/Boulez_echt [Stand 2006-09-19] 94 Karlheinz Stockhausen: Musik im Raum Oktober 1958, erschienen in „Die Reihe“ 5 Universal Edition A. G., Wien 1959 Karlheinz Stockhausen: Die Zukunft der elektroakustischen Apparaturen in der Musik in Texte zur Musik 1970-1977, Bd. 4, S. 425-436 DuMont Buchverlag, Köln 1978 Martin Supper: Elektroakustische Musik und Computermusik Wissenschaftliche Buchgesellschaft, Darmstadt 1997 Stefan Weinzierl: Beethovens Konzerträume. Raumakustik und symphonische Aufführungspraxis an der Schwelle zum bürgerlichen Zeitalter Verlag Erwin Bochinsky, Frankfurt 2002 95 Abbildungen Abb. 1: Karlheinz Stockhausen: SOLO für Melodieinstrument mit Rückkopplung, Komposition Nr. 19, UE 14789, Universal Edition A.G., Wien 1969 Abb. 2: Dennis Gabor: Theory of Communication, The Journal of the Institution of Electrical Engineers, Unwin Brothers, London 1946, 93(3): S. 429-457, aus: Timothy Opie: Sound in a nutshell: Granular Synthesis. An overview of granular synthesis and the techniques involved, BA Honours, http://granularsynthesis.music.net.au/hthesis/gabor2.html [Stand 2006-09-24] Abb. 3: Pierre Boulez: Dialogue de l'ombre double für Klarinette und Tonband, Technische Anweisungen, UE 18407, Universal Edition A.G., Wien 1992 Abb. 4: Haller 1995 (siehe Literatur), Bd. 1, S. 78, Abb. T32 Abb. 5: siehe Abb. 3 Abb. 6: Vinko Globokar: Drama für Klavier und Schlagzeug, Henry Litolff's Verlag/C.F. Peters, Frankfurt/London/New York 1971 Abb. 7: Michael Dickreiter: Handbuch der Tonstudiotechnik, 5. Auflage, K.G. Saur Verlag KG, München 1987, 2 Bände Bd. 1, S. 370, Bild 6/16 Abb. 8: Haller 1995 (siehe Literatur), Bd. 1, S. 71, Abb. T30c Abb. 9: Karlheinz Stockhausen: Kurzwellen für sechs Spieler, Komposition Nr. 25, Universal Edition A.G., Wien 1968 Abb. 10: Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik, Springer-Verlag, Berlin/Heidelberg/New York 2005 http://www.stahlknecht-hasenkamp.de/sh_abbildungen.php [Stand 2006-09-24] Abb. 11: ARD: Regelwerk Multimedia, Präsentation zur Veranschaulichung, Folie 50, http://rmd.dra.de/arc/doc/agRm_praes_2005-04-06.pps [Stand 2006-09-22] Abb. 12: Institut für Elektronische Musik und Akustik (IEM) der Universität für Musik und darstellende Kunst Graz: Datenstrukturdiagramm des iaem, http://iem.iaem.at/doku/presentation/music/LibDiag.jpg [Stand 2006-09-22] 96 Danksagung An dieser Stelle möchte ich mich bei allen denjenigen Personen bedanken, die mir während und im Vorfeld dieser Arbeit unterstützend zur Seite gestanden haben, insbesondere bei: • meinem Professor Michael Sandner für die intensive und konstruktive Beratung beim Entwurf und der Realisierung meines Themas • der Internationalen Ensemble Modern Akademie und meinem dortigen Tutor Norbert Ommer für die Möglichkeit, im Rahmen eines einjährigen Stipendiums und darüber hinaus die praktischen Arbeitsweisen im Gebiet der Zeitgenössischen Musik mit Live-Elektronik kennenzulernen und umzusetzen • denjenigen Personen aus dem zeitgenössischen Musikleben, die mir zuvorkommend persönliche Gespräche und Schriftverkehr ermöglicht haben, um weitere Einblicke in die Praxis der Dokumentation von Musik mit Live-Elektronik zu bekommen, darunter (in alphabetischer Reihenfolge): Paulo Chagas, Alan Fabian, Prof. Orm Finnendahl, Johannes Fritsch, Javier Garavaglia, Prof. Heiner Goebbels, Prof. Dr. Georg Hajdu, Dipl.-Ing. Folkmar Hein, Prof. Wofgang Heiniger, Gottfried Michael Koenig, Prof. Thomas Neuhaus, Melvyn Poore, Prof. Marco Stroppa und Bryan Wolf • Christina Bürger und Christoph Seibert für schnelles Korrekturlesen Schließlich möchte ich einen besonderen Dank an meine Familie aussprechen, insbesondere an meine Eltern Ingrid und Erik Manook, durch deren persönliche Unterstützung in allen Bereichen mir das Tonmeisterstudium möglich war. 97 Erklärung Detmold, den 28. September 2006 Hiermit versichere ich, Hendrik Manook, daß ich die vorliegende Diplomarbeit selbständig verfaßt und keine anderen als die angegebenen Hilfsmittel benutzt habe. Alle Zitate wurden unter Angabe der Quelle kenntlich gemacht. Diese Arbeit wurde noch bei keinem anderen Prüfungsverfahren in identischer oder ähnlicher Form vorgelegt. Hendrik Manook 98