DA Manook - Erich-Thienhaus-Institut

Werbung
Hochschule für Musik Detmold
Erich-Thienhaus-Institut
Diplomarbeit
Aspekte der Reproduzierbarkeit von
Zeitgenössischer Musik mit Live-Elektronik
und ihrer Interpretationspraxis
vorgelegt von:
Hendrik Manook
Siebengebirgsallee 10
50939 Köln
Studiengang: Musikübertragung (Tonmeister)
Betreuer: Prof. Michael Sandner
28. September 2006
Inhaltsverzeichnis
1. Einleitung
4
2. Die technischen Komponenten
6
2.1 Historie
6
2.2 Funktionsbereiche
11
2.2.1 Klanggenerierung
13
2.2.2 Klangergänzung
16
2.2.3 Klangveränderung
22
2.2.3.1 Zeit
22
2.2.3.2 Raum
25
2.2.3.3 Frequenzbereich
41
2.2.3.4 Pegel
46
2.2.4 Schallwandlung
49
2.2.4.1 Mikrofone
51
2.2.4.2 Lautsprecher
52
2.2.5 Steuerung
53
2.3 Signalfluß
56
2.4 Computeranalphabetismus und Bedienerfreundlichkeit
57
2
3. Überlegungen zur Interpretation
3.1 Der künstlerische Umgang mit Verstärkung
62
62
3.1.1 Änderung der Dynamik
62
3.1.2 Änderung der Klangfarbe
63
3.1.3 Subjektive Nähe
64
3.1.4 Lokalisation
65
3.1.5 Absolute und relative Lautstärke
65
3.1.6 Rückkopplungen
66
3.2 Aufführungsräume
67
3.3 Klangideale und Mischreferenzen
69
3.3.1 Aufnahmen
70
3.3.2 Schriften / Programmtexte
71
3.3.3 Interviews / Porträts
72
3.4 Alte oder neue Technik?
72
3.5 Identität von Werken und die Freiheit der Interpretation
74
4. Entwurf einer Methodik zur strukturellen Vorgehensweise
78
4.1 Technik
78
4.2 Aktion
81
4.3 Notation
82
4.4 Archivierung
84
5. Fazit
91
Quellenangaben
93
Danksagung
97
3
1. Einleitung
Musik lebt durch ihre Produktion und Reproduktion, und besonders im Umfeld der klassischen Musik ist der Bereich der aktiven Reproduktion sehr bedeutend. Dies zeigt sich
bereits in der Tatsache, daß die Arbeitsbereiche der beteiligten Personen schon durch
ihre Ausbildung in Komposition und Interpretation getrennt werden, zur Ausführung
von Musik aber in Kombination auftreten müssen. So ist die Überlieferung von allen
Werken klassischer Musik als Teil unserer gelebten Kultur nur dann möglich, wenn es
immer wieder Interpreten gibt, die sich dieser Werke annehmen, sie einstudieren und öffentlich präsentieren.
Man kann davon ausgehen, daß diejenigen Werke, die als besonders gut und wertvoll
betrachtet werden, immer wieder gespielt und angefordert werden und daß sich so im
Laufe der Zeit eine Auswahl der beliebten Stücke weiterverbreiten wird; der Rest wird
eventuell vergessen oder geht ganz verloren.
Daher ist es völlig natürlich, daß es in Zeitgenössischer Musik viele Werke gibt, die
produziert werden, aber davon nur wenige auch noch nach langer Zeit immer wieder
aufgeführt, also reproduziert, werden.
Nach inzwischen mehrjähriger aktiver Beschäftigung mit der Zeitgenössischen Musik
des 20. und 21. Jahrhunderts, insbesondere als Klangregisseur und Aufnahmeleiter, bin
ich persönlich zu der Überzeugung gekommen, daß durch die Ergänzung des akustischen Instrumentariums mit live eingesetzter Elektronik seit inzwischen mehreren Jahrzehnten dieser Selektionsprozeß empfindlich gestört wird. Durch mangelhafte,
unzureichende oder schlicht nicht vorhandene Dokumentation der Apparaturen der
Elektronik in Verbindung mit ihrer schnellen Veränderung gehen die für eine Reproduktion notwendigen Informationen nämlich ungewollt verloren. Diese Dokumentation
ist aber nötig, da die Vielfältigkeit der Geräte der Elektronik und insbesondere deren
Kombinierbarkeit die Varianten der traditionellen Instrumente bei weitem übersteigt.
Die Selektion der Werke findet also nicht mehr nur über die Bewertung der Stücke in
ihrer musikalischen Qualität statt, sondern ist zudem abhängig von der Qualität der Dokumentation, die der Elektronik beigegeben wurde.
4
Dies mag daran liegen, daß der Komponist fast immer bei den ersten Aufführungen anwesend ist und sich nicht bewußt macht, wie viele Informationen nur er liefern kann, die
für eine adäquate Realisierung der Technik und für ihren genauen Einsatz im Stück notwendig sind. Auch wenn er nicht selber die Klangregie führt, so wird er doch in Proben
und eventuell auch im Konzert korrigierend eingreifen, indem er Anweisungen gibt, die
den Interpreten weitere Informationen über die Realisierung oder den Umgang mit der
Elektronik bieten, zumindest in der jeweiligen Situation.
Aufgabe dieser Arbeit soll es nun sein, Kriterien für eine unabhängige Dokumentation
von Musik mit Live-Elektronik zu finden, die den beteiligten Personen bei der Reproduktion eines solchen Werkes zur Umsetzung dienlich sein können. Dies gilt insbesondere für den Fall, daß weder der Komponist, noch sonstige Personen, die mit ihm das
betroffene Stück erarbeitet haben, anwesend sind und für Nachfragen zur Verfügung
stehen, ebenso für eine sinnvolle Archivierung in nicht mündlicher Form.
Die Arbeit teilt sich in drei große Abschnitte:
•
Zunächst werde ich eine Auflistung der gängigsten technischen Komponenten
für Live-Elektronik durchführen, systematisieren und dann auf die genannten
Kriterien hin analysieren. Es sei darauf hingewiesen, daß diese Auflistung zwar
den Anspruch einer umfassenden Systematisierung hat, aber die Auswahl der
Komponenten subjektiv und exemplarisch ist, sich also weitere finden lassen,
die aber meiner Meinung nach zweitrangig sind.
•
Danach werde ich verschiedene Aspekte des interpretatorischen Umgangs mit
dieser Elektronik betrachten und hier ebenfalls Kriterien für eine allgemeingültige Dokumentation herausarbeiten.
•
Schließlich stelle ich eine Methodik vor, die mein Vorschlag für eine sinnvolle
Vorgehensweise bei der Entwicklung einer Dokumentation im oben genannten
Sinne ist.
Es sei darauf hingewiesen, daß ich in dieser Arbeit ausschließlich die Audio-relevanten
Aspekte von Live-Elektronik betrachten werde, da mein Studienfach dies nahelegt.
5
2. Die technischen Komponenten
2.1 Historie
Die Entwicklung der tontechnischen Gerätschaften hat insbesondere in der zweiten
Hälfte des 20. Jahrhunderts einige grundlegende und strukturelle Veränderungen hervorgebracht, die sich weitreichend in ihrer Funktionalität und Bedienbarkeit im Kontext
von Live-Anwendungen niedergeschlagen haben.
Analog und digital
Historisch gesehen lassen sich im Wesentlichen drei Phasen feststellen:
Zunächst wurde bis in die 60er Jahre die elektroakustische Übertragungstechnik stets
verfeinert, es wurden elektronische Klangerzeuger entwickelt, Medien zur Schallspeicherung bis hin zum Tonband erfunden und so erstmals feiner Tonschnitt möglich. Bis
zu diesem Zeitpunkt war aber aller Technik gemein, daß sie nur auf analogen Prinzipien
basierte.
Durch die raschen Entwicklungen der Computertechnik seit den 50er Jahren einerseits
und durch die Erfindung der spannungsgesteuerten Verstärker (VCA) Mitte der 60er
Jahre andererseits wurde es in der Folge möglich, die weiterhin analogen Prozesse zur
Klangerzeugung und -verarbeitung digital zu steuern. Dadurch gewann die Möglichkeit
der Automatisierung und Programmierung von ganzen Arbeitsabläufen enorm an Bedeutung und erlaubte die Realisierung von wesentlich komplexeren technischen Aufbauten auch im Kontext von Live-Anwendungen.
Seit Anfang der 70er Jahre wurden dann auch digital arbeitende Klangerzeuger gebaut,
wenig später immer zufriedenstellender funktionierende Geräte zur digitalen Speicherung von Klängen wie Sampler und digitale Tonbandgeräte und im Laufe der folgenden
Zeit wurden sämtliche analogen Prozesse der Klangerzeugung, -verarbeitung und
-speicherung ebenfalls digital realisierbar.
6
Es veränderten sich analoge Systeme zunächst zu digital gesteuerten (sogenannten hybriden) Systemen und schließlich zu nahezu vollends digitalen Systemen.
Allein die Schallwandlung an beiden Enden der elektroakustischen Übertragungskette
blieb zwingend analog, zum einen Mikrofone und die zugehörigen Vorverstärker, zum
anderen Lautsprecher mit den zugehörigen Endverstärkern. In jüngster Zeit gibt es nun
sogar auf diesem Gebiet weitere Entwicklungen hin zur digitalen Signalverarbeitung,
zumindest hinsichtlich der Verringerung der analogen Übertragungswege: Es werden
inzwischen Mikrofone auf dem Markt angeboten, die im Gerät selber direkt hinter dem
Schallwandler die A/D-Wandlung vollziehen.
Konsequenzen der Entwicklung
Im Zuge der fortschreitenden Entwicklung der Musikelektronik lassen sich drei Prinzipien erkennen, die die Erscheinung der Technik qualitativ prägen: die Miniaturisierung
der technischen Geräte trotz ihrer technischen Weiterentwicklung, die Standardisierung
der physikalisch vorhandenen Geräte, also der Hardware, und schließlich die Verkürzung der Innovationszyklen bei den aufeinander folgenden Generationen der Technik,
also der exponentiell ansteigende technische Fortschritt.
Die Verkleinerung des Geräteparks, die sich in fast allen Bereichen der Tontechnik finden läßt, hat zur Folge, daß die Systeme heutzutage wesentlich leichter transportiert und
installiert werden können als früher. Dies heißt auch, daß in bestehende Geräteprinzipien bei gleichbleibender Größe immer mehr Funktionen integriert werden und so weitere Geräte wegfallen können.1 Eine Ausnahme bilden einige Komponenten, die
aufgrund ihres Funktionsprinzips nur begrenzt miniaturisiert werden können, wie beispielsweise Lautsprecher2 oder Controller, die zur manuellen Bedienung angenehme
Maße besitzen sollen. Bei den Lautsprechern wurden allerdings Fortschritte des Wirkungsgrads erreicht und sie konnten so zumindest an Gewicht einbüßen.
1 Dieser Fall läßt sich immer wieder bei digitalen Mischpulten oder Digitalen Audio Workstations
(DAWs) finden, aber auch bei der Entwicklung der Computerschnittstellen.
2 Lautsprecher können bei zu kleinen Abmessungen tieffrequente Schallwellen rein physikalisch nicht
mehr produzieren, da diese so große Abmessungen besitzen.
7
Während für einige Stücke mit Live-Elektronik am Anfang, also in den sechziger und
frühen siebziger Jahren, noch individuelle Apparaturen gebaut wurden3, wurden in der
Folgezeit allgemeiner verfügbare Geräte, wie beispielsweise Synthesizer oder Sampler,
in Kombination mit einigen speziell konstruierten Komponenten für Live-Elektronik4
eingesetzt. Diese speziell entwickelten Geräte wurden nun aber nicht mehr für nur ein
bestimmtes Stück konstruiert, sondern als ein Element der Elektronik, das dann in vielen Werken genutzt werden konnte. Im Laufe der neunziger Jahre wurde dann durch den
zunehmenden Einsatz von rein computergestützten Systemen, die nicht explizit für elektroakustische Zwecke konstruiert wurden, die Standardisierung der Geräte weiter gefördert. Durch die strikte Trennung von Hard- und Softwareindustrie, die aus Gründen der
Effektivität und der Kostensenkung durch Massenproduktion marktwirtschaftlich naheliegend ist, wurde es nun möglich, speziell programmierte Software auf einer sehr
großen Zahl „fremder“ Hardware laufen zu lassen, da diese Hardwaresysteme eine
Plattform für vielerlei Anwendungen bilden und sich demzufolge großer Verbreitung
erfreuen. Für die Fälle, in denen man tatsächlich spezielle Hardware zur Anbindung an
das individuelle Elektronik-Setup benötigt, wird diese über die standardisierten Schnittstellen der Hardware in Form von zusätzlich entwickelten Adaptern realisiert, die dann
nur in Kleinauflagen und in Abstimmung auf die standardisierte Hardware produziert
werden. Beispiele hierfür sind Audio- und MIDI5-Interfaces, spezielle Controller oder
individuell entwickelte Schnittstellen, die derzeit üblicherweise per USB6- oder FireWire-Schnittstellen an die standardisierten Computer angeschlossen werden.
Diese Entwicklung widerspricht der eben genannten Tendenz zur Integration von Geräteprinzipien keineswegs, da Hard- und Software unabhängig voneinander betrachtet
kein eigenständig funktionierendes System bilden und nur in Kombination für die Anwendung im Bereich der Musikelektronik in Frage kommen. Zudem wird die Integrati3 Dies geschah beispielsweise 1966 für Stockhausens SOLO, wo in der Partitur zusätzlich zur Funktionsbeschreibung der elektronischen Apparatur die exemplarische Realisierung in Bildern dokumentiert ist und sich sogar eine Adresse findet, wo man diese ausleihen kann. Auch für MANTRA wurde
1970 eine Apparatur in Auftrag gegeben, die dann der Anlaß zur Gründung des Experimentalstudios
des SWR wurde (nachzulesen bei Haller 1995 Bd. 2, S. 10ff.)
4 Hierzu zählen beispielsweise das Raumsteuerungsgerät „Halaphon“ im Freiburger Experimentalstudio
(siehe Kapitel 2.2.3.2 unter „Verräumlichung“) oder das Computersystem 4X im Pariser IRCAM.
5 musical instrument digital interface
6 universal serial bus
8
on von diversen Geräteprinzipien in größere Geräte nun sogar in wesentlich umfangreicheren Maße möglich.
Der besondere Vorteil, den diese Entwicklung mit sich gebracht hat, liegt darin, daß zunehmend keine besonderen Geräte mehr transportiert werden müssen, oder nur noch in
wesentlich geringerem Maße, sondern daß vor Ort vorhandene Hardware genutzt werden kann und auf dieser die spezielle Software mit den klangerzeugenden, klangverarbeitenden und steuerungsrelevanten Komponenten der Elektronik geladen und
angewendet werden kann. Gerade in Zeiten von fast allgegenwärtiger Vernetzung muß
inzwischen nahezu nichts mehr postalisch gesendet werden, sondern man kann die Software überall aus dem Internet herunterladen. Dies vereinfacht die Verbreitung von Werken mit Elektronik sowie deren Aktualisierung in einem bisher nicht denkbaren Maße
und löst die Bindung von ihren Aufführung an bestimmte Lokalitäten, wo die zugehörige Technik vorhanden ist oder wohin sie mit vertretbarem finanziellem und organisatorischem Aufwand transportiert werden kann, weitgehend auf.
Das enorme Problem, das durch die Loslösung speziell entwickelter Software von der
früher einmal zugehörigen speziell entwickelten Hardware entstanden ist, liegt in der
Notwendigkeit, diese beiden Teile zueinander kompatibel zu halten. Für neu entwickelte
Software und Hardware wird nicht uneingeschränkt Kompatibilität zu älterer Software
und Hardware angestrebt, zum einen aufgrund der wirtschaftspolitischen Forderung,
trotz gesteigerter Produkt- und Innovationszyklen Anreize zum Neukauf von alter Technik zu schaffen, die im Umfeld der neuen Komponenten nicht mehr ins Gesamtsystem
zu integrieren ist und somit inkompatibel wird, zum anderen wegen mangelnder Nachfrage nach dieser Kompatibilität auf dem gesamten Markt für die genannte Hardware,
wobei ja der Markt für Audioanwendungen insbesondere im Kontext von LiveElektronik nur einen kleinen Ausschnitt darstellt.
Demzufolge erlangt die Forderung, die vollständige Funktionalität der Elektronik unabhängig vom gesamten System zu beschreiben, eine neue Qualität von Notwendigkeit,
wenn ein zukünftiger Einsatz auch nur von Teilen der speziell programmierten Elektronik möglich sein soll. Früher war diese Dokumentation nur dort nötig, wo ein kompletter Nachbau vom gesamten System in Frage kam, zum Beispiel wenn durch
Neuentwicklungen der elektronischen Bauteile Verbesserungen der Audioqualität zu
9
erwarten waren oder falls Teile beschädigt wurden und ein stabiler Ablauf nicht mehr
möglich war. Nun muß der Möglichkeit Rechnung getragen werden, daß aufgrund von
Inkompatibilitäten Anpassungen der Software auf neue Hardware vorgenommen werden müssen.7
Es besteht natürlich weiterhin die Möglichkeit, lokal gebunden ein funktionierendes
Gesamtsetup der Elektronik für jedes Werk zu konservieren, doch dies würde alle oben
beschriebenen Vorteile der Befreiung der Software von den physikalisch vorhandenen
Hardwarekomponenten zunichte machen.
Durch die rasant fortschreitenden Entwicklungen auf dem Gebiet der Audiotechnik ist
die Frequenz, mit der neue Generationen von technischen Geräten auf den Markt kommen, sehr hoch geworden. Insbesondere seit der Durchdringung der Geräte mit digitalen
Technologien und dem weitverbreiteten Einsatz von Computern ist dies der Fall, und
die von Gordon Moore schon in den sechziger Jahren prophezeite Verdopplung der Anzahl der Transistoren auf einem integrierten Schaltkreis (also auch in Computerprozessoren) in regelmäßigen Abständen von ca. 18 bis 24 Monaten scheint sich bis heute
hartnäckig zu halten. So kommt es, daß die zur Aufführung eines Werkes mit LiveElektronik eingesetzte Technik, wenn sie computergestützt ist, heutzutage schon innerhalb eines Jahrzehnts als völlig veraltet und überholt gelten muß; man kann in solch einem Fall bereits von historischer Technik sprechen. Zudem ist durch die
Beschleunigung der Produktzyklen und durch die gesunkene Lebensdauer einer Generation technischer Geräte die Verfügbarkeit von älterer Hardware sowie der Support von
älterer Software ebenfalls schon nach wenigen Jahren nicht mehr gewährleistet 8. Die
Frage nach dem Umgang mit dieser kurzen Lebensdauer der technischen Komponenten
im Kontext von Musik mit Live-Elektronik soll im Kapitel 3.4 thematisiert werden.
7 Anpassungen von Hardware an Software wären prinzipiell natürlich auch möglich, allerdings nicht
sehr praktikabel, denn mit der Hardware als standardisierte, offene Plattform muß ja Kompatibilität zu
vieler Software angestrebt werden. Daher ist die Anpassung einer speziellen Software an die Hardware, die man als allgemein verfügbar voraussetzen kann, zu leisten, denn diese wird schließlich nicht
für bestimmte Software konstruiert.
8 Eigentlich ist inzwischen nicht das Sinken der Lebensdauer, sondern der durchschnittlichen Nutzungsdauer von einer Generation von Technik relevant, da viele Geräte unbrauchbar und inkompatibel werden, bevor sie verbraucht und kaputt sind.
10
2.2 Funktionsbereiche
Um der Forderung einer adäquaten Beschreibung der technischen Komponenten von
Live-Elektronik zur besseren Reproduzierbarkeit sowie unabhängig von bestimmten
Hardware- und Softwaresystemen Rechnung zu tragen, soll hier eine Systematisierung
der gängigsten Komponenten oder Prinzipien der Technik unter dem Gesichtspunkt
ihrer Funktionalität im jeweiligen musikalisch-technischen Kontext vorgenommen werden.
Zur Kategorisierung der Technik möchte ich jedoch möglichst Abstand nehmen von der
weit verbreiteten Herangehensweise der primären Betrachtung der elektroakustischen
Verarbeitungsprozesse, wie man sie häufig in historisierenden oder chronologischen
Darstellungen, insbesondere einzelner Studios und Forschungseinrichtungen, findet.
Hans Peter Haller wählt beispielsweise eine Unterteilung in drei Kategorien, nämlich
Frequenzumsetzung (Tonhöhenveränderung), Klangselektion (Eingriff in das Frequenzspektrum) und Klangsteuerung (hinsichtlich diverser Parameter wie Lautstärke, Klangfarbe, Ort, Bewegung oder zeitlicher Versetzung).9 Somit differenziert er primär, wie in
die Natur der Signale technisch eingegriffen wird. Die akustischen Konsequenzen hinsichtlich der unterschiedlichen musikalischen Ebenen sind in dieser Kategorisierung
nachgeordnet.
Ich werde vielmehr eine Betrachtung in Kategorien der wahrnehmbaren musikalischen
Konsequenzen der Technik, insbesondere derer akustischer Natur, anstreben10, die mir
aus folgenden Gründen für diese Aufgabe als wesentlich naheliegender erscheint:
•
Sie ist als Notationssystem in der Partitur, auch für Instrumentalisten und auf
diesem technischen Gebiet nicht spezialisierte Personen, wesentlich universeller
und nachvollziehbarer.
•
Sie bietet ein Beschreibungssystem für eine retrospektive Analyse von Stücken
und eventuelle Rekonstruktion von einzelnen Elementen von Elektronik, die
mangelhaft dokumentiert sind.
9 Haller 1995, Bd. 1, S.25f.
10 Wie bereits erwähnt soll sich diese Arbeit nur mit den für das Audio relevanten Komponenten beschäftigen
11
•
Sie erlaubt eine präzise Einordnung von neuen Technologien und kennzeichnet
ebenso Verwandschaften von technischen Systemen, die einander ersetzen können.
Das Bescheibungssystem von Verarbeitungsprozessen wird man trotzdem dort beibehalten müssen, wo sich einige technische Komponenten auf diese Weise präziser, kürzer
oder überhaupt nur so festhalten lassen, jedoch schlage ich vor, diese Kategorisierung
der wahrnehmungsorientierten Systematisierung unterzuordnen.
Die verschiedenen Komponenten der Live-Elektronik sollen nach ihrer Systematisierung auf ihre wesentlichen Parameter hin untersucht und diese schließlich hinsichtlich
der Eignung zur Dokumentation von Live-Elektronik betrachtet werden.
Im Anwendungsfeld der Live-Elektronik gibt es so fünf wesentliche Funktionsbereiche
der Technik, die hier analysiert werden sollen.
•
Zunächst gibt es das umfangreiche Gebiet der Klanggenerierung, das sehr eng
verbunden ist mit der Tradition der rein elektronischen Musik, der Computermusik sowie den elektronischen Klangerzeugern, die in der Popmusik weite Verbreitung fanden und große Entwicklungsschübe verursacht haben.
•
Als weiteres Feld kommt der Umgang mit vorgefertigten Klängen hinzu, die unabhängig von ihrer Entstehung und von ihrer weiteren Verwendung im Stück auf
einem adäquaten Medium zur Verfügung gestellt und wiedergegeben werden.
Dieser Bereich läßt sich mit dem Begriff Klangergänzung beschreiben, da er
Klänge bereitstellt, die ansonsten nicht verfügbar wären.
•
Der Bereich, der der Musik mit Live-Elektronik wahrscheinlich am meisten zueigen ist, läßt sich unter dem Begriff der Klangveränderung zusammenfassen.
Hierunter fallen alle Prozesse, die Klänge, ob live oder zuvor erzeugt, in ihrer
Erscheinungsweise verändern, um sie dann hörbar zu machen oder für weitere
Verarbeitungsprozesse zu verwenden.
•
Als vierte Kategorie gibt es alle Prozesse zur Schallwandlung, die im Rahmen
des Einsatzes von Live-Elektronik anfallen. Hier werde ich die elektroakustischen Schnittstellen betrachten, die eingangs- und ausgangsseitig zur Wandlung
12
von Schall in elektrische Informationen und zurück genutzt werden, insbesondere Mikrofone und Lautsprecher.
•
Als fünfter und letzter Funktionsbereich ist sämtliche Steuerung zu nennen, die
im Kontext der angewandten Technik anfällt und Auswirkung auf die Erscheinungsweise der Musik hat. In dieser Arbeit sollen zwar nur Auswirkungen auf
das klangliche Ergebnis betrachtet werden, im Prinzip läßt sich dieser Bereich
aber auf alle Medien ausdehnen, die inbesondere in der Multimedia-Kunst immer häufiger in einem Verbund und interdependent auftreten.
Darüber hinaus gibt es immer wieder Situationen in Musik mit Live-Elektronik, in denen Technik übergeordnete Funktionen einnimmt, wie beispielsweise formbildende
oder organisatorische. Diese Anwendung ist aber in der Regel nicht direkt mit dem
akustischen Ergebnis verbunden und soll daher ebenfalls nicht Gegenstand dieser Arbeit
sein.
Es wird sich zeigen, daß sich bestimmte Gerätekonzepte nicht immer auf nur eines dieser Gebiete einschränken lassen11, aber zur Definition der jeweiligen Funktion der Technik im Kontext eines bestimmten Werkes wird es beitragen, die Live-Elektronik
hinsichtlich dieser Bereiche voneinander getrennt zu dokumentieren, um die Integration
von zukünftigen oder altenativen Gerätekonzepten zu erleichtern.
2.2.1 Klanggenerierung
Historische Instrumente zur elektronischen Klanggenerierung
Bereits seit Anfang des zwanzigsten Jahrhunderts finden sich immer wieder individuelle
Erfindungen von elektronischen Musikinstrumenten. Hierzu gehören beispielsweise
Thaddeus Cahills Dynamophon, Jörg Magers Sphärophon und das von Trautwein entwickelte und nach ihm benannte Trautonium.12 Diese Instrumente haben sich jedoch in
der Musikliteratur der Folgezeit mit Ausnahme einiger weniger Kompositionen kaum
11 Dies wird insbesondere unterstützt durch die bereits genannte Tendenz zur Integration von unterschiedlichsten Funktionen in übergeordneten technischen Gesamtsystemen.
12 vgl. hierzu und im Folgenden Ruschkowski 1998, S. 15-75
13
erhalten, es bildete sich folglich auch keine Tradition für Interpreten oder Komponisten.
Nur zwei Instrumente haben es immer wieder geschafft, in Kompositionen Einzug zu
erhalten und sogar in den Kreis der Instrumente zu gelangen, die an staatlichen Hochschulen unterrichtet werden. Dies sind das von Lew Thermen entwickelte Theremin sowie Maurice Martenots Ondes Martenot. Noch heute gibt es eine Klasse für Theremin
am Moskauer Konservatorium und eine Klasse für Ondes Martenot am Pariser Conservatoire Supérieur. Gefördert durch diese Umstände konnte sich folglich für diese beiden
Instrumente eine Tradition der Technik sowie der Interpretation entwickeln, die sehr am
jeweiligen Instrument orientiert spezielles Wissen darüber vermitteln kann. So besteht
weiterhin eine Nachfrage für diese Instrumente und sie haben damit den Status der traditionellen Musikinstrumente mit spezialisierten Instrumentenbauern und Instrumentalisten erreicht: Sie brauchen auch zukünftig nicht ersetzt zu werden.
Klangsynthese
Die Klangsynthese als Methode der Verarbeitung von einfachsten elektronischen Elementen zur Erzeugung von komplexen Klanggemischen ist die am weitesten verbreitete
Form der elektronischen Klanggenerierung. Bereits bei der Arbeit in den elektronischen
Studios der 50er Jahren haben sich erste Methoden zur Klangsynthese herausgebildet,
die später verfeinert und erweitert wurden, aber weitestgehend immer noch die prinzipielle Grundlage für heute genutzte Verfahren bilden. Die Ursprünge der jeweiligen Verfahren waren aber immer in der rein elektronischen Musik zu finden, da es hier möglich
war, bereits in wesentlich früheren Entwicklungsstadien der jeweiligen Technik mit langandauernden Bearbeitungsverfahren oder Berechnungen sowie fragileren Aufbauten
Formen der Klangsynthese anzuwenden, die der Forderung nach Echtzeitfähigkeit und
Stabilität nicht nachkommen mußten, wie sie für den Einsatz im Umfeld von LiveElektronik notwendig ist. Daher sind auch die jeweiligen Verfahren der Klangsynthese
in der Literatur der elektronischen Musik bzw. Computermusik recht vielfältig und gut
dokumentiert13 und sollen hier nur rudimentär beschrieben werden.
13 vgl. z.B. Roads 1996, Supper 1997, Ruschkowski 1998
14
Zur Klassifizierung der Verfahren zur Klangsynthese schlägt Martin Supper zwei Prinzipien vor: vertikale und horizontale Synthese, die auch kombiniert auftreten können.14
Zur vertikalen Synthese, der Synthese im Frequenzbereich, gehören dann die additive
Synthese, die Klänge aus einzelnen sinusförmigen Teiltönen zusammensetzt, die subtraktive Synthese, die aus frequenzreichen Klängen mittels Filtern bestimmte Frequenzen abschwächt oder entfernt und zuletzt die FM-Synthese, die Klänge aus der
Modulation von einfach strukturierten Signalen erzeugt.
Zur horizontalen Synthese, der Synthese im Zeitbereich, gehört insbesondere die Granularsynthese, die auf der Aneinanderreihung von zahlreichen sehr kurzen Samples, den
sogenannten Grains, basiert, die aufgrund ihrer Kürze nicht mehr als Einzelklänge
wahrgenommen werden können, sondern neue Klangeindrücke hervorrufen.
Ein Beispiel für ein kombiniertes Syntheseverfahren ist das „physical modelling“, das
anhand von akustischen Modellen und ihres Schwingungsverhaltens die resultierenden
Klänge errechnet.
Für den Umgang mit Klangsyntheseverfahren hinsichtlich deren Reproduzierbarkeit ergibt die Nutzung von frei programmierbarer Hardware einen entscheidenden Unterschied zu der Nutzung von herstellergebundenen Systemen. Während bei ersterer der
Benutzer die Programmierung der Klangsynthese von Grund auf durchführen und überblicken muß, also auch einen vollständigen Überblick über alle Vorgänge der Synthese
haben muß, besteht bei herstellergebundenen Komplettsystemen prinzipiell die Gefahr,
daß bestimmte Schalt- und Rechenvorgänge dem Benutzer nicht zugänglich sind und
auch nicht offen dokumentiert sind, so daß es bei manchen Programmen oder Systemen
unmöglich ist, die exakten Vorgänge der Synthese abstrakt zu dokumentieren, um sie
eventuell später auf anderer Hardware neu zu programmieren. Diese Dokumentation
sollte bei der Nutzung offener Hardware für den Nutzer immer möglich sein, häufig ist
er sogar schon vor der Programmierung mit einem Entwurf der Klangsynthese in abstrakterer Form beschäftigt und setzt diesen Entwurf dann auf der jeweiligen Plattform
um.
Dieses Problem stellt sich im übrigen bei aller Hard- sowie Software, bei der dem Be-
14 Supper 1997, S. 38
15
nutzer Informationen nicht zugänglich sind, die für den audioverarbeitenden Prozeß genutzt werden.15
Insbesondere in den 1980er Jahren wurden durch die weite Verbreitung einiger Synthesizermodelle, beispielsweise des DX7 von Yamaha oder des Synthi 100 von EMS, einige zeitweilige Standards für die Erzeugung synthetisierter Klänge geschaffen. Diese
Geräte waren problemlos erhältlich, die Zahl der potentiellen Benutzer enorm und die
Auswahl der Typen gering. So wurden diese Geräte auch immer wieder in zeitgenössischer Musik eingesetzt und die Steuerdaten in proprietären Formaten gespeichert.
Heutzutage ist es allerdings zunehmend problematisch, die originalen Geräte zu erhalten
und so ist die Gefahr groß, daß viele der zu den Werken gehörigen Klänge nicht mehr
einzusetzen sind, wenn es nicht gelingt, sie quasi rückwirkend auf einem noch laufenden System zu analysieren und zu dokumentieren.
2.2.2 Klangergänzung
Zuspielbänder
Es ist zwar umstritten, ob die Wiedergabe von vorproduzierten Klängen während eines
Konzertes mit live spielenden Instrumenten als Live-Elektronik gelten kann, unabhängig von dieser Definitionsfrage ist es aber üblich, daß bei Musik mit Live-Elektronik
zugespielte Klänge immer wieder eingesetzt werden, deshalb darf auf ihre Besprechung
insbesondere hinsichtlich der Reproduzierbarkeit hier nicht verzichtet werden. Zudem
ist es so, daß vorproduzierten Klänge diesbezüglich eine Sonderstellung zugesprochen
werden muß: Sie müssen in einer Form archiviert werden, in der sie immer wieder gelesen werden können, oder zumindest auf ein neues Medium kopiert werden können, daß
dann seinerseits wieder die Funktion eines „Originals zweiter Generation“ einnehmen
kann. Der Grund hierfür ist darin zu suchen, daß aufgenommene Klänge bereits eine
transkribierte Form von akustischen oder elektronischen Signalen sind, die in ihrer Erscheinung während der Aufnahme entweder später überhaupt nicht reproduziert werden
können, oder deren Ursprung zumindest aus der Transkription auf dem Aufnahme15 siehe auch Kapitel 2.4 „Computeranalphabetismus und Bedienerfreundlichkeit“
16
medium nicht mehr entnommen werden kann. Das muß nicht heißen, daß man Aufnahmesituationen nicht reproduzieren kann, in denen Zuspielbänder nach Vorgabe des
Komponisten für die aktuelle Anwendung produziert werden können16; hingegen ist es
so, daß man mit Hilfe von Aufnahmen Klänge oder elektronische Signale aus ihrem
Kontext entfernen kann oder auch einmalige Ereignisse festhalten kann, die dann in
transkribierter Form auf einem Tonträger vorliegen und nur wiedergegeben werden
können, wenn der Tonträger adäquat gelesen werden kann. Diese Feststellung ist sehr
wichtig, da sie besagt, daß man aufgenommene Klänge im Gegensatz zu allen anderen
hier vorgestellten technischen Komponenten der Live-Elektronik nie durch Abstraktionen ersetzen oder auf grundlegende Funktionen reduzieren können wird. Wenn es nicht
gelingt, die Originale oder zumindest Kopien davon wiederzugeben, sind die Informationen unwiederbringlich verloren.
Darüber hinaus gibt es seit der Nutzung von digitaler Schallspeicherung ein weiteres
Kriterium, das der Reproduzierbarkeit von gespeicherten Klängen hinderlich sein kann.
Da die Klänge nicht mehr analog, also auf einen Datenträger transkribiert, sondern auch
codiert werden müssen, um sie überhaupt digital verarbeiten und speichern zu können,
muß der entsprechende Code bei der Wiedergabe oder zumindest bei der Kopie in ein
anderes Format, die ja bei digital gespeicherten Klängen auch ohne Wiedergabe erfolgen kann, verfügbar sein. Dies ist besonders dann problematisch, wenn der Code nicht
offen verfügbar ist, sondern rechtlich geschützt ist und nur in ausgewählten Produkten
eingesetzt wird. Entsteht die Situation, daß der Proprietär des Codes nicht mehr verfügbar ist, daß die Produktion und der Support der entsprechenden Produkte eingestellt ist,
ist nicht nur der Code verloren, sondern auch die Möglichkeit, die codierten Aufnahmen
zu lesen. Diese Problematik ist derzeit bei Audiodateien nur wenig zu finden, sondern
hauptsächlich bei Dateitypen, die an eine bestimmte Software gebunden sind, doch läßt
die momentane Entwicklung um digital rights management (DRM) und die Lizenzierung von Dateitypen, die im Internet zum Herunterladen vorgesehen werden die Befürchtung entstehen, daß auch bei Audiodateien zukünftig die Frage der proprietären
Codierung eine größere Rolle spielen könnte.
16 Schöne Beispiele hierfür sind die „Counterpoint“-Stücke von Steve Reich oder „Dialogue de l'ombre
double“ von Pierre Boulez, in denen die notwendigen Anweisungen für instrumentale Aufnahmen
gegeben werden, die der Interpret dann als Zuspielband, gleichsam im Dialog mit sich selbst, nutzen
kann.
17
Unabhängig von den Fragen des Lesens und der Codierung der Klänge muß für eine
eindeutige Reproduktion eine adäquate Beschreibung dessen vorliegen, was sich auf
dem Zuspielband befindet. Hierzu gehören formale Angaben wie Länge, Format, Spuranzahl, Spurbelegung, Zuordnung zu bestimmten Lautsprechern oder weiterer elektronischer Verarbeitung (beispielsweise aufgezeichnete Steuerspannungen oder MIDIBefehle), Start-Punkte oder Tracks usw. Diese sollten in einer allgemein lesbaren und
möglichst standardisierten Form aufbereitet werden. Darüber hinaus stellt sich die Frage
der Notation bzw. Verschriftlichung des Zuspielbands in der Partitur, die insbesondere
bei angestrebter Synchronität mit live zu Spielendem unabdingbar ist. Die Art und der
Umfang der Notation ist allerdings sehr vom Kontext des Zuspielbandes im Stück abhängig.17
Zur Archivierung von Zuspielbändern werde ich nähere Ausführungen im Kapitel 4.4
machen.
Sampler
Eine Besonderheit bei der Arbeit mit Zuspielklängen ist der Einsatz von Samplern. Als
Basismaterial nutzen sie ebenfalls gespeicherte Klänge, auf die alle im vorigen Abschnitt genannten Eigenschaften und Forderungen zutreffen. Sampler waren aber von
Beginn an (das erste Gerät wurde 1979 von der Firma CMI-Fairlight Systems vorgestellt) auf digitale Klangverarbeitung und einfache sowie schnelle Bedienbarkeit ausgelegt und besitzen deshalb einige Funktionen, die über den Einsatz von konventionellen
Zuspielbändern hinausgehen.
Sampler werden üblicherweise über eine Klaviatur bedient. Als Schnittstelle zur Kommunikation hat sich bis heute weitestgehend das Anfang der 80er Jahre entwickelte
MIDI erhalten. Daher haben die im MIDI-Protokoll übertragenen Daten18 auch die in
Samplern zur Steuerung üblicherweise eingesetzten Parameter entscheidend geprägt.
Zwar ist die Möglichkeit, diese Parameter den unterschiedlichen Zuspiel- und Klangbe17 vgl. hierzu ausführlich Pfeifer 2002
18 MIDI überträgt außer den gespielten Tonhöhen (in Form von den Tasten eindeutig zugewiesenen
Nummern) weiterhin Daten wie Anschlagstärke, Aftertouch, Steuerdaten wie Kanal- und Programmnummern, Betriebsmodi, Werte von Pedalen, Modulationsrädern oder „Breath Controllern“ und weitere, teilweise vom Benutzer frei definierbare Steuerdaten. (vgl. hierzu ausführlich Ruschkowski
1998, insbesondere „Die MIDI-Kommunikation“ S. 371-412)
18
arbeitungsprozessen zuzuordnen durch den Ruf nach einfacher Bedienbarkeit stets einigermaßen übersichtlich geblieben, doch müssen zur einwandfreien Reproduktion bereits
diese Zuordnungen genau notiert werden.19 So kann es beispielsweise vorkommen, daß
über eine einzige Taste bei unterschiedlicher Anschlagsdynamik verschiedene Samples
abgerufen werden, die auch noch in ihrer Tonhöhe und Dauer beeinflußt werden. Gerade bei früheren Modellen wurde außerdem viel mit Loops gearbeitet, da der zur Verfügung stehende Speicherplatz extrem begrenzt war. Hierbei müssen dann auch noch
Start- und Endpunkte, Blenden, Abspielvarianten usw. dokumentiert werden.
Im Zuge der sich stets weiter verbreitenden Software-Sampler scheinen die genannten
Zuordnungen von Steuerparametern zu Bearbeitungsprozessen nun aber doch zunehmend komplexere Möglichkeiten zu bieten. Dies liegt vermutlich daran, daß durch die
bereits beschriebene Zusammenfassung von Geräteprinzipien in einer programmierbaren Umgebung ihre Interaktionsmöglichkeiten umfangreicher werden. Es findet sich immer mehr Software, die Sampler, Synthesizer, Filter, Raumsteuerung und weitere
Effektgeräte kombiniert. So wird beispielsweise für einen der bekanntesten SoftwareSampler folgendermaßen geworben:
„Fünf Sampler-Betriebsarten ermöglichen klassisches Sample-Playback, Echtzeit Time-Stretching und
Pitch-Shifting, Pitch-Kompression sowie das Beat-Slicing zur Tempoanpassung von Loops. Die intuitiven Mapping-, Loop- und Gruppen-Editoren sowie mehr als 30 exzellente Filter und Effekte inklusive eines Faltungseffekts eröffnen neue Perspektiven für das kreative Produzieren. [...] Die ausgereiften
Surround-Sound-Features mit Unterstützung aller Surround-Formate bis hin zu 16 Kanälen ermöglichen
das räumliche Bewegen von Sounds.“20
Neben der Dokumentation der Zuordnungen und Klangverarbeitungen21 ist bei der Betrachtung von Samplern zu bemerken, daß es erst in jüngster Zeit bei vielen Modellen
ermöglicht wurde, mit standardisierten Dateiformaten wie z.B. AIFF oder Broadcast
Wave und ebenso standardisierten Datenträgern wie Festplatten zu arbeiten. Lange Zeit
hatte jeder Hersteller sein proprietäres Format für Audiodaten und Speichermedien, und
für die Speicherung der erwähnten Zuordnungen in sogenannten „Programs“ haben sich
19 siehe hierzu im Kapitel 2.2.5 über Steuerung
20 Native Instruments: Präsentation des Kontakt 2,
http://www.native-instruments.com/index.php?id=kontakt_de [Stand 2006-09-25]
21 Diese können mit den Methoden beschrieben werden, die ich im Kapitel 2.2.3 analysieren werde.
19
nach wie vor herstellerspezifische Formate erhalten. Dies macht eine allgemeingültige
Dokumentation umso nötiger.
Live-Sampling
Neben der beschriebenen Möglichkeit, vorproduzierte Klänge zuzuspielen oder als Ausgangsmaterial für live vollzogene Klangbearbeitungen zu nutzen, gibt es auch die Möglichkeit, das so genutzte Material erst aus den live stattfindenden Aktionen zu gewinnen.
Dieses Verfahren wird auch als „performed tape“ bezeichnet.22
Da hierzu als Grundbedingung nur eine adäquate Apparatur für Aufnahme und Wiedergabe benötigt wird, wurde dieses Verfahren bereits seit den 50er Jahren immer wieder
eingesetzt.
Ein Beispiel hierfür ist SOLO von Karlheinz Stockhausen, entstanden 1966, wo während der gesamten Aufführung eine Aufnahmeapparatur läuft und von Zeit zu Zeit einzelne Passagen daraus verzögert wiedergegeben werden. Der Aufbau ist wie folgt:
Abb. 1: Aufführungstechnik für SOLO
22 Gordon Mumma, zit. nach Supper 1997 S.15
20
Durch die rasche Verbreitung von Samplern und hardwaregestützten Aufnahme- und
Wiedergabesystemen wurden die Möglichkeiten zum Live-Sampling enorm erweitert,
insbesondere da diese digitalen Systeme wesentlich leichter und komfortabler automatisierbar sind als analoge und so präzisere und ökonomischere Einsatzmöglichkeiten entstehen. Es wurden beispielsweise für SOLO 1966 vier Assistenten zusätzlich zum
Klangregisseur benötigt, inzwischen gab es einige Versionen, in denen nur der Klangregisseur mit einem die Technik überwachenden Assistenten das Stück aufführen konnte,
zudem mit wesentlich größerer Präzision. Heute gibt es Software, die speziell für diese
Zwecke konzeptioniert ist, wie bereits ihre Namensgebung erahnen läßt, beispielsweise
das vom amsterdamer STEIM entwickelte LiSa (Live Sampling) oder das von der berliner Firma Ableton entwickelte „Ableton Live“.
Instrumentenspezifische Manipulation bei Zuspielern
Bei Geräten zur Wiedergabe gespeicherter Klänge ist es immer so gewesen, daß jede
Generation von Technik ihre instrumentenspezifischen Methoden zur Manipulation bei
der Wiedergabe entwickelt hat. Diese haben sich häufig aus einem „Mißbrauch“ der
vorgesehenen Wiedergabetechnik entwickelt, die sich dann als ästhetisch interessant
herausgestellt hat.
Insbesondere bei analogen Zuspielern gibt es viele Punkte, an denen man bereits mechanisch in den Wiedergabevorgang eingreifen kann. Das prominenteste Beispiel hierfür ist
wohl die Entwicklung der vielfältigen DJ-Techniken im Umgang mit Plattenspielern,
aber auch die Techniken zur Tonbandmanipulation durch ungewöhnliche Schnitte und
Wiedergabe von präparierten Bändern fallen darunter. Auch bei digitalen Zuspielern
wird beispielsweise mit instabiler System-Clock experimentiert, um die Wiedergabe zu
manipulieren.
Will man derartige Prozesse zum Eingreifen in die übliche Wiedergabe dokumentieren,
muß nicht nur eine Aktionsschrift für die Vorgänge zur Manipulation gefunden werden,
sondern es muß auch beschrieben werden, wie das Wiedergabesystem reagieren soll, da
man bei solcher Grenzüberschreitung nicht automatisch davon ausgehen kann, daß jedes
System identisch reagiert. Je vielfältiger die Variationsmöglichkeiten der eingesetzten
21
Technik dabei sind und je weniger Konsens es im Umgang mit ihr gibt, desto eindeutiger muß die Beschreibung des zu erreichenden Resultats in Kombination mit den auszuführenden Aktionen sein.
2.2.3 Klangveränderung
Die ureigenste Qualität von Musik mit Live-Elektronik ist wohl die Veränderung
(Transformation) von live erzeugten Klängen im Konzert, um diese dann in Echtzeit
oder zeitversetzt wieder hörbar zu machen. Meiner Ansicht nach lassen sich die Methoden zur Transformation der Klänge in vier Ebenen beschreiben:
•
Veränderungen in der Zeit
•
Veränderungen im Raum
•
Veränderungen im Frequenzbereich
•
Veränderungen der Lautstärkepegel
Es gibt Transformationsvorgänge, die sich sehr deutlich einer dieser Ebenen zuordnen
lassen, andere, die Einfluß auf mehrere dieser Ebenen zugleich haben und solche, die
derart komplex sind, daß sie sich nur unzulänglich und kaum sinnvoll einordnen lassen
und wohl passender ausschließlich durch ihre elektroakustische Verschaltung oder mathematische Algorithmen zu beschreiben sind.
2.2.3.1 Zeit
Musik besteht aus in der Zeit geordneten Klängen. Daher ist ein naheliegender Eingriff,
den man an ihr vornehmen kann, die Veränderung des zeitlichen Ablaufes. Da allerdings bei Musik mit Live-Elektronik oft eben live gespielte akustische Instrumente zum
Einsatz kommen, muß berücksichtigt werden, daß in diesen Fällen immer der unveränderte Klang im Raum hörbar ist und Veränderungen, die in Echtzeit am Klang vorgenommen werden und hörbar gemacht werden, zusätzlich zum Original erklingen. Bei
22
den in den folgenden Kapiteln beschriebenen Transformationsformen im Frequenzbereich und im Pegel, sogar im räumlichen Erscheinungsbild, läßt sich der Originalklang
bis zu einem gewissen Grad verdecken, beispielsweise durch hohen Pegel des veränderten Klangs. Aber gerade bei der Manipulation in der zeitlichen Ebene ist dies fast nie
der Fall, es sei denn, daß der Originalklang für das Publikum nahezu unhörbar gemacht
wird, beispielsweise durch den Einsatz von Wänden zur akustischen Trennung oder von
starken Dämpfern. Ansonsten wird man immer in der Summe von Originalklang und
transformiertem Klang beide hören, da sie verschiedene Zeitstrukturen besitzen. Zudem
gibt es viele zeitbezogene Transformationsprozesse, die prinzipiell nicht echtzeitfähig
sind, Dehnung der Zeitebene kann beispielsweise nicht synchron zum Eingangssignal
erfolgen.
Folglich bieten sich hier für Live-Elektronik weniger nutzbare Transformationsvorgänge als bei der Anwendung auf vorher aufgenommene Klänge, die im Konzert abgespielt
werden.
Delay
Ein beliebter Effekt zur Transformation in der Zeitebene ist die Nutzung eines Delays.
Hierbei wird ein ankommendes Signal gespeichert und zeitverzögert wiedergegeben.
Wird der Ausgang des Delays dem Eingang wieder zugeschaltet, erhält man ein „Feedback“: Das Signal ist in Abständen der Zeitverzögerung des Delays immer wieder zu
hören. Um den Vorgang endlich zu machen, führt man üblicherweise das Signal mit
verringertem Pegel zurück, so entsteht eine Abfolge von Wiederholungen, die nur eine
bestimmte Zeit lang wahrnehmbar sind und dann im Rauschen des Raums oder des verarbeitenden Systems untergehen. Diese Konfiguration des Delays mit Feedback wird
auch als Echo bezeichnet.
Bis zur Einführung von digitalen Delays wurden diese Verzögerungen mit Tonbandmaschinen realisiert, wobei Bandschlaufen zwischen Aufnahme- und Wiedergabekopf gespannt wurden, um aufgrund der Laufzeit des Bandes die benötigte Verzögerung zu
erreichen. In manchen älteren Partituren finden sich immer noch Tonbandlängen für die
Delays, die in Abhängigkeit von der Laufgeschwindigkeit des Bandes aber in Verzöge-
23
rungszeiten umgerechnet werden können.23
Ein Delay wird durch wenige Parameter exakt definiert, das sind die Verzögerungszeit
und, falls vorhanden, der Anteil des Feedbacks. Dieser wird bei digitalen Delays üblicherweise in Prozent des Eingangssignals angegeben. Im Delay finden sich häufig noch
zusätzliche Funktionen wie beispielsweise die räumliche Verteilung der unterschiedlichen Wiederholungen beim Feedback24, diese lassen sich dann mit den Parametern der
Verräumlichung25 beschreiben.
Timestretching/Umkehrung
Weitere Formen der Transformation in der Zeitebene sind das Timestretching, das Verlängern bzw. Verkürzen von aufgenommenen Audio-Sequenzen und die Invertierung,
das Rückwärtsabspielen eben solcher Sequenzen. Beide Techniken haben ihren technischen Ursprung in der unkonventionellen Nutzung von Tonbandmaschinen. Umkehrung
wurde durch rückwärtiges Abspielen des Bandes erreicht, Timestretching mit Tonhöhenveränderung durch variieren der Abspielgeschwindigkeit. Eine Apparatur für Timestretching ohne Tonhöhenveränderung erfand Gabor als eine Bandmaschine mit
rotierenden Tonköpfen.
Abb. 2: Analoge Timestretching-Maschine nach Gabor
23 In Abbildung 1 sieht man die Anordnung von Bandschleifen mit mehreren Tonköpfen ebenso wie die
Angabe der Bandlängen und Verzögerungszeiten.
24 Dies geschieht beispielsweise bei den sogenannten Multi-Tap-Delays oder Pingpong-Delays
25 Siehe im Kapitel 2.2.3.2
24
Nach demselben Prinzip entwickelte Springer das Tempophon, das im Studio für elektronische Musik des WDR Köln bei Herbert Eimert zum Einsatz kam.26 In der Folgezeit
wurden noch weitere, ähnliche Systeme entwickelt, doch erst nach Entstehung der digitalen Sampler wurde es mit vertretbarem Aufwand möglich, das Verfahren auch im
Live-Betrieb einzusetzen.
Wie schon erwähnt ist naturgemäß eine Dehnung oder Stauchung der Zeitebene nicht
mit Echtzeit-Anspruch möglich, auch eine Invertierung nicht. Daher muß immer ein
Schritt zur Zwischenspeicherung erfolgen, es wird ein Gerät zum Live-Sampling genutzt, das dann die aufgenommenen Signale wie vorproduzierte zur Verfügung stellt,
verarbeitet und wiedergibt27. Ähnliches gilt auch für Verfahren zur künstlichen Verlängerung von Tönen, die in der Regel auf Loopstrukturen basieren, sogenanntes „Freezing“ oder „Unendlich-Hall“.
Timestretching wird in der Regel durch Angabe der prozentualen Dehnung bzw. Stauchung definiert, auch möglich ist die Angabe der Veränderung der Laufgeschwindigkeit
einer Tonbandmaschine oder der Wechsel des Tempos in Schlägen pro Minute (BPM28),
alle diese Angaben können einfach ineinander umgerechnet werden. Zusätzlich wird die
Angabe notwendig, ob das Timestretching mit oder ohne Tonhöhenveränderung geschehen soll, wobei tonbandgestützte Systeme letztere Möglichkeit nicht zulassen und digitale Systeme genutzt werden müssen. Zur genaueren Definition von Loops siehe die
Beschreibung der speziellen Klangveränderungen unter den klangergänzenden Zuspielern in Kapitel 2.2.2.
Heutzutage wird sowohl Timestretching als auch Freezing meistens mit Hilfe von Granularsynthese realisiert.29
2.2.3.2 Raum
Der reale, architektonische Raum prägt eine Aufführung von Musik prinzipiell in zweierlei Hinsicht: Zunächst stellt er die Lokalität dar, in der die Musik zur Aufführung ge26
27
28
29
vgl. Morawska-Büngeler 1988 S.47
siehe hierzu auch „Live-Sampling“ im Kapitel 2.2.2
beats per minute
siehe hierzu auch „Klangsynthese“ im Kapitel 2.2.1
25
langt und in der sowohl die Schallquellen und die Interpreten als auch das Publikum ihren Platz finden. Diese Lokalität ist also eine notwendige Voraussetzung dafür, daß die
Musik überhaupt entstehen kann. Zweitens verändert der Raum durch seine akustischen
Eigenschaften alle Schallereignisse, die in ihm stattfinden. Diese Veränderung ist dem
Raum immanent und macht ihn wiedererkennbar, wenn die akustischen Eigenschaften
außergewöhnlich sind.
Wird der erste Aspekt der räumlichen Verteilung auf Schallquellen, akustischer oder
elektronischer Art, und Interpreten fokussiert, kann man hier von einer aufführungstechnischen Dimension des Raums sprechen. Für eine Aufführung ist es nämlich relevant, die Positionen von Instrumenten und Lautsprechern im Raum zu definieren, da sie
einen großen Teil des akustischen Resultats direkt bedingen und so Möglichkeiten zur
Strukturierung der Musik geben. Der zweite Aspekt, der als akustische Dimension des
Raums bezeichnet werden kann, verändert die im Raum entstandenen Klänge erst in
zweiter Instanz und kann daher als von der Entstehung der Klänge getrennt betrachtet
werden. Der Einsatz von Elektronik kann die akustischen Eigenschaften eines Raumes
simulieren und damit die akustische Dimension eines Raumes herstellen, der physikalisch gar nicht genutzt wird.
Historisch gesehen wurde bereits im 16. Jahrhundert ausgehend von der Zweiten Venezianischen Schule und begünstigt durch die Bauweise der Markuskirche mit zwei Orgelemporen die räumliche Aufteilung der Instrumentalisten ein Kompositionskriterium.
Besonders durch Gabrieli hat die Mehrchörigkeit dort eine frühe Blüte erreicht, sie war
durch das Prinzip des Dialogisierens geprägt. Die Aufteilung der musizierenden Protagonisten blieb jedoch zunächst auf die geistliche Vokal- und Orgelmusik beschränkt,
wenig später auch unter Hinzuziehung von Instrumentalchören, beispielsweise bei Mozarts Notturno KV286 für vier Orchester. Erst im 19. Jahrhundert finden sich Fernorchestern und -chöre auch in der Oper und in sinfonischer Musik, häufig mit
programmatischem Hintergrund und Funktion der Dramaturgie.
Es ist zu bedenken, daß die Verteilung im und außerhalb vom Aufführungsraum nur soweit möglich war, wie die Musiker sich untereinander hören konnten, oder zumindest
der Dirigent als zentraler Koordinator sich mit allen gut verständigen konnte, um ein
sinnvolles Zusammenspiel möglich und kontrollierbar zu machen. Zu große Laufzeiten
26
des Schalls, wie sie beispielsweise bei Fernorchestern oder Orchesterkonzerten mit Kirchenorgeln leicht entstehen, konnten ein fast unlösbares Hindernis darstellen.
In der Mitte des 20. Jahrhunderts gab es dann zwei Entwicklungen, die der Betrachtung
des Raums in der Musik eine neue Qualität zukommen lassen. Zum einen bildete sich
die serielle Schule heraus, die es ermöglichte und forderte, den Raum und die räumliche
Verteilung von Klangquellen als strukturellen Parameter in Kompositionen mit einbezuziehen. Zum Anderen wurde durch die Entwicklung der elektroakustischen Übertragungstechnik die Grundlage für eine solche parametrische Behandlung des Raums mit
elektroakustischen Mitteln überhaupt erst verfügbar: Die Mobilität und Qualität von
Tonbandgeräten, Mikrofonen, Mischpulten, Lautsprechern und Verstärkern erreichte
langsam eine Stufe, die es ermöglichte, sie in einem Konzert zufriedenstellend nutzbar
zu machen und live oder zuvor erzeugte Klänge über Lautsprecher im und außerhalb
des Konzertraums zu verteilen. Auch die Entwicklung und flächendeckende Einführung
des Tonbands als Speichermedium und seine Nutzung zur synchronen Wiedergabe von
mehreren getrennten Spuren war als Grundlage zur präzisen Montage und Fixierung
von Klangereignissen und deren Wiedergabe über mehrere im realen Raum verteilte
oder sogar einen virtuellen Raum schaffende Lautsprecher vonnöten. Ebenso wurde die
Möglichkeit der präziseren Kommunikation über weite Entfernungen unter Zuhilfenahme von akustischem oder sogar Video-Monitoring geschaffen, die heute als Basis der
Realisierbarkeit vieler Stücke mit Raumverteilung gelten muß.
Martin Supper nennt für die Verwendung des Raumes in der Musik mit Live-Elektronik
drei Möglichkeiten:30
•
Den Raum als Instrument
•
Virtuellen und simulierten Raum
•
Die Bewegung des Klanges im Raum
Hier werde ich diese Kategorien etwas verändern, wie im Folgenden beschrieben. Die
Nutzung der Akustik des Raums als Instrument werde ich im Abschnitt „Arbeit mit der
30 Supper 1997 S. 121ff.
27
realen Raumakustik“ um einige Überlegungen zur Modifikation dieser hinsichtlich bestimmter Musik ergänzen. Sie kommt in der Praxis in Kombination mit Live-Elektronik
allerdings nur sehr selten vor.
Im Kapitel “Virtueller und simulierter Raum“ legt Supper viel Gewicht auf die elektroakustische Übertragung von Räumen in andere Räume, beispielsweise beim Hören von
Aufnahmen oder bei Soundinstallationen, ich möchte in meinem Kapitel „Hall“ detaillierter auf das Erschaffen von virtueller Räumlichkeit durch Hallerzeuger eingehen, da
dies in der Praxis der live-elektronischen Musik wesentlich bedeutender und üblicher
ist. Zusätzlich möchte ich noch die Existenz von natürlichen resonierenden Systemen
erwähnen, die keine architektonischen Räume sind, aber trotzdem hallartige Wirkung
entfalten. Die Kategorie der Bewegung des Klangs im Raum möchte ich ergänzen durch
die Betrachtung statischer Disposition von Klängen im Raum, zusammengefasst im Kapitel zur Verräumlichung.
Arbeit mit der realen Raumakustik
Wie bereits gesehen war schon in der Venezianischen Schule der bewußte Einsatz von
im Raum verteilten Klangkörpern in Zusammenwirkung mit dem verschmelzenden Effekt des Nachhalls ein wesentliches Kompositionsmerkmal, und schon immer hat die
Wechselwirkung von Raumakustik und den Kompositionen, die in diesen Räumen zum
Klingen gebracht wurden, die Beteiligten beschäftigt. Gut dokumentiert sind beispielsweise die Einflüsse der Akustik der Konzerträume auf die Kompositionen Beethovens 31
wie auch der Bau des Festspielhauses in Bayreuth nach den speziellen akustischen Anforderungen Richard Wagners32, ganz zu Schweigen von Instrumenten, die nur für bestimmte Räume gebaut werden, wie beispielsweise Kirchenorgeln33.
Die Vorsehung von baulichen Maßnahmen zur flexiblen Anpassung der Raumakustik
auf die aufzuführenden Werke ist naheliegend, sei es in Form von absorbierenden Vorhängen, von akustisch koppelbaren „Hallkammern“34 oder als gänzlich modulare Be31
32
33
34
Weinzierl 2002
Meyer 1999 S. 304f.
Meyer 2003, insbesondere S. 235ff.
Morton H. Meyerson Symphony Center, Dallas 1989; Symphony Hall, Birmingham 1991; KKL,
Luzern 2000
28
stückung der Wände35.
Trotzdem wird immer wieder beklagt, daß nur sehr wenige Konzerträume geeignet für
die Präsentation elektroakustischer Musik seien, nicht nur wegen zu wenig flexibler
Akustik, sondern auch wegen mangelnder Bestuhlungsfreiheit, nicht ausreichender Anschlüsse oder Hängemöglichkeiten für die Lautsprecher und sonstige Technik.
Die Nutzung von Aufführungsräumen unter Einbeziehung von deren akustischen Eigenschaften als Bestandteil einer Komposition muß demzufolge weitestgehend an bestimmte Lokalitäten gebunden bleiben, je unüblicher die Akustik, desto mehr. Eine Ausnahme
aus jüngerer Zeit, allerdings ohne Elektronik, bildet hier beispielsweise das auf den Donaueschinger Musiktagen 2005 aufgeführte FAMA von Beat Furrer, einem „Hörtheater
für großes Ensemble, acht Stimmen, Schauspielerin und Klanggebäude“, bei dem im
Konzertsaal ein speziell entworfenes Klanggebäude aufgebaut wird, in dem sich die
Plätze für das Publikum befinden. An allen Seiten dieses Klanggebäudes befinden sich
Klappen, die Einfluß auf die Akustik im Inneren nehmen können, zumal meist die Solisten innen und das Ensemble außen spielen. Der Komponist beschreibt die Eigenschaften
des Raums folgendermaßen:
„[...] das Gebäude ist eigentlich nichts anderes als ein Instrument, und seine Resonanz funktioniert im
Prinzip ganz ähnlich wie das Mundstück eines Blasinstruments oder der Korpus eines Streichinstruments.
Es ist ein einziger großer Transformator des Klanges, ein Resonator, ein Meta-Instrument. Wir haben die
beiden Seiten der Klappen, die sich öffnen und schließen lassen wie beim Schwellwerk einer Orgel, die
man aber auch um 180° drehen kann, unterschiedlich beschichtet, die eine Seite mit einer Metallschicht wie das Erz beim "Haus der Fama" -, die den Klang ganz direkt reflektiert, die andere Seite mit einem
speziellen Kunststoff, der den Klang trocken, aber gleichzeitig ganz präsent macht. [...] es sind spezielle
Filterungen und Richtungseffekte möglich. Man kann etwa außen ein Ereignis mit einer langen Nachhallzeit haben und innen gleichzeitig ganz trockene und klare Klänge. Wenn die Klappen geschlossen sind,
hört man manchmal nur den Reflexionsklang, bei metallenen Klängen verlieren gewisse Teile des Spektrums schnell ihre Energie. Oder es gibt Klänge, die schwer zu orten sind und von überall herzukommen
scheinen: Der Raum spielt immer mit, und das Phänomen der klanglichen Präsenz in diesem Raum wird
zum Thema.“36
35 IRCAM, Espace de projection, Paris 1976
36 "Der Raum spielt immer mit", Beat Furrer im Gespräch mit Daniel Ender in Programmheft der Donaueschinger Musiktage 2005
29
Ein solcher Bau kann, allerdings mit entsprechend großem logistischen Aufwand, dann
in jedem ausreichend großen Saal aufgebaut werden und als Instrument genutzt werden.
Es wird deutlich, wie der Raum durch akustische Modifizierbarkeit Möglichkeiten zur
kompositorischen Nutzung bekommt und mit der Akustik des Konzertsaales kommuniziert. Die Schnittstelle zur Live-Elektronik wird an zwei Stellen möglich, zum einen,
wenn die Vorgänge zur akustischen Modifikation automatisierbar sind und die Elektronik diese steuert, zum anderen wenn die so geformte raumakustische Umgebung in den
weiteren elektroakustischen Bearbeitungsprozeß eingebunden wird. Ein prominentes
Beispiel hierfür ist Alvin Luciers „I am sitting in a room“ (1970) für Stimme und Tonband. Hier wird ein vorgegebener Text gelesen und auf Tonband aufgenommen, diese
Aufnahme wird dann über einen Lautsprecher in den Raum projiziert und mit Hilfe eines Mikrofons aufgenommen. Dieser Prozeß von Wiedergabe und Aufnahme wird dann
mit der jeweils resultierenden Aufnahme bei identischer Lautsprecher- und Mikrofonposition so oft wiederholt, bis ausschließlich Raumresonanzen hörbar bleiben. Lucier
kommentiert dazu:
„[...] the space acts as a filter, it filters out all of the frequencies except the resonant ones. It has to do with
the architecture, the physical dimensions and acoustic characteristics of the space.“37
Der Raum mit seiner spezifischen Akustik ist als ein Glied in der elektroakustischen
Übertragungskette zu begreifen, das der eingesetzten Technik und ihren jeweiligen
klanglichen Eigenschaften als auch ihrer Positionierung und Ausrichtung im Raum als
gleichwertig zur Seite gestellt wird. Der Raum als Instrument38 wird in diesem Falle in
seiner Einzigartigkeit charakterisiert und für eine Realisierung in einem anderen Raum
wird gerade nicht die Übertragung der raumakustischen Eigenschaften gefordert, sondern des Prinzips des Umgangs mit der Technik. Sollte in anderen Fällen die exakte
Übertragung der akustischen Eigenschaften des Raumes nötig sein, gibt es nur die Möglichkeit einer exakten Kopie desselben (wie es beispielsweise mit der transportablen
Raum-in-Raum-Konstruktion bei Furrer realisierbar ist) unter spezieller Beachtung der
akustischen Eigenschaften des Materials der Wände.
37 Lucier 2005, S.88
38 siehe Supper 1997 S. 122f.
30
Hall
Obwohl das Phänomen des Halls sich bei detaillierter Analyse aus Veränderungen im
Frequenzgang, in der Zeit, im Raum und im Pegel zusammensetzt, soll in dieser Arbeit
die Einordnung unter der Kategorie der räumlichen Veränderung geschehen. Unser Gehör bildet nämlich bei der Wahrnehmung von natürlichem Nachhall und auch bei künstlichem Hall, der an natürliche Phänomene angelehnt ist, in erster Linie Assoziationen zu
räumlichen Strukturen. Der wahrnehmungsorientierte Ansatz soll hier, wie bereits dargelegt, im Vordergrund stehen. Selbst bei intensiver Auseinandersetzung und viel Training erreicht die diskrete auditive Erfassung der Strukturen des Pegels, des
Frequenzgangs und des Zeitverlaufs im Hall nie eine annähernde Qualität und Präzision
wie die intuitive Erfassung der räumlichen Strukturen eines Halls.
Die Entwicklung der Tontechnik war eine notwendige Voraussetzung, um den Nachhall
auch ohne Berücksichtigung der realen Raumakustik gestaltbar und kompositorisch
nutzbar zu machen, um ihn flexibel auch innerhalb von Werken und kleinerer Zeiteinheiten zum Einsatz zu bringen, und um sogar nicht real existierende Räume simulieren
zu können.
Zunächst wurde mit der elektroakustischen Übertragung durch Mikrofon, Verstärker
und Lautsprecher die Möglichkeit gewonnen, auch lokal entkoppelte Räume mit besonderer Akustik als Übertragungssystem zu nutzen und so, beispielsweise durch die Nutzung von eigens gebauten Hallräumen, mit in die Musik einzubeziehen.39
Die Erfindung von Hallplatten, Hallfedern und Hallfolien als ebenfalls analogen Übertragungssystemen erlaubten die vollständige Loslösung von real existierenden Räumen
und stellten somit die ersten simulierten Räume dar. Allerdings mußten zumindest Hallplatten weiterhin in akustisch isolierten Räumen platziert werden, um Störungen zu vermeiden.
Erst die Einführung von digitalen Hallgeräten in den siebziger Jahren führte zur Möglichkeit einer umfangreicheren Nutzung des Halls als Parameter der Komposition. Erst
nun wurde es sinnvoll, einzelne Parameter von Nachhall in numerische Werte zu fassen,
die dann unabhängig voneinander zur Generierung künstlichen Halls genutzt werden
39 vgl. Arbeit mit der realen Raumakustik
31
konnten. Bei analoger Hallerzeugung mußten nicht nur die akustischen Eigenschaften
der hallerzeugenden Systeme gemessen und dokumentiert werden, sondern zudem bei
jeder Reproduktion wieder ein adäquat gebauter Hallerzeuger gefunden werden. Digitale Hallerzeugung ermöglicht heutzutage zudem eine wesentlich größere Variationsbreite
innerhalb eines Gerätes und den Einsatz von künstlichem Hall, der in realen Räumen
nicht zu erzeugen ist.
Für die Charakterisierung von künstlichem Nachhall haben sich die Parameter der
Raumakustik, wie sie zur Beschreibung natürlicher Räume üblicherweise zu finden
sind, weitestgehend etabliert, vor allem in standardisierten digitalen Hallgeräten. Nur
stellt sich aufgrund der Fülle dieser Parameter die Frage nach ihrer jeweiligen Relevanz
für eine Übertragbarkeit zur Realisierung in verschiedenen realen Räumen.
Zunächst ist es einleuchtend, daß die Wahrnehmbarkeit von künstlichem Hall in einem
Saal entscheidend davon abhängig ist, inwieweit dieser sich vom natürlicherweise im
Raum entstehenden Hall unterscheidet. Wenn der Aufführungsraum selbst bereits eine
üppige Akustik bietet, werden nuancierte Veränderungen im Kunsthall wesentlich unauffälliger und schwerer zu differenzieren, häufig nur noch, indem dieser unverhältnismäßig laut und überzeichnet abgemischt werden muß. Daher empfiehlt es sich allein aus
Gründen der Gestaltbarkeit sowie der Übertragbarkeit der akustischen Parameter für die
Aufführung von Werken mit expliziten klanglichen und zeitstrukturellen Anforderungen an den Nachhall recht trockene und klanglich neutrale Aufführungsräume zu nutzen. Auch die Dämpfung der gegebenen realen Raumakustik ist hierfür häufig in
Betracht zu ziehen.
Da in der Realität häufig Aufführungen unter ungünstigen akustischen Bedingungen
stattfinden müssen, bleiben nur wenige akustische Parameter übrig, die sich in Addition
mit der realen Raumakustik für eine Wiedererkennbarkeit von künstlichem Hall eignen.
Dazu gehört erstens die Länge des Halls, die als Nachhallzeit angegeben wird. Da diese
gemittelt in der Realität von Konzerträumen außer in Kirchen nur selten über 3 s liegt,
in Konzertsälen in der Regel bei ca. 1,5-2,5 s40 und in Theatern und Opern noch sogar
40 Meyer 1999, S.161ff.
32
deutlich darunter41, ist es naheliegend, bei längeren Dauern des künstlichen, zugefügten
Halls diesen in nahezu jedem Aufführungsraum adäquat zur Geltung bringen zu können.
Zu beachten ist allerdings, daß bei großer Nachhallzeit das Risiko von Rückkopplungen
deutlich zunimmt, da der Pegel des Halls ansteigt und so der Abstand von Stör- und
Nutzpegel auch am Ort des Mikrofons geringer wird.
Zweitens kann die Klangfarbe des Halls in Form von Pegelunterschieden und Abklingdauern von einzelnen Frequenzgruppen gegenüber deren Summe als Parameter gelten.
Auch hier muß diese natürlich in Addition zur Klangfarbe des Aufführungsraums gesehen werden und eventuell daraufhin modifiziert werden. In der Praxis kann man sich die
Angabe einer Filterkurve des Halls vorstellen, um beispielsweise einige künstliche
Raummoden zu betonen oder zu unterdrücken, oder aber um Luftabsorption bei hohen
Frequenzen zu simulieren. Beachtenswert ist, daß der Frequenzverlauf der „EarlyDecay-Time“, die den Pegelabfall über die ersten 10 dB als Grundlage nimmt und auf
60dB Pegelabfall umrechnet, im Bereich von 125 bis 2000 Hz besonders charakteristisch für die Klangfärbung durch den Hall ist.42
Die Betrachtung von künstlichen frühen Reflexionen erscheint mir in Hinsicht auf die
Realisierbarkeit in verschiedenen Räumen problematisch, da selbst bei wenig halligen
Räumen meist einige ausgeprägte frühe Reflexionen wahrzunehmen sind, die bereits auf
die realen Raumdimensionen und architektonischen Gegebenheiten schließen lassen.
Zudem sind diese an verschiedenen Punkten im Raum extrem unterschiedlich, da bereits
recht große Laufzeiten sowohl der realen Reflexionen als auch der Signale von den
Lautsprechern entstehen. Durch ein Zumischen künstlich erzeugter früher Reflexionen
ergibt sich ein Reflexionsmuster, daß sowohl den realen als auch den künstlichen Raum
in seinen Dimensionen darstellt, und man wird das irritierende Gefühl von zwei Räumen bekommen, die gleichzeitig vorhanden sind.
Der Einsatz eines präzise bestimmten Predelays dürfte ebenfalls aus Gründen der vorhandenen Laufzeiten nicht so ausschlaggebend sein, wie beispielsweise bei Aufnahmen,
bei denen nur ein Hörplatz geschaffen wird (wenn er auch in der Realität des Raums
nicht vorhanden ist). Vielmehr ist hier die Anpassung auf den realen Aufführungsraum
vonnöten, um die Verzögerung des künstlichen Nachhalls mit den frühen Reflexionen
41 Meyer 1999, S. 183ff.
42 Lehmann, zit. nach Meyer 1999 S. 150
33
des realen Raumes in sinnvoller Weise zusammenzufügen.
Die Angabe der Raumgröße als Parameter nimmt meist direkten Einfluß auf die Nachhallzeit, verändert aber auch die Reflexionsstruktur des künstlichen Halls. Sie mag zur
Dokumentation als grobe Angabe sinnvoll sein, aber zur präzisen Nachbildung ist sie
aufgrund ihrer ungenauen Definition meist nicht ausreichend.
In den letzten Jahren hat sich zunehmend die Faltung als weitere Form der digitalen
Hallerzeugung etabliert, die erst neuerdings durch die enorm gestiegene Rechenkapazität auch im Live-Einsatz möglich wird. Da hier sämtliche Informationen zur Erzeugung
des immer identischen Halls in Form einer Impulsantwort des zu erzeugenden künstlichen Raumes vorliegen, wird sich in diesem Zusammenhang die Übertragung von
Räumlichkeiten als wesentlich praktikabler darstellen, als es mit sämtlichen vorherigen
Methoden möglich war. Gespeichert werden muß nur die Impulsantwort, die in Form
eines Soundfiles vorliegt, denn das gesamte Verfahren zur Errechnung des Halls ist klar
und einfach mathematisch definiert und jederzeit wieder nachzuvollziehen. Zu beachten
bleibt, wie bei aller künstlicher Hallerzeugung, die Anpassung der künstlich erzeugten
Räumlichkeit auf die real vorhandene, aber auch hier findet sich inzwischen die Möglichkeit, in Programmen für Faltungsoperationen die Impulsantwort derart zu verändern,
daß einzelne klangliche oder zeitliche Parameter modifiziert werden können.
Durch die gestiegene Leistung von Computern ist in den letzten Jahren auch die von
Akustikern gerne genutzte Auralisation von Räumen in rechnergestützten Systemen
echzeitfähig geworden. Dieses Verfahren, das eine modellbasierte Berechnung des
akustischen Verhalten eines Raumes anhand der Angabe von geometrischen und akustischen Eigenschaften ermöglicht, kann ebenfalls zur Erzeugung von künstlichem Hall
genutzt werden und bietet gegenüber allen bisher vorgestellten Methoden den Vorteil,
daß die Abstrahlcharakteristik der Schallquelle mit in die Berechnung des Halls einfließen kann. Der Einsatz dieses Verfahrens zur Hallerzeugung bietet sich unter dem
Aspekt der Reproduzierbarkeit von Hall deswegen an, weil seine Berechnung unter Zuhilfenahme der eingegebenen Raumabmessungen sowie der akustischen Eigenschaften
von Raum und Schallquelle erfolgt. Diese Daten liegen in Textform vor und können somit leicht archiviert werden. Allerdings ist zu erwähnen, daß zur Anwendung der Aura34
lisation stets die entsprechenden Modelle programmiert werden müssen, was zumindest
derzeit noch einigen Aufwand bedeutet. Vielleicht werden hierfür in den kommenden
Jahren ja weitere Anwendungshilfen entstehen, die den Umgang mit der Auralisation
beschleunigen können, um sie auch in der Live-Elektronik besser einsetzen zu können.
Weitere resonierende Systeme
In zeitgenössischer Musik finden sich neben realen und virtuellen Räumen außerdem
vielfältige weitere Resonanzsysteme, die zur Übertragung und Transformation von
Klängen genutzt werden und hallähnliche Eigenschaften besitzen. Auf rein akustischer
Basis tritt beispielsweise der Flügel mit einer vorgegebenen Struktur freischwingender
Saiten auf, in den ein Instrument, das wegen ausreichenden Schalldrucks vorwiegend
Bläser ist, hineinspielt. Dieses Prinzip wird auch im Zusammenhang mit elektroakustischer Übertragung eingesetzt, z.B. bei Boulez „Dialogue de l'ombre double“ für Klarinette und Elektronik. In einem akustisch vom Spielort getrennten Raum wird ein Flügel
mit niedergedrücktem Pedal aufgestellt, ein Lautsprecher unter dem Flügel regt dieses
schwingende System mit Signal von live gespielten Passagen der Klarinette an, und ein
Mikrofon über dem Flügel überträgt die Resonanzen für eine Wiedergabe in den Konzertsaal zurück.
Abb. 3: Flügel als Resonanzraum bei Boulez
35
Des weiteren gibt es den Fall, daß Lautsprecher auf resonierende Instrumente, vorzugsweise des Schlagzeugs, gelegt oder geklebt werden, um diese zur Übertragung zu nutzen. Dies geschieht beispielsweise bei „Music for Solo Performer“ von Alvin Lucier,
wobei vom Solisten erzeugte Alpha-Gehirnwellen verstärkt werden, über auf diverse
Idiophone und Membranophone geklebte Lautsprecher wiedergegeben werden und so
überhaupt erst hörbar werden.
Prinzipiell lassen sich alle konstant resonierenden Systeme auch durch die oben genannte Faltung simulieren, wenn es gelingt, eine Impulsantwort des Systems aufzuzeichnen.
Dies ist im Falle des genannten Stückes von Boulez auch bereits zur Anwendung gekommen, dadurch ließ sich sogar unerwünschtes Übersprechen zwischen Lautsprecher
und Mikrofon vermeiden, welches das Resonanzsystem Flügel umging. Es ist beim Ersatz von resonierenden Systemen durch Faltung nur zu bedenken, daß dadurch dann ein
wesentlicher Teil der szenischen Wirkung verändert wird, wenn das entsprechende resonierende System sich auf der Bühne befindet und Teil der Inszenierung der Interpretation ist.
Verräumlichung
Unter dem Begriff der Verräumlichung oder Spatialisierung lassen sich alle Vorgänge
zusammenfassen, die die traditionelle frontale Ordnung von Instrumenten und anderen
Klangquellen gegenüber dem Zuhörer aufheben und die Erscheinungsweise von Schallquellen im Raum hinsichtlich deren Lokalisierung um das Publikum herum anordnen.
Zwar gab es bereits in der Tradition der europäischen Kunstmusik immer wieder Tendenzen zur räumlichen Verteilung von Instrumenten, jedoch werden durch die Einbeziehung von elektronischen Geräten einerseits und der seriellen Kompositionstechnik
andererseits wesentliche Möglichkeiten zur kompositorischen Nutzung der Verräumlichung als einer den anderen Toneigenschaften gleichberechtigten musikalischen Qualität überhaupt erst geschaffen. Daß dies wenig mit der Verräumlichung früherer Musik
gemeinsam hat, hat Karlheinz Stockhausen 1959 in seinem Artikel „Musik im Raum“
beschrieben:
36
„In der Komposition „Gesang der Jünglinge“ habe ich versucht, die Schallrichtung und die Bewegung der
Klänge im Raum zu gestalten und als eine neue Dimension für das musikalische Erlebnis zu erschließen.
[...] Von welcher Seite, mit wievielen Lautsprechern zugleich, ob mit Links- oder Rechtsdrehung, teilweise starr und teilweise beweglich die Klänge und Klanggruppen in den Raum gestrahlt werden: das alles ist
für das Verständnis dieses Werkes maßgeblich. [...] Die Raumposition der Töne spielte ja bis dahin in der
Musik überhaupt keine aktive Rolle; man empfand sie deshalb als eine „ganz andere“ klangliche Eigenschaft, die wohl kaum je dazu in der Lage wäre, über die zeitlichen Toneigenschaften zu dominieren.
(Das hat sich mittlerweile grundlegend geändert, und wir bemerken mehr und mehr, wie sich alle musikalischen Vorstellungen in zunehmendem Maße verräumlichen)“43
Unter Einbeziehung von elektroakustischer Übertragungstechnik lassen sich prinzipiell
zwei Arten der Verräumlichung unterscheiden, statische und dynamische (also
bewegte).
Statische Verräumlichung wird durch jede Wiedergabe oder Verstärkung von akustischen Signalen im Aufführungsraum verursacht, die eine feste Lokalisation der jeweiligen Klangquellen um den Hörer herum ermöglicht, sei es durch Lautsprecher am Ort
der Klangquelle oder durch Phantomschallquellen im Raum.
Dynamische Verräumlichung verlangt zudem, daß die elektronisch zu übertragenden Signale entweder manuell oder automatisch in ihrer Zuordnung zu unterschiedlichen Lautsprechern (Routing) während der Übertragung verändert werden. Dies kann sowohl in
Schritten als auch sukzessive geschehen. Automatisiertes Routing wurde überhaupt erst
durch die Einführung von spannungsgesteuerten Verstärkern und entsprechender Systeme zur Aufzeichnung und Wiedergabe der Steuerspannungen möglich.
Anbei sei bemerkt, daß bereits der Einsatz von traditioneller Stereo-Panorama-Regelung
bei Anwendung auf im Raum verteilte Lautsprecher zur dynamischen Verräumlichung
genutzt werden kann.
Die Vorgänge zur Verräumlichung lassen sich sehr klar definieren und ebenso auch in
die Überlegungen zur Reproduktion integrieren. Zunächst muß festgelegt werden, welches Signal zu verräumlichen ist. Das können Informationen von einem Zuspielband
sein, live erklingende Instrumente oder jede weitere Audio-Information, die am Ort der
Elektronik zur Verfügung steht. Weiterhin muß verdeutlicht werden, wo dieses Signal
43 Stockhausen 1959 S. 60f.
37
im Raum erklingen soll, am besten auch, in welcher Art der Lokalisation, d.h. ob als
Phantomschallquelle oder als reale Schallquelle durch einen dort positionierten Lautsprecher. Der Einfluß der Richtcharakteristik der Lautsprecher und der Notwendigkeit
der Beschallung eines größeren Areals im Raum läßt sich nicht immer zufriedenstellend
lösen, weil häufig einzelne Lautsprecher zu nah am Publikum plaziert werden müssen,
vor allem Phantomschallquellen werden in ihrer Lokalisation durch die entstehenden
Laufzeit- und Pegelunterschiede im Publikum verzerrt, und auch die Überlagerung von
natürlichem Schallfeld und der elektronisch zugefügten Signale ist an verschiedenen
Hörplätzen oft ungleichmäßig verteilt.
Bei dynamischer Verräumlichung ist es zusätzlich notwendig, Zeitpunkt und Geschwindigkeit der zu vollführenden Bewegung festzuhalten. Bei simplen Bewegungen werden
Lautsprecher sukzessive angesteuert, deshalb sollte bei diesen Klangbewegungen auch
die Art der Überblendung von einem zum nächsten Status festgehalten werden.
Abb. 4: Prinzipschaltbild des HaLaPHONs mit steuernden Pegelkurven
38
Dies kann zunächst durch die Angabe von Pegelkurven der einzelnen Lautsprecher als
zeitabhängigen Funktionen geschehen, wie es Hans Peter Haller und Peter Lawo in ihr
seit 1971 entwickeltes Halaphon (HAllerLAwoPHON) als grundlegendes Prinzip integrierten. Die Speicherung von Pegelkurven in der beschriebenen Weise stellt dann allerdings die Bedingung, daß die Lautsprecher exakt im vorgeschriebenen Setup installiert
werden müssen, um die zuvor programmierten Abläufe ebenso wieder abzubilden.
Als wesentlich universeller und auf variierte Lautsprechersetups anwendbar stellt sich in
diesem Zusammenhang der Einsatz von vektorbasierter Darstellung der Klangbewegungen dar, die bei Systemen auf Grundlage von Ambisonics zur Anwendung kommt. Dies
ist eine mathematische Methode zur punktbezogenen Darstellung eines dreidimensionalen Schallfelds, die Anfang der 1970er Jahre von einer Gruppe um Michael A. Gerzon
und Peter Fellgett entwickelt wurde und auf vektorieller Basis arbeitet. In seiner einfachsten Form, Ambisonics erster Ordnung, wird das Schallfeld im sogenannten B-Format mit vier Werten dargestellt, einem richtungsunabhängigen Schallpegelwert sowie
den Schallschnellewerten in den drei Raumdimensionen, ein dynamisches System natürlich als zeitabhängige Funktion. Bei diesem Prinzip wird jedes Lautsprechersignal für
das Schallfeld aus den vektoriellen Angaben zur Bewegung des Klangs berechnet, folglich kann auch eine geänderte Lautsprecherposition in kurzer Zeit neu berechnet werden, inzwischen sogar dank schneller rechnergestützter Systeme in Echtzeit.
Die Darstellung der Klangbewegung wird also unabhängig von den räumlichen Begebenheiten eines konkreten oder idealen Raums dokumentierbar.
Zu einem realistischen Eindruck der Bewegung von Klang im Raum mit Hilfe eines festen Lautsprechersetups tragen weiterhin die Berücksichtigung von entfernungsabhängigen Phänomenen bei, die auch bei realen Bewegungen zu beobachten sind,
insbesondere Doppler-Effekt, Absorption durch die Luft und das Verhältnis von Direktschall, Diffusschall und frühen Reflexionen. Sowohl bei späteren Generationen des
Halaphons44 als auch beim „Spat“ des IRCAM als Beispiel für eine vektorbasierte Realisation sind diese Phänomene vorgesehen. Dabei ist der Doppler-Effekt als Tonhöhen-
44 Haller 1995 Bd. 1, S. 79ff.
39
funktion, die Luftabsorption als spektrale Filterkurve und die Zusammensetzung des
Schallfelds als Parameter künstlichen Nachhalls zu betrachten und auch als solche
dokumentierbar.45
Ein nicht zu vernachlässigender praktischer Aspekt der Steuerung bei vektorbasierten
Raumsteuerungssystemen ist die einfache Umsetzbarkeit in graphische Benutzeroberflächen oder vektorbasierte Controller, die sehr veranschaulichend und intuitiv genutzt
werden können.
Ein schönes Beispiel für auskomponierte dynamische Verräumlichung mit präzisen Angaben zur Realisierung dieser Verräumlichung ist in Pierre Boulez „Dialogue de l'ombre
double“ für Klarinette und Live-Elektronik zu finden. Die Einsätze werden in der Partitur numeriert und das Routing wird durch die direkte Angabe der zu nutzenden Lautsprecher ebenfalls als Nummern notiert.
Abb. 5 a+b: Lautsprecherdisposition und dynamische Verräumlichung bei Boulez
45 siehe jeweils dort
40
2.2.3.3 Frequenzbereich
Bei der Klangveränderung in der Frequenzdomäne gibt es zwei Bereiche, die sich in ihrer Konsequenz für die Wahrnehmung der Klänge unterscheiden. Erstens gibt es Prozesse, die Veränderungen der wahrgenommenen Tonhöhe zur Folge haben, bei Geräuschen
entsprechend Veränderungen der Lage im Frequenzspektrum, zweitens gibt es Prozesse,
die Veränderung auf dem Gebiet der Klangfarbe, also der spektralen Zusammensetzung
von Klängen, hervorrufen. Diese Unterteilung ist nicht für alle Veränderungsprozesse
möglich, bei komplexeren Operationen sind oft auch beide Bereiche betroffen, jedoch
ist bei einigen grundlegenden Prozessen eine Einordnung möglich und auch sinnvoll.
Harmonizer / Pitch shifter
Zur Veränderung der Tonhöhenwahrnehmung ist die naheliegendste Methode die harmonische (also logarithmische) Versetzung des gesamten Spektrums. Wie bereits im
Zusammenhang mit Timestretching erwähnt, führt bei der einfachen Wiedergabe von
gespeicherten Klängen die Änderung der Abspielgeschwindigkeit bei Tonbandmaschinen oder die Änderung der Auslesegeschwindigkeit (Samplingfrequenz) bei digitalen
Systemen zu einer gekoppelten Änderung von Tonhöhe und Dauer: Geschieht die Wiedergabe schneller, steigt die Tonhöhe, umgekehrt ebenso. Für eine wenig aufwendige
Änderung der Tonhöhe muß man also die entsprechende Änderung der Zeitstruktur in
Kauf nehmen, wie es beispielsweise bei Samplern der Fall ist.46
Um eine Änderung der Tonhöhe ohne Dehnung bzw. Stauchung der Zeitebene zu erreichen, und somit ein System zu erlangen, daß für den Einsatz in Echtzeit geeignet ist,
kommt auch hier digitale Signalverarbeitung zum Einsatz. Allerdings war dies mit den
bereits erwähnten Springer-Tonbandmaschinen prinzipiell auch schon möglich. Heutzutage benutzt man hier in der Regel ebenfalls Granularsynthese. Zwar muß systembedingt auch bei diesen Prozessen eine Zwischenspeicherung stattfinden, doch kann in der
Digitaltechnologie die Verarbeitung in so kurzer Zeit geschehen, daß sich die Latenz
zwischen eingehendem Signal und Ausgabe des transponierten Signals auf die Dauer
46 Dies ist auch der Grund dafür, warum man bei der Erstellung von Samples über den gesamten Spielbereich von akustischen Instrumenten eine wesentlich bessere Qualität erhält, wenn man die Intervalle
zwischen den gesampleten Tönen verringert.
41
weniger Wellenlängen reduzieren läßt und somit im Bereich der ohnehin im Raum vorhandenen Laufzeiten zwischen Instrument, Lautsprechern und Reflexionen quasi in
Echtzeit wahrgenommen wird.
Die Tonhöhenveränderung wird meist entweder in traditionellen Intervallen und Cent
oder prozentual angegeben.
Ringmodulator
Die Technik des Ringmodulators entstammt der analogen Nachrichtentechnik, wo sie
insbesondere zur Signalübertragung genutzt wird. Zur Nutzung als Prozeß der Tonhöhenänderung besitzt sie das Charakteristikum, daß Spektren nicht logarithmisch, sondern linear versetzt werden und somit das Resultat verglichen mit den Eingangssignalen
inharmonische Versetzungen enthält.
Es werden stets zwei Eingangssignale benötigt, die miteinander multipliziert werden,
deren Spektren also addiert und subtrahiert werden. Häufig wird als eines der Eingangssignale ein Sinuston benutzt, um das Resultat besser kalkulierbar zu machen, da das
eine Spektrum dann konstant ist und nur aus einer Frequenz besteht. Um in diesem Fall
nicht zwei resultierende Signale zu erhalten (durch Addition und Subtraktion) kann man
durch Anwendung der Einseitenbandmodulation die Versetzung nur in eine Richtung
erreichen. So kann die Ringmodulation als Prozeß zur Tonhöhenveränderung mit inharmonischer Veränderung der spektralen Zusammensetzung funktionieren.
Der Prozeß der Ringmodulation mit zwei komplexeren Eingangssignalen führt nur dann
zu Ergebnissen, die als Tonhöhenversetzung wahrgenommen werden, wenn beide Signale ein hinreichend grundtonlastiges Spektrum besitzen, ansonsten muß er eher dem
Bereich der Klangfarbenänderung zugeordnet werden.
Ergänzend zu erwähnen ist, daß es bei der Modulation mit einem Sinuston noch zwei
Sonderfälle der Wahrnehmung gibt: Zum einen nimmt man durch einen Sinus mit geringer Frequenz (kleiner als 15Hz) nur noch Amplitudenmodulation wahr, zum anderen
sind bei Modulation von zwei Signalen mit sehr nah beieinanderliegenden Tonhöhen
die Resultierenden in sehr extremen Frequenzbereichen und es entsteht die Wahrneh-
42
mung von Schwebung um eine Tonhöhe zwischen den Eingangssignalen.47
Zur Dokumentation ist die Ringmodulation als mathematischer Prozeß eindeutig definiert, es muß nur angegeben werden, ob spezielle Effekte wie die genannte Einseitenbandmodulation eintreten sollen.
Abb. 6: Ringmodulation bei „Drama“ von Vinko Globokar
Filter
Der Einsatz von Filtern ist wohl die universellste Methode, die spektrale Zusammensetzung von Signalen zu bearbeiten. Ursprünglich der Meßtechnik entstammend, wurden
sie bereits seit den 50er Jahren in den Studios für elektronische Musik eingesetzt.
Grundlegend betrachtet gibt es nur wenige Typen von Filtern, die auf einfachen analogen Schaltungen basieren.
Hoch- und Tiefpaßfilter senken alle Signale unterhalb bzw. oberhalb einer definierten
Grenzfrequenz mit einer Flankensteilheit ab, die in dB pro Oktave angegeben wird.
Bandpaßfilter ermöglichen eine Anhebung oder Absenkung des Spektrums um eine
Mittenfrequenz herum bzw. innerhalb von zwei Grenzfrequenzen, die Änderung des Pe47 vgl. Ringmodulation ausführlich bei Haller 1995, Bd. 1, S. 26 ff.
43
gels wird in dB angegeben, die Bandbreite als Güte Q.
Bei diesen parametrischen Filtern reichen für die Definition eines Filters diese zwei
bzw. drei Parameter aus, Grenzfrequenz und Flankensteilheit beim Hoch-/Tiefpaß sowie
Mittenfrequenz, Anhebung/Absenkung und Güte beim Bandpaß.
Es ist zu erwähnen, daß beim Einsatz dieser Filter in ihrer einfachen Form stets Phasenverschiebungen einzelner Frequenzgruppen entstehen, die in der Regel nicht beabsichtigt sind. Ihre Stärke ist von der Flankensteilheit der Filter abhängig.48
Durch die Erfindung digitaler Filter wurde es möglich, auch ungewöhnliche und komplexe Frequenzkurven zu realisieren, insbesondere durch Anwendung von FFT-Filtern,
die auf FFT-Analyse und Resynthese basieren. Ebenso wurde es möglich, phasenlineare
Filter zu bauen, die einheitliche Laufzeiten für alle Frequenzen besitzen.
Im Allgemeinen läßt sich aber für alle diese Filter, wie auch sämtliche weiteren speziellen Anwendungen von Filtern, die Angabe einer Übertragungskurve des Frequenzgangs
zur Dokumentation eines Filters angeben. Sie kann dann je nach aktueller und verfügbarer Technik neu realisiert werden. Wenn sie besonders zur Anwendung beitragen soll,
kann auch die Kurve des Phasenganges über der Frequenz angegeben werden.
Übertragung der Hüllkurve des Spektrums
Ein weiterer beliebter Eingriff in die Zusammensetzung von Frequenzspektren ist die
Übertragung von spektralen Hüllkurven von einem Klang auf einen anderen, auch als
„Morphen“ von Klängen bezeichnet. Im Prinzip eine spezielle Form des Filterns, wird
hier zunächst das Spektrum des modulierenden Signals analysiert, in einer Übertragungskurve über der Frequenz festgehalten und dann als Filter auf das zu modulierende
Signal angewandt. Bei ausreichender Geschwindigkeit des Analyseteils ist die fortlaufende Aktualisierung des Frequenzgangs gegeben und die Hüllkurvenübertragung wird
in Echtzeit möglich.
Das Prinzip der spektralen Hüllkurvenübertragung kam in analoger Form bereits früher
48 Diese Phasenverschiebungen entstehen durch den Einsatz von kapazitiven und induktiven Bauteilen in
Kombination, wie sie in den analogen Bandpaßfiltern eingesetzt werden.
44
im Vocoder zur Anwendung. Hier wird das modulierende Signal zur Analyse durch eine
Filterbank geschickt, der Pegel der einzelnen Bänder gemessen und mit Hilfe von
Gleichrichtern und spannungsgesteuerten Verstärkern über eine identisch aufgebaute
Filterbank auf ein Ersatzsignal aufmoduliert, das in der Regel künstlich erzeugt war
(beispielsweise Rauschen).
Abb. 7: Prinzip des Vocoders nach Dickreiter
Zur exakten Definition der Übertragung der spektralen Hüllkurve ist eine Beschreibung
des Analyseverfahrens notwendig, das zur Erlangung der Hüllkurve eingesetzt werden
soll, ebenso das Verfahren, mit dem die Hüllkurve auf das Zielsignal übertragen werden soll. Heutzutage wird in beiden Fällen üblicherweise die FFT eingesetzt, da diese
inzwischen auch in Echtzeit möglich ist.
Verzerrung
Analoge Verzerrung als ein Verfahren, das die Nichtlinearitäten von Tonbändern oder
von Verstärkerkennlinien bei Übersteuerung ausnutzt, um damit die spektrale Zusammensetzung von Klängen zu verfremden, ist nur schwer in Parametern zu fassen, da die
45
klanglichen Eigenschaften der analogen Bauteile, die verwendet werden, eben an diesen
Grenzbereichen des ursprünglich vorgesehenen Übertragungsbereichs kaum zu bestimmen sind. So wäre es zwar denkbar, die Kennlinie eines Verstärkers oder eines Tonbands anzugeben, um dann den exakten Wert der durch Übersteuerung erreichten
Verzerrung zu errechnen, diese Methode ist aber weder praktikabel noch anschaulich.
Die Verzerrung ist nun tatsächlich ein Prozeß zur Klangverformung, bei dem die Definition kaum anhand von abstrakten Parametern geschehen kann, sondern exemplarisch
erfolgen muß. Einzig die Angabe von dynamischen (also dynamikabhängigen) Filtern in
Kombination mit einem dynamikabhängigen Obertongenerator wäre denkbar, doch weder in ihrer Abstraktion aus einem bestehenden Kompressor noch in der Reproduktion
sinnvoll.
Gleiches gilt auch für digitale Verzerrung. Zwar ist hier durch den Zustand der eindeutigen Vollaussteuerung die theoretische Wellenform eines verzerrten Signals gut berechenbar, doch gilt hier wiederum, daß in diesem Grenzbereich die praktische Umsetzung ins Analoge zur Wiedergabe sehr abhängig von den D/A-Wandlern ist, da es sich
um einen Bereich handelt, für den diese nicht entwickelt und optimiert wurden.
2.2.3.4 Pegel
Die Veränderung der Lautstärkepegel ist die vierte grundlegende Kategorie, in der qualitative Änderungen in der Musik mit Elektronik vorkommen. So ist es auch kein Zufall,
daß beim Mischpult als wohl unumstrittene Schalt- und Regelzentrale von Klangregie
die meistgenutzte und augenfälligste Regelmöglichkeit der Einsatz der Fader zur Pegelbeeinflussung ist. Gerade durch die Möglichkeit der fernsteuerbaren und automatisierbaren Pegel hat sich ein großes Feld aufgetan, Manipulationen an Klängen
vorzunehmen.
Verstärkung
Nicht nur elektronische Musikinstrumente und elektronisch generierte oder modifizierte
Signale bedürfen der Verstärkung, um überhaupt hörbar gemacht zu werden, sondern es
46
hat sich herausgestellt, daß in vielen Fällen auch akustische Instrumente verstärkt werden müssen, um ihre akustischen Eigenschaften besser auf die Umgebung abstimmen zu
können, insbesondere in Kombination mit Elektronik. Auf den künstlerisch-technischen
Einsatz von Verstärkung und seine verschiedenen musikalischen und wahrnehmungsrelevanten Aspekte werde ich im Kapitel 3.1 detailliert eingehen. Daß aber durch den Einsatz von regelbaren Widerständen und spannungsgesteuerten Verstärkern (VCAs) die
Möglichkeit entstanden ist, live entstehende Klänge ferngesteuert in ihrer Lautstärke zu
beeinflussen, ist ein zentraler technischer Aspekt der Verstärkung und soll deshalb hier
erwähnt werden. Vor der Erfindung von Verstärkern gab es nur die Möglichkeit, durch
akustische Tricks, wie beispielsweise Trichter, die Lautstärke von live erzeugten Klängen zu vergrößern. VCAs bieten nun die Möglichkeit, beliebige steuernde Komponenten zu nutzen, um die Pegel von Signalen zu regeln, die in elektronischer Form
vorliegen.
Kompressor/Limiter/Expander
Die häufig unter „dynamics“ zusammengefassten Prozesse zur Veränderung der Dynamik von Signalen finden sich auch bei Musik mit Live-Elektronik in den technischen
Setups wieder. Neben dem beliebten Einsatz von Kompressoren bei einfacher Verstärkung von akustischen Signalen49 können die genannten Prozesse auch vielfältig an anderer Stelle des Signalflusses eingesetzt werden, wo eine automatisierte Regelung der
Pegel erwünscht ist.
Kompressor und Limiter (Begrenzer) engen die Dynamik oberhalb eines bestimmten
Schwellenwertes (Threshold) ein, Kompressoren dabei in einem definierten Verhältnis
der Eingangs- zur Ausgangsdymanik (Ratio), Limiter hingegen gänzlich oberhalb des
definierten Grenzpegels. Beide Prinzipien greifen also erst ein, wenn der absolute Pegel
des Eingangssignals über dem definierten Threshold liegt, darunter wird die Dynamik
des Signals nicht verändert.
Da so die Spitzenpegel abgesenkt werden und das gesamte Signal leiser wird, ist üblicherweise noch eine Regelmöglichkeit zur Anhebung des Pegels vorgesehen (Gain,
49 siehe Kapitel 3.1 „Der künstlerische Umgang mit Verstärkung“
47
auch automatisierbar als „Auto Gain“), die aber die spezifische Klangveränderung
durch den Kompressor nicht weiter beeinflusst.
Expander hingegen vergrößern die Dynamik, indem sie unterhalb eines Schwellenwertes den Pegel in einem definierten Verhältnis absenken. Diese werden ebenfalls als
Threshold und Ratio bezeichnet.
Es ist wichtig zu erwähnen, daß das bearbeitete Signal nicht notwendigerweise das steuernde Signal sein muß, sondern daß man ein zweites Signal zur dynamischen Steuerung
zuführen kann.
Weiterhin gibt es wesentliche Angaben zum zeitlichen Reaktionsverhalten oberhalb
bzw. unterhalb des Threshold, da es sich herausgestellt hat, daß man die Veränderungen
der Dynamik nur sinnvoll einsetzen kann, wenn man eine gewisse Zeit für den Regelvorgang vorsieht. Die Parameter dieses Reaktionsverhaltens werden als Attack- und
Release-Zeit angegeben. Manchmal finden sich auch zwei weiterere Parameter, einer,
der ein Zeitpuffer zwischen Attack und Release einfügt und als Hold-Zeit bezeichnet
wird, ein weiterer, der eine Glättung der Kompressions- bzw. Expansionskurve am
Threshold, am sogenannten Knie, einstellen kann.
Die wesentlichen Parameter für Kompressor, Expander und Limiter sind aber zusammengefasst: Threshold, Ratio (nicht beim Limiter), Attack- und Release-Zeit.
Gate
Eigentlich eine spezielle Form des Expanders, ist ein Gate, auch als „Noise Gate“ bezeichnet, ein Prozeß, der unterhalb einer eingestellten Schwelle (Threshold) den Signalfluß komplett unterbricht. Auch hier werden weiterhin Attack- und Release-Zeit
angegeben, doch gibt es eine weitere Eigenschaft, durch die das Gate sich von den anderen „dynamics“ unterscheidet: Durch die Invertierung eines Gates erhält man einen Prozeß, der ein Signal nur unterhalb des Schwellwertes durchläßt, so kann in Kombination
von einem invertierten und einem nichtinvertierten Gate bei gleichem Threshold ein Signal ohne weitere Analyse auf dynamischer Ebene geteilt werden und so beispielsweise
als Steuersignal eingesetzt werden.50
50 vergleiche Haller 1995 Bd. 1, S.68ff.
48
Abb. 8: Klangbewegung mit zwei Gates
2.2.4 Schallwandlung
Eine der zentralen Aufgaben der Klangregie ist die Übertragung von akustischen Signalen in die Apparaturen der Elektronik hinein und ebenso das rückwärtige Übertragen
von Signalen, die aus der Elektronik herauskommen. In dieser Arbeit werde ich nur den
Bereich der Schallwandler betrachten, speziell Mikrofone und Lautsprecher. Der Bereich der Wandler, die beispielsweise Bewegungen erfassen und graphische Elemente
projizieren können, wie sie bereits im Kapitel über Steuerung ansatzweise zur Sprache
kamen, soll hier nicht untersucht werden, da sie nicht dem Bereich der Audiotechnik
entstammen. Ebenso halte ich die Betrachtung von speziellen Schallwandlern, wie beispielsweise MIDI-Flügeln oder jegliche Art von selbstgebauten Schallwandlern, für
eine allgemein angelegte Untersuchung wie diese nicht für angemessen. Sie sind derart
eigen, daß man sie nicht als allgemein verfügbar voraussetzen kann und im jeweiligen
Fall des Einsatzes eine präzise Beschreibung für eventuellen Nachbau oder sogar das jeweilige Gerät mitliefern muß.
Generell wird die Beschreibung des Einsatzes von Mikrofonen und Lautsprechern bei
der konkreten Realisierung eines Werkes mit Live-Elektronik weniger präzise ausfallen
und mehr Freiheiten bieten müssen als die Beschreibung der Geräte und Prozesse, die
innerhalb der elektronischen Ebene genutzt werden. Das liegt zunächst daran, daß jedes
eingesetzte akustische Instrument, wie auch jeder Aufführungsraum, unterschiedliche
klangliche und bauliche Eigenschaften besitzt, wie auch jeder Interpret mit seinem In-
49
strument anders umgeht und das akustische Resultat verschieden ist. Darüber hinaus ist
durch die Vielfalt der auf dem Markt verfügbaren und sich auch ständig weiterentwickelnden Mikrofone und Lautsprecher wesentlich weniger Kontinuität gegeben, als es
bei Prozessen innerhalb des elektronischen Setups sein kann, die sich funktional abstrahieren lassen.51 Auch ist es naheliegend, daß bei der Wandlung von Schall in elektronische Informationen und zurück wesentlich weniger präzise Vorgaben gemacht werden
können, als es bei Verarbeitungsprozessen innerhalb der Elektronik der Fall sein kann.
Die Prozesse zur A/D- bzw. D/A-Wandlung sind inzwischen derart präzise, daß in vielen Fällen Unterschiede zwischen analoger und digitaler Signalverarbeitung nicht mehr
über die Wahrnehmung differenziert werden können. Allerdings wird man nie ein ideales Mikrofon bauen können, und eine Lautsprechermembran wird immer eine gewisse
Trägheit besitzen, die sich auf das Impulsverhalten auswirkt. Bedingt durch die verschiedenen Konstruktionsprinzipien wie unterschiedliche Membrangröße oder Richtcharakteristik wird es immer klangliche Unterschiede zwischen Modellen geben, die
sich aber typisieren lassen, beispielsweise durch diese Konstruktionsprinzipien.52
Es muß also für eine Dokumentation umso mehr angestrebt werden, die Funktion, die
Mikrofone oder Lautsprecher übernehmen sollen, unabhängig von technischen Daten zu
formulieren und, soweit es möglich ist, das klangliche Ergebnis der Schallwandlung zu
beschreiben. Eine Angabe wie „Die Streicher sollen Live etwas lauter und gewagter
klingen als auf der Einspielung“53 kann eine wesentlich präzisere Dokumentation sein
als die exakte Vorschrift von Meßdaten der gesamten Signalkette.
Demgegenüber lassen sich präzise Anforderungen an Mikrofone und Lautsprecher häufig erst nach der Erfahrung von vielen Proben und Konzerten, möglichst auch in unterschiedlichen Sälen, derart formulieren, daß sie Rückschlüsse auf ihren generellen
Einsatz für dieses Stück möglich machen. Dann kann auch die exemplarische Auflistung der eingesetzten Technik sehr hilfreich sein.
51 Natürlich klingt auch jeder Hall-Algorithmus oder jedes Filter unterschiedlich, doch lassen sich innerhalb der Elektronik viele Prozesse finden, die sich über ihre Funktion zumindest theoretisch eindeutig
beschreiben lassen, wie z.B. Delays, Harmonizer, Syntheseverfahren, usw.
52 Siehe Kapitel 2.2.4.1 für Mikrofone und 2.2.4.2 für Lautsprecher
53 Auszug der Aufführungsanweisungen in der Partitur zu Steve Reichs „Different Trains“ für Streichquartett und vorproduziertes Zuspielband
50
2.2.4.1 Mikrofone
Die Umsetzung von akustischen Signalen in elektrische Signale tritt in der Musik mit
Live-Elektronik besonders häufig bei der Abnahme von akustischen Instrumenten auf,
wesentlich seltener nur sollen Umgebungsgeräusche, Nebengeräusche oder ähnliches
mikrofoniert werden. Als vorteilhaft erweist sich, daß man im allgemeinen eine umfangreiche Hörerfahrung mit traditionellen Instrumenten voraussetzen kann, sei es im
Rahmen von Aufnahmekritiken, Konzertbesuchen oder auch aus eigener Musizierpraxis, bei der sich sowohl ein spezifisches Vokabular im Umgang mit den Instrumenten
als auch gewisse Konventionen finden lassen, wie die Instrumente klingen sollen und
welche Anweisungen dafür zur Kommunikation geeignet sind. Auf Basis dieser Erfahrungen, die außerdem durch die langjährige Tradition der Ausbildungen an Musikhochschulen stets weitervermittelt werden, läßt sich für viele Angaben zur Abnahme von
akustischen Instrumenten bereits auf eine etablierte Sprache zurückgreifen, die allerdings durchaus sehr instrumentenspezifisch oder auch spieltechnisch geprägt sein kann.
Es sei nebenbei bemerkt, daß eine solche Tradition der instrumentenspezifischen Klangkonventionen und der entsprechenden Spieltechniken bei den elektronischen und elektroakustischen Instrumenten wie Synthesizer und Sampler sich zumindest in der
klassischen Musiktradition kaum finden läßt, eher noch in der Popmusik, bei der sich allerdings auch erst in jüngster Zeit gewisse Schulen ausbilden.
Neben der Beschreibung der zu erreichenden Klanglichkeit gibt es aber weitere Angaben zur Mikrofonierung von Instrumenten, die sich recht gut dokumentieren und reproduzieren lassen, wie beispielsweise die Positionierung der Mikrofone. Gut untersucht ist
die Abstrahlcharakteristik bei den traditionellen akustischen Instrumenten54, so daß sich
daraus auch Rückschlüsse auf die zu erreichende Klanglichkeit ziehen lassen. Gerade in
der zeitgenössischen Musik werden zusätzlich viele Spieltechniken gefordert, die ungewöhnlicher Mikrofonpositionen bedürfen. Deren Dokumentation kann in solchen Fällen
sehr aufschlußreich für die zu erreichenden klanglichen Ergebnisse sein.
Ebenso festgehalten werden sollte der Einsatz von bestimmten Mikrofonprinzipien, die
auf Übertragungseigenschaften des Mikrofons schließen lassen. Nicht nur der Nahbesprechungseffekt bei Nierencharakteristik, die verschiedene Richtwirkung von Mikrofo54 vgl. z.B. Meyer 1999 S. 107-142
51
nen oder der Unterschied von großen und kleinen Membranen, sondern gerade die Nutzung von Kontaktmikrofonen sind gute Beispiele für Techniken der Mikrofonierung,
die in jedem Fall zu dokumentieren sind, wenn sie aus Gründen des klanglichen Ergebnisses explizit ausgewählt wurden.
2.2.4.2 Lautsprecher
Viele klangliche Anforderungen, die im Umgang mit Mikrofonen als für die Dokumentation nötig herausgearbeitet wurden, treffen in gleichem Maße auf die Auswahl der
Lautsprecher zu, da insbesondere beim Einsatz von live bearbeiteten oder nur verstärkten Instrumenten die gesamte Signalkette für das klangliche Ergebnis verantwortlich ist.
Darüber hinaus gilt es aber für den Einsatz von Lautsprechern immer, den Raum mit zu
berücksichtigen. Zunächst hat die Positionierung und Auswahl der Lautsprecher einen
wesentlich höheren Einfluß auf den beim Zuhörer erzeugten Eindruck von Räumlichkeit
als die entsprechenden Parameter bei Mikrofonen. Der Grund hierfür ist die unter Umständen recht große Entfernung der Zuhörer von den Lautsprechern, während die
Mikrofonposition bei der Weiterverarbeitung für Live-Elektronik fast immer sehr nah
beim Instrument liegt. So beeinflußt die Positionierung und Richtwirkung der Lautsprecher recht stark den Eindruck der Räumlichkeit, während die Richtwirkung und Positionierung bei Mikrofonen eher für die Signaltrennung und für die abgenommene
Klanglichkeit verantwortlich ist. Für die Höhe der Rückkopplungsgrenze bei Verstärkung sind beide Richtwirkungen und Positionierungen gleichermaßen wichtig.
Hinsichtlich der Lautsprecher läßt sich weiterhin anfügen, daß die Abstrahlcharakteristik und die Positionierung ebenfalls von der Disposition des Publikums im Raum, also
von der Verteilung der zu beschallenden Bereiche, abhängen muß.55 Diese Frage kann
bei der Planung eines Stückes natürlich nur begrenzt berücksichtigt werden, es sei denn,
man schreibt einen ganz bestimmten Raum oder exakte Sitzpositionen vor, die bei jeder
Realisierung eingehalten werden müssen, unabhängig vom jeweiligen Aufführungsraum. Sollen die Lautsprecher allerdings nach Kriterien einer bestimmten Klanglichkeit
oder definierter Lokalisation im Raum ausgewählt werden, so sollte man dies dokumen55 siehe hierzu auch im Kapitel 3.2 „Aufführungsräume“
52
tieren. Für jeden Aufführungsraum muß dann in Vorbereitung eines Konzertes ohnehin
ein adäquates Beschallungskonzept erstellt oder modifiziert werden. Angaben dazu,
welche Bereiche des Publikums aus welcher Richtung und Höhe welche Signale idealerweise wahrnehmen sollten, sind dabei in der Regel hilfreicher, als definitive Vorgaben zu Typen oder Positionierung von Lautsprechern.
Eine prinzipielle Ausnahme bildet hierbei der Einsatz von Lautsprechern zum Zweck
des Monitoring, da es in diesem Falle alleine um die gute Verständigung und Hörbarkeit
von Signalen auf der Bühne geht. Monitoring soll so wenig wie möglich Einfluß auf das
akustische Geschehen im Zuschauerraum haben und wird auch stets daraufhin eingerichtet. Sowohl das Konzept als auch der Einsatz von Monitoring sind immer abhängig
vom Aufführungsraum, aber auch vom Geschmack der Instrumentalisten, die das Monitoring benötigen. Daher kann man beim Monitoring ausschließlich auf individuelle Situationen bezogen arbeiten, stets ist ein Kompromiß zu finden zwischen einer guten
Arbeitsumgebung auf der Bühne und so wenig wie möglich störenden Einflüssen im
Zuschauerraum. So ist es wenig sinnvoll, allgemeine Vorschriften zum Monitoring zu
machen, allenfalls der Hinweis auf häufig entstehende Kommunikationsprobleme und
ihre Beschreibung aus der Erfahrung im Umgang mit dem Stück sind sehr hilfreich für
eine Dokumentation.
Zusammenfassend läßt sich also sagen, daß mit Ausnahme von Monitoring für die Lautsprecher eher die Funktion im Raum hinsichtlich des Resultats für das Publikums zu beschreiben ist, für die Mikrofone eher die Funktion am Instrument hinsichtlich des in die
Elektronik eingehenden Signals.
2.2.5 Steuerung
Die Betrachtung der Elemente von Technik, die zur Steuerung der bisher besprochenen
Prozesse angewandt werden, ist so umfangreich, daß hier nur die unterschiedlichen
Prinzipien besprochen werden sollen, unter denen sich Steuerelemente zusammenfassen
lassen. Es gibt Forschungsgruppen, Teile der Audioindustrie und spezialisierte Institute,
die sich sehr umfangreich mit dem Erstellen von „Controllern“, wie die Hardware53
Apparaturen zur Steuerung genannt werden, mit dem Entwickeln von Methoden zur gestischen Steuerung und der Forschung an den zugehörigen Schnittstellen (Interfaces)
zur Datenübertragung beschäftigen.56
Da jeder Controller unterschiedliche Konfigurationen von Steuerelementen enthält, denen jeweils verschiedenste Parameter entnommen werden können, gibt es zwei zentrale
Fragen beim Einsatz zur Steuerung von den bereits besprochenen Prozessen. Erstens
muß definiert werden, wie aus dem Controller die entsprechenden Parameter entnommen werden sollen. Dies ist allerdings nur bei konkreter Realisierung von Controllern
wichtig, oder hinsichtlich der von uns betrachteten Reproduzierbarkeit ebenso bei Nachbauten von Controllern. Auch bei Parametergewinnung aus analysierten Audio- oder
Videodaten ist dieser Prozeß zu definieren. Zweitens muß die Zuordnung der Parameter der Steuereinheit zu den Parametern des gesteuerten Prozesses festgelegt werden.
Dieses Zuordnen bezeichnet man auch als Mapping von Parametern.
Unmittelbare Steuerung
Wird ein Prozeß der Audiobearbeitung, -generierung oder -zuspielung direkt über einen
Controller gesteuert, ist also für den Interpreten die direkte Verbindung von Daten aus
seiner Steuereinheit und von gesteuerten Parametern gegeben, dann kann man von direkter oder unmittelbarer Steuerung sprechen. Beispielsweise kann die Tonhöhenangabe
über eine Klaviatur oder die Einordnung im Panorama über einen Drehregler in dieser
Form vorliegen. Zur unmittelbaren Steuerung versucht man, wie in den genannten Beispielen, häufig Steuerelemente zu konstruieren, die an analogen Vorbildern orientiert
sind, da der Interpret in diesem Falle auf Erfahrungen und Training mit entsprechenden
analogen Instrumenten zurückgreifen kann.
Zur Definition benötigt man die aus der Steuereinheit entstehenden Daten, die Daten
des zu steuernden Gerätes oder Prozesses und das zugehörige Mapping.
56 vgl. z.B. die „Discussion Group on Gesture Research in Music“ am Pariser IRCAM:
http://recherche.ircam.fr/equipes/analyse-synthese/wanderle/Gestes/Externe/ [Stand 2006-09-25], und
auf ihrer CD-Rom „Trends in Gestural Control of Music“, Ircam - Centre Pompidou, Paris 2000 oder
verschiedene Projekte am Amsterdamer STEIM: http://www.steim.org/steim/ [Stand 2006-09-25]
54
Mittelbare Steuerung
Generiert die Steuereinheit die Kontrolldaten nicht direkt, sondern werden sie erst durch
eine Analyse erstellten Materials gewonnen, dann kann man von mittelbarer Steuerung
sprechen. Es ist kein Controller zur direkten Eingabe vorhanden, sondern man muß
Algorithmen zur Analyse von vorliegendem oder live erstelltem Material liefern. Man
kann beispielsweise Audiosamples, gefilmte Bewegungen, Lichtspektren usw. untersuchen und daraus die Daten zur Steuerung von den oben genannten Prozessen generieren.
In diesem Fall benötigt man zusätzlich zu den bei der unmittelbaren Steuerung nötigen
Angaben den Analysealgorithmus, der eingesetzt werden soll.
Steuerung aus unkalkulierbaren Prozessen
Eine abgewandelte Form von mittelbarer Steuerung entsteht, wenn die Analyse nicht
auf manuell erzeugtes Material angewandt wird, sondern auf Prozesse, in deren Ablauf
kein Interpret mehr eingreift. Zufällige, chaotische oder unbewußt erzeugte Informationen werden ausgewertet und die gewonnenen Daten zur Steuerung eingesetzt. Man kann
zum Beispiel chaotische Algorithmen einsetzen, die sich selbst anregen und so unvorhersehbare Daten produzieren, oder auch Rauschen, Signalstörungen oder Umweltgeräusche zur Steuerung analysieren. Im Prinzip gehört auch Radioempfang zu dieser
Gruppe von steuerndem Material.
In diesem Fall benötigt man Informationen über die Art, das Material zu gewinnen, es
zu analysieren, die Ergebnisse der Analyse auf Parameter der zu steuernden Prozesse
anzuwenden und darüber, wo man doch manuell eingreifen soll, und sei es nur zum Einoder Ausschalten.
Automatisierte Steuerung
Schließlich gibt es weiterhin den Fall, daß Daten zur Steuerung überhaupt nicht während des Ablaufs eines Stückes erstellt werden, sondern sämtlich vorprogrammiert werden können. Ein sehr gutes Beispiel hierfür ist die Automatisierung einer Mischung am
Mischpult, die dann jederzeit abgerufen werden kann.
55
Zur Dokumentation einer solchen automatisierten Steuerung ist es unerheblich, auf welchem System die Daten zur Automation gespeichert werden, solange das System die
Anforderungen der Steuerung erfüllen kann. Es müssen nur die zu steuernden Vorgänge
und ihre Zuordnungen zur Zeitachse festgehalten werden. Bei teilweise automatisierter
Steuerung kann dies beispielsweise durch die Angabe von Synchronisationspunkten57 in
der Partitur oder anhand einer Zeitleiste geschehen, an denen dann manuell Steuerungsmechanismen ausgelöst werden. Bei vollautomatisierter Steuerung werden diese
Mechanismen automatisch ausgelöst, was ebenfalls durch eine am Timecode orientierte
Liste geschehen kann, oder aber durch ein computergestütztes „score-follower“Programm, das sich direkt an der Partitur orientiert und nach Eingabe der Tonhöhen,
-dauern und Pausen diese mit dem live Gespielten synchronisiert.
Die übrigen Parameter, die man bei nicht automatisierter Steuerung detailliert notieren
muß, brauchen nicht angegeben zu werden, sondern müssen erst bei der Vorbereitung
auf den Einsatz je nach vorhandenem Automatisierungssystem erzeugt werden. Die Angabe von Daten des steuernden Systems sowie der Zuordnungen der Parameter kann
völlig entfallen und ist nur als exemplarische Realisierung relevant.
2.3 Signalfluß
Betrachtet man nun Konstellationen, in denen die bisher vorgestellten Komponenten
von Elektronik zusammengeschaltet werden, muß nicht nur die Frage nach der Definition von Ein- und Ausgang der elektroakustischen Übertragungskette gestellt werden,
sondern auch die Übergänge des Audio zwischen den einzelnen Geräten oder Prozessen
betrachtet werden.
Man kann feststellen, daß einige der genannten Apparaturen oder Verarbeitungsprinzipien je nach Verhalten des eingehenden Signals extrem unterschiedliche Ergebnisse liefern, was auch später nicht durch reversible Operationen wieder ausgeglichen werden
kann. Dies betrifft nicht nur Aspekte der Audioqualität, wie den Abstand des Signals
zum Grundrauschen, sondern eben auch die Parameter, die von den Apparaturen verän57 Man spricht in diesem Zusammenhang oft von „Cue“-Punkten, kurz „Cues“
56
dert werden sollen.
Beispielsweise regelt ein Kompressor weniger, je niedriger der Eingangspegel ist, wenn
der Spitzenpegel unterhalb des Threshold liegt, ist er sogar völlig außer Funktion. Dies
kann später auch nicht durch Anhebung des Pegels kompensiert werden. Ebenso verhält
sich ein Hall, in den man ein sehr baßlastiges Signal hereingibt: Man kann durch Absenkung der Bässe im gleichen Maße später auch nicht das Ergebnis „retten“.
Dies bedeutet, daß man bei genauer Angabe der zu verändernden Parameter nicht nur
die Reihenfolge dokumentieren muß, in der die klanglichen Transformationsprozesse
aufeinander folgen sollen, sondern auch notieren muß, wie ein Gerät oder ein Prozeß
hinsichtlich des Pegels und des Frequenzganges angesteuert werden muß, um so zu arbeiten, wie es beabsichtigt ist.
Sehr oft zu kontrollieren sind diesbezüglich die Systeme direkt nach der ersten Schallwandlung, da das einem Mikrofon entstammende Signal nie exakt vorherzubestimmen
ist und zudem fast ausschließlich davon abhängig ist, was vor dem Mikrofon passiert,
und das ist eben nie identisch. Dennoch müssen auch die Übergänge zwischen den verschiedenen Transformationsprozessen überprüft und gegebenenfalls korrigiert werden,
was bei extrem komplex programmierter Automatisierung oder vielseitigem Routing
schnell unmöglich werden kann, entweder aus Gründen der Übersichtlichkeit oder weil
die entsprechenden Kontroll- und Regelfunktionen nicht vorgesehen wurden.
2.4 Computeranalphabetismus und
Bedienerfreundlichkeit
Seit in den fünfziger Jahren die elektronischen Studios als eine Ansammlung von technischen Geräten entstanden, die über ihre elektroakustische Funktion klassifiziert werden konnten, wurde es zunehmend praktikabel, das Instrument Elektronik58 als ein
modulares System zu behandeln, in dem baukastenartig aus einigen grundlegenden Ele58 Hier und im Folgenden werde ich den Begriff des Musikinstruments auf die Elektronik insofern ausdehnen, daß ich eine vollständige, aus vielen elektronischen Komponenten zusammengesetzte Apparatur, die als solche bestimmte musikalische Funktionen einnehmen kann, jeweils als EIN Instrument
betrachten werde.
57
menten immer neue Kombinationen gebildet werden können. Insbesondere seit der Nutzung von Softwareplattformen für Programmierung von Musikelektronik ist diese Kombinierbarkeit von grundlegenden Elementen in ihrer Komplexität enorm gewachsen, da
man ohne großen logistischen Aufwand das Ergebnis jederzeit speichern, laden oder ändern kann59. Somit wird durch den Einsatz von elektronischen Apparaturen Komponisten in einem viel größeren Maße als jemals zuvor ermöglicht, ein individuelles
Instrument zu erstellen.
Allerdings ist auch zu erwähnen, daß die umfangreiche Beschäftigung mit den technischen Grundlagen für Musikelektronik sehr viel Zeit in Anspruch nimmt, und man sich
viele Kenntnisse aneignen muß, die früher aus dem Gebiet der Nachrichtentechnik,
heute aus dem Gebiet der Informatik stammen und mit Musik zunächst nicht viel zu tun
haben.
Daher findet man seitens der Komponisten immer zwei Standpunkte im Umgang mit
Elektronik:
Die einen sind primär daran interessiert, die Elektronik in der Musik als ein weiteres, allerdings sehr umfangreiches Instrument zu nutzen, möchten aber die technischen
Grundlagen nur insofern kennenlernen, um damit das Resultat für die Komposition abschätzen zu können.
Die anderen begeistern sich daran, auf der Basis von Elektronik immer neue Instrumente zu entwickeln, erstellen diese häufig von Grund auf selber und beschäftigen sich daher aus eigenem Interesse viel mit den technischen Grundlagen, um diese auch in ihrer
direkten elektronischen Wirkung besser verstehen zu können.
Den Ersteren kommt es zugute, daß in den großen elektronischen Studios stets Ingenieure und Programmierer arbeiten, die ihnen dort unterstützend zur Seite stehen, weil
sie alleine ihre Ideen in der Elektronik nicht umsetzen könnten. So beschreibt beispielsweise Hans Peter Haller, der Gründer des Experimentalstudios des SWR in Freiburg,
59 Es sei darauf hingewiesen, daß es natürlich weiterhin Programme für Elektronik gibt, die TextzeilenProgrammierung nutzen, aber die beiden meistverbreiteten Programme für Live-Elektronik, Max/Msp
von Cycling '74 und Miller Puckettes PD als open-source-Alternative, arbeiten beide auf der Basis
von objektorientierter graphischer Programmierung mit einzelnen Bausteinen (Objekten) und Verbindungslinien in einer Art Schaltplan.
58
seinen Eindruck von Luigi Nono folgendermaßen:
„Nono hat sich nie für die Innereien eines Gerätes näher interessiert, sein Bestreben lag im Kennenlernen,
im Studieren, im Experimentieren mit dem klingenden Ergebnis (Output).“60
Ebenso berichtete Pierre Boulez, auf dessen Initiative das Pariser IRCAM gegründet
wurde, noch vor nicht einmal zwei Jahren in einem Interview:
„Viele [Komponisten] haben keinen Sinn für Technologie. Ihnen ist es zu kompliziert, sich das vorzustellen. Eigentlich ist es im Umgang mit der Elektronik gar nicht so viel anders, als wenn man für ein Orchester komponiert. Da müssen sie auch nicht selbst Oboe oder Pauke spielen können, sondern nur wissen,
wie das Instrument funktioniert. So ist es bei den technischen Dingen auch. Ich selbst bin auch kein Programmierer. Aber ich weiß, wie man die Elektronik einsetzen kann.“61
Da allerdings die traditionellen Strukturen der großen elektronischen Studios stark erodieren, diese teilweise sogar geschlossen werden, wie das Studio für Elektronische Musik des WDR im Jahre 2002, zeichnet sich ein Umbruch in der Szene der elektronischen
Studios ab. Es ist seit einigen Jahren mit überschaubarem finanziellem Aufwand möglich, sich zu Hause ein Studio einzurichten, das aus nicht mehr als einem Computer, entsprechender Software und einigen wenigen Zusatzgeräten besteht und in vielen
Bereichen für die Belange der Komponisten ausreichend ist. Sollen dann aufwendigere
Live-Elektronik oder Raumsteuerungen angewendet werden müssen, kann man immer
noch einen größeren Raum und Material mieten, da das eigene Setup mit der vorbereiteten Elektronik extrem mobil ist.
Für diejenigen Komponisten, die, wie die beiden oben zitierten, eher angewandt arbeiten wollen, und sich von der Programmierung weitgehend fernhalten möchten, begann
die Industrie zunehmend Oberflächen und Interfaces zu entwickeln, die bedienerfreundlicher sein sollen als die direkte Programmierung. Laut Friedrich Kittler wird dadurch
aber eine Trennung von den Benutzern und den Programmierern forciert:
„[Es gibt] nämlich [unter] den Computerkünstlern manchen, der Computercodes zwar lesen und deshalb
60 Haller 1997, Bd. 2, S. 118
61 Siemes/Spahn 2004, S.44
59
auch einsetzen kann, aber ihr Anschreiben sogenannten Programmierknechten überlassen muß. [...] Den
Computeranalphabeten, die Codes weder lesen noch schreiben können, soll dadurch geholfen werden,
daß sie mit binären Zahlen und unverständlichen Buchstabenfolgen überhaupt nicht mehr in Berührung
kommen. Die Innereien der Maschine bleiben selbstredend weiter digital, weil sie sonst gar nicht laufen
würden, aber ihre Benutzerschnittstelle nimmt mehr und mehr die Züge analoger Unterhaltungsmedien
an, wie sie seit gut hundert Jahren vertraut sind. [...] So wird die Trennlinie zwischen einer neuen Elite
und dem Rest der Welt zum integralen Teil von Hardware und Software gleichermaßen, also
zementiert.“62
Wenn es nun Komponisten gibt, die unter Zuhilfenahme solcher vermeintlich bedienerfreundlicher Oberflächen arbeiten und Klänge oder Klangverarbeitungsprozesse für ihre
Kompositionen benutzen, deren Ursprung man zumindest anhand des Interfaces allein
nicht erklären kann, wenn man nicht die genauen Algorithmen kennt, entsteht hinsichtlich der Reproduzierbarkeit ein enormes Problem. Man ist in der Folge darauf angewiesen, exakt diese Oberfläche zu nutzen, um das gewünschte Resultat zu erhalten,
zumindest solange der Programmcode unter Verschluß gehalten wird. Eine Abstraktion
zum Zwecke der allgemeingültigen Dokumentation ist nicht möglich.
Kittler beschreibt im weiteren Verlauf sehr kritisch, daß dort, wo den Nutzern durch den
Einsatz von geschützter Software jede Möglichkeit des tieferen Eingreifens in die Software verwehrt bleibt, nur die finanziellen Interessen der Industrie bedient werden. Für
ihn ist die Förderung und Nutzung von Software, die nachvollziehbar bis zur Systemebene in den Computer eingreift, das Mittel der Wahl:
„Wo immer eine Anwendung die Kluft gegenüber der Systemprogrammierung einebnet, weil sie wie die
sogenannte Anwendung namens Programmierung schlicht und einfach das tut, wofür Computer schließlich konstruiert worden sind, fällt mit den graphischen Benutzeroberflächen auch die künstliche Mauer
zwischen Herstellern und Benutzern wieder dahin. Eine Maschine, die nach Turings Definition alle anderen Maschinen soll imitieren können, kann eben keine unveränderbaren Zustände einnehmen. Sie stellt
den Begriff des geistigen Eigentums, an dem die Computerindustrie inständiger festhält als alle Schriftsteller, die diesen Begriff seit Fichte und Goethe erfunden haben, grundsätzlich in Frage.
Sicher, ein technisch gezüchteter und zementierter Computeranalphabetismus wirft Geld ab: Leute, die
Codes weder lesen noch schreiben können, werden unmöglich zu Hackern. Aber ob dieser elektronische
Protektionismus [...] sein Geld wert ist, steht in den Sternen“63
62 Kittler 2002, S. 122ff.
63 Kittler 2002, S. 127f.
60
Darüber hinaus steht allerdings auch in den Sternen, wie in dem von uns betrachteten
Fall der Anwendung auf Live-Elektronik der Code zur Dechiffrierung der entsprechenden Informationen auch in Zukunft verfügbar sein wird, wenn dessen Aufrechterhaltung
und Pflege von finanziellen Interessen abhängt, die aufgrund der fehlenden Masse der
Benutzer in diesem speziellen Bereich nicht zu leisten sind. Wie bereits im Zusammenhang mit Zuspielbändern angesprochen, ist es in jedem Fall sicherer und einfacher,
wenn der Code offen zur Verfügung steht, wie Miller Puckette erwähnt:
„An artist who thinks carefully about preserving his or her work will naturally prefer the open source
solution, because it's much easier to keep running than a proprietary one can ever be.“64
64 Scheib 2006, S.168
61
3. Überlegungen zur Interpretation
Während im letzten Kapitel Aspekte der Funktionalität der Technik analysiert wurden,
stellt sich bei der Aufführung eines Werkes mit Live-Elektronik darüber hinaus die Frage nach dem interpretatorischen Umgang mit der Technik. Es reicht nicht aus, daß man
die Technik funktionsfähig macht, man muß auch die Fragen beantworten, wie man sie
akustisch umsetzen kann, und welche ihrer Komponenten wie zu behandeln sind.
3.1 Der künstlerische Umgang mit Verstärkung
Beim erwünschten oder zumindest explizit tolerierten Einsatz von Verstärkung65 von
akustisch vorhandenen Informationen gibt es einige Parameter, die in Angaben zum interpretatorischen Umgang mit einem Stück gesondert betrachtet werden sollten. Wie
schon beim Einsatz von Lautsprechern erwähnt, gilt auch für die Verstärkung, daß sie
extrem situations- und raumbezogen eingesetzt werden muß. Jedes individuelle Instrument hat spezielle Eigenheiten im Abstrahl- und Frequenzverhalten, jeder Raum reagiert anders auf Verstärkung, daher sollte auch hier sinnvollerweise die Beschreibung
des erwünschten Resultats einer technischen Beschreibung des Vorgangs der Verstärkung vorgezogen werden. Im Folgenden sollen einige akustische Auswirkungen von
Verstärkung analysiert werden, um diese in einer Dokumentation zu ihrem Einsatz in einem Werk adäquat differenzieren zu können.
3.1.1 Änderung der Dynamik
Daß Verstärkung Auswirkungen auf die in den Raum projizierte Dynamik eines Instru65 Wenn hier und im Folgenden von „Verstärkung“ die Rede ist, soll immer die Verstärkung von akustischem, meist instrumentalem Klangmaterial in Echtzeit gemeint sein, für die Umsetzung von sämtlichem sonstigen Audiomaterial werde ich den allgemeineren Begriff „Beschallung“ verwenden.
62
ments hat, ist evident, jedoch gibt es einige Aspekte der Veränderung der Dynamik, die
darüber hinaus stets zu beachten sind. Da das zu verstärkende Signal üblicherweise
recht nah mikrofoniert wird und dort mit einer großen dynamischen Bandbreite abgenommen wird, kommt es vor, daß bei entsprechender Verstärkung die beim Zuhörer ankommende Dynamik sehr groß ist, zu groß sogar, um noch einer instrumental erzeugten
Dynamik nahezukommen. Dies ist insbesondere bei sehr leisen Signalen oft der Fall,
die in Relation zu lauten Signalen deutlich mehr verstärkt werden müssen. Ist dann das
Ziel der Verstärkung, die natürlich klingenden Instrumente unauffällig zu unterstützen,
wird es oft notwendig, die Signale der sehr nah mikrofonierten Instrumente vor der Projektion etwas zu komprimieren oder sie ständig mitzuregeln. Andererseits kann diese
vergrößerte Dynamik von akustischen Signalen auch gerade dazu genutzt werden, die
dynamische Verhaltensweise von akustischen Instrumenten derer elektronischer Instrumente anzupassen, wenn sie zusammen in einem Stück vorkommen. Da bei rein elektronischen Instrumenten oder vorgemischten Zuspielbändern der Dynamik nur die
physikalischen Grenzen der Lautsprecher und Verstärker gesetzt sind, anders als bei
akustischen Instrumenten, wo Physis des Spielers und das Material weitgehend die
dynamischen Grenzen bestimmen, passiert es häufig, daß diese beiden Ebenen sehr verschieden sind.
3.1.2 Änderung der Klangfarbe
Für die Auswirkungen der Verstärkung auf die Klangfarbe gelten recht ähnliche Kriterien wie die der Dynamik der verstärkten Instrumente. Durch die nahe Mikrofonierung
kann für die Verstärkung ein Klangspektrum abgenommen werden, das fast nicht von
der Akustik des Raums nivelliert ist und wesentlich differenziertere Frequenzen enthält
als diejenigen, welche beim Zuhörer ohne Verstärkung ankommen. Vor allem hochfrequente Anteile sind noch nicht durch lange Wege von der Luft absorbiert worden. Hinzu
kommt die Positionierung der Mikrofone in Relation zum Instrument als wesentliches
Kriterium für die zu erhaltenden Frequenzanteile, wie bereits im Absatz über Mikrofone
erwähnt. So werden immer einige Teile des Spektrums des zu verstärkenden Signals
mehr und einige andere weniger stark hervorgehoben. Gerade die genannten hochfre63
quenten Anteile des Klangspektrums von Instrumenten sind häufig bedeutend, um so
eine Angleichung an das Spektrum von elektronischen Instrumenten zu ermöglichen.
3.1.3 Subjektive Nähe
Sowohl die Vergrößerung der Dynamik als auch die Projektion von Klangfarben, die
normalerweise nur in geringer Entfernung vom Instrument vorhanden sind, haben bei
starkem Einsatz von Verstärkung zur Folge, daß sich für den Zuhörer ein Gefühl der
akustischen Nähe zum Instrument einstellt, welches dem visuellen Eindruck widerspricht. Zudem ist es möglich, daß durch die Positionierung der Lautsprecher, die sich
in der Regel näher am Zuhörer befinden als die zu verstärkenden Schallquellen, dieser
Effekt noch verstärkt wird.
Um diesem Phänomen entgegenzuwirken gibt es die Möglichkeit, die Lautsprechersignale derart mit Delay zu versehen, daß sie für den Zuhörer zusammen mit oder sogar
nach dem Direktschall vom Instrument eintreffen. Nach dem Gesetz der ersten Wellenfront wird das Instrument dann wieder aus der Richtung des Direktschalls geortet 66 und
die Verstärkung weniger wahrgenommen, da die Kopplung an den visuellen Eindruck
wieder stimmig ist.
Auch die Dynamik der verstärkten Signale kann, wie bereits erwähnt, mit Kompressoren an die Dynamik der Originalsignale angeglichen werden, ebenso die Klangfarbe
über Filter. Allerdings funktionieren alle diese Schritte zur Verschmelzung des verstärkten Klanges mit dem Originalklang nur dann, wenn die Verstärkung nicht zu groß ist,
ansonsten verdecken die Lautsprechersignale nahezu völlig die Originalsignale und
diese sind nicht mehr differenziert wahrzunehmen.
Es gibt allerdings auch den Fall, daß sich die Diskrepanz zwischen Originalklang und
verstärktem Klang als künstlerisch interessant herausstellt und sogar besonders gefördert wird. So bemerkt der Komponist Heiner Goebbels hierzu beispielsweise:
„Generell versuche ich mit den Lautsprechern nicht, die Distanz, die sich zwischen Bild und Ton ergibt,
zu überspielen, sondern zu vergrößern. [...] Mich interessiert es, den Körper vom Klang zu trennen und
66 Siehe auch Kapitel 3.1.4
64
dann als Zuschauer die Verbindung wiederherzustellen. [...] Ich schaffe damit eine akustische Bühne, die
ich von der optischen Bühne trenne, eine zweite Bühne also. In dem Zwischenraum werde ich als
Zuschauer aktiv.“67
3.1.4 Lokalisation
Befindet sich beim Einsatz von Verstärkung der Lautsprecher nicht am gleichen Ort wie
das zu verstärkende Signal, wie es meist der Fall ist, gibt es zwei reale Schallquellen für
das gleiche Signal (oder zumindest für sehr ähnliche), beim Einsatz von allen Formen
von Phantomschallquellen sogar noch mehr Quellen. Der exakte psychoakustische Prozeß, nach dem sich die subjektive Lokalisation dann vollzieht, ist recht komplex. Es läßt
sich aber generell feststellen, daß je nach Disposition, Pegel, Frequenzanteilen und auch
je nach Hörplatz die Lokalisation von verstärkten Signalen im Raum enorm beeinflußt
werden kann: Entweder bleibt sie bei der originalen Schallquelle, oder sie wird teilweise
oder auch gänzlich von den Lautsprechern bestimmt. Auch wenn jeder Raum sowie jedes Lautsprecherkonzept individuell reagiert, kann zumindest dokumentiert werden, inwieweit die Lokalisation der Schallquellen sich von ihrer realen Position lösen dürfen
oder sollen und wie sie sich dann verhalten sollen. Es muß allerdings beachtet werden,
daß es in der Realität der heute vorhandenen Konzertsäle oft nur an den wenigsten Hörplätzen tatsächlich möglich ist, einigermaßen optimale akustische Bedingungen für eine
Lokalisation von allen Seiten zu schaffen.68
3.1.5 Absolute und relative Lautstärke
Ein weiterer Aspekt von Verstärkung ist neben dem Hörbarmachen von sehr leisen
akustischen Signalen die generelle Möglichkeit, die Gesamtlautstärke in einem Maße zu
heben, wie es mit den Signalen bei rein akustischer Übertragung nie möglich wäre. Insbesondere bei klangästhetischen Ansätzen, die popmusikalisch geprägt sind, wird häufig
die Forderung nach einer erhöhten Durchschnittslautstärke gestellt, um gewisse physi67 Persönliches Gespräch mit dem Autor am 30.05.2006
68 Mehr dazu in Kapitel 3.2 Aufführungsräume
65
sche Aspekte des Klangs nutzen zu können und einem Publikum zu vermitteln, das selber in seinen Hörgewohnheiten von den physischen Aspekten der Popmusik geprägt ist.
Die Frage der Lautstärke ist also stark genreabhängig und zudem mit der Hörgewohnheit des Publikums verknüpft. Während letzteres oft situationsgebunden im Konzert am
Mischpult entschieden werden muß, ist die Frage nach der absoluten Lautstärke einer
Verstärkung immer sehr schwer allgemein zu vermitteln.
Wenn eine Orientierung an der Lautstärke der unverstärkten Instrumente stattfinden
soll, kann man diese als Referenz setzen und relativ dazu Abweichungen dokumentieren. Man hat dann allerdings das Problem, daß die Referenzlautstärke nicht über Pegel
innerhalb des Verstärkungssystems zu fassen ist, daß man also auch die Abweichungen
von ihr außerhalb des elektroakustischen Systems fassen muß, beispielsweise über verbale Formulierungen. Dies wird deutlich, wenn bei einer neuerlichen Aufführung desselben Werks in einem anderen Raum die Werte der Pegel im Mischpult korrigiert
werden müssen.
Soll die Verstärkung sich nicht an der Lautstärke der unverstärkten Instrumente orientieren, sondern deutlich darüber liegen, ist eine Referenz noch schwieriger zu definieren, nur ein Schallpegelmesser ist für die subjektiv empfundene Lautstärke, an der man
sich orientieren soll, nicht ausreichend. Hier kann nur die Erfahrung und der Geschmack
entscheiden. Jedoch ist in diesem Fall die Frage der Relation von abweichenden Pegeln
besser zu vermitteln, da sämtliche akustisch relevanten Signale durch die Beschallungsanlage erzeugt werden und so innerhalb des Mischpults Pegelverhältnisse definiert werden können.
3.1.6 Rückkopplungen
Nicht zu vergessen ist der Aspekt der Rückkopplungen, die bei Verstärkung entstehen
können. Da sie in der Regel nicht erwünscht sind, müssen sie bereits bei der Planung eines Lautsprechersetups und der zugehörigen Mikrofonkonfiguration bedacht werden
und Vorkehrungen zu ihrer Unterdrückung getroffen werden. In der Regel benutzt man
heutzutage stark gerichtete Mikrofone und Lautsprechersysteme, mit denen man relativ
klar die Bereiche, für die die Verstärkung greifen soll, von den Bereichen trennen kann,
66
in die die Verstärkung nicht gelangen soll. Darüber hinaus ist das Rückkopplungsverhalten stark von der Halligkeit des Aufführungsraumes abhängig, auch hier können absorbierende Maßnahmen zur besseren akustischen Trennung des zu beschallenden
Raumes von den Bereichen, aus denen beschallt werden soll, getroffen werden. Schließlich werden zur Vermeidung von Rückkopplungen außerdem möglichst schmalbandige
Filter eingesetzt, die die resonierenden Frequenzen im Pegel absenken können, manchmal kommen dafür auch Laufzeitglieder zum Einsatz, die die Phasenlage des verstärkten Signals im Raum, also auch am Ort des Mikrofons, ändern.
3.2 Aufführungsräume
Im Gegensatz zu einer Aufnahme steht man bei der Beschallung eines Konzertes immer
vor der Problematik, daß die erstellte Mischung nicht nur für einen Hörplatz optimiert
werden kann, sondern daß die Vielfalt der Hörplätze im Aufführungsraum mit ihren
akustischen Eigenschaften berücksichtigt werden müssen. Unabhängig davon, daß ein
Klangregisseur während der Beschallung immer nur von einem Ort aus zeitgleich hören
kann, und daher der Vergleich verschiedener Hörpositionen ohnehin schon schwer fällt,
ist es naheliegenderweise überhaupt nicht möglich, ein einheitliches Klangbild an jedem
Hörplatz zu erzeugen, alleine wegen der realen Akustik des Aufführungsraums. Es gibt
zwar neuere technische Entwicklungen wie die Wellenfeldsynthese, die es theoretisch
erlauben, identische Ortung an vielen Plätzen im Hörraum zu erreichen, dieses funktioniert aber nur in extrem schallarmen Räumen (wie es bei Konzertsälen nie der Fall ist)
und bei reiner Wiedergabe von Tonträgern. Zudem sind diese Systeme zumindest derzeit noch viel zu leistungsschwach für große Beschallungsanlagen. Folglich ist es also
notwendig, für jeden Aufführungsraum in Abhängigkeit vom jeweiligen Werk und seinen speziellen Anforderungen ein neues Beschallungskonzept zu erstellen, das es für
den individuellen Raum und die entsprechenden Hörplätze ermöglicht, eine bestmögliche akustische Qualität für den Großteil der Hörer zu gewährleisten. Daß die meisten
heute verfügbaren Konzerträume in ihrer Bauweise für solche Aufgaben denkbar ungeeignet sind, sieht man schnell, wenn man sich vor Augen hält, daß es bereits rein logis67
tisch oft unmöglich ist, Lautsprecher hinter oder seitlich des Publikums mit adäquatem
Abstand zu installieren, von Systemen zur Installation an der Decke ganz abgesehen.
Schon 1972 hat Stockhausen in einem Vortrag auf der Tonmeistertagung gefordert, es
sollen in Aufführungsräumen für zeitgenössische Musik „keine Balkone mehr gebaut
werden und Lautsprecher rings um die Hörer in genügender Tiefe [...] und in genügender Höhe [...] angebracht werden“69, jedoch werden auch heute noch viele Konzertsäle
mit fester Bestuhlung und frontaler Sitzordnung, mit Balkonen und unzureichenden
Hängevorrichtungen gebaut. Dieser sehr zu bedauernde Umstand trägt aber umso mehr
dazu bei, daß keine generellen Beschallungskonzepte für einzelne Werke entwickelt
werden können, sondern daß man immer nach Kompromissen in den jeweiligen Räumen suchen muß. Zudem bleibt ebenso die eigene Akustik des Aufführungsraums, die
zusätzlich zur rein baulichen Problematik die Projektion von Musik über Lautsprecher
negativ beeinflussen kann. Wie bereits erwähnt sind hier in einigen Konzerträume Vorkehrungen zur Veränderung der Akustik durch Vorhänge, Reflektoren oder Schallkammern vorhanden, selbst diese sind aber in der Regel auf die Anpassung der Akustik im
Rahmen unverstärkter Musik ausgelegt. Sobald Lautsprechersysteme installiert werden,
müssen oft weitere Maßnahmen zur Dämpfung der Akustik getroffen werden.
Ist die Beschreibung des Lautsprechersetups in der Weise vorhanden, wie ich sie weiter
oben gefordert haben, nämlich als Beschreibung der Funktion, die die Lautsprecher für
den jeweiligen Hörer im Raum einnehmen sollen, dann ist die Adaption auf einen Aufführungsraum in jedem Fall besser zu realisieren, als wenn zunächst aus einem festgeschriebenen Setup erahnt werden muß, welche diese Funktion ist. Weiß man, welche
Signale aus welcher Richtung zu orten sein sollen, dann kann man auch für die „benachteiligten“ Hörzonen im Saal versuchen, durch Stützlautsprecher die verlorengehenden
Informationen aufrechtzuerhalten und so eine Angleichung der akustischen Qualität auf
den verschiedenen Sitzpositionen zu erreichen.
Schließlich bleibt ein weiterer Punkt, der sich zwar eher auf die Realisierbarkeit als auf
die Dokumentation auswirkt, aber ebenfalls schon in dem erwähnten Vortrag von
Stockhausen angesprochen wurde, und immer wieder zu Konflikten führt: dies ist die
69 Stockhausen 1974 S. 436
68
Möglichkeit, die Position des Mischpultes und der am FOH-Platz70 darüber hinaus benötigten Technik an einer geeigneten Position im Publikum zu installieren, so daß dem
Klangregisseur überhaupt eine sinnvolle Beurteilung des klanglichen Resultats während
der Aufführung möglich ist.
3.3 Klangideale und Mischreferenzen
Durch das Auftreten einer enormen Stilvielfalt in der zeitgenössischen Musik hat sich in
den letzten Jahrzehnten herausgestellt, daß es sowohl seitens der Komposition als auch
der Interpretation immer mehr Bestrebungen zu einer extremen Individualisierung gibt.
Dies hat zur Folge, daß sich wesentlich weniger als früher Schulen von Stilen mit einer
eigenen Tradition bilden können, sondern daß häufig für jeden Komponisten oder sogar
für jedes Werk individuelle Kriterien der Interpretation zu finden sind, die sich nur aus
dem Umgang mit Materialien erschließen lassen, die dem persönlichen oder zumindest
sehr nahem Umfeld des Komponisten entstammen. Der persönliche Kontakt zum Komponisten oder auch zu Personen, die unmittelbar mit ihm und für ihn gearbeitet haben,
ist natürlich eine sehr zuverlässige und authentische Quelle. Auf diesem Wege kann
sich eine mündliche Tradition bilden, wie sie auch derzeit im Umgang mit der musikalischen Literatur der Werke der zeitgenössischen Musik nahezu ausschließlich zu finden
ist. Es ergibt sich dann auch, daß an einigen Punkten, in der Regel an entsprechenden
Instituten oder bei recht aktiven und prominenten Interpreten, viele solcher mündlichen
Traditionen von unterschiedlichsten Komponisten zusammenlaufen und sich diese Personen oder Institute dann auch als Vermittler der zugehörigen Informationen anbieten.
Bei der Dokumentation eines Werkes mit Live-Elektronik stellt sich aber nun die Frage,
wie es gelingen kann, für zukünftige Interpreten diejenigen ästhetischen Aspekte, die
über eine rein funktionale Beschreibung der Technik hinausgehen, auch unabhängig von
solcher direkter mündlicher Tradition so weit wie möglich faßbar zu machen und welche Formen der Präsentation sich dafür anbieten.
70 „Front Of House“ bezeichnet den Platz im Saal, an dem die Klangregie, inklusive der dort benötigten
Apparaturen, plaziert ist. Idealerweise ist dies mitten im Publikum, quasi am durchschnittlichen Hörplatz.
69
Im Folgenden werde ich einige Medien analysieren, die häufig im Zusammenhang mit
einem existierenden Werk oder Komponisten erhältlich sind und deren Tauglichkeit für
zusätzliche Informationen zu einem Werk mit Live-Elektronik prüfen.
Wie Informationen innerhalb der Partitur möglichst universell verständlich umgesetzt
werden können, soll im Kapitel 4.3 thematisiert werden.
3.3.1 Aufnahmen
Sehr oft lassen sich von Werken, die im Rahmen von Konzertreihen und Festivals zeitgenössischer Musik (ur)aufgeführt wurden, Mitschnitte verschiedenster Art finden, bisweilen auch Studioproduktionen, insbesondere bei prominenten Komponisten. Es stellt
sich die Frage, inwieweit eine solche Aufnahme dem Zugang zu einem Werk dienlich
sein kann, oder unter welchen Aspekten es auch problematisch sein kann, adäquate Informationen von ihr zu erhoffen.
Zunächst ist zu klären, ob der Komponist die Aufnahme kennt und beurteilt hat, ob er
vielleicht sogar anwesend war, um spezielle Adaptionen während der Aufnahme vorzunehmen oder beratend tätig zu sein.
Weiterhin ist es gut zu wissen, unter welchen Umständen die Aufnahme stattfand, ob es
eine Studioproduktion war, bei der zumindest davon auszugehen ist, daß technisch alles
funktioniert hat und daß auch der interpretatorische Teil eine Auswahl aus vielen Versuchen überstanden hat, oder ob es sich eventuell um einen echten Konzertmitschnitt handelt, bei dem sich im Ablauf Fehler eingeschlichen haben können. Bei Konzerten
hingegen ist es häufig so, daß die Interpreten besonders viel Wert auf die Wirkung im
Großen legen, auch die innere Spannung ist höher und besonders bei improvisierter Musik kann die direkte Rückmeldung aus dem Publikum für zusätzliche Inspiration sorgen.
Zudem kann man sich aufgrund des hohen Zeitaufwands für Studioproduktionen
manchmal gute Räume oder Instrumente nur für Konzerte leisten.
Aspekte der Räumlichkeit von mehrkanaliger Beschallung lassen sich insbesondere bei
den meist zu findenden Stereo-Aufnahmen nur unzulänglich beurteilen, jedoch ist dies
sehr abhängig davon, wie mit dem im Raum verteilten Material bei der Mischung umgegangen wurde. So können beispielsweise kopfbezogene Mischungen oder sogar Kunst70
kopfaufnahmen bei der Wiedergabe über Kopfhörer wesentlich bessere Eindrücke vermitteln, als sogar manche Surround-Aufnahmen über mehr als zwei Lautsprecher. Die
Darstellung der Verteilung und Wirkung von vertikal im Raum verteilten Klangereignissen dürfte selbst so problematisch bleiben.
Durch den Einsatz von Stützmikrofonie oder direkter Abnahme von Elektronik bei der
Aufnahme kommt es darüber hinaus meistens zu Verzerrungen des Klangbilds gegenüber dem Klangeindruck im Zuschauerraum. Betroffen sind die meisten Parameter, die
im Zusammenhang mit interpretatorischen Aspekten der Verstärkung im letzten Kapitel
besprochen wurden, nur daß in diesem Fall der aufnehmende bzw. mischende Toningenieur oder Tonmeister die Instanz zur Bewertung dieser Verzerrungen war. So können
auch bei Aufnahmen über die Veränderung der Dynamik, der Klangfarben der Instrumente, der Lokalisation und der subjektiven Nähe Klänge aneinander angeglichen oder
voneinander unterschieden werden. Dies trifft in besonderem Maße auf elektronische
oder elektroakustisch veränderte Klänge und ihr Verhältnis zu den akustischen Klängen
zu, wenn sie nicht im Raum über Mikrofone aufgenommen werden, sondern vor der
Projektion über die Beschallung für die Aufnahme bereitgestellt werden.
Gerade dann ist ein Kommentar des Komponisten oder des Klangregisseurs zu der Aufnahme vonnöten, um diese Unterschiede qualitativ erfassen zu können und wieder
Rückschlüsse auf die beabsichtigte Wirkung im Raum zu ermöglichen.
Eine Videoaufnahme der Interpreten ist im Übrigen hilfreich für die Dokumentation der
Inszenierung und der Aktionen der Interpreten, kann aber nur selten als Orientierung für
die akustische Projektion genutzt werden.
3.3.2 Schriften / Programmtexte
Bei Schriften über Komponisten oder einzelne ihrer Werke, die ästhetische Vorstellungen über die Gestalt der jeweiligen Musik und ihrer adäquaten Interpretation vermitteln
können, muß zunächst getrennt werden, ob der Komponist selbst der Autor dieser
Schriften ist oder nicht. Sollte dies nicht der Fall sein, ist es wichtig herauszufinden, wie
sehr der Autor in Arbeitsprozesse von Proben und Aufführungen von Werken des Komponisten involviert war, wie sehr seine ästhetische Vorstellung also durch Arbeitspro71
zesse mit dem Komponisten geprägt ist.
Wenn es so gelingt, an verläßliche Informationen über die mehr oder wenige individuelle Ästhetik zu gelangen, dann können Texte über Komponisten oder einzelne ihrer Werke gute Hinweise auf entscheidende Aspekte der Interpretation geben, den Fokus der
Arbeit an einem Werk auf für den Komponisten sehr Wichtiges lenken und beispielsweise so das Verhältnis des Komponisten zur Technik und zu den mit ihr beschäftigten
Personen verdeutlichen, um die Rolle zwischen Interpret und Techniker zu definieren,
die einem Klangregisseur in der Aufführung zukommen soll. Auch historische Hintergründe und Umstände der Entstehung oder Aufführung eines Werkes, die für die Interpretation Bedeutung erlangen, können über Schriften jeglicher Art recht gut
kommuniziert werden.
3.3.3 Interviews / Porträts
Jegliche Form von Interviews oder auch Porträts eines Komponisten können ähnliche
Informationen beinhalten, wie die gerade besprochenen Schriften, jedoch ist es hierbei
offensichtlich, daß die Darstellung der Person und ihrer Ansichten sehr von der Art der
Interviewführung oder Regie des Porträts beeinflußt ist. Gerade durch gezieltes Fragen
im Interview kann ein Gespräch inhaltlich stark gelenkt werden, ebenso kann bei der
Zusammenstellung eines Porträts durch subjektive Auswahl beim Schnitt der Schwerpunkt einer Darstellung innerhalb gewisser Grenzen verschoben werden.
3.4 Alte oder neue Technik?
Vor dem Hintergrund der schnellen Alterung der technischen Komponenten der LiveElektronik ist es fraglich, inwieweit und nach welchen Kriterien man bei der Aufführung älterer Werke die „originale“, also die bei der Uraufführung eingesetzte Technik
benutzen sollte, wenn dies möglich ist, oder ob man versuchen sollte, wo immer es sinnvoll und machbar ist, neuere Technik zu verwenden.
72
Außerdem muß bei der Erstellung von Werken mit Live-Elektronik die Frage gestellt
werden, wie weit man die Konfiguration für zukünftige Entwicklungen in der Technik
öffnet.
Bei der Aufführung solcher Werke mit Live-Elektronik, deren Technik heute als historisch gelten muß, ist es naheliegend, daß man durch den Einsatz der technischen Aufbauten, die bei der Entstehung der Werke genutzt wurden, die größtmögliche
Annäherung an Aufführungen der Entstehungszeit erreichen kann. Dies ist natürlich nur
dann möglich, wenn die „originale“ Technik zur Verfügung steht und voll funktionsfähig ist und wenn man ebenso ihre Bedienung in einer adäquaten Weise garantieren
kann. Im selben Zuge wird man dann allerdings auch mit den eventuellen technischen
Problemen konfrontiert werden, vor denen die Ausführenden bereits früher gestanden
haben, obwohl es dafür unter Umständen in der aktuellen Situation einfache Lösungen
gäbe.
Die mögliche Annäherung an eine Aufführung der Entstehungszeit muß jedenfalls nicht
notwendigerweise der Idee des Komponisten hinsichtlich des Einsatzes der Technik
nahekommen. Sich dieser Idee zu nähern ist nur möglich, wenn es gelingt zu ergründen,
warum bestimmte Apparaturen zur Zeit der Uraufführung oder auch bei einzelnen Konzerten genutzt wurden, falls deren Einsatz überhaupt dokumentiert wurde. Die entscheidende Frage ist hierbei, ob bestimmte technische Komponenten oder Verfahrensweisen,
die Eigenheiten beispielsweise klanglicher Art besitzen, eben wegen dieser Eigenheiten
ausgewählt wurden, oder ob der Komponist eher auf den prinzipiellen Prozeß der Bearbeitung oder Steuerung Wert gelegt hat, unabhängig von der konkreten Art der Realisierung. Gelingt es, darüber Informationen zu erlangen, kann man daraus ableiten, ob die
Übertragung des betrachteten Teils der Live-Elektronik auf andere Technik dem intendierten Einsatz der Elektronik widerspricht oder ob es sich nur um eine alternative Realisierung desselben Konzeptes der Elektronik handeln würde.
Ist es nur möglich, Informationen über die ursprünglich eingesetzte Technik ohne eine
Wertung dieser seitens des Komponisten oder anderer ursprünglich Beteiligter zu erhalten, ist nicht immer ersichtlich, ob bestimmte technische Komponenten, die vom heutigen Standpunkt aus als verbesserungswürdig erscheinen, nur aus Mangel an Zeit, Geld
oder Verfügbarkeit eingesetzt wurden, oder ob nur sie Eigenschaften besitzen, die für
73
das Werk von besonderer Bedeutung sind.
Erstellt man heute ein neues Werk mit einem zugehörigen Konzept für ein LiveElektronik-Setup, kann man konstatieren, daß die Hardware, die, wie bereits erwähnt,
wesentlich standardisierter ist als früher (mit Ausnahme der Mikrofone und Lautsprecher), durch präzisere Fertigungs- und Meßmethoden immer weniger individuellen und
unbeabsichtigten Einfluß auf das Signal nimmt. Demzufolge muß heutzutage die Frage
nach dem expliziten Einsatz bestimmter Prozesse im Bereich der Software gestellt werden, auch Programmierstrategien gehören beispielsweise dazu. Durch die Möglichkeiten, die aktuelle, sehr frei anwendbare Software ihm bietet, kann ein Programmierer mit
großer Präzision die Prozesse der Elektronik in ihrem Erscheinungsbild festlegen und so
exakt definieren, welche elektronischen Eingriffe in den elektroakustischen Signalfluß
explizit erwünscht sind und welche nur eine mögliche Realisation einer prinzipiellen
Verarbeitung sind.
Genau diese Frage ist nämlich die zu klärende bei der Übermittlung jeder exemplarischen Realisierung eines Konzeptes für Live-Elektronik.
3.5 Identität von Werken und die Freiheit der
Interpretation
„Interpretation heißt: die Komposition so komponieren, wie sie von sich aus komponiert sein möchte.“71
Diese Aussage Adornos umreißt die Problemstellung der Interpretation so scharf, wie
sie zu ihrer Lösung in keinster Weise beiträgt. Eine Komposition beinhaltet demnach
Intentionen, die sich aus ihr selbst ergeben und zu ihrer Interpretation erkannt werden
sollen, denn
„Die wahre Interpretation ist die vollkommene Nachahmung der musikalischen Schrift.“72
Wie diese Erkennung aber nun funktionieren soll, das ist die eigentliche Frage, die un-
71 Adorno 2005, S. 169
72 Adorno 2005, S. 83
74
beantwortet bleibt. Meiner Meinung nach krankt die Position Adornos zumindest hinsichtlich der zeitgenössischen Musik daran, daß es inzwischen ein allgemeines Bestreben von Komponisten geworden ist, eine grundlegend individuelle Sprache ihrer Musik
und ihrer Ästhetik zu finden, die sich allerdings im Gegensatz zu älterer Musik oft nicht
mehr aus einem historischen Kontext erschließen läßt. Diese Sprache, die sich also nicht
unbedingt nur aus dem Werk allein mitteilt, muß dem Interpreten für eine adäquate Interpretation deutlich werden, vor allem wenn über sie wichtige Inhalte der Komposition
vermittelt werden.
Eine sehr extreme Position stellt die Nutzung offener Formen dar, wie sie seit den fünfziger Jahren in der zeitgenössischen Musik Einzug erhielt. Dieses Phänomen beschreibt
Umberto Eco folgendermaßen:
„Der Künstler, so kann man sagen, bietet dem Interpretierenden ein zu vollendendes Werk: er weiß nicht
genau, auf welche Weise das Werk zu Ende geführt werden kann, aber er weiß, daß das zu Ende geführte
Werk immer noch sein Werk, nicht ein anderes sein wird, und daß am Ende des interpretativen Dialogs
eine Form sich konkretisiert haben wird, die seine Form ist, auch wenn sie von einem anderen in einer
Weise organisiert worden ist, die er nicht völlig vorhersehen konnte: denn die Möglichkeiten, die er dargeboten hatte, waren schon rational organisiert, orientiert und mit organischen Entwicklungsdrängen begabt.“73
Um die Vielfalt dieser Möglichkeiten für die Interpretation nutzbar zu machen, ist es
nötig, daß der Komponist dem Interpreten den genauen Rahmen hinterläßt, innerhalb
dessen er agieren kann. Diese Forderung trifft aber nicht nur auf die von Eco explizit
angesprochenen Werke der fünfziger und sechziger Jahre zu, sondern prinzipiell auf
jedes Werk, daß zu seiner Ausführung eines Interpreten bedarf und diesen auch voraussetzt. Also ist im Besonderen auch die Interpretation von Live-Elektronik betroffen, gerade weil sich hierfür bisher nur individuelle Notationsweisen gebildet haben, die
genutzte Sprache häufig sehr technisch geprägt ist und folglich, zusammen mit den mit
ihr verbundenen technischen Apparaturen, einer schnellen Alterung unterliegt.
Wenn man nun die Frage nach der Definition dieses Rahmens für die elektronischen
Komponenten einer Komposition stellt, kann man sowohl auf Basis der Funktionalität
73 Eco 1977, S. 55, Hervorhebungen im Original
75
der Technik Grenzen ziehen, als auch im interpretatorischen Umgang mit ihr. Kriterien
dafür habe ich bisher umfangreich herausgearbeitet. Dabei kann man entweder Wert auf
die Beschreibung des akustisch zu erzielenden Resultats legen, oder es wird eher dort
ein Rahmen gesetzt, wo das konkrete akustische Ergebnis nachrangig ist und hauptsächlich Fragen der Form, der Gestik oder des Prinzips der Steuerung gestellt werden.
Es gibt noch einen weiteren Aspekt im Umfeld von Steuerung, der bisher nicht erwähnt
wurde, für die Rezeption einer Aufführung von Musik mit Live-Elektronik aber ebenfalls sehr entscheidend sein kann: die physische Aktion der Interpreten und ihre optische
Wirkung.
Wenn bestimmte physische Aktionen visuell an verschiedene Elemente der LiveElektronik direkt gekoppelt sind, dann muß auch hierbei der Rahmen festgelegt werden,
innerhalb dessen sich diese Bewegungsabläufe vollziehen müssen. Soll beispielsweise
ein Interpret in einem Musiktheater einen Lautsprecher über die Bühne schieben, ist der
Effekt sicherlich ein anderer, als wenn der Lautsprecher ohne sichtbare Einwirkung aus
dem Off gezogen wird. Auch die Größe des Lautsprechers könnte in diesem Fall übrigens entscheidenden Einfluß haben, sogar ohne Beisein eines Interpreten. Ein anderes
Beispiel wäre das Abrufen von Samples während eines Stückes. Ein Interpret, der an einem Keyboard agiert, weckt völlig andere, zudem durch die Ähnlichkeit zur traditionellen Spielweise des Klaviers geprägte Assoziationen beim Zuschauer als derselbe
Interpret an einer Computertastatur oder an einem Controller mit Tastern, obwohl sich
für den Zuhörer dasselbe akustische Ergebnis einstellen kann.
Bei aller Bestrebung, der Vorstellung des Komponisten nahezukommen, darf aber auch
eines nicht vergessen werden:
„Die Werke verändern sich: das heißt auch: gegen den Willen des Autors“74
Dabei muß ja nicht einmal dem Komponisten aktiv widersprochen werden, denn bereits
die von Eco so treffend beschriebene Situation der Interpretation, die „er [der Kompo-
74 Adorno 2005, S. 122
76
nist] nicht völlig vorhersehen konnte“75 reicht bisweilen aus, um ein Ergebnis zu erzielen, dem der Komponist in dieser Form vielleicht nicht seine Zustimmung geben würde,
obwohl es sich immer noch um sein Werk handelt. Wenn ein Komponist solche Situationen ausschließen möchte, muß er seine Musik von der Kultur der Interpretation lösen
und dazu übergehen, auf Tonträgern festgeschiebene Musik zu produzieren, die dann allerdings nicht einmal mehr im Konzert präsentiert werden dürfte, denn das wäre ja
ebenfalls wieder eine Interpretation bezüglich Auswahl und Positionierung der Lautsprecher, gewählter Lautstärke usw.
Um bei der Interpretation Bezüge zur Gegenwart der Interpreten und des Publikums
herstellen zu können, ist es hingegen immer wieder nötig, die Rezeptionssituation neu
zu überdenken. So kann man mit Sicherheit sagen, daß sich die Rezeption von mehrkanaliger Beschallung in zeitgenössischer Musik stark gewandelt hat, seit die mehrkanalige Wiedergabe von Filmen in den Kinos zur Normalität geworden ist, die inzwischen
sogar in immer größerer Anzahl auch beim Publikum zu Hause Einzug erhält. Zudem
sind seit einigen Jahren immer mehr Tonträger und sogar Radiosendungen in Surround
verfügbar.
75 Eco 1977, S. 55
77
4. Entwurf einer Methodik zur strukturellen
Vorgehensweise
Im Folgenden soll eine Methodik erstellt werden, anhand derer eine Komposition mit
Live-Elektronik auf einer allgemeinen Ebene mit denjenigen Fragestellungen konfrontiert werden kann, die für eine möglichst universelle Dokumentation hinsichtlich der in
den letzten Kapiteln untersuchten Aspekte dringend benötigt werden. Dieser allgemeine
Ansatz kann dann unter Zuhilfenahme der untersuchten Parameter und Entscheidungskriterien weiter differenziert werden.
4.1 Technik
Um die funktionalen Zusammenhänge der technischen Komponenten der Elektronik zu
erfassen, bietet es sich an, diese zu visualisieren, um sie lesbar und übersichtlich zu gestalten. Je nach Bedarf bieten sich dafür verschiedene Schemata an, die auch kombiniert
genutzt werden sollten:
•
Schaltpläne der elektronischen Bauteile76 (mit Symbolen nach DIN EN 60617)
•
Plan des Routings z.B. in Form einer Matrix
•
Flußdiagramme der programmierten Software (mit Symbolen nach DIN
6600177)
•
Zuweisung und spezielle Anwendung (z.B. Loops) von Samples, die ansonsten
wie herkömmliche Tonträger archiviert werden können78
•
Aufbaupläne für alle Instrumente, Spielerpositionen, Lautsprecher- und Mikrofonpositionen sowie spezielle Setups von Controllern zur Steuerung der Elektronik
76 Ein Beispiel ist in Abbildung 9 zu finden
77 Siehe Abbildung 10
78 Siehe zur Archivierung Kapitel 4.4
78
•
Beschreibungen des Setups der Elektronik in Form von Texten79
•
Exemplarische Equipmentliste (Technical Rider) mit Angabe der bei einer Realisierung bereits eingesetzten Komponenten, insbesondere der leicht austauschbaren Komponenten wie Mikrofone, Lautsprecher, gängige Effekte und
Mischpult
•
Exemplarische Realisierung von automatisierten Steuerungen oder programmierter Elektronik, beispielsweise Max/MSP-Patches oder Sampler-Programmen
Abb. 9: Schaltplan mit genormten Symbolen bei Stockhausen
Gerade im Falle von programmierter Software, aber auch bei Schaltplänen, hängt die
Dokumentierbarkeit enorm davon ab, wie sehr sich die vorliegende Technik abstrahieren läßt und ihre Funktionalität sich in eine allgemein lesbare Sprache, beispielsweise
mit den vorgeschlagenen graphischen Symbolen, übertragen läßt. Bei geschützter Software wie gewissen Plugins oder auch bei herstellergebundener Hardware wie z.B.
Synthesizern kommt es oft vor, daß es Parameter gibt, deren Skalierung oder klangliche
Auswirkung auf das akustische Endergebnis nicht dokumentiert und offiziell zugänglich
sind. In diesem Fall kann man nur das konkrete Produkt dokumentieren und darauf hoffen, daß es auch in Zukunft in dieser oder alternativer Form zugänglich sein wird. Wie
bereits erwähnt, entsteht dieses Problem bei Open-Source-Software nicht.
79 Als gutes Beispiel kann man die Verbalpartituren von Alvin Lucier betrachten. (Lucier 2005)
79
Abb. 10: Sinnbilder nach DIN 66001
An dieser Stelle sei ausdrücklich darauf hingewiesen, daß die alleinige Erfassung und
Weitergabe von exemplarischen Auflistungen und Realisierungen meistens nur eingeschränkte Rückschlüsse auf die Anforderungen an die Elektronik zuläßt. Zudem besteht
die enorme Gefahr, daß für Software Kompatibilitätsprobleme durch Alterung der Hardware entstehen, oder daß auch akustische Eigenschaften von alter Hardware nicht mehr
zu recherchieren sind und damit die gesamte Information verlorengeht.
80
4.2 Aktion
Um eine Grundlage für eine sinnvolle Notation80 für Interpreten entwickeln zu können,
bedarf es einer Analyse der von den Interpreten auszuführenden Aktionen. Bei Aktionen
auf dem akustischen Instrumentarium ist durch die Tradition der jahrhundertelangen
Musizier- und Unterrichtspraxis eine Basis vorhanden, die auch neuartige Spieltechniken zunehmend integriert und standardisiert. Für den Bereich des elektroakustischen
Instrumentariums gibt es diesen Konsens jedoch kaum. Das liegt darin begründet, daß
es dieses Instrumentarium erst seit einigen Jahrzehnten überhaupt gibt, daß es sich in
dieser Zeit aber auch ständig in seinem Erscheinungsbild geändert hat. Zudem ist der
Aufbau der Elektronik als Instrument für nahezu jedes Stück unterschiedlich und bietet
sich auch daher nicht gerade für eine Standardisierung an. Wenn auch die konkrete
Erscheinung in jedem Werk unterschiedlich ist, so kann dennoch eine standardisierte
Vorgehensweise für deutliche und universelle Resultate Sorge tragen.
Die Aktionen, die bei der Ausführung von Live-Elektronik anfallen, lassen sich zunächst linear anhand einer Zeitleiste einordnen. Damit bietet es sich auch an, sie in einer
(wenn auch speziell präparierten) Partitur in der Art einer traditionellen Instrumentalstimme einzufügen.
Weiterhin kann man bei genauerer Betrachtung der Aktionen feststellen, daß fast alle
Aktionen im Umgang mit der Elektronik sich auf Schalter oder Regler beziehen. Dabei
kann man immer für die Schalter eine bestimmte Anzahl an festen Einstellungen definieren, für die Regler hingegen einen Regelbereich, der anhand einer gewissen Skalierung oder einer Regelkurve innerhalb von zwei Grenzwerten definiert werden kann.
Kennt der Interpret diese Parameter und ihre Auswirkungen, kann er die daran auszuführenden Aktionen vorbereiten, bei schwierigen Passagen auch üben. In jedem Fall
müssen ihm die Auswirkungen seiner Aktionen vorhersehbar sein, damit er eine zuverlässige Interpretation gewährleisten kann.
Bei der Nutzung von speziellen Controllern wie Datenhandschuhen, Bewegungssensoren oder jeglichen Analog-to-MIDI-Convertern läßt sich ebenfalls die Einteilung
in Schalter und Regler vornehmen, nur werden diese nicht direkt bedient, sondern über
80 Genaueres hierzu im Kapitel 4.3
81
Mapping der jeweiligen controller-eigenen Parameter gesteuert.
Schließlich gibt es noch eine weitere Kategorie von Aktionen, die entstehen, wenn bei
der Kontrolle von zuvor automatisierten Aktionen ein manuelles Eingreifen nötig wird.
Automatisierte Parameter verhalten sich prinzipiell nicht anders, als wenn ein Beteiligter diese live steuern würde, nur sind sie exakter, zuverlässiger und identisch reproduzierbar. Da der kontrollierende Interpret die Aktionen allerdings nicht direkt reflektieren
und gegebenenfalls korrigieren kann, wie bei der manuellen Ausführung, muß ihm genau ersichtlich sein
•
was automatisiert wurde,
•
wie die Automatisierung synchronisiert wird (z.B. Timecode oder Cue-Punkte)
•
ob die Automation über Anzeigen oder motorisierte Controller ersichtlich ist
oder nur anhand des (akustischen) Resultats überprüft werden kann und
•
wie er im gegeben Falle eingreifen kann.
4.3 Notation
Die oben beschriebene Dokumentation des technischen Setups sollte der Partitur beigefügt sein oder zumindest von Personen oder Institutionen zu erhalten sein, deren Kontaktdaten aus der Partitur ersichtlich sein sollten.
Darüber hinaus gibt es aber Informationen zur Interpretation eines Werks mit Elektronik, die nur in der Partitur notiert sein können. Dies sind einerseits alle oben beschriebenen Aktionen, die im Zusammenhang mit der Elektronik auszuführen sind, darüber
hinaus aber andererseits alle Angaben zu den in den vorigen Kapiteln herausgearbeiteten Parametern der akustischen Funktion der Elektronik, wie beispielsweise Klanglichkeit, Lokalisation, Balance, Räumlichkeit oder Dynamik, die nicht schon vollständig
über die Dokumentation des technischen Setups zu erschließen sind. Insbesondere bei
Parametern, die sich im Verlauf des Stückes ändern sollen, müssen diese innerhalb der
Partitur vermerkt sein.
82
Möchte man Aktionen notieren, gibt es zunächst die Möglichkeit, in der Partitur an den
entsprechenden Stellen verbale Anmerkungen einzufügen. Dies bietet sich besonders an
bei schaltbaren Vorgängen, da man diese genau definiert hat und in der Regel die Einstellungen bereits numeriert oder binär (ein/aus) vorliegen. Auch sämtliche Angaben,
die sich nicht über Schalter oder Regler fassen lassen, sondern auf Bewegung im Raum
oder Bedienung spezieller Controller beruhen, lassen sich gut verbalisieren, wenn man
nicht eine individuelle Notation erfinden möchte.
Für kontinuierliche Regelvorgänge hingegen bietet sich vielmehr eine Notation an, die
graphisch über der Zeitachse als Amplitude aufgetragen wird. So kann man innerhalb
von zwei Linien als Grenzwerten und mit einer zu definierenden Skala eine kontinuierliche Kurve auftragen, die als Visualisierung des dynamischen Verlaufs gelten kann.
Nicht zufällig wird diese Form der graphischen Darstellung auch in Sequenzern für die
Darstellung von automatisierten Parametern genutzt. So kann man pro variablem Parameter eine Kurve über der Zeit auftragen und eine exakte Notation gewährleisten.
Während die Beschreibung der Aktionen prädestiniert ist für die direkte Beschreibung
steuernder Vorgänge, wird man für die Beschreibung des akustisch zu erzielenden Resultats in der Partitur die von mir in den vorherigen Kapiteln herausgearbeiteten Parameter nutzen oder sich der herkömmlichen musikalischen Symbole und Anweisungen
bedienen. So sind beispielsweise die klassischen Angaben zur Dynamik universell verständlich und leicht lesbar.81 Wenn für die genannten Parameter keine Symbolsprache
erfunden werden soll, wird man sich hierfür meistens kurzer Anmerkungen als ausformuliertem Text bedienen. Nur wenige unter den Parametern eignen sich für eine graphische Notation, wie beispielsweise die Angaben zur Lokalisation.
Für die Übersichtlichkeit in der Partitur und für die Praxis der Interpretation ist es im
allgemeinen wünschenswert, wenn der Komponist eine Hierarchie der Parameter und
Aktionen aufstellt, um sie in ihrer Wichtigkeit für das vorliegende Werk einordnen zu
können. So kann man sich auch vorstellen, bei einer großen Anzahl von Parametern und
81 Auf die Problematik der absoluten Lautstärke habe ich bereits in Kapitel 3.1.5 hingewiesen, daher
können diese Angaben nur relativ eingesetzt werden. Allerdings kann man Vergleiche für die Angaben absoluter Lautstärke suchen, beispielsweise im Bezug zu Instrumenten oder akustischen Ereignissen, die man als bekannt voraussetzen kann, und diese in einer Legende oder an der entsprechenden
Stelle der Partitur definieren.
83
Aktionen die weniger wichtigen nur in einer „Dokumentationspartitur“ zu notieren und
dann in einer zweiten, übersichtlicheren „Arbeitspartitur“ die wichtigsten für die praktische Anwendung zusammenzufassen.
4.4 Archivierung
Bei sämtlichen bisherigen Überlegungen in dieser Arbeit stand das Bestreben an erster
Stelle, so viele reproduktionsrelevante Aspekte der Live-Elektronik wie nur möglich zu
abstrahieren, um diese von konkreten Systemen unabhängig verbalisieren und notieren
zu können.
Meiner Meinung nach ist dieses Abstrahieren schließlich in nur wenigen Fällen prinzipiell nicht möglich:
•
Künstlerische Nutzung von „Fehlern“ in der Technik, die nicht reproduzierbar
und somit nicht messbar sind
•
Nutzung von physikalischen Phänomenen oder akustischen Eigenschaften vorhandener Räume oder Instrumente, die zu komplex sind, um sie messen oder simulieren zu können
•
Nutzung von Geräten aus anderen als akustischen Eigenschaften, z.B. wegen der
Optik
•
Aufgenommene Klänge, die nicht reproduziert werden können
Bei den ersten drei Fällen ist für eine Archivierung nur eine Konservierung der vorhandenen Gegenstände denkbar oder tatsächlich die Erstellung einer exakten Kopie, falls
alle dafür nötigen Informationen und technischen Grundlagen zur Verfügung stehen.
Der für uns hier interessanteste Fall ist die Archivierung von aufgenommenen Klängen.
Da Aufnahmen immer zu einem bestimmten Zeitpunkt unter Einsatz von dann verfügbarer Technik durchgeführt werden und wurden, befinden sie sich stets auf Speichermedien, die ebenfalls einer speziellen Epoche entstammen. Dabei ist es prinzipiell völlig
84
egal, ob es sich um Bänder, Spulen oder Festplatten handelt, sie werden in ihrer Funktion als Tonträger eingesetzt. Diese Tonträger sind für die Wiedergabe der Klänge nur
wertvoll in Verbindung mit der entsprechenden Lesevorrichtung, die aus dem Tonträger
die akustischen Informationen wieder herauslösen kann. Daß diese derselben Epoche
entstammen muß wie der Tonträger, ist dabei evident. Ergänzend müssen noch alle Informationen für die Anpassung des Tonträgers auf seine Lesevorrichtung festgehalten
werden, die dieser nicht selber liefern kann. Diese können mit anderen „Metadaten“ üblicherweise in Text- oder Tabellenform notiert werden, was die Archivierbarkeit enorm
erleichtert.
Wichtig für die Archivierung von Audio ist der prinzipielle Unterschied zwischen der
Speicherung codierter und nicht codierter Daten: Während es bei letzterer alleine darum
geht, den Datenträger lesbar zu halten, weil die gelesenen Informationen sich dann analog zum Spannungsverlauf der aufgenommenen Klänge verhalten, müssen bei codierter
Speicherung die gelesenen Daten zunächst decodiert werden, bevor sie weiter genutzt
werden können. Diese Codierung besteht sowohl bei analogen als auch digitalen Medien, mit dem Unterschied, daß bei digitaler Datenspeicherung die Werte diskret vorliegen und somit codiert werden müssen. Bei analoger Speicherung kann ein Code
vorliegen, wie beispielsweise die Entzerrung für Schallplatten durch die genormte
RIAA82-Kennlinie oder die Frequenzmodulation bei Radioübertragung, er ist aber nicht
zwingend nötig.
Der jeweilige Code ist immer essentieller Bestandteil der Lesevorrichtung und muß ihr
beigefügt sein. Dem ist besonders dann Beachtung zu schenken, wenn der Code von der
Hardware der Lesevorrichtung getrennt werden kann, wie es beispielsweise bei Computern oft der Fall ist, wo der Code als zusätzliches Programm vorliegt.
Es gibt drei Forderungen, die an die genannten drei Komponenten (Tonträger, Lesevorrichtung, Metadaten) gestellt werden sollten, um eine Reproduzierbarkeit zu gewährleisten:
82 „Recording Industry Association of America“, wurde 1952 gegründet, um einen Standard für die
Schallplatte zu schaffen
85
•
Haltbarkeit (damit eine Generation von ihnen lange Zeit nutzbar ist)
•
Fähigkeit zu Sicherungskopien (um weitere Generationen anfertigen zu können,
gilt vor allem für Tonträger und Metadaten)
•
Übertragbarkeit auf ein anderes System (falls es unmöglich wird, das System
aufrechtzuerhalten; gilt für alle drei Komponenten im Verbund)
Zu erwähnen ist, daß durch den Einsatz digitaler Speicherung die Möglichkeit gegeben
wird, Sicherungskopien und Übertragungen auf andere Systeme verlustfrei zu machen,
jedoch nur, solange die Codierungen der Systeme gegenüber dem nicht codierten Original verlustfrei sind. Handelt es sich hingegen um Datenreduktion, gehen bei jedem Vorgang einer Codierung Daten verloren, was sich bei Kopien zwischen datenreduzierenden Systemen summieren kann. Dabei ist nicht zu vergessen, daß ein digitales Signal
prinzipiell bereits einen Verlust von Informationen gegenüber dem jeweiligen analogen
Signal bedeutet, da es nur diskrete Werte abtasten und speichern kann.
Glücklicherweise gibt es im Bereich der Archivierung von Audio ein wesentlich größeres kommerzielles Interesse als bei der Archivierung von Live-Elektronik, da auch
sämtliche Tonträgerarchive vom Rundfunk oder von privaten Plattenfirmen mit der
Problematik der Archivierung von ihren Beständen konfrontiert sind. Dies läßt darauf
hoffen, daß es immer ausreichend Nachfrage und finanzielle Mittel für Forschung und
Entwicklung im Bereich der Tonträger geben wird, die insbesondere Lösungen für die
Übertragung von alten auf neue Speichersysteme bieten kann.
Die Frage der Metadaten, die zur Archivierung in Datenbanken erfasst werden sollen,
muß im Kontext der Musik mit Live-Elektronik völlig neu gestellt werden. Schon bei
der herkömmlichen Tonträgerarchivierung ist der nötige Umfang der Metadaten umstritten, üblicherweise werden aber mindestens folgende Angaben erfasst:
•
Komponist
•
Werk
•
Interpret
•
Tonträger (Format und Quelle)
86
Derzeit wird von der ARD, dem ZDF und dem Deutschen Rundfunkarchiv ein neues
„Regelwerk Mediendokumentation“ ausgearbeitet, das dann als Rahmenrichtlinie für
die Dokumentation sowohl bei der Produktion als auch bei der Archivierung von jeglichen Medien gelten soll.83 Hier eine graphische Darstellung der ausgearbeiteten Struktur
aus einer Präsentation, die im Internet zum Download bereitsteht:
Abb. 11: Metadaten nach dem neuen „Regelwerk Mediendokumentation“
Man erkennt die deutlich deskriptive Ausrichtung des Archivs hinsichtlich der zu archivierenden Medieninhalte, die größte Gruppe von Metadaten beschreibt das dokumentierte Ereignis, daneben gibt es Metadaten zur Produktion, also den Auftraggebern, und
zu den Personen und Institutionen, die bei der Realisierung des dokumentierten Ereignisses mitgewirkt haben. Recht klein ist der Bereich der formalen Daten des Mediums
ausgefallen, und der Verweis auf die Partitur sieht nur einen Standort und Seitenzahl
vor. Dieses Beispiel ist ein klassischer Fall der Optimierung eines Archivs für Tonträger in standardisiertem Format, in dem man viele Informationen über ihren Inhalt einbringen kann. Die Reproduzierbarkeit wird als gegeben vorausgesetzt und daher werden
83 ARD/DRA: Regelwerk Mediendokumentation: http://rmd.dra.de/arc/php/main.php
[Stand 2006-09-22]; die Seite befindet sich derzeit noch im Aufbau
87
hierzu keine umfangreichen Daten gesammelt.
Für die Dokumentation von Musik mit Live-Elektronik müssen im Vergleich zur Dokumentation von Tonträgern Angaben in den Metadaten ergänzt werden, die bei einer Reproduktion von dem dokumentierten Werk für die Beteiligten nötig sind. Hierzu gehört
insbesondere Folgendes:
•
Daten mit technischen Angaben zur Live-Elektronik, die nicht in der Partitur
vermerkt sind84
•
Kontaktpersonen oder Institute, die den elektronischen Part des Stücks bereits
realisiert haben
•
detaillierte Angaben zu bisherigen Aufführungen und früheren Versionen der
Elektronik
Einen Entwurf für die Archivierung elektronischer Musik legte im Jahre 2004 das Institut für elektronische Musik und Akustik (IEM) der Universität für Musik und darstellende Kunst Graz in Form des „Internet Archivs für Elektronische Musik“ (iaem)85 vor.
Es ist offensichtlich, daß bei diesem Archiv die technischen Kriterien des Mediums und
auch seiner Inhalte wesentlich detaillierter ausgearbeitet worden sind, als bei der zuvor
besprochenen Archivstruktur. Es wird nicht von standardisierten Datenformaten ausgegangen, und die notwendigen Informationen zur Wiedergabe von den entsprechenden
Tonträgermedien sind vielfältig. Dennoch wird auch hier auf die speziellen Belange der
Live-Elektronik eher nicht eingegangen, die Informationen zur Technik der Entstehung
der Archivinhalte, die für eine Reproduktion der technischen Apparaturen nötig wären,
sind kaum vorgesehen. Ebenso werden die Daten nicht für eine Weitergabe hinsichtlich
erneuter Aufführungen vorbereitet.
Interessant ist aber, daß bei dem Grazer Archiv zumindest eine Koppelung an eine Nutzung von Raumsimulation mit Binaural-Transformation durch Ambisonic angestrebt
wird, um die Projektion von mehrkanaligen Werken in virtuellen Räumen umzusetzen.
84 Siehe hierzu die Auflistung unter 4.1
85 IEM: Internet Archiv für Elektronische Musik: http://iem.iaem.at/ [Stand 2006-09-22], Seite veraltet
88
Hier eine Darstellung der angestrebten Metadaten-Struktur des Grazer Archivs:
Abb. 12: Metadaten-Struktur des iaem
Zusammenfassend möchte ich hier diejenigen Daten darstellen, die ich für die Struktur
eines Archivs für Musik mit Live-Elektronik als notwendig erachte. Die Aufbereitung
für eine Reproduktion des archivierten Werkes steht hierbei als primäres Ziel im Vordergrund. Neben den Daten bezüglich Werk, Komponist und Interpreten gibt es das
große Feld der technischen Dokumentation, das danach aufgeteilt ist, ob man die Technik abstrahieren kann oder nicht. Dies wirkt sich nämlich in der Art der Archivierung
aus, da man die nicht abstrahierbaren und die exemplarisch realisierten Komponenten
aufwendig lagern und konservieren muß86, während die Abstraktionen als Texte oder
Grafiken einfach zu archivieren sind. Darüber hinaus werden Informationen zur Ästhetik des Werkes oder des Komponisten gesammelt, die Aufschluß über die Anforderungen an die Interpretation geben sollen. Schließlich ist zu erwähnen, daß sowohl die
technischen Komponenten als auch die weiteren Informationen von Aufführung zu Aufführung differieren können, daher sollte man die Historie der Aufführungen sowohl in
86 Das muß aber nicht notwendigerweise in diesem Archiv geschehen, es kann Verweise geben, z.B. auf
Personen, Institutionen o.ä., die historische Abspielgeräte oder Klangerzeuger lagern und pflegen.
89
der technischen Dokumentation als auch in der Sammlung der weiteren Informationen
deutlich kennzeichnen. Folgend mein Vorschlag:

Komponist (Name, Geburtsdatum, Kontaktdaten)

Werk (Titel, Untertitel, Besetzung, Versionen, Entstehungsdaten, Verlag usw.)

bisherige Aufführungen

bisherige Interpreten (Klangregie, Dirigenten, Instrumentalisten; jeweils mit
Kontaktdaten)

Technische Dokumentation (je Aufführung getrennt)




nicht abstrahierbare Technik
•
Medien (Zuspielbänder, Samples)
•
Hardware (spezielle Klangerzeuger und Controller)
•
spezielle Software
abstrahierte Technik (als Schaltpläne, Routing, Programmstrukturen)
•
Klangerzeugende Elemente
•
Schallwandler
•
Klangverarbeitende Elemente
•
Klangspeichernde/-wiedergebende Elemente
•
Steuerung
exemplarische Realisation
•
Aufführungsraum
•
Pläne für die Positionierung von Instrumenten, Spielern und Technik
•
Technical Rider
•
Patches gängiger Programmierumgebungen (z.B. Max/Msp und PD)
•
Samplerprogramme
Informationen zur Interpretation und zur Ästhetik (je Aufführung getrennt)


an Aufführungen gebunden
•
Audioaufnahmen
•
Videoaufnahmen und Fotos
•
Programmtexte
•
Kritiken/Rezensionen
allgemein
•
Schriften
•
Interviews
90
5. Fazit
In der vorliegenden Arbeit konnte gezeigt werden, wie sehr die schnell fortschreitende
Entwicklung der technischen Komponenten, die im Kontext von Musik mit LiveElektronik eingesetzt werden, Einfluß auf die Aufführbarkeit von Werken nimmt. Diese
Entwicklung hatte in der Vergangenheit wesentliche strukturelle Änderungen der Arbeitsweise mit der Technik zur Folge, und es ist davon auszugehen, daß dies auch zukünftig der Fall sein wird. Die von mir eingangs aufgestellte Forderung nach
systemunabhängiger Dokumentation wird so bestärkt.
Um hierfür notwendige Kriterien herauszuarbeiten, wurde eine Strukturierung der technischen Komponenten vorgestellt, anhand derer meiner Meinung nach sämtliche Prozesse der Live-Elektronik funktionell abstrahiert und eingeordnet werden können sowie
ihre Verwandschaft zu anderen Prozessen aufgezeigt werden kann. Für wichtige Geräteprinzipien, die in der Live-Elektronik häufig vorkommen, wurden die jeweils reproduktionsrelevanten Parameter genannt und erörtert, wie diese in eine Dokumentation
eingehen können.
Weiterhin wurden wesentliche Parameter der Interpretation, also der Anwendung von
Live-Elektronik, definiert und für ihren Einsatz in Dokumentationen analysiert.
Auf der Basis der so erarbeiteten Kriterien konnte ich eine Methode vorstellen, die als
generelle Herangehensweise an die Erstellung einer Dokumentation im genannten Sinne
gelten kann. Nach der Analyse der zu dokumentierenden technischen und interpretatorischen Parameter wird der Fokus hier schließlich auch auf die Niederschrift in der Partitur und auf die Archivierung weiterer zum Stück gehörender Medien gelenkt. Die
erarbeitete Auflistung von Metadaten bietet eine Fokussierung auf die Angaben, die für
eine Reproduktion relevant sind und läßt eine Einordnung der Technik hinsichtlich ihrer
Historie zu, insbesondere bezüglich früherer Aufführungen.
Diese Arbeit versteht sich als grundlegender Beitrag zu einem Leitfaden, der helfen soll,
die Vorgehensweise für Dokumentationen von Musik mit Live-Elektronik lückenloser
91
zu gestalten, als dies derzeit häufig der Fall ist, um so eine standardisierte Notation und
die einheitliche Aufbereitung von zusätzlichen Medien zu fördern, wo dies möglich ist.
So kann sie ein Ausgangspunkt für weitere Untersuchungen auf dem Gebiet der Musik
mit Live-Elektronik sein, beispielsweise für
•
die Entwicklung einer systemunabhängigen, schriftlich notierbaren MetaSprache für die üblicherweise eingesetzten Computerprogramme zu Zwecken einer Archivierung, die dauerhafter ist als diese Programme selbst
•
die Sammlung von technischen Daten und praktischen Bedienungsanleitungen
historischer Technik, insbesondere solange die Entwickler und ehemaligen Anwender noch leben
•
die Aufbereitung von Partituren und zusätzlichen Medien für die Veröffentlichung im Verlagswesen
•
den Entwurf von Strategien und Techniken zur Archivierung historischer
Klangerzeuger.
92
Quellenangaben
Literatur
Theodor W. Adorno: Zu einer Theorie der musikalischen Reproduktion
Suhrkamp, Frankfurt am Main 2005
Donaueschinger Musiktage 2005, Programmheft
Pfau-Verlag, Saarbrücken
auch unter: http://www.swr.de/swr2/donaueschingen/archiv/2005
/werkbeschreibung/furrerfama.html [Stand 2006-09-19]
Umberto Eco: Das offene Kunstwerk
Suhrkamp, Frankfurt am Main 1977
Hans Peter Haller: Das Experimentalstudio der Heinrich-Strobel-Stiftung des
Südwestrundfunks Freiburg 1971-1989. Die Erforschung der Elektronischen
Klangumformung und ihre Geschichte
Nomos Verlagsgesellschaft, Baden-Baden 1995, 2 Bände
Friedrich Kittler: Short cuts
Zweitausendeins, Frankfurt am Main 2002
daraus S. 109-133: Computeranalphabetismus
ursprünglich in F. Kittler / D. Matejowski (Hg.): Literatur im Informationszeitalter, Campus, Frankfurt am Main 1996
Alvin Lucier: Reflexionen. Interviews, Notationen, Texte 1965-1994
MusikTexte, Köln 1995, 2. Auflage 2005
93
Jürgen Meyer: Akustik und musikalische Aufführungspraxis
Verlag Erwin Bochinsky, Frankfurt am Main 1972, 4. erweiterte Auflage 1999
Jürgen Meyer: Kirchenakustik
Verlag Erwin Bochinsky, Frankfurt am Main 2003
Marietta Morawska-Büngeler: Schwingende Elektronen. Eine Dokumentation über
das Studio für Elektronische Musik der Westdeutschen Rundfunks in Köln 19511986
P.J. Tonger, Köln-Rodenkirchen 1988
Roman Pfeifer: Schrift und Klang. zur Verschriftlichung von Tonbandmusik
Diplomarbeit, Essen 2002
http://icem.folkwang-hochschule.de/Publikationen/diplome.php?mid=17
[Stand: 2006-09-19]
Curtis Roads: The Computer Music Tutorial
MIT, Cambridge, Mass. 1996
André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen
Reclam, Stuttgart 1998
Christian Scheib: Two rooms. A short conversation with Miller Puckette
in bang. Pure Data, S. 165-169
Wolke Verlag, Hofheim 2006
Christof Siemes / Claus Spahn: Das Problem fängt mit den Posaunen an.
Interview mit Pierre Boulez
Die Zeit 30.12.2004, Feuilleton-Spezial: Die digitalen Künste, S. 44-45
auch unter: http://www.zeit.de/2005/01/Boulez_echt [Stand 2006-09-19]
94
Karlheinz Stockhausen: Musik im Raum
Oktober 1958, erschienen in „Die Reihe“ 5
Universal Edition A. G., Wien 1959
Karlheinz Stockhausen: Die Zukunft der elektroakustischen Apparaturen in der Musik
in Texte zur Musik 1970-1977, Bd. 4, S. 425-436
DuMont Buchverlag, Köln 1978
Martin Supper: Elektroakustische Musik und Computermusik
Wissenschaftliche Buchgesellschaft, Darmstadt 1997
Stefan Weinzierl: Beethovens Konzerträume. Raumakustik und symphonische
Aufführungspraxis an der Schwelle zum bürgerlichen Zeitalter
Verlag Erwin Bochinsky, Frankfurt 2002
95
Abbildungen
Abb. 1:
Karlheinz Stockhausen: SOLO für Melodieinstrument mit Rückkopplung,
Komposition Nr. 19, UE 14789, Universal Edition A.G., Wien 1969
Abb. 2:
Dennis Gabor: Theory of Communication, The Journal of the Institution of
Electrical Engineers, Unwin Brothers, London 1946, 93(3): S. 429-457, aus:
Timothy Opie: Sound in a nutshell: Granular Synthesis. An overview of
granular synthesis and the techniques involved, BA Honours,
http://granularsynthesis.music.net.au/hthesis/gabor2.html
[Stand 2006-09-24]
Abb. 3:
Pierre Boulez: Dialogue de l'ombre double für Klarinette und Tonband,
Technische Anweisungen, UE 18407, Universal Edition A.G., Wien 1992
Abb. 4:
Haller 1995 (siehe Literatur), Bd. 1, S. 78, Abb. T32
Abb. 5:
siehe Abb. 3
Abb. 6:
Vinko Globokar: Drama für Klavier und Schlagzeug,
Henry Litolff's Verlag/C.F. Peters, Frankfurt/London/New York 1971
Abb. 7:
Michael Dickreiter: Handbuch der Tonstudiotechnik,
5. Auflage, K.G. Saur Verlag KG, München 1987, 2 Bände
Bd. 1, S. 370, Bild 6/16
Abb. 8:
Haller 1995 (siehe Literatur), Bd. 1, S. 71, Abb. T30c
Abb. 9:
Karlheinz Stockhausen: Kurzwellen für sechs Spieler, Komposition Nr. 25,
Universal Edition A.G., Wien 1968
Abb. 10:
Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik,
Springer-Verlag, Berlin/Heidelberg/New York 2005
http://www.stahlknecht-hasenkamp.de/sh_abbildungen.php
[Stand 2006-09-24]
Abb. 11:
ARD: Regelwerk Multimedia, Präsentation zur Veranschaulichung, Folie 50,
http://rmd.dra.de/arc/doc/agRm_praes_2005-04-06.pps [Stand 2006-09-22]
Abb. 12:
Institut für Elektronische Musik und Akustik (IEM) der Universität für
Musik und darstellende Kunst Graz: Datenstrukturdiagramm des iaem,
http://iem.iaem.at/doku/presentation/music/LibDiag.jpg [Stand 2006-09-22]
96
Danksagung
An dieser Stelle möchte ich mich bei allen denjenigen Personen bedanken, die mir
während und im Vorfeld dieser Arbeit unterstützend zur Seite gestanden haben, insbesondere bei:
•
meinem Professor Michael Sandner für die intensive und konstruktive Beratung
beim Entwurf und der Realisierung meines Themas
•
der Internationalen Ensemble Modern Akademie und meinem dortigen Tutor
Norbert Ommer für die Möglichkeit, im Rahmen eines einjährigen Stipendiums
und darüber hinaus die praktischen Arbeitsweisen im Gebiet der Zeitgenössischen Musik mit Live-Elektronik kennenzulernen und umzusetzen
•
denjenigen Personen aus dem zeitgenössischen Musikleben, die mir zuvorkommend persönliche Gespräche und Schriftverkehr ermöglicht haben, um weitere
Einblicke in die Praxis der Dokumentation von Musik mit Live-Elektronik zu
bekommen, darunter (in alphabetischer Reihenfolge):
Paulo Chagas, Alan Fabian, Prof. Orm Finnendahl, Johannes Fritsch, Javier
Garavaglia, Prof. Heiner Goebbels, Prof. Dr. Georg Hajdu, Dipl.-Ing. Folkmar
Hein, Prof. Wofgang Heiniger, Gottfried Michael Koenig, Prof. Thomas
Neuhaus, Melvyn Poore, Prof. Marco Stroppa und Bryan Wolf
•
Christina Bürger und Christoph Seibert für schnelles Korrekturlesen
Schließlich möchte ich einen besonderen Dank an meine Familie aussprechen, insbesondere an meine Eltern Ingrid und Erik Manook, durch deren persönliche Unterstützung in allen Bereichen mir das Tonmeisterstudium möglich war.
97
Erklärung
Detmold, den 28. September 2006
Hiermit versichere ich, Hendrik Manook, daß ich die vorliegende Diplomarbeit selbständig verfaßt und keine anderen als die angegebenen Hilfsmittel benutzt habe. Alle
Zitate wurden unter Angabe der Quelle kenntlich gemacht.
Diese Arbeit wurde noch bei keinem anderen Prüfungsverfahren in identischer oder
ähnlicher Form vorgelegt.
Hendrik Manook
98
Herunterladen