Interaktionsmöglichkeiten mit digitalen Musikinstrumenten

Werbung
Diplomarbeit
Interaktionsmöglichkeiten mit digitalen
Musikinstrumenten
Vorgelegt von: Maximilian Albring
(Matrikelnr. 2701426)
29. Februar 2008
Hochschullehrer: Prof. Dr.-Ing. habil. Rainer Groh
Betreuer: M.Sc. Ingmar S. Franke
Lehrstuhl für Mediengestaltung
Institut für Software- und Multimediatechnik
Fakultät Informatik
Ich danke meinen Eltern für die Unterstützung während der Jahre meines Studiums.
Mein besonderer Dank gilt Cornelia für ihren unermüdlichen Beistand.
Selbständigkeitserklärung
Hiermit erkläre ich, Maximilian Albring (Matrikelnr. 2701426), die vorliegende
Diplomarbeit zum Thema „Interaktionsmöglichkeiten mit digitalen Musikinstrumenten“ selbständig und ausschließlich unter Verwendung der im Quellenverzeichnis
aufgeführten Literatur- und sonstigen Informationsquellen verfasst zu haben.
Dresden, 29. Februar 2008
Inhaltsverzeichnis
1 Einleitung
1.1 Motivation und Zielsetzung . . . . . . . . . . . . . . . . . . . . . . .
1.2 Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Grundlagen
2.1 Musikinstrumente . . . . . . . . . . . . . . . . . . . .
2.1.1 Akustische Musikinstrumente . . . . . . . . .
2.1.2 Digitale Musikinstrumente . . . . . . . . . . .
2.1.3 Elemente digitaler Musikinstrumente . . . . .
2.1.3.1 Controller . . . . . . . . . . . . . . .
2.1.3.2 Mapping (Abbildung) . . . . . . . .
2.1.4 Gestaltung von digitalen Musikinstrumenten
2.2 Aufbau von Musik . . . . . . . . . . . . . . . . . . .
2.3 Zusammenfassung . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Technologie und Musik
3.1 Entwicklung der Musikinstrumente . . . . . . . . . . . . . . . . . .
3.2 Historische und aktuelle Instrumente . . . . . . . . . . . . . . . . .
3.2.1 Elektronische Musikinstrumente . . . . . . . . . . . . . . . .
3.2.2 Klangaufzeichnung und Sampling . . . . . . . . . . . . . . .
3.2.3 Musik und Computer . . . . . . . . . . . . . . . . . . . . . .
3.2.3.1 Entwicklung . . . . . . . . . . . . . . . . . . . . .
3.2.3.2 Klangerzeugungsverfahren . . . . . . . . . . . . . .
3.2.4 Digitale Musikinstrumente, interaktive Klanginstallationen .
3.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Konzepte digitaler Musikinstrumente
4.1 Mapping . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Determinismus . . . . . . . . . . . . . . .
4.1.2 Nicht-lineare Mappings . . . . . . . . . . .
4.2 Freiheiten und Einschränkungen . . . . . . . . . .
4.2.1 Dimensionen der Kontrolle . . . . . . . . .
4.2.2 Einschränkungen . . . . . . . . . . . . . .
4.3 Interaktive Klanginstallation vs. Musikinstrument
4.3.1 Anforderungen . . . . . . . . . . . . . . .
4.3.2 Diversität . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
8
.
.
.
.
.
.
.
.
.
11
11
11
12
13
13
13
14
15
16
.
.
.
.
.
.
.
.
.
19
19
23
23
27
28
28
29
30
35
.
.
.
.
.
.
.
.
.
37
38
38
39
40
40
41
42
42
43
5
Inhaltsverzeichnis
4.4
.
.
.
.
.
.
.
44
44
45
46
47
47
48
5 Tangible Interaction und Tangible User Interfaces
5.1 Tangible User Interfaces – greifbare Benutzerschnittstellen . . . . . .
5.1.1 Motivation für Tangible User Interfaces . . . . . . . . . . . .
5.1.2 Elemente von Tangible User Interfaces . . . . . . . . . . . . .
5.1.3 Alternative oder Erweiterung grafischer Benutzerschnittstellen
5.2 Erweiterung zu Tangible Interaction . . . . . . . . . . . . . . . . . .
5.2.1 Interaktionsmodell . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Eine Taxonomie für Tangible Interaction . . . . . . . . . . . .
5.3 Tangible Interaction und digitale Musikinstrumente . . . . . . . . . .
5.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
51
52
53
54
55
56
57
61
64
6 Das KlangHolz – ein digitales Musikinstrument
6.1 Entwicklung eines Interaktionskonzeptes . . . . . . . . . . . . . .
6.1.1 Dimensionen der Kontrolle . . . . . . . . . . . . . . . . . .
6.1.2 Beeinflussung der musikalischen Struktur . . . . . . . . .
6.1.3 Steuerung musikalischer Parameter . . . . . . . . . . . . .
6.1.4 Konzeption alternativer Mappings . . . . . . . . . . . . .
6.1.4.1 Mapping-Varianten . . . . . . . . . . . . . . . .
6.1.4.2 Bewertung . . . . . . . . . . . . . . . . . . . . .
6.2 Werkzeugkasten für digitale Musikinstrumente . . . . . . . . . . .
6.2.1 Controller . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1.1 Sensoren . . . . . . . . . . . . . . . . . . . . . .
6.2.1.2 I/O-Boards . . . . . . . . . . . . . . . . . . . . .
6.2.1.3 Computervision . . . . . . . . . . . . . . . . . .
6.2.2 Controller und Klangerzeugung . . . . . . . . . . . . . . .
6.2.2.1 Musik-Programmierumgebungen . . . . . . . . .
6.2.2.2 Nicht-akustisches Feedback des Instrumentes . .
6.2.3 Kommunikation zwischen Controller und Klangerzeugung
6.3 Technische Umsetzung des KlangHolzes . . . . . . . . . . . . . .
6.3.1 Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.2 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
68
69
70
71
75
75
76
78
78
78
79
81
82
82
83
85
86
87
88
91
7 Schlussbetrachtungen
7.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
93
95
4.5
4.6
6
Interaktion . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Körperliche Interaktion . . . . . . . . . . . . . . . .
4.4.2 Feedback des Instrumentes . . . . . . . . . . . . . .
4.4.3 Lernen und Virtuosität . . . . . . . . . . . . . . . . .
4.4.4 Verschmelzung von Instrumentenbau und Benutzung
Multi-User-Musikinstrumente . . . . . . . . . . . . . . . . .
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Inhaltsverzeichnis
7.3
Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A KlangHolz – System-Entwurf
96
99
B KlangHolz – Bilder
101
Literaturverzeichnis
103
Abbildungsverzeichnis
109
Tabellenverzeichnis
111
7
1 Einleitung
1.1 Motivation und Zielsetzung
Bei akustischen Musikinstrumenten besteht ein enger Zusammenhang zwischen der
Klangerzeugung und der Kontrolle des Instrumentes. Bestimmend für die Gestaltung
des Interfaces sind die physikalischen Eigenschaften des Instrumentes. Der Musiker
steht in direktem Kontakt mit dem klangerzeugenden Medium und kann dieses direkt
beeinflussen.
Auch mit der Entwicklung der elektronischen Instrumente blieb die Steuerung an
die technischen Gegebenheiten gebunden. Für Synthesizer entwickelte sich ein orgelähnliches Keyboard zum Standardinterface, mit dessen Hilfe eine Steuerspannung
manipuliert wird.
Digitale Musikinstrumente hingegen bieten dagegen die völlige Trennung und Unabhängigkeit von Klangsynthese und Controller. Nur eine Abbildung bzw. ein Mapping
von Controller auf Klangsynthese bestimmt die Spieleigenschaften des Instrumentes.
Der Einsatz beliebiger Interfaces ist möglich, beliebige Repräsentationen der Klänge
können zur Steuerung des Instrumentes genutzt werden.
Dennoch werden hauptsächlich Bildschirmanwendungen mit Maus, Keyboard und
der herkömmlichen Klaviertastatur genutzt. Das ist mit Einschränkungen verbunden:
Das gemeinsame Musizieren mehrerer Menschen ist schwierig und die Freude am Entdecken kann in den Hintergrund geraten. Anders als bei akustischen Instrumenten ist
die Performance für Zuschauer nur schlecht nachvollziehbar, die Interaktion zwischen
Instrument und Körper ist beschränkt, und für Rückmeldungen des Instrumentes
steht nur der akustische Kanal zur Verfügung.
Alternativen hierzu bieten zum Beispiel die angepasste Verwendung von Standardeingabegeräten, spezielle Controller oder aber Tangible User Interfaces. Die Umgebung
selbst wird hierbei zum Interface, reale Gegenstände zu interaktiven Objekten. Die
9
1 Einleitung
Erfahrungen im Umgang mit solchen Gegenständen können für die Intuitivität der
Schnittstelle ausgenutzt werden.
Seit jeher wird erforscht, wie jeweils aktuelle Technologien für die Erzeugung kreativen musikalischen Outputs genutzt werden können. Strömungen wie Tangible
User Interfaces binden die Interaktion mit Computer-Musik wieder stärker an den
menschlichen Körper und in seine physische Umgebung ein.
In dieser Arbeit sollen alternative Interface-Konzepte, insbesondere Tangible Interaction und Tangible User Interfaces, bezüglich ihrer Eignung für musikalische
Anwendungen untersucht werden. Vor diesem Hintergrund soll eine eigene Anwendung
angesiedelt im Spektrum zwischen digitalem Musikinstrument und Klanginstallation
entstehen.
Hierbei soll der Fragestellung nachgegangen werden, wie ein Instrument konzipiert
sein muss, damit die Interaktion und das Musizieren für aktive und passive Beteiligte
interessant, einladend und nachvollziehbar ist und wie es zudem zudem in ihrer
realen, physischen Umgebung stattfinden kann.
1.2 Aufbau der Arbeit
Um der Problemstellung auf den Grund zu gehen, ist die Arbeit wie folgt aufgebaut:
In Kapitel 2 werden zentrale Begriffe geklärt. Es wird dargelegt, was allgemein
unter einem Musikinstrument verstanden wird und was die Besonderheit digitaler
Musikinstrumente ausmacht. Schließlich wird versucht, ein grundlegendes Schema
zum Aufbau der Musik als Gegenstand des Einsatzes von Musikinstrumenten zu
entwickeln.
Kapitel 3 beschreibt die Historie und Entwicklung von Musikinstrumenten. Dabei
wird insbesondere auf die Verbindung von Musikinstrumenten und Technologie
eingegangen, und die großen Meilensteine dieser Entwicklung werden nachvollzogen. Im Weiteren wird auf verschiedene historische elektronische Musikinstrumente
ein genauerer Blick geworfen. Es wird ein Überblick zu aktuellen und verwandten Arbeiten aus dem Bereich von Interfaces und Interaktionskonzepten digitaler
Musikinstrumente sowie interaktiver Klanginstallationen gegeben.
In Kapitel 4 werden spezielle Probleme und Fragestellungen der Gestaltung digitaler Musikinstrumente beleuchtet. Hier steht insbesondere im Mittelpunkt, die
10
1.2 Aufbau der Arbeit
Übertragbarkeit von Konzepten aus dem Bereich konventioneller akustischer Instrumente auf digitale Instrumente zu prüfen. Die vorgestellten Konzepte können bei der
Einordnung eines Instrumentes zwischen interaktiver Installation und vollwertigem
Musikinstrument hilfreich sein.
Probleme aus dem Umfeld von Tangible User Interfaces sowie das erweiterte Konzept
der Tangible Interaction werden in Kapitel 5 erörtert. Weiterhin wird die Verbindung von Tangible Interaction und der Konstruktion digitaler Musikinstrumente
dargestellt. In diesem Zusammenhang wird auch eine Taxonomie für TangibleInteraction-Systeme entwickelt.
Schließlich wird in Kapitel 6 das KlangHolz, ein eigenes tischbasiertes digitales
Musikinstrument mit einer greifbaren Benutzerschnittstelle (Tangible User Interface), konzipiert und dessen Umsetzung dokumentiert. Hierzu dienen die Arbeiten
von Constanza [CSR03], Jordà [JKGB05] und Han [Han08] als Orientierung. Zunächst wird ein eigenen Mapping- und Interaktionskonzept entwickelt. Zudem werden
Technologien, die zur Umsetzung von Musikinstrumenten auf der Basis greifbarer
Benutzerschnittstellen geeignet sind, vorgestellt und untersucht. Auf einer Auswahl der betrachteten Technologien aufbauend, wird die Realisierung des digitalen
Musikinstrumentes KlangHolz beschrieben.
Abschließend werden in Kapitel 7 die Ergebnisse der Arbeit zusammengefasst. Ein
Ausblick auf mögliche Vertiefungen und weiterführende Ideen wird gegeben.
11
2 Grundlagen
In diesem Kapitel sollen Begriffe wie Musikinstrument oder digitales Musikinstrument sowie der allgemeine Aufbau von Musik besprochen werden. Die grundlegenden
Komponenten digitaler Musikinstrumente – Controller und Mapping sowie Klangerzeugung – werden genauer betrachtet.
2.1 Musikinstrumente
Curt Sachs, der Begründer der modernen Instrumentenkunde, definiert ein Musikinstrument als
„Werkzeug, das zur Hervorbringung musikalischer Klänge gefertigt oder
benutzt wird, mit Ausnahme des menschlichen und tierischen Kehlkopfs,
den der Sprachgebrauch den Instrumenten gegenüberstellt“ [Sac13].
Eine neuere, auch im Hinblick auf elektronische und digitale Musik formulierte
Variante versteht unter einem Musikinstrument ein Gerät, das zum Spielen oder
Produzieren von Musik genutzt wird, indem die Aktionen einer oder mehrerer
Personen in Klangereignisse transformiert werden (vgl. [Jor04b]).
2.1.1 Akustische Musikinstrumente
Ein traditionelles, akustisches Musikinstrument besteht prinzipiell aus zwei Komponenten, einer Klangerzeugungseinheit und einer Kontrolleinheit, mit der die produzierten Klänge beeinflusst werden können. Zum Beispiel wird bei einem Blasinstrument
der Klang von einer durch den Musiker in Schwingung versetzten Luftsäule erzeugt
und kann mithilfe von Klappen oder Ventilen beeinflusst werden. Wie man an diesem
Beispiel erkennen kann, sind beide Komponenten eng und untrennbar miteinander
verbunden.
13
2 Grundlagen
2.1.2 Digitale Musikinstrumente
Auch digitale Musikinstrumente bestehen aus den gleichen Subsystemen, einer
Klangerzeugungs- und einer Kontrolleinheit. Der wesentliche Unterschied zu traditionellen Instrumenten ist die Unabhängigkeit und Austauschbarkeit beider Systemkomponenten. Durch die digitale Erzeugung der Klänge im Computer ist, im
Gegensatz zum akustischen Instrumentenbau, das Instrumentendesign völlig losgelöst von der tatsächlichen Klangerzeugung und insbesondere von den physikalischen
Gegebenheiten des klangerzeugenden Mechanismus (vgl. [Ste05a]).
Das konzeptuelle Ganze beider Subsysteme ergibt ein Musikinstrument, das sich nicht
nur auf die Synthese von Klängen und Tönen beschränken muss, sondern auch über
das Einsatzgebiet traditioneller Musikinstrumente hinausgehen kann. Beispielsweise
kann ein solches Instrument zur algorithmischen Komposition, zur Erzeugung von
mit menschlichen Fähigkeiten nicht spielbaren musikalischen Phrasen oder gar zur
Reaktion auf andere Musiker in der Lage sein (vgl. [Jor04b]).
Abbildung 2.1: Bestandteile eines digitalen Musikinstrumentes
Abbildung 2.1 zeigt den schematischen Aufbau eines digitalen Musikinstrumentes. Auf der einen Seite steht die Kontrolleinheit beziehungsweise der Controller,
der die Aktionen oder Gesten der Nutzer erkennt, auf der anderen eine Klangoder Musikerzeugungseinheit. Durch die Entkopplung beider Bestandteile gewinnt
das dazwischenliegende Mapping der relevanten Messwerte des Controllers auf die
Parameter der Klangerzeugung eine große Bedeutung für die Gestaltung digitaler Musikinstrumente. Im folgenden werden die Begriffe Abbildung und Mapping synonym
verwendet, Mapping wird allerdings zur besseren Unterscheidung bevorzugt.
In Abbildung 2.2 wird ein einfaches Beispiel für ein digitales Musikinstrument dargestellt. Die Klangerzeugung funktioniert softwareseitig, ein Oszillator erzeugt eine
Schwingung, ein Digital-Analog-Wandler wandelt diese in ein analoges Audiosignal
um, das über einen Lautsprecher ausgegeben wird. Der einzige steuerbare Klangsyntheseparameter ist die Frequenz der vom Oszillator erzeugten Schwingung, also die
14
2.1 Musikinstrumente
Abbildung 2.2: Einfaches Beispiel für ein digitales Musikinstrument
Tonhöhe. Auf der Controllerseite befindet sich ein Hardwaregerät, das mit einem
Drehpotentiometer bestückt ist. Die damit geregelte Steuerspannung wird digitalisiert an das Klangerzeugungsmodul übertragen und, im einfachsten Fall eins zu eins,
auf die Frequenz abgebildet.
2.1.3 Elemente digitaler Musikinstrumente
2.1.3.1 Controller
Fast jede beliebige Benutzerschnittstelle kann auf die Parameter des Klangsynthese-Algorithmus abgebildet werden, damit ergeben sich bei der Gestaltung neuer
digitaler Instrumente und ihrer Benutzerschnittstellen endlos viele Möglichkeiten
(vgl. [Ste05a]). Die Controller können von den traditionellen Formen akustischer
Instrumente abweichen, beim Design können völlig neue Wege beschritten werden.
Mit den nahezu unbegrenzten Möglichkeiten bei der Gestaltung geht allerdings
auch einher, dass die enge Verbindung zwischen Kontrolle durch den Musiker und
Erzeugung des Klanges, die das Spiel akustischer Instrumente bestimmt, verloren
geht (vgl. [PO03]).
2.1.3.2 Mapping (Abbildung)
Ein zentraler Begriff beim Design digitaler Musikinstrumente ist die Abbildung
bzw. das Mapping (vgl. [PO03]). Das Resultat der sensorischen und motorischen
Fähigkeiten des Menschen soll an die Klangerzeugungsparameter des zu spielenden
15
2 Grundlagen
Instrumentes so angepasst werden, dass die grundlegenden Eigenschaften von Tönen und Klängen (Dauer, Tonhöhe, Klangfarbe und Lautstärke) bzw. von Musik
kontrolliert werden können (siehe Abbildung 2.3).
Abbildung 2.3: Allgemeine Funktion der Abbildung zwischen Controller und Klangerzeugung
Als einfaches Beispiel für die Bedeutung verschiedener Abbildungen soll die Begleitautomatikfunktion von Heimsynthesizern im Amateurbereich, im allgemeinen
Sprachgebrauch Keyboards, dienen. Der Abruf vorgefertigter Sequenzen, die vom
einzelnen nicht gleichzeitig spielbar sind und das Bestimmen von deren Tonart bzw.
Harmonie wird durch bestimmte Tastenkombinationen möglich. Wird die Begleitautomatik deaktiviert, funktionieren dieselben Tasten wie normale Klaviertasten. Ein
und der selbe Controller wird also in verschiedener Weise auf die Klangerzeugung
abgebildet.
Diese Gegebenheiten machen die Gestaltung von Benutzerschnittstellen für digitale
Instrumente zu einer schwierigen Aufgabe. Die Komplexität und Vielfalt der klanglichen Möglichkeiten steht unzähligen Abbildungsmöglichkeiten der Benutzergesten
auf die Klangeigenschaften gegenüber (vgl. [MM07]).
2.1.4 Gestaltung von digitalen Musikinstrumenten
Die Entkopplung von Controller und Klangerzeugung und die daraus resultierende
große Vielfalt von Gestaltungsmöglichkeiten macht das Design von digitalen Musikinstrumenten zu einem weit gefächerten interdisziplinären Spektrum, das Elektronik,
Sensortechnologie, Klangsynthese und Programmierung auf der technischen Seite,
bis hin zu Wahrnehmungspsychologie, Ergonomie oder Mensch-Maschine-Interaktion
auf der benutzerorientierten Seite umfasst (vgl. [Jor04b]).
Besonders neue Benutzerschnittstellen digitaler Musikinstrumente tragen das Potential, Wegbereiter für die Musik der Zukunft zu sein. Bei ihrer Gestaltung kann nicht
nur auf die relativ neue Tradition der elektronischen Musik und der elektronischen
16
2.2 Aufbau von Musik
und digitalen Musikinstrumente, sondern ebenso auf die jahrtausendealten Erfahrungen und Traditionen der Musik und des akustischen Musikinstrumentenbaus
zurückgegriffen werden (vgl. [Jor01]).
2.2 Aufbau von Musik
Musikinstrumente dienen zum Erzeugen von Musik. Für die Beantwortung der Frage,
welche musikalischen Elemente und Parameter von einem Instrument beeinflusst
werden können, lohnt ein genauerer Blick auf den strukturellen Aufbau von Musik.
Das hier entwickelte Schema soll möglichst allgemein gehalten werden, so dass es
kulturell übergreifend Gültigkeit hat, und unabhängig von der schwer zu beantwortenden Frage, welche Klangäußerungen Musik sind und welche nicht, gelten
kann. Dazu soll eine minimale Anzahl von klanglichen Parametern und sich über
die Zeit entwickelnden musikalischen Parametern genutzt werden. Kompliziertere
Eigenschaften einzelner Klänge oder von Musik können aus den hier benannten
zusammengesetzt werden.
Abbildung 2.4: Schematischer Aufbau von Musik (Darstellung in Anlehnung an [Wei07, Seite
57])
Musik ist die zeitliche Anordnung akustischer Ereignisse (siehe Abbildung 2.4).
Akustische Ereignisse können Töne, Klänge oder auch Pausen sein und sind durch
die folgenden Parameter gekennzeichnet:
17
2 Grundlagen
• Grundfrequenz oder Tonhöhe,
• Lautstärke,
• Dauer und
• Klangfarbe.
Nicht nur die zeitliche Anordnung, sondern auch die räumliche, zum Beispiel die
Position eines Instrumentes im Orchester, charakterisiert ein akustisches Ereignis als
fünften Parameter.
Wenn Töne gruppiert werden, entstehen zusammengesetzte akustische Ereignisse,
also zum Beispiel Sequenzen verschiedener Länge, verallgemeinert gesprochen eine
musikalische Struktur (roter Rahmen in Abbildung 2.4). Ein weiteres Kriterium für
die Gruppierung ist die Zuordnung von akustischen Ereignissen zu einer ausführenden
Stimme (grüner Rahmen in Abbildung 2.4).
Werden akustische Ereignisse zu Musik geordnet, ergeben sich aus dem Verlauf der
Eigenschaften der Einzelereignisse über der Zeit folgende musikalische Parameter (in
Abbildung 2.4 blau erhöht):
• Melodie als Entwicklung der einzelnen Tonhöhen über die Zeit, also eine
Tonfolge in einem bestimmten Rhythmus,
• Dynamik als Verlauf der Lautstärke,
• Rhythmus als Folge von Dauern und Pausen,
• Klang als Zusammenspiel der Klangfarben der Einzelereignisse und
• Harmonie als Wahrnehmung der Tonhöhen mehrerer gleichzeitiger akustischer
Ereignisse.
Musikinstrumente können nun auf verschiedene Parameter von akustischen Ereignissen, also Tönen oder Klängen, oder auch Eigenschaften der Musik gleichzeitig
Einfluss nehmen (siehe dazu auch Kapitel 4, Seite 37).
2.3 Zusammenfassung
Musikinstrumente sind alle Werkzeuge, die zum Erzeugen musikalischer Klänge
genutzt werden. Sie können auf bestimmte Elemente und Parameter von Musik
Einfluss nehmen und bestehen aus einer Klangerzeugungs- und einer Kontrolleinheit.
18
2.3 Zusammenfassung
Bei digitalen Musikinstrumenten sind diese Komponenten weitgehend entkoppelt,
ein Mapping zwischen Controller und Parametern der Klangerzeugung bestimmt
den Charakter des Instrumentes.
19
3 Technologie und Musik
In diesem Kapitel werden zunächst die großen Schritte der Entwicklung und Technisierung der Musikinstrumente nachvollzogen. Im Anschluss werden einige wichtige
historische elektronische Musikinstrumente vorgestellt. Die Nutzung der Möglichkeiten zur Aufzeichnung von Klängen für Musikinstrumente wird betrachtet, die
Rolle des Computers in der Musik, sowie aktuelle Projekte aus dem Bereich digitaler Musikinstrumente, interaktiver Installationen und Interfaces für musikalischen
Ausdruck werden angesprochen.
3.1 Entwicklung der Musikinstrumente
Die Entwicklung der Musik sowie der Musikinstrumente stehen seit jeher unter dem
Einfluss der technischen Erfindungen der jeweiligen Zeit, seien es das Schnitzen von
Holz, die Bearbeitung von Metall, die Elektrizität oder der Computer. Die akustischen
Instrumente, wie sie heute gespielt werden, sind das Ergebnis einer Entwicklung die
sich über Jahrhunderte vollzogen hat. Ein Kanon an Instrumenten hat sich etabliert,
wobei sie alle durch ein ausbalanciertes Verhältnis von Ergonomie, Spielbarkeit,
Ausdrucksfähigkeit und Formgestaltung gekennzeichnet sind (vgl. [PO03]). Seit der
Erfindung des Dynamophons wurde elektrische Energie und Elektronik genutzt,
um Klänge zu erzeugen. Nach einer bewegten Pionierzeit, vor allem in den 1930er
Jahren, folgten bis heute viele interessante Entwicklungen. Die neuen technischen
Möglichkeiten können immer für die Suche nach völlig neuen Klängen genutzt werden,
ebenso kann natürlich der Weg gewählt werden, akustische Instrumente nachzubilden
oder mit zusätzlichen Eigenschaften anzureichern (vgl. [BK04]).
Die technische Entwicklung von Musikinstrumenten wird bei [End05] in ein Stufenmodell gefasst (siehe Abbildung 3.1). Ausgangspunkt ist das Erzeugen von Musik mit
dem eigenen Körper – zum Beispiel mit der Stimme oder durch Händeklatschen.
21
3 Technologie und Musik
Abbildung 3.1: Schritte in der Entwicklung der Musikinstrumente bis heute
22
3.1 Entwicklung der Musikinstrumente
Instrumentalisierung Durch die Entdeckung, dass Werkzeuge zum Erzeugen von
Musik genutzt werden können – ein einfacher Trommelstock, eine Saite, Pfeife oder
Flöte – beginnt die Loslösung vom eigenen Körper und damit die Instrumentalisierung
der Musik.
Mechanisierung In einem nächsten Schritt, der Mechanisierung wird nicht mehr nur
direkter Kontakt zum Klang erzeugenden Medium hergestellt, sondern mechanische
Einrichtungen dafür genutzt. Saiten können zum Beispiel mit Plektren oder mit
Hämmern, die über eine Klaviatur gesteuert werden, angeschlagen werden. Bei
Blasinstrumenten können Klappen zur Steuerung der Tonhöhe genutzt werden. Im
Grunde handelt es sich hierbei um mechanische Controller. Außerdem wird nicht
vom Menschen selbst erzeugte Energie zur Klangerzeugung genutzt, zum Beispiel
der von einem manuell oder elektrisch betriebenen Gebläse erzeugte Luftstrom bei
der Orgel oder die elektrische Energie für die E-Gitarre (vgl. [End05]). Hier nehmen
magnetische Tonabnehmer die Vibration der Saiten auf, diese werden verstärkt und
verarbeitet.
Automatisierung Schon früh konnte Musikerzeugung automatisiert werden. Durch
die Erfindung der Stiftwalze können halbautomatische, wie die Drehorgel, und vollautomatische, programmierbare Instrumente, zum Beispiel Glockentürme, Spieluhren
oder Walzenklaviere, konstruiert werden. Üblicherweise bilden rotierende Scheiben
oder Walzen mit Vertiefungen oder Erhöhungen, die Stimmzungen oder Perkussionselemente anschlagen, die Grundlage solcher Geräte. Im 19. Jahrhundert gab es bereits
erste Patente, die sich mit veränderbaren Walzen befassten und damit das Konzept
moderner Sequenzer vorausnahmen (vgl. [BK04]). Später in der elektronischen Musik
setzt sich die Entwicklung in Form von Sequenzern oder dem MIDI-Standard fort.
Darüber hinaus werden Möglichkeiten zur Aufzeichnung und in den 1950er Jahren
zur automatisierten Komposition von Musik entwickelt (vgl. [End05]).
Elektronifizierung Mit der Konstruktion erster elektromechanischer Instrumente,
der Verstärkung akustischer Instrumente mit Mikrofonen und Lautsprechern und den
ersten elektronischen Instrumenten, wie Theremin und Trautonium in den 1920er
und 30er Jahren, beginnt die Elektronifizierung der Musik. Damit einher geht auch
die Konstruktion völlig neuartiger und nicht mechanischer Benutzerschnittstellen,
wie die berührungslose gestische Steuerung des Theremins oder das Bandmanual des
23
3 Technologie und Musik
Trautoniums (vgl. [End05]). Interessant wurden in dieser Phase auch Kombinationen
von Ton und Bild in Form von Instrumenten wie dem Farbenklavier oder verschiedener
Lichtorgeln (siehe dazu [Wei07]).
Modularisierung Vor allem die Einführung des Moog-Synthesizers in den 1960er
Jahren treibt die Modularisierung der Musikinstrumente voran. Einzelne Bausteine
zur Klangerzeugung und zur Klangveränderung sowie Controller können frei kombiniert werden. Außerdem wurden die Systeme kleiner und billiger durch den Einsatz
von Transistoren (vgl. [End05]).
Digitalisierung Die Digitalisierung ab Mitte der 1970er Jahre wirkte sich zuerst
bei den Klaviaturen aus, die nun polyphon spielbar wurden. Aber auch die Klangsynthese, die Steuerung via MIDI, Filter, Effekte oder Speichermöglichkeiten wurden
digitalisiert und algorithmisch realisiert. Durch die Chiptechnologie wurde digitale
Musikerzeugung zur preiswerten Massenware (vgl. [End05]).
Virtualisierung Seit den 1990er Jahren kam es im Zuge der leistungsfähiger werdenden Rechentechnik zusätzlich zu einer Virtualisierung. Softwarebasierte Digitalsynthesizer können hergestellt und bekannte Instrumente als virtuelle Instrumente
emuliert werden. Die Steuerung von Instrumenten kann mit grafischen Benutzeroberflächen erfolgen, es sind alle Voraussetzungen für interaktive Schnittstellen
und neuartige, zum Beispiel gestenbasierte Interfaces geschaffen. Darüber hinaus ist
durch die Entwicklungen des Internets netzbasierte musikalische Kommunikation
mit entfernten Partnern möglich geworden (vgl. [End05]).
Informatisierung und Hybridisierung Zu dieser Entwicklung kommen seit etwa
2000 im Zuge der Informatisierung Forschungsansätze hinzu, die auf Basis der künstlichen Intelligenz adaptive Begleitsysteme, kreative Kompositionssysteme, Musikroboter oder Analysesysteme entwickeln. Zudem zeichnet sich der Trend der Hybridisierung von Mensch und (Musik-)Maschine im Rahmen von künstlerischen Projekten
und Installationen oder in interaktiven klingenden Räumen ab (vgl. [End05]).
24
3.2 Historische und aktuelle Instrumente
3.2 Historische und aktuelle Instrumente
3.2.1 Elektronische Musikinstrumente
Seit Ende des 19. Jahrhunderts werden elektronische Musikinstrumente entwickelt.
Einige interessante Meilensteine auf diesem Weg sollen vorgestellt werden, wobei
die Auswahl besonders hinsichtlich interessanter Benutzerschnittstellen oder der
Bedeutung der Instrumente getroffen wurde.
Dynamophon/Telharmonium Das Dynamophon wurde 1906 von Thaddeus Cahill
gebaut und gilt als das erste vollständig elektronische Musikinstrument. Die erzeugte
Musik wurde über das Telefonnetz übertragen, deshalb wurde das Instrument als
Telharmonium bezeichnet. Rundfunk oder Verstärker existierten zur damaligen Zeit
noch nicht. Die Klänge wurden durch Wechselspannungs-Dynamos erzeugt, daher
auch Dynamophon. Ein interessantes Detail war das Manual, das über 36 Tasten
pro Oktave verfügte (beim Klavier sind es 12) und anschlagdynamisch spielbar war.
Das Instrument hatte einen enormen Platzbedarf und wog etwa 200 Tonnen. Da sich
das Radio immer mehr durchsetzte verlor das Dynamophon schließlich recht schnell
seine Bedeutung (vgl. [Föl04]).
Ätherophon/Theremin Der russische Ingenieur Lew Sergejewitsch Termen, später
Leon Theremin, experimentierte 1918 mit Geräten zum Empfang von Radiowellen
und entdeckte dabei Töne, die von den benutzten Geräten selbst hervorgebracht
wurden. Auf dieser Grundlage konstruierte er ein Musikinstrument und stellte es
1920 der Öffentlichkeit vor (siehe Abbildung 3.2(a)). Das Theremin war das erste
elektronische Musikinstrument, das tatsächlich benutzbar war. Es ist für seinen
mystischen, ätherischen Klang bekannt. Für die Tonerzeugung wird ein Schwebungssummer genutzt. Dabei wird aus einer fixen und einer variablen hochfrequenten
Sinusschwingung durch Überlagerung eine hörbare Differenzschwingung erzeugt. Um
dem Instrument einen streicher- oder stimmenähnlichen Klang zu verleihen, wurde
die Schwingung durch Übersteuerung mit Obertönen angereichert.
Die Besonderheit des Theremins ist, dass es berührungslos durch die Position der
Hände relativ zu zwei orthogonalen Antennen gespielt wird. Die Hand und die
Antenne wirken dabei jeweils im Sinne eines variablen Kondensators zusammen.
Bei Annäherung der rechten Hand an eine senkrecht stehende Antenne steigt die
25
3 Technologie und Musik
Tonhöhe. Kontinuierliche Glissandi, wie bei der menschliche Stimme oder bundlosen
Streichinstrumenten, sind spielbar. Die waagerechte Antenne dient zur Steuerung
der Lautstärke (vgl. [obs05c]).
Als Beispiel neuer sowjetischer Technologie stellte Termen sein Instrument auch im
Ausland vor, unter anderem reiste er in die USA. Auch dort erhielt er ein Patent für
seine Erfindung, Lizenznehmer versuchten das Theremin als für jedermann leicht
spielbares Instrument auf den Markt zu bringen, allerdings ohne großen Erfolg. Da
es auf kleinste Körper- oder auch Gesichtsbewegungen des Interpreten reagiert, ist
ein exaktes Spielen des Instrumentes tatsächlich relativ schwierig. Clara Rockmore
war eine der wenigen Virtuosen auf dem Theremin, einige Kompositionen wurden
speziell für das Instrument und für sie geschrieben. Beliebt waren die Klänge des
Theremins vor allem auch als Effekte für Weltraum- oder Unterwassersituationen in
Filmmusiken. Auch in der Popmusik gibt es bis heute hin und wieder Aufnahmen
mit dem Theremin (vgl. [Rus98]).
(a) Leon Theremin an
seinem Instrument (aus
[Les07])
(b) Das erste elektronische Rhythmusinstrument Rhythmicon (aus [The07])
Abbildung 3.2: Theremin und Rhythmicon
Rhythmicon/Polyrhythmophon Das Rhythmicon, auch Polyrhythmophon, gilt als
erstes elektronisches Rhythmusinstrument und als Vorläufer der modernen DrumComputer (siehe Abbildung 3.2(b)). Das Instrument geht auf eine Idee des amerikanischen Komponisten Henry Cowell zurück, die Leon Theremin für ihn realisiert
hat. Cowell schrieb verschiedene Werke, die derart komplizierte Kombinationen
aus Rhythmen und Obertönen verwendeten, dass sie nicht von einem menschlichen
26
3.2 Historische und aktuelle Instrumente
Ensemble aufführbar waren. Das Rhythmicon ist also eine Maschine, die Rhythmen
erzeugen kann, die auf Obertonserien einer Grundfrequenz basieren. Unter Obertönen
versteht man ganzzahlige Vielfache der Grundfrequenz.
Der Klang wird auf die gleiche Weise wie beim Theremin erzeugt. Gespielt wird auf
einer Klaviatur mit 16 Tasten, wobei die tiefste Taste die Grundfrequenz produziert
und jede weitere den jeweils nächsten Oberton (vgl. [Moo05]).
Die Rhythmen werden durch zwei rotierende Scheiben erzeugt, die mit konzentrischen
Lochkreisen versehen sind. Der innere Kreis enthält ein Loch, der nächste Kreis
zwei, der äußerste sechzehn. Eine zweite Scheibe mit dem selben Lochmuster bewegt
sich mit der gewünschten Frequenzrate, bestimmt also die Tonhöhe. Hinter jedem
Lochkreis sind Lampen angeordnet, die mit einer Tastatur an- und ausgeschaltet
werden können. Wenn die Löcher der beiden Scheiben kongruent sind, kann das Licht
die dahinter liegende Fotozelle erreichen. Das Signal wird dann verstärkt und über
einen Lautsprecher ausgegeben (vgl. [Sta07]).
Terpsiton Das Terpsiton (siehe Abbildung 3.3(a)) ist eine Entwicklung Leon Theremins und wird, ebenso wie das Theremin, über Antennen, die hier wesentlich größer
sind, mit dem ganzen Körper kontrolliert. Durch Bewegungen einer Tänzerin auf
einer elektrisch isolierten Metallplatte am Boden wird die Frequenz des variablen
Oszillators eines Schwebungssummers nach dem gleichen Prinzip, wie beim Theremin,
gesteuert (vgl. [Mas36]).
(a) Das Terpsiton – ein There- (b) Das Konzerttrautonium von Oskar Sala (aus [Hil07])
min für Tanz (aus [Mas36])
Abbildung 3.3: Das Terpsiton und das Trautonium
27
3 Technologie und Musik
Elektrophon und Sphärophon Der Deutsche Lehrer Jörg Mager war fasziniert von
der Idee der Erweiterung des abendländischen Tonsystemes um Mikrointervalle, das
heißt Vierteltöne, nach dem Vorbild zum Beispiel der indischen oder arabischen Musik.
Im Jahre 1921 konstruierte er ein Instrument, was stufenlose Glissandi ermöglichte,
indem ein Griff auf einem halbkreisförmigen Bogen zwischen Markierungen bewegt
wurde. Die Funktionsweise glich prinzipiell der des Theremins.
Später entwickelte er das Elektrophon zum Omnitonium-Sphärophon weiter. Die
Steuerung wurde verbessert, indem durch zwei Kurbeln jeweils die Auswahl des
nächsten Tones möglich wurde, während der aktuelle gespielt wird. Hinzu kamen
zwei Pedale für die Lautstärkeregelung. Außerdem konnte die Klangfarbe durch
Filter und speziell geformte Lautsprecher beeinflusst werden. Die Vierteltonmusik
konnte sich nicht breiter durchsetzen. Mager baute das Instrument erneut um, so
dass fest abgestufte Tonhöhen durch Klaviaturen spielbar wurden. Das Klaviatursphärophon war mehrstimmig spielbar, drei Stimmen verfügten über eigene Manuale,
die aufgrund der geringen Größe gleichzeitig bedient werden konnten, dazu gab es
ein Pedal und einen Bauchschweller, der zur Dynamiksteuerung diente und durch
Vor- und Zurückbewegungen des Oberkörpers bedient werden konnte (vgl. [Rus98]
und [obs05b]).
Trautonium Friedrich Trautwein stellte das Trautonium 1930 der Öffentlichkeit vor
(siehe Abbildung 3.3(b)). Sein Ziel war die Konstruktion eines einfachen elektrischen
Musikinstrumentes. Das Trautonium wurde über einen Widerstandsdraht, der in
geringem Abstand über eine Metallschiene gespannt war, gespielt. Wird der Draht
auf die Metallschiene gedrückt, bestimmt die Position des Fingers die Frequenz des
erzeugten Tones. Als Klangquelle dient ein Sägezahnschwingungsgenerator. Auf dem
Manual ist zur Orientierung eine chromatische Skala aufgezeichnet, der Tonumfang
von dreieinhalb Oktaven lässt sich aber kontinuierlich spielen.
Verschiedene Komponisten schrieben Werke speziell für das Trautonium, unter anderem Paul Hindemith. Der bedeutendste Virtuose war Oskar Sala, er spielte das
Trautonium bis zu seinem Tod im Jahr 2002. Auf ihn gehen zudem verschiedene
Weiterentwicklungen und Variationen des Instrumentes zurück, wie das transportable
Konzerttrautonium oder das Mixturtrautonium, das die Erzeugung von Untertonreihen ermöglichte (vgl. [Hil07]).
28
3.2 Historische und aktuelle Instrumente
Modulare Synthesizer Besonders erwähnenswert sind die von Robert Moog entwickelten Synthesizer, sie fanden weite Verbreitung. Zunächst verkaufte Moog ThereminBausätze, bevor er 1967 selbst mit dem Bau spannungsgesteuerter modularer Synthesizersysteme begann. Es handelt sich dabei um analoge Instrumente, die kontinuierliche
elektrische Signale, zum Beispiel Sinus-Schwingungen, manipulieren, und verstärkt
über Lautsprecher ausgeben.
Für einen modularen Moog-Synthesizer existieren verschiedene Grundbausteine beziehungsweise Module, die frei kombiniert werden können, zum Beispiel Generatoren wie
Oszillatoren oder Rauschgeneratoren, Module zur Klangbeeinflussung, zum Beispiel
Filter, und Module zur Klangsteuerung, wie das Keyboard. In den Jahren 1968/1969
spielte der Musiker Walter Carlos Werke von Bach auf dem Album „Switched on
Bach“ mit dem Moog-Synthesizer ein und machte damit den Synthesizer der breiten
Öffetlichkeit bekannt. Erst durch diesen Erfolg wurden Moogs Instrumente auch in
der Rock- und Popmusik beliebt.
Die orgelähnliche Tastatur als Benutzerschnittstelle erwies sich als erfolgreichstes
Interface und wurde zum Standard für Synthesizer, obgleich beliebige Controller,
die bestimmte Vorgaben erfüllen, angeschlossen werden können. Moogs marktorientierte Philosophie im Instrumentenbau – die Nachahmung bekannter Klänge und
Instrumente – prägt die Entwicklung der elektronischen Musikinstrumente für viele
Jahre.
3.2.2 Klangaufzeichnung und Sampling
In den 1920er Jahren wird die Aufnahme von Klängen auf Magnetbänder möglich,
erste robuste Kassettenrecorder gibt es in den 1940er Jahren. Die Aufnahme, elektronische Manipulation und das Wiederabspielen von Klängen wurde damit möglich
(vgl. [BK04]). Diese Möglichkeiten werden auch für den Bau von Musikinstrumenten
ausgenutzt.
Mellotron Das Mellotron ist ein Vorläufer der modernen Sampler, also von Instrumenten, die natürliche, aufgezeichnete Klänge verarbeiten und abspielen können.
Das Instrument wurde von Anfang der 1960er bis Ende der 80er Jahre hergestellt
und hatte, obwohl aufgezeichnete Klänge echter Instrumente wiedergegeben wurden,
einen sehr charakteristischen Klang weshalb es sich großer Beliebtheit im Popmusikbereich erfreute. Unter jeder Taste befindet sich ein Magnetbandsegment mit einem
29
3 Technologie und Musik
aufgenommenen Klang in der entsprechenden Tonhöhe. Beim Drücken einer Taste
wird der Klang abgespielt. Beim Loslassen, kehrt der Tonkopf zur Startposition
zurück. Die Klangcharakteristik, also spezifische Ein- und Ausschwingvorgänge, eines längeren Tones kann beibehalten werden, da keine Bandschleife genutzt wird.
Dadurch ist die Tondauer allerdings begrenzt. Die Magnetbänder sind komplett als
Modul austauschbar, somit kann also die Klangfarbe des Instrumentes geändert
werden (vgl. [obs05a]).
Fairlight CMI Der Fairlight CMI ist das erste digitale Sampler-Instrument. Klänge
wurden nicht synthetisiert, sondern natürliche Klänge können aufgenommen, digitalisiert und resynthetisiert oder verarbeitet werden. Das Instrument kann die erzeugten
Samples dann in beliebigen Tonhöhen abspielen (vgl. [Rus98]).
3.2.3 Musik und Computer
3.2.3.1 Entwicklung
Beim Zusammentreffen von Musik und Computern entwickelten sich zwei verschiedene Ansätze. Frühe, wegweisende Arbeiten sind die von Lejaren Hiller, der den
Pfad der algorithmischen Komposition beschritt und damit die Möglichkeiten zur
Automatisierung der Musik erweiterte.
Auf der anderen Seite stehen die Entwicklungen von Max Mathews, der sich mit der
Nachbildung analoger Schaltungen mit Hilfe von Computern beschäftigte. Daraus
entwickelte sich die erste Software zur digitalen Synthese von Musik, die MUSIC-NProgramme Ende der 50er Jahre (vgl. [Rus98]). Diese Programme sind die Vorläufer
heutiger Musik-Programmiersprachen wie CSound, Max/MSP oder Pure Data. Eine
weitere richtungsweisende Entwicklung stellte Mathews mit der GROOVE-Software
vor. Bei diesem Performance-orientierten Programm steht die Interaktion mit LiveInput im Vordergrund. Klänge können während des Hörens beeinflusst werden.
Max Mathews sah früh das Potential des Computers als universelles Instrument.
Durch das Sampling-Theorem begründet, kann theoretisch jeder Klang, den das
menschliche Ohr wahrnehmen kann, aus der richtigen Kombination von digitalen
Samples kombiniert werden (vgl. [Sta07]).
Der Anfang der 1980er Jahre eingeführte MIDI-Standard war ein weiterer wichtiger
Meilenstein in der Entwicklung der Musikinstrumente und sorgte für die zunehmende
30
3.2 Historische und aktuelle Instrumente
Entkopplung von Benutzerschnittstelle und Instrument. MIDI ist eine standardisierte
Schnittstelle. Über ein einfaches serielles Kabel können verschiedenste Controller
angeschlossen und softwareseitig auf die Parameter der Klangerzeugung abgebildet
werden (vgl. [PO03]).
Durch die kostengünstige Verfügbarkeit von Computern mit hoher Leistung, können
heute komplexe Abbildungsfunktionen zwischen Controller und Synthesizer und
die direkte Klangerzeugung im Rechner in Echtzeit realisiert werden. Die verwendeten Controller können hochkomplex sein und den Anforderungen für virtuoses
ausdrucksstarkes Spielen genügen oder auch für die Umsetzung einfacher interaktiver
Klanginstallationen geeignet sein. Entsprechende Sensoren sind handelsüblich, mit
relativ einfachen Mitteln kann auf die gemessenen Daten per Computer zugegriffen
werden. Digitale Musikinstrumente in der typischen Zusammensetzung aus Controller und Standardrechner mit Echtzeit-Klangerzeugungssoftware bilden eine neue
leistungsstarke Kategorie von Musikinstrumenten (vgl. [PO03]).
3.2.3.2 Klangerzeugungsverfahren
Es existieren verschiedene Klangerzeugungsverfahren, die digital und rechnerintern
umgesetzt werden können. Die wichtigsten seien hier kurz erklärt.
Das gängigste Verfahren, das auch schon bei analogen Synthesizern Verwendung
findet, ist die subtraktive Synthese. Ein Oszillator erzeugt eine meist obertonreiche Grundschwingung meist eine Sägezahn-, Rechteck-, Dreiecks- oder auch Sinusschwingung. Aus dem erzeugten Klang werden mithilfe von Filtern bestimmte
Frequenzbereiche entfernt, also subtrahiert.
Bei der additiven Synthese werden keine Frequenzbestandteile ausgefiltert, sondern
der Klang wird aus einzelnen harmonischen Obertonschwingungen zusammengesetzt. Grundlage hierfür ist die Fouriersynthese, jeder Klang aus einer Summe von
Sinusschwingungen zusammensetzen. Sehr komplex und aufwändig, da viele Teiltöne,
jeder mit dynamischer Hüllkurve kontrolliert.
Die FM-Synthese war das Klangerzeugungsverfahren des ersten digitalen Synthesizers. Grundlage der Frequenzmodulation bilden zwei Oszillatoren. Die Frequenz
des ersten, des Trägers, wird durch den zweiten, den Modulator, gesteuert. Die
Modulation mit niedrigen Frequenzen ergibt ein Vibrato, höhere Frequenzen fügen
der Grundschwingung Obertöne hinzu.
31
3 Technologie und Musik
Die Wavetablesynthese ist mit relativ geringem Aufwand realisierbar. Zugrunde
liegt eine Audioaufzeichnung eines Klanges, eine Wellenform. Je nach Wiedergabegeschwindigkeit kann der Klang in verschiedenen Tonhöhen wiedergegeben werden.
Eine Zerlegung des Tones in Segmente macht die Variation der Länge des Klanges
möglich. Der unnatürliche Klang kann durch Verwendung mehrerer Samples für
verschiedene Tonhöhen verbessert werden. Bei sehr feiner Zerlegung der Klänge in
Segmente von unter 50 Millisekunden Dauer spricht man von Granularsynthese. Die
Variation der Tonhöhe kann hier durch eine Vervielfachung, sowie durch Kombination
und Schichtung der einzelnen Segmente bzw. Grains erreicht werden. Reichhaltige
Klangfarben und Effekte können mit diesem Verfahren erzeugt werden.
Ein Verfahren, dem die Beschreibung und Simulation der physikalischen Eigenschaften eines Instrumentes mit mathematischen Methoden zugrunde liegt, ist die
physikalische Modellierung. Hierbei wird im Gegensatz zu den anderen beschriebenen
Syntheseverfahren ein sehr realistisches Ergebnis erzielt, allerdings werden hohe
Anforderungen an die Rechenleistung gestellt (vgl. [Pie99, Seite 191 ff.]).
3.2.4 Digitale Musikinstrumente, interaktive Klanginstallationen
The Hands Bei The Hands (siehe Abbildung 3.4) handelt es sich um eine Entwicklung des STEIM, das Studio for Electro-Instrumental Music in Amsterdam.
Direkt mit dem Erscheinen von MIDI im Jahre 1984 entstand mit diesem Instrument einer der frühesten alternativen MIDI-Controller. Während die üblichen Orgeloder Klaviertastaturen hauptsächlich für melodische Musik konzipiert waren, boten The Hands einen Weg, das Potential der elektronischen Klänge auszuschöpfen
und elektronische Musik abseits traditioneller musikalischer Vorstellungen live zu
erzeugen.
Das Instrument besteht aus einer Vielzahl von Sensoren und Tasten, die an zwei
kleinen Keyboards direkt an den Händen des Musikers angebracht werden. Mithilfe
der Sensoren können die Bewegungen der einzelnen Finger, der Hände und des ganzen
Arms aufgenommen werden. Für die Übersetzung der Sensordaten in MIDI-Befehle
trägt der Musiker einen kleinen Computer auf dem Rücken. Die Mappings zwischen
Sensordaten und MIDI sind dabei je nach Musikstück und Musiker programmierbar
(vgl. [Wai06]).
32
3.2 Historische und aktuelle Instrumente
(a) Der 1984 entwickelte MIDI-Controller The Hands (aus
[Wai06])
(b) Michel Waisvisz spielt The Hands
(aus [Wai06])
Abbildung 3.4: The Hands
Laptops und Standardeingabegeräte als Musikinstrument Die Nutzung des Computers beziehungsweise Laptops als Musikinstrument ist eine gängige Aufführungspraxis seit den 1990er Jahren. In diesem Zusammenhang entstand auch der Ansatz,
Standardeingabegeräte für die Interaktion mit einem Musikinstrument zu nutzen
(vgl. [Ste05a]). Viele Geräte, wie Mäuse, Touchpads, Grafiktabletts oder Joysticks
arbeiten mit hoher Präzision und bieten zudem haptisches Feedback. Entscheidend
für die Nutzung zur ausdrucksstarken Musiksteuerung ist hier natürlich das Mapping
der Eingaben auf die Klangerzeugung.
Die Forschung im Rahmen des Princeton Laptop Orchestra PLOrk (vgl. [FWC07])
befasst sich mit der Fragestellung, inwieweit die nativen Input-Möglichkeiten des
Laptops für die Steuerung von Musik genutzt werden können. Folgende MappingStrategien werden vorgeschlagen: Die Tonhöhe kann über die Tastsatur gesteuert
werden. Fingerbewegungen auf dem Trackpad können im Sinne eines Bogens von
Streichinstrumenten interpretiert werden. Bewegungen verleihen der Klangerzeugung
„Energie“, schnelle Bewegungen erhöhen die Lautstärke, Bewegungen in verschiedene
Regionen des Trackpads verschieben die räumliche Position des Klanges. Eine innovative Idee ist die Nutzung des Sudden-Motion-Sensors, der in manchen Laptops
zum Schutz verbaut ist. Schläge auf das Laptop-Gehäuse können so erkannt und
der Computer als Perkussionsinstrument genutzt werden. Das eingebaute Mikrofon
eignet sich zum Erkennen von Atem, der Druck kann beispielsweise auf die Frequenz
eines Filters abgebildet werden. Beim Zusammenspiel mehrerer Laptops im Orchester
33
3 Technologie und Musik
können die Laptop-eigenen Lautsprecher benutzt werden und so gleichzeitig den
Klang lokalisieren.
Audio D-Touch und ReacTable
Audio D-Touch (siehe Abbildung 3.5(a)) ist ein
tischbasiertes Instrument mit Tangible User Interface. Ein interaktiver Bereich,
ein Blatt Papier, wird von einer Webcam, die auf eine Tischlampe montiert ist,
beobachtet. Das System wird durch Hinzufügen, Entfernen und Bewegen interaktiver
Objekte, kleiner Holzbausteine, gesteuert. Der Nutzer erhält Feedback zu seinen
Aktionen zum einen natürlich durch die erzeugten Klänge, aber auch durch die
Anordnung der Objekte auf dem Tisch. Es wurden drei verschiedene Instrumente
umgesetzt, eine Drum-Machine, ein Notenblatt und ein Sequenzer, bei denen die
Anordnung der Objekte jeweils unterschiedlich interpretiert wird. Das System lässt
sich zum Komponieren, zu Live-Improvisationen, zur musikalischen Ausbildung oder
zum Spielen nutzen.
Das Tracking der Objekte läuft mit Hilfe eins robusten Algorithmus zur Erkennung
von sogenannten Fiducials ab. Fiducials sind spezielle Schwarz-Weiß-Symbole, die
für den Computer leicht zu erkennen sind, dadurch ist das System relativ tolerant
gegenüber veränderlicher Beleuchtung oder Schatten und kann mit einer einfachen
Kamera betrieben werden. Objekte, die erkennbar und interaktiv sein sollen, müssen
mit einem solchen Fiducial markiert werden. Als Untergrund dient ein Blatt Papier,
dessen Ecken ebenfalls mit Fiducials markiert sind, so dass die Position der Objekte
relativ zum Blatt bestimmt werden kann. Die Informationen des Trackingsystems
dienen als Eingabe für die Klangsynthese, indem die Positionsinformationen der
Objekte auf Klangparameter oder musikalische Eigenschaften abgebildet werden
(vgl. [CSR03]).
(a) Audio D-Touch
(aus [CSR03])
(b) ReacTable (aus [Mus08a])
(c) Music Table (aus [BMHS03])
Abbildung 3.5: Die tischbasierten Musikinstrumente Audio D-Touch, ReacTable und Music Table
34
3.2 Historische und aktuelle Instrumente
Eine wesentlich komplexere Entwicklung, die aber prinzipiell ähnlich wie Audio
D-Touch funktioniert, ist der ReacTable (vgl. [JKGB05], siehe Abbildung 3.5(b)).
Der ReacTable besteht aus einem Tisch mit transparenter Oberfläche mit einer
darunter befestigten Kamera, über welche die Identität, Position und Ausrichtung
der auf der Oberfläche angeordneten physischen Objekte verfolgt werden. Gleichzeitig
wird von unten zusätzliches visuelles Feedback an die Tischoberfläche projiziert.
Durch das Hinzufügen, Entfernen, Drehen und Anordnen der Objekte lassen sich
Struktur und Klangparameter eines modular aufgebauten Synthesizers beeinflussen.
Auf diese Weise wird gleichzeitig ein Musikinstrument gespielt und dynamisch
konstruiert. Wie in den Audio-Programmiersprachen Max/MSP oder Pure Data
stehen Audio- und Kontrollobjekte sowie entsprechende Verbindungsmöglichkeiten
zur Verfügung, wobei die Funktionalität der Objekte zusätzlich visualisiert wird. So
wird zum Beispiel ein Low-Frequency-Oscillator-Objekt von einer mit der erzeugten
Frequenz blinkenden Animation umgeben sein, ein Kontrollfluss zwischen zwei
Objekten kann durch eine Linie und eine Animation, welche die Richtung und
Aktivität anzeigt, visualisiert werden.
Kollaboratives Musizieren ist hiermit möglich, indem zum Beispiel mehrere Teilnehmer einen ReacTable gemeinsam nutzen oder mehrere Instrumente über ein
Netzwerk kommunizieren. Zudem ist der ReacTable, durch verschiedene Konfigurationen, im Rahmen von interaktiven Installationen, sowie als vollwertiges Instrument
für professionelle Musiker einsetzbar (vgl. [KJGA06]).
Music Table Mit einem ähnlichen Konzept ermöglicht der Music Table die Komposition von musikalischen Strukturen durch das Anordnen von Karten auf einer
Tischoberfläche (siehe Abbildung 3.5(c)). Die Bewegungen und Positionen der Karten
werden vom Computer per Kamera beobachtet und in Form von musikalischem und
zusätzlichem visuellen Feedback auf einem Bildschirm verarbeitet. Dabei wird das
Live-Videobild mit computergenerierter Grafik angereichert.
Die Karten können auf den Tisch gelegt werden, wobei die Lage die Tonhöhe und
die Position eines Tones in der Looping-Zeitachse bestimmt. Mit Copy-Karten
können die erzeugten Muster in einer Phrasen-Karte gespeichert und anschließend
als Ganzes weiterverwendet werden. Mit einer Instrument-Karte kann anschließend
einer Phrase eine Klangfarbe zugewiesen werden (vgl. [BMHS03]). Auf diese Weise
35
3 Technologie und Musik
wird die Bearbeitung musikalischer Strukturen auf verschiedenen Detail-Ebenen
ermöglicht.
SpinCycle SpinCycle (siehe Abbildung 3.6(a)) ist ein Interface für musikalische
Performances, das auf die Farb-Ton-Modelle Bezug nimmt und sich an historische
Instrumente, wie Lichtorgeln, anlehnt, die in [Wei07] genauer beschrieben werden.
Eine weitere Inspiration hierfür war der Ansatz, einen Plattenspieler als Instrument
zu verwenden, um neue Arrangements existierender Musik aufzuführen (als einer der
ersten experimentierte John Cage damit, später wurde der Plattenspieler integrales
Element von Hip-Hop seit den 1970er Jahren).
Beim SpinCycle können visuelle Muster aus farbigen Objekten auf einer drehenden
Scheibe angeordnet werden, wobei ein Plattenspieler die Grundlage bildet. Mit einer
Firewire-Kamera werden die Objekte beobachtet und in Echtzeit in musikalische
Arrangements übersetzt. Softwareseitig können die zu trackenden Farben ausgewählt
und Klängen zugewiesen werden (vgl. [Kis06]).
(a) SpinCycle (aus [Kis06])
(b) MusicBottles
[IML01])
(aus
(c) The Sqeezables (aus [Gan01])
Abbildung 3.6: Die digitalen Musikinstrumente SpinCycle, MusicBottles und The Squeezables
MusicBottles MusicBottles (siehe Abbildung 3.6(b)) sind Glasflaschen, die ein
minimales Interface eines Musikinstrumentes bilden, sowohl als Behälter für die
Musik als auch zu ihrer Steuerung. Die Interaktion beruht auf den einfachen, unmissverständlichen Aktionen, die mit einer Flasche ausgeführt werden können. Sie
kann auf den Tisch gestellt und wieder entfernt, entkorkt und wieder verschlossen
werden.
Jede Flasche repräsentiert eine einzelne Stimme oder ein Instrument in einem Musikstück, das heißt diesem Interaktionsmodell liegen mehrere parallele Audioströme
36
3.3 Zusammenfassung
zugrunde. Die Manipulation an einer bestimmten Flasche wirkt sich also auf eine
bestimmte Audiospur aus. Die Flaschen sind mit verschiedenen Musikstilen gefüllt.
Auf Tischoberfläche wird von unten visuelle Feedback projiziert. Die Umgebung
einer Flasche leuchtet, wenn sie aktiv ist. Mit dem Entkorken einer Flasche beginnt
das Abspielen von Musik (vgl. [IML01]).
The Sqeezables The Sqeezables (siehe Abbildung 3.6(c)) ist ein Multi-PlayerMusikinstrument aus sechs Gelbällen, die an einem kleinen Tisch befestigt sind.
Jeder teilnehmende Musiker kann bestimmte musikalische Parameter mit jeweils
einem Ball pro Hand steuern.
Zwölf Input-Kanäle stehen zur Verfügung. Jeder der sechs Bälle kann gedrückt
oder gezogen werden. In ihrem Inneren enthalten die Bälle je einen Sensorblock
mit 5 Drucksensoren, deren Werte über ein spezielles Input-Board im MIDI-Format
zur weiteren Verarbeitung an einen Rechner geschickt werden. Die Ziehbewegung
wird über variable Widerstände, die unter dem Tisch angebracht sind, gemessen,
digitalisiert und via MIDI an den Rechner übertragen. Rechnerintern werden die
Daten von einem Max/MSP Patch weiterverarbeitet. Jeder Ball kontrolliert verschiedene musikalische Parameter auf verschiedenen Ebenen der Kontrolle. So gibt es
etwa einen Rhythmus-Ball, der für die Manipulation rhythmischer Variationen auf
der strukturellen Ebene zuständig ist und zum Beispiel einen Voice-Ball, der die
Filterparameter der mithilfe des Melodie-Balls gesteuerten Stimme kontrolliert, also
eher in Parameter des Einzeltones eingreift (vgl. [WG01]).
3.3 Zusammenfassung
Zu allen Zeiten nahmen aktuelle technische Entwicklungen auch immer Einfluss auf
den Bau von Musikinstrumenten, die ausgehend von der Musikerzeugung mithilfe
des menschlichen Körpers, einer immer weitergehenden Technisierung unterlagen.
Elektronische Musikinstrumente wurden seit Ende des 19. Jahrhunderts entwickelt
und verfügten teilweise über sehr interessante Ansätze bezüglich ihrer Controller.
Die Möglichkeiten, Klänge aufzuzeichnen sowie später unter Zuhilfenahme des Computers zu verarbeiten und zu erzeugen, bereitete den Weg für digitale Musikinstrumente
37
3 Technologie und Musik
und interaktive Klanginstallationen als neue leistungsstarke Klasse von Musikinstrumenten, mit der Freiheit beliebiger Kombinationen von Controllern und digitaler
Klangerzeugung.
38
4 Konzepte digitaler
Musikinstrumente
In diesem Kapitel werden verschiedene grundlegende Probleme beim Bau digitaler
Instrumente und interaktiver Klanginstallationen beleuchtet, wobei stets der Zusammenhang zu traditionellen akustischen Musikinstrumenten hergestellt werden
soll.
Abbildung 4.1: Interaktion zwischen Benutzer (Musiker oder Publikum) und einem Musikinstrument (oder einer interaktiven Installation)
In Abbildung 4.1 wird das Problemfeld zusammengefasst dargestellt. Ein oder
mehrere Musiker und möglicherweise ein Publikum sind an der Interaktion mit einem
Musikinstrument beteiligt. Verallgemeinert wird der Begriff Benutzer verwendet. Die
Benutzer haben verschiedene Eigenschaften. So können sie aktiv, also Musiker oder
Besucher einer interaktiven Klanginstallation, oder auch passiv, also Zuhörer und
Zuschauer, sein.
Die Nutzer verfügen über ein bestimmtes musikalisches Wissen – der professionelle
Musiker mehr, der Besucher einer interaktiven Installation weniger – und haben ein
Verhältnis zum Musikinstrument, da sie es zum Beispiel selbst hergestellt haben
oder einfach benutzen.
39
4 Konzepte digitaler Musikinstrumente
Bei der Gestaltung des Instrumentes, und insbesondere des Mappings zwischen den
motorischen Fähigkeiten des Benutzers und den Parametern der erzeugten Musik oder
Klänge, sind verschiedene Aspekte zu berücksichtigen: Im einzelnen soll betrachtet
werden, wie das Mapping den Charakter eines Instrumentes beeinflussen kann, in
welchem Detailgrad und welcher Form Musik durch ein Instrument kontrolliert
werden kann und wie ein Instrument vor diesem Hintergrund im Spektrum zwischen
Klanginstallation und Musikinstrument einzuordnen ist.
Das Musikinstrument kann neben Klängen zusätzliches Feedback ausgeben. Das kann
für die einzelnen Benutzer verschieden sein. Visuelles Feedback kann sich zum Beispiel
nur auf einem Laptop-Bildschirm, direkt vor den Augen des Musikers abspielen,
oder für alle Beteiligten sichtbar sein und die Aktionen des Musikers visualisieren
und verdeutlichen. Auch die Geste selbst kann eine visuelle Ergänzung zum Klang
bilden. Die Fragen, wie der Musiker Informationen über den aktuellen Zustand
des Instrumentes erhalten kann, und in welchem Maße körperliche Interaktion mit
dem Musikinstrument stattfinden kann, werden hier betrachtet. Der Charakter der
Interaktion zwischen Benutzer und Instrument – Tangible Interaction – wird in
Kapitel 5 (Seite 51) genauer analysiert.
4.1 Mapping
Musikinstrumente transformieren Aktionen in Klang. Entscheidend für den Charakter eines Musikinstrumentes ist das Mapping, die Abbildung von Controller auf
Klangerzeugungsparameter.
4.1.1 Determinismus
Verschiedene Arten von Mappings sind möglich, anhand derer lassen sich Kategorien
für digitale Musikinstrumente bilden. Als entscheidende Größe schlägt [BK04] Determinismus vor, das heißt, inwieweit der Musiker das Resultat der in das System
eingegebenen Aktionen voraussagen kann. Der gängigste Ansatz, wohl auch nach
dem Vorbild konventioneller akustischer Musikinstrumente, ist das individuell zu
spielende Instrument mit relativ deterministischer Abbildung von Aktion auf Klang.
Für die Entwicklung von Instrumenten, die über herkömmliche Kategorien hinausgehen, können auch andere Arten der Abbildung interessant sein. Die folgenden drei
Hauptkategorien können unterschieden werden (vgl. [BK04]):
40
4.1 Mapping
Deterministisches Mapping Es besteht ein direkter Einfluss der Eingaben des
Musikers auf die Klangerzeugung, analog zu traditionellen Instrumenten. Eine physische Aktion erzeugt einen Klang. Die Konstruktion solcher Instrumente kann sich
an die Prinzipien des traditionellen Instrumentenbaus und der Mensch-MaschineKommunikation anlehnen. Sowohl die Erweiterung konventioneller Musikinstrumente
um Sensoren oder Aktoren, als auch die Erzeugung völlig neuer Instrumente sind
Anwendungsgebiete dieser Art der Abbildung.
Sequencing: deterministisches Mapping und Zeit Hier handelt es sich um Interfaces, die die Manipulation von Klängen in einer zeitlichen Dimension erlauben, indem
sie editiert, geschnitten und zusammengesetzt werden. Der Determinismus reduziert
sich, da während des Editiervorgangs noch nicht völlig klar ist, wie das Ergebnis
klingen wird. Sequenzen werden zusammengestellt und verändert mit dem Ziel, sie
in der Zukunft aufzuführen. Technisch ist das meist verbunden mit der Erzeugung
von MIDI-Daten sowohl durch Einspielen als auch durch manuelles Editieren. Das
Mapping bleibt insofern deterministisch, als die Abbildung von einem Eingabewert
auf ein Klangereignis vorhersehbar ist.
Nicht deterministisches Mapping unter Beachtung musikalischer Normen Die
Eingabe des Musikers wird nicht deterministisch auf musikalische Parameter abgebildet, sondern unter der Beachtung musikalischer Regeln, die das System vorsieht,
verändert. Das System reguliert also die Eingabe des Musikers.
4.1.2 Nicht-lineare Mappings
Wie oben bereits erwähnt, ist das Mapping von Benutzeraktion auf die Klangerzeugung bei akustischen Instrumenten oft multidimensional und nicht linear. Zum
Beispiel führt bei manchen Blasinstrumenten stärkeres Blasen, das sogenannte Überblasen, nicht nur zu einer Dynamikänderung, sondern verursacht zusätzlich eine
Änderung der Tonhöhe. Ein ebenso nicht-lineares Verhalten ist das Feedback der
elektrischen Gitarre. Durch die relative Unvorhersehbarkeit solcher Effekte entsteht
ein zusätzlicher Freiheitsgrad für den musikalischen Ausdruck, der auch kontrolliert
und expressiv eingesetzt werden kann (vgl. [Jor04b]).
Diese Eigenschaften können auch bei der Gestaltung digitaler Instrumente berücksichtigt werden, indem die Abbildung auf eine bestimmte Weise zwischen Zufälligkeit und
41
4 Konzepte digitaler Musikinstrumente
Determinismus sowie zwischen linearem und nicht-linearem Verhalten ausbalanciert
wird.
4.2 Freiheiten und Einschränkungen
4.2.1 Dimensionen der Kontrolle
Wichtige Größen bei der Gestaltung digitaler Instrumente sind die Anzahl und
Verteilung der kontrollierbaren Dimensionen. Menschen können nur eine beschränkte
Anzahl von Dimensionen simultan kontrollieren. Ein Instrument, das zu viele Freiheitsgrade bietet, ist zu kompliziert, ein Instrument mit zu wenigen Freiheitsgraden
schränkt dagegen die Ausdrucksmöglichkeiten des Musikers ein (vgl. [Ste05a]).
Akustische Instrumente bieten eine extrem fein abgestufte Kontrolle über die Klangeigenschaften, insbesondere, wenn der Musiker mit dem schwingenden Element, zum
Beispiel der Saite, Luftsäule oder dem schwingendem Blättchen, in direktem Kontakt
steht. Im Gegensatz zu dem charakteristischen Timbre eines akustischen Instruments
können mit synthetischen Instrumenten unbegrenzte Klangfarben erzeugt werden,
meist sind die Möglichkeiten, den einzelnen Klang zu kontrollieren aber weitaus
weniger diffizil (vgl. [PO03]).
Die Kontrolle über das Instrument und die erzeugten Töne oder die gespielte Musik
kann auf verschiedenen Ebenen betrachtet werden. Das Makrolevel umfasst die
übergreifenden musikalischen Strukturen, zum Beispiel in Form von Noten, ist also
hauptsächlich kompositionsorientiert. Das Mikrolevel beschreibt die Klangcharakteristik der einzelnen Töne, ist also eher darbietungsorientiert (siehe Abbildung
4.2). Neue Benutzerschnittstellen können einen Mittelweg zwischen beiden Ebenen
finden, also in gewissem Maße sowohl die Komposition von Musik, die Manipulation
von Strukturen als auch feinere Kontrolle über die erzeugten Töne und Klänge
zulassen (vgl. [Jor01]). Ein Instrument muss demnach eine angemessene Anzahl und,
entsprechend der zu kontrollierenden Ebene der Musik, eine ausgewogene Verteilung
der Freiheitsgrade bieten.
Als Beispiel für die Verteilung der Freiheitsgrade auf verschiedenen Instrumenten
sollen die traditionellen Instrumente Violine und Klavier betrachtet werden. Bei
beiden Instrumenten wird die Klangerzeugung auf verschiedene Weise kontrolliert.
Die Violine bietet vier Freiheitsgrade: Bogengeschwindigkeit und -druck, Position
42
4.2 Freiheiten und Einschränkungen
Abbildung 4.2: Ebenen der Kontrolle eines Instrumentes über Musik
des Bogens und Position der Finger auf den Saiten. Es werden meist eine, maximal
drei Saiten zugleich gespielt. Grundsätzlich gibt es nur eine Melodielinie. Beim
Klavier hingegen werden mehrere simultane Töne angeschlagen, ein guter Pianist
kann vier Stimmen gleichzeitig spielen. Im Gegenzug bietet das Instrument aber
weniger Kontrolle über die Parameter des einzelnen Tones als die Violine. Zwei
Freiheitsgrade stehen für die Kontrolle der Saiten zur Verfügung: die Geschwindigkeit
des Tastenanschlages und das Betätigen des Dämpfers. Die dritte Dimension wird
durch die Pedale und die vierte durch die Auswahl der Taste bzw. Tonhöhe realisiert.
Eine einzelne Melodielinie auf dem Klavier zu spielen, ist also einfacher als auf der
Violine, dafür hat der Musiker aber weniger Kontrolle über die Bildung des einzelnen
Tones (vgl. [Ste05a]).
4.2.2 Einschränkungen
Akustische Instrumente müssen bestimmte physikalische Eigenschaften besitzen, um
zu klingen. Das bringt natürlich Einschränkungen, etwa hinsichtlich des Tonumfanges
oder der Klangfarbe mit sich. Bei der Gestaltung der äußeren Form akustischer
Instrumente stehen Intonationseigenschaften oder die Maximierung der Lautstärke
im Vordergrund (vgl. [MM07]).
Bei der Gestaltung digitaler Musikinstrumente und ihrer Controller fallen diese
Einschränkungen weg, da der Controller von der Klangerzeugung entkoppelt ist.
43
4 Konzepte digitaler Musikinstrumente
Einschränkungen oder Limitierungen werden aber von den meisten Musikern als
Quelle der Inspiration und Kreativität wahrgenommen und geschätzt. Hauptsächlich
Musiker, die neben digitalen auch akustische Instrumente spielen, wünschen sich
oft eingeschränktere und damit spezialisierte digitale Instrumente, die relativ leicht
erlernbar sind, aber sehr großes Potential für tieferes Erkunden und Entdecken
der Ausdrucksmöglichkeiten in sich tragen. Andere Musiker möchten sich von eben
diesen Limitierungen lösen und bevorzugen offene und freie Arbeitsumgebungen, zum
Beispiel Musik-Programmiersprachen wie SuperCollider, Pure Data, oder ChucK
(vgl. [MM07]).
4.3 Interaktive Klanginstallation vs. Musikinstrument
Benutzerschnittstellen für die Erzeugung musikalischen Outputs stehen oft im Spannungsfeld zwischen interaktiven Klanginstallationen, die zum Beispiel auf Bewegungen oder Gesten eines Publikums oder von Passanten reagieren können, und
vollwertigen Musikinstrumenten, die von ausgebildeten oder geübten Musikern gespielt werden (vgl. [Jor01]).
Darüber hinaus ist die strikte Trennung zwischen Publikum und Musikern, sowie
zwischen Komposition und Aufführung wie sie typisch für die Musik des westlichen
Kulturkreises ist, nicht generell kennzeichnend für Musik (vgl. [BK04]). Auch aus
diesem, ethnomusikalischen Blickwinkel vergrößert sich das Spektrum möglicher
Musikinstrumente.
4.3.1 Anforderungen
Die Anforderungen dieser Nutzergruppen an das Instrument oder die Installation sind
grundlegend verschieden und müssen bei der Entwicklung von Controllern beziehungsweise Benutzerschnittstellen berücksichtigt werden. Gute Musikinstrumente sollen
für subtiles virtuoses Spiel geeignet sein, auf der anderen Seite Anfänger oder Neulinge begeistern und zu weiterem explorativem Experimentieren mit dem Instrument
einladen (vgl. [Jor04a]). Will man spannende und attraktive Klanginstallationen
herstellen, gelten die genannten Anforderungen in ähnlicher Weise.
Diese, mehr oder weniger gegenläufigen, Ziele werfen die Frage nach Bedeutung der
Fähigkeiten und des musikalischen Wissens der Benutzer auf. Musiker wünschen
44
4.3 Interaktive Klanginstallation vs. Musikinstrument
sich komplizierte Werkzeuge, die ihnen große Freiheiten und damit reichhaltige
Ausdrucksmöglichkeiten bieten. Interaktive Installationen sollen einfache ansprechende Werkzeuge sein, mit denen ungeübte Nutzer ein zufriedenstellendes Ergebnis
hervorbringen können, während sie ein gewisses merkliches Maß an Kontrolle über
den Output haben. Bei der Gestaltung eines guten Instrumentes beziehungsweise
einer guten Installation soll versucht werden, die Ziele beider Gruppen zu vereinbaren. Ein in diesem Sinne „gutes“ Instrument würde also den Hobbymusiker nicht
überfordern und einem fortgeschrittenen Musiker die gewünschte Kontrolle bieten.
Es wäre einfach benutzbar sowie gleichzeitig ausgereift und ausdrucksstark. Es würde
den Einsteiger begeistern und dem Lernenden die Möglichkeit zu tieferem Entdecken
und immer weiterführender Kreativität bieten (vgl. [Jor01]). Eine solche Installation
würde ebenso zum Entdecken einladen und bliebe auch bei mehrmaligem Erleben
für den Benutzer interessant.
4.3.2 Diversität
Die Betrachtung des von Jordà (vgl. [Jor04b]) untersuchten Begriffes Diversität
kann einen guten Anhaltspunkt geben, wie ein Instrument im Kontinuum zwischen
Klangspielzeug und Musikinstrument zu positionieren ist. Dabei unterscheidet man
Makro-, Mikro- und Mittlere Diversität (siehe Abbildung 4.3).
Abbildung 4.3: Diversität eines Musikinstrumentes nach [Jor04b]
Die Makro-Diversität beschreibt die Flexibilität eines Instrumentes in verschiedenen
Kontexten, Rollen oder musikalischen Stilen. Beispielsweise bietet die Mundharmonika, die im Orchester, alleine und verschiedensten Stilen spielbar ist, eine hohe, der
Kontrabass, fast immer ein Begleitinstrument, eine eher geringe Makro-Diversität.
Ein Instrument kann auch je nach Einsatz mit hoher und geringer Makro-Diversität
45
4 Konzepte digitaler Musikinstrumente
ausgestattet sein, so zum Beispiel die Gitarre als Begleitinstrument mit hoher und
als Soloinstrument mit geringerer Makro-Diversität.
Anhand der Mittleren Diversität lässt sich einordnen, wie unterschiedlich zwei verschiedene Kompositionen mit ein und demselben Instrument gespielt werden können.
Für die Abgrenzung von Klanginstallationen zu Musikinstrumenten ist dies die essentielle Eigenschaft. Die meisten akustischen Instrumente haben eine hohe Mittlere
Diversität, viele, meist für Anfänger gedachte, digitale Instrumente, Klanginstallationen und auch Musikspielzeuge haben eine sehr geringe Mittlere Diversität. Mit ihnen
scheint es, als würde immer wieder das gleiche Stück gespielt werden. Natürlich
gibt es ebenso digitale Instrumente mit hoher Mittlerer Diversität. Sie kann zum
Beispiel auch durch verschiedene Setups, also unterschiedliche, wählbare Mappings
von Controller- auf Klangparameter gesteigert werden.
Die Mikro-Diversität ist ein Maß für die Verschiedenheit von zwei Darbietungen des
gleichen Musikstückes und damit eine Eigenschaft, die ein Instrument unterstützen
muss, wenn ein Musiker zum Virtuosen wird. Die Mikro-Diversität bezieht sich zum
einen auf die klanglichen Variationsmöglichkeiten eines Instruments, umfasst aber
auch strukturelle Eigenschaften, wie Tempo, Anzahl oder Dichte der Stimmen, die bei
der Aufführung eines Stückes variiert werden können. Für eine hohe Mikro-Diversität
darf eine Darbietung also nicht absolut identisch wiederholbar sein.
Ein attraktives Instrument sollte dem Musiker also Freiheiten im Bereich der Mittleren und Mikro-Diversität lassen und dadurch musikalischen Ausdruck und Improvisation ermöglichen. Ein solches Instrument bietet dem Musiker dementsprechend
ebenso die Freiheit, schlechte Musik zu erzeugen (vgl. [Jor04b]).
4.4 Interaktion
4.4.1 Körperliche Interaktion
Werden Computer bei musikalischen Aufführungen als Live-Instrument eingesetzt,
ist die körperliche Interaktion des Performers mit dem Instrument oft sehr limitiert.
Durch die eingeschränkten Gesten, die der Benutzer ausführen muss, wenn er einen
Computer auf die herkömmliche Weise mit Keyboard, Maus und Monitor bedient,
sind die Zusammenhänge zwischen den Aktionen des Musikers und der Antwort des
Instrumentes für das Publikum nur in geringem Maße nachvollziehbar. Der Körper
46
4.4 Interaktion
des Musikers hat jedoch viel mehr Möglichkeiten für die physische Interaktion mit
dem Computer bzw. dem Instrument, als nur die Bewegungen am Computer (vgl.
[Ste05a]).
Wesentlich für den Erfolg und die Qualität musikalischer Darbietungen ist das Verständnis des Publikums dafür, wie ein Instrument gespielt wird. Bei akustischen
Instrumenten kann der Zuschauer und -hörer die Aktionen, die am Instrument
ausgeführt werden und die entsprechenden akustischen Reaktionen anhand seines
mentalen Modells nachvollziehen. Bei komplexen Interfaces von elektronischen Instrumenten, im einfachsten Fall einer Laptop-Tastatur oder auch einem bioelektrischen
Sensor, ist es schon wesentlich schwieriger, zu erkennen, wie der Musiker die gehörten
Klänge erzeugt. Gleiches gilt natürlich für reaktive Klanginstallationen. Auch hier
soll der Zusammenhang zwischen der Aktion des Benutzers und der Reaktion des
Instrumentes explizit deutlich werden.
Gute Lösungen sind hier, den Fokus des Publikums auf zusätzliche Repräsentationen
der Musik zu lenken, also etwa visuelles Feedback oder bei der Gestaltung von
Controllern die Sichtbarkeit und Nachvollziehbarkeit der Gesten zu berücksichtigen.
4.4.2 Feedback des Instrumentes
Die Abbildung von Controller auf Klangerzeugung findet bei digitalen Musikinstrumenten oft nur in Richtung der Klangerzeugung statt. Eine bidirektionale Abbildung
kann jedoch hinsichtlich des Spielgefühls sehr sinnvoll sein. Denkbar sind haptische,
visuelle oder auditive Rückkopplungen (siehe Abbildung 4.4).
Abbildung 4.4: Feedback eines Musikinstrumentes
In erster Linie kann der Musiker anhand des Klanges die Auswirkungen seiner
Aktionen am Instrument beobachten, jedoch ist die mechanische Kopplung zwischen Musiker und Instrument bei vielen akustischen Instrumenten ein weiterer
47
4 Konzepte digitaler Musikinstrumente
Kommunikationskanal (vgl. [PO03]). So liefert bei Saiteninstrumenten zum Beispiel
die Resonanz des Korpus oder das sichtbare Schwingen der Saiten dem Musiker
sowie dem Publikum wichtige Informationen über den Zustand des Instrumentes und
die eben gespielten Töne (vgl. [Jor01]). Diese zusätzliche Eigenschaft kann durch
haptische Controller auf digitale Instrumente übertragen werden. Motoren, die von
entsprechender Software kontrolliert werden, können Kraftrückkopplungen (Force
Feedback) oder Vibration erzeugen. Abhängig von den Parametern der Klangsynthese
kann auf diese Weise ein angepasstes Spielgefühl simuliert werden (vgl. [PO03]).
Zudem kann neben der akustischen Ausgabe visuelles Feedback erzeugt werden.
Aufgrund der Trennung von Klangerzeugung und Controller und der digitalen
Verarbeitung lässt sich relativ einfach eine Kopplung herstellen (zur ästhetischen
Verbindung von Akustischem und Visuellem siehe [Wei07]). Die Musik und die
visuellen Darbietungen können vom gleichen Algorithmus gesteuert werden und
daher unmittelbar zusammenhängen, Visuals können hier also die Abwesenheit eines
physischen, greif- und sichtbaren Instrumentes ausgleichen. (vgl. [PO03])
4.4.3 Lernen und Virtuosität
Akustische Musikinstrumente stehen in langen Traditionen und die meisten sind
keinen Veränderungen oder Umgestaltungen mehr unterworfen. Übung gilt als kontinuierlicher Weg bis das Instrument beherrscht wird (vgl. [MM07]). Das Erlernen eines
Instrumentes bedeutet im traditionellen Sinne, dass eine immer komplexer werdende
Verbindung zwischen den eigenen Aktionen und der Reaktion des Instrumentes
hergestellt werden kann (vgl. [PO03]).
Diese Traditionen können aber auch der Experimentierfreude und Originalität bei
der Bedienung der Instrumente im Wege stehen. Elektronische Instrumente sind
unbelastet von musikalischen Traditionen. Sie bieten sich also eher an, um neue,
originelle Wege zu gehen. Elektronische Instrumente werden erst seit etwa einem
Jahrhundert entwickelt, digitale Instrumente seit wenigen Jahrzehnten. Durch die
starke Abhängigkeit von der rasanten technischen Weiterentwicklung haben sie
aber oft eine kurze Lebensdauer, laden also nicht zum Verweilen und Üben bis
zur Virtuosität ein (vgl. [MM07]), so dass es nur wenige Musiker gibt, die ein
elektronisches Instrument auf diese Weise beherrschen (vgl. [PO03]). Bei den digitalen
Instrumenten erfordert zudem jede einzelne mögliche Abbildung vom Controller
auf die Klangerzeugung ein neues Erlernen (vgl. [PO03]). Wesentlich üblicher ist
48
4.5 Multi-User-Musikinstrumente
daher die Aufführung und Steuerung von Live-Electronics und Laptop-Musik mittels
Standardcontrollern wie Maus oder Faderbox.
4.4.4 Verschmelzung von Instrumentenbau und Benutzung
Digitale Instrumente können für sehr spezielle Bedürfnisse angepasst oder eigens
erzeugt werden. Der Prozess des Instrumentendesigns geht meist Hand in Hand
mit dem Komponieren der Musik, wobei großes Gewicht auf der explorativen und
experimentellen Nutzung der Instrumente liegt. Akustische Instrumente haben eher
einen generellen Charakter, jedes Instrument wird für eine Vielzahl von Stilen
und einzelnen Musikstücken eingesetzt. Der Musiker muss, um ausdrucksstark und
virtuos zu spielen, die gegebenen Eigenschaften und Eigenheiten des Instrumentes
sehr gut kennen lernen. Darüber hinaus hat jedes einzelne akustische Instrument
einen einmaligen Charakter verbunden mit speziellen Eigenschaften (vgl. [MM07]).
Im Gegensatz zu akustischen Instrumenten haben die Rollen des Instrumentenbauers,
des Musikers und des Komponisten bei digitalen Instrumenten oft enge Überschneidungen oder werden gar von ein und derselben Person ausgefüllt. Ein digitales
Instrument kann für eine spezielle Komposition, oder wie eine Klanginstallation für
einen bestimmten Zweck, erzeugt worden sein. Es gibt natürlich auch Instrumente,
die einen eher generellen Charakter haben, etwa eine Software oder ein physischer
Controller, die auch von anderen Musikern eingesetzt werden (vgl. [MM07]).
4.5 Multi-User-Musikinstrumente
Ein Grundzug des Wesens der Musik ist das gemeinschaftliche Musizieren und die
musikalische Kommunikation zwischen den Musikern. Die meisten traditionellen und
akustischen Instrumente sind für das individuelle Spiel gestaltet. Das gemeinsame
Musizieren wird üblicherweise mit mehreren Instrumenten durchgeführt. Manche
Instrumente sind auch gemeinsam benutzbar, wie zum Beispiel das Klavier oder ein
Schlagzeug. Dabei beeinflussen sich die von den jeweiligen Teilnehmern erzeugten
Klänge aber nicht gegenseitig (vgl. [Jor05]).
Es gibt verschiedene Klassen von Multi-User-Musikinstrumenten, zum einen die
Netzmusik bzw. verteilte Instrumente und zum anderen Instrumente mit geteilter
kollektiver Steuerung. Sie erlauben eine feste oder variable Anzahl von Spielern,
49
4 Konzepte digitaler Musikinstrumente
wobei alle Musiker ein Instrument gemeinsam benutzen. Ihre Rollen können dabei
festgelegt oder flexibel sein. Sie können auch dynamisch getauscht oder simultan
eingenommen werden. Zwischen dem musikalischen Output der verschiedenen Nutzer
kann ein Zusammenhang und eine gegenseitige Beeinflussung gegeben sein. Der
Einfluss einzelner Rollen auf andere kann gleichberechtigt oder hierarchisch geregelt
werden (vgl. [Jor05]).
Als Beispiel aus der akustischen Welt soll das Klavier dienen. Die Tastatur kann
von mehreren Personen gemeinsam bedient werden, das Pedal von einer weiteren.
Zwischen den Manual- und den Pedalspielern besteht eine hierarchische Abhängigkeit. Werden die Saiten von einem weiteren Mitspieler dynamisch präpariert oder
gezupft ist dieser mit den Manualspielern gleichberechtigt, eine intensive musikalische
Kommunikation kann sich entwickeln. Ein weiteres Beispiel gibt die Orgel; Manual,
Register und Pumpe werden von drei verschiedenen Personen, die zueinander in
einem hierarchischen Verhältnis stehen, bedient.
Wenn Musikinstrumente auf Tangible Interaction basieren, also körperliche Aktion,
die physische Umgebung und reale Objekte Ort bzw. fester Bestandteil der Interaktion
sind, wird die Mehrbenutzerfähigkeit dadurch meist begünstigt (siehe Kapitel 5 sowie
die Beschreibung von ReacTable in Abschnitt 3.2.4).
4.6 Zusammenfassung
Entscheidend für den Charakter eines Instrumentes ist das Mapping zwischen Nutzeraktionen und Klangerzeugung. Ein Musikinstrument dient zum Kontrollieren
von Musik, dafür bietet es bestimmte Freiheiten – Dimensionen, die gleichzeitig
kontrolliert werden können – und hat verschiedene Einschränkungen.
Ob ein Musikinstrument als solches vollwertig spielbar ist oder eher als interaktive
Installation betrachtet werden kann, hängt von der Diversität ab. Der Begriff Diversität beinhaltet hilft, die Frage zu klären, inwieweit ein Instrument in verschiedenen
musikalischen Kontexten benutzt werden kann, wie verschieden die Darbietung unterschiedlicher Kompositionen ausfällt und wie verschieden die Aufführung der selben
Komposition sein kann.
Bei der Interaktion mit einem Instrument spielt sowohl die körperliche, gestische
Aktion des Benutzers eine Rolle, als auch über das akustische hinausgehende Antwort-
50
4.6 Zusammenfassung
kanäle des Musikinstrumentes. Zudem können Musikinstrumente unter bestimmten
Voraussetzungen von mehreren Personen gemeinsam gespielt werden.
51
5 Tangible Interaction und Tangible
User Interfaces
Musikinstrumente sind alle Geräte, die Aktionen in Klang transformieren. Bei digitalen Musikinstrumenten sind die beiden Subsysteme Controller und Klangerzeuger
weitestgehend entkoppelt. Diese Trennung impliziert die Möglichkeit, die Interaktion
mit dem Musikinstrument aus der virtuellen Realität des Rechners in die reale Welt
zu verlagern. Erst die körperliche Interaktion in realer Umgebung ermöglicht musikalisch ausdrucksvolles Spielen mit digitalen Instrumenten. Das gilt natürlich besonders,
wenn Musik in Echtzeit erzeugt werden soll und die Parameter des Controllers relativ
deterministisch auf die Parameter der Klangerzeugung abgebildet werden sollen.
Nach einführenden Definitionen soll in diesem Kapitel der Bogen von Tangible
User Interfaces zu Tangible Interaction gespannt und abschließend eine Taxonomie
für Tangible Interaction entwickelt werden. Dabei werden verschiedene Kriterien
vorgestellt, die für die Analyse und den Entwurf interaktiver Systeme, insbesondere
interaktiver Musikinstrumente, hilfreich sind und zeigen können, wie „tangible“ ein
Interaktionskonzept ist.
5.1 Tangible User Interfaces – greifbare
Benutzerschnittstellen
Tangible User Interfaces oder greifbare Benutzerschnittstellen, im folgenden auch als
TUI bzw. TUIs abgekürzt, werden von Blackwell et al. definiert als Benutzerschnittstellen,
die physische Objekte zur Repräsentation und Kontrolle rechnerinterner
Abstraktionen verwenden [BFH+ 07].
53
5 Tangible Interaction und Tangible User Interfaces
In einer der ersten Publikationen zum Thema definieren Ishii und Ullmer Tangible
User Interfaces ganz ähnlich als
Schnittstellen, die die reale, physische Welt erweitern, indem sie digitale
Information an alltägliche physische Objekte und Umgebungen binden
[IU97].
5.1.1 Motivation für Tangible User Interfaces
Die Entwicklung von greifbaren Benutzerschnittstellen bildet einen Trend innerhalb
des Fachgebietes der Mensch-Computer-Interaktion seit Mitte der 1990er Jahre und
ist eng mit den Konzepten Ubiquitous Computing und Augmented Reality verbunden
(vgl. [HSU04]). Triebkraft dieser neuen Strömung war die Unzufriedenheit mit den
herkömmlichen Computerschnittstellen und das Erkennen von bestehenden Defiziten.
Man sah die Gefahr einer zunehmenden Trennung des Menschen von seiner realen
Umwelt durch eine grafische Parallelwelt (vgl. [IU97]).
Ziel des TUI-Konzeptes ist die Integration von realer und virtueller Welt, wobei der
vertraute Umgang mit Gegenständen in der bekannten Umgebung die Grundlage für
den Umgang mit den neuen, digital erweiterten realen Objekten sein soll (vgl. [Hor07]).
Die Kommunikation zwischen Mensch und Computer wird also aus der Virtualität
des Bildschirms in die reale Welt, den natürlichen Interaktionsraum der Benutzer,
verlagert (vgl. [HSU04]). Ziel solcher Benutzerschnittstellen ist es, die Affordances,
die in der realen Umgebung natürlich gegeben sind, also Formeigenschaften, die einen
bestimmtes Handeln suggerieren, für eine nahtlosere Interaktion zwischen Mensch
und virtueller Welt auszunutzen (vgl. [IU97]). Statt in der Virtualität dupliziert, soll
die reale Welt selbst erweitert und bereichert werden (vgl. [Hor07]).
Physische Objekte, die dadurch erweitert sind, dass sie Informationen repräsentieren,
sind ein bereits aus der realen Welt bekanntes Konzept. Man denke an den Abakus,
Brettspiele mit Spielsteinen (vgl. [UI00]) oder auch Post-it-Notizen.
Der Begriff Tangible impliziert die Berührbarkeit und das Tasten sowie die das
Multisensorische als Teil der Interaktion (vgl. [Hor07]). Wahrnehmungskanäle, die
ansonsten in der Mensch-Computer-Interaktion wenig Beachtung finden, rücken in
den Vordergrund (vgl. [BFH+ 07]).
So betonen etwa Ishii und Ullmer (vgl. [IU97]) neben der Nutzung von interaktiven
Oberflächen, auf denen greifbare physische Objekte, die digitale Informationen
54
5.1 Tangible User Interfaces – greifbare Benutzerschnittstellen
repräsentieren, angeordnet werden, die Signifikanz von Umgebungsinformationen,
wie Klängen, Licht, oder auch Luftströmen und Wasserbewegungen. Diese wichtigen
Informationen bilden Hintergrundschnittstellen zwischen der virtuellen Welt und
der peripheren menschlichen Wahrnehmung. Informationen, aus der Wahrnehmung
zu gewinnen, die nicht im unmittelbaren Fokus der Aufmerksamkeit liegt, ist ein
ebenso alltägliches Konzept, so lassen sich beispielsweise aus dem Umgebungslicht
Informationen über das Wetter ableiten.
TUI-basierte Systeme sind also interaktive Systeme, deren Grundlage ein Computer
ist, die aber äußerlich nicht auf Anhieb als solcher zu erkennen sein müssen (vgl.
[UI00]). Obgleich Standardeingabegeräte wie Maus und Tastatur ebenfalls physischer
Natur sind, will das TUI-Konzept darüber hinausgehen und versucht die Kommunikation zwischen Mensch und Computer weiter zu fassen als die Interaktion mit
virtuellen Objekten wie Symbolen und Mauszeiger (vgl. [BFH+ 07]).
5.1.2 Elemente von Tangible User Interfaces
Tangible User Interfaces bestehen aus zwei Elementtypen: den physischen Objekten
und den aktiven Oberflächen, die die Interaktionsräume bilden, in denen die Objekte
benutzt werden können. Möglich ist eine weitere Differenzierung der physischen
Objekte in Container- und Werkzeugobjekte. Das heißt, die Objekte können entweder digitale Informationen repräsentieren oder mit Funktionen oder Operationen
verknüpft sein.
Die Kopplung zwischen Objekten und Informationen kann im Vorfeld festgelegt
werden, ein Objekt kann zum Beispiel immer für einen bestimmten Klang stehen.
Die Objekte können aber auch zur Laufzeit an Informationen gebunden werden,
also zum Beispiel beim Besetzen bestimmter aktiver Flächen mit entsprechenden
Klängen geladen werden.
Bei der Nutzung von TUIs kann die Anordnung der physischen Objekte untereinander
sowie zu den aktiven Flächen räumlich, relational oder konstruktiv interpretiert
werden. Im räumlichen Fall ist die Anordnung der physischen Objekte auf einer oder
mehreren aktiven Oberflächen von Interesse. Bei der relationalen Betrachtung sind
Orientierung der physischen Objekte und ihr Abstand untereinander die wichtigsten
Interface-Parameter. Und schließlich ist es möglich, konstruktives Zusammensetzen
modularer Elemente zum Gegenstand der Interaktion zu machen oder alle drei
Varianten zu kombinieren (vgl. [UI00]).
55
5 Tangible Interaction und Tangible User Interfaces
Betrachtet man die reale Welt als Schnittstelle, werden die Gestaltungsfragen zu
interdisziplinären Problemen. Informatik und klassische Designdisziplinen sowie
Anwendungsdomänen beschreiten ein neues Gebiet aus verschiedenen Richtungen.
Im Software- oder Informatikbereich werden TUIs als Einführung realer Objekte in
die sonst virtuelle Welt wahrgenommen. Aus der Perspektive des Produktdesigns
ist nicht die Greifbarkeit der Objekte eine Neuheit, sondern deren Erweiterung
um digitale Informationen und die erweiterten Interaktionsmöglichkeiten. Nicht
nur Form und Aussehen, sondern auch das Verhalten realer Objekte wird zum
Gestaltungsgegenstand (vgl. [Hor07]).
Gerade in der Musik sind Greifbarkeit und körperliche Interaktion überaus wichtige Bestandteile der Interaktion. Wird die Interaktion mit Computermusik in die
reale Welt verlagert, findet gleichzeitig eine Annäherung an die Traditionen des
Instrumentenbaus statt.
Das Überschreiten der traditionellen Grenzen der Informatik hat nicht zuletzt praktische Konsequenzen. Verlässlichkeit und Wiederholbarkeit beim Bau von Forschungsprototypen werden zu einer nicht unbedeutenden Schwierigkeit, denn die physische
Welt ist weit weniger perfekt und hält vollkommen andersartige Hindernisse bereit
als das virtuelle Gegenstück (vgl. [BFH+ 07]).
5.1.3 Alternative oder Erweiterung grafischer Benutzerschnittstellen
Anfänglich wurde der Begriff Tangible User Interface mit der Motivation gebildet, eine
Alternative zu grafischen Benutzerschnittstellen schaffen zu können. Dieser Anspruch
ist auch an der an Graphical User Interface bzw. GUI angelehnten Begriffsbildung
zu erkennen (vgl. [Hor07]). Von Ishii et al. (vgl. [IU97]) werden TUIs als dritte große
Umwälzung der Mensch-Computer-Interaktion nach dem, durch das Prinzip des
Erinnerns und Schreibens bestimmten, Kommandozeileninterface und den, durch
Sehen und Zeigen geprägten, GUIs verstanden. Sie haben das Potential, den Computer
aus dem Sichtfeld des Nutzers in den Hintergrund zu verbannen und dennoch umso
allgegenwärtiger werden zu lassen.
Gleichzeitig gibt es Mixed-Reality-Ansätze, die TUIs hauptsächlich als digitale Erweiterung von herkömmlichen Medien und Arbeitsobjekten sowie deren Ausstattung
mit Sensoren verstehen und ihre Gestaltung vermehrt den Anwendungsdisziplinen
annähern (vgl. [Hor07]). Hierbei ist klar, dass Tangible User Interfaces grafische
56
5.2 Erweiterung zu Tangible Interaction
Benutzerschnittstellen keinesfalls ersetzen können, aber in verschiedenen Bereichen
eine sinnvolle Erweiterung darstellen.
5.2 Erweiterung zu Tangible Interaction
Hornecker [Hor07] erkennt, dass der Begriff Tangible User Interfaces durch die
Abgrenzung gegen grafische Benutzerschnittstellen und Virtuelle Realität eine eingeschränkte Sichtweise bietet und schlägt die Betrachtung einer Gesamtentwicklung
aller Bereiche der Mensch-Computer-Interaktion vor.
Mit einem Perspektivwechsel von Tangible User Interfaces zum Begriff Tangible
Interaction (vgl. [Hor07]) kann das Verständnis des Begriffes erweitert werden und
interessante Strömungen, gerade im Bereich der musikalischen Benutzerschnittstellen
und digitalen Musikinstrumente, ebenfalls einschließen. Auf diese Weise können
auch Systeme wie interaktive Kunstinstallationen in die Betrachtung einfließen.
Solche Ansätze nutzen Körperbewegungen eines Performers bzw. des Publikums als
Bestandteil und interaktives Element des Kunstwerkes. Interaktive Umgebungen, in
denen das Kunstwerk stattfindet, kombinieren realen Raum und materielle Objekte
mit digitalen Projektionen und Sound. Der menschliche Körper selbst wird als
Eingabegerät verwendet. Tangible Interaction macht also nicht nur das Interface,
sondern die Interaktion selbst zum Gegenstand der Gestaltung und Analyse.
Tangible Interaction fasst die beschriebenen Sichtweisen zusammen mit den gemeinsamen Eigenschaften:
• Greifbarkeit und Materialität,
• Verkörperung von Daten,
• körperliche Interaktion und Körperbewegung als wesentlicher Teil der Interaktion und
• Einbettung im realen Raum.
Mit dieser Erweiterung des Begriffs geht der Anspruch, eine Alternative zu GUIs zu
finden, verloren. Reale Tangible User Interfaces bzw. Tangible Interaction Systeme
enthalten aber meistens sowohl grafische als auch greifbare Elemente. Das völlige
Ersetzen grafischer Schnittstellen ist ein unrealistisches Ziel, da deren Notwendigkeit
immer abhängig vom Anwendungsgebiet und der Komplexität des betreffenden
Systems ist.
57
5 Tangible Interaction und Tangible User Interfaces
5.2.1 Interaktionsmodell
Ullmer und Ishii (vgl. [UI00]) führen den Abakus als prototypisches Beispiel eines TUI
an und stellen fest, dass beim Abakus keine Unterscheidung zwischen Eingabe- und
Ausgabegerät gemacht wird. Diese Eigenschaft, die Integration von Repräsentation
und Kontrolle, kann als Kennzeichen von TUIs verallgemeinert werden, auch wenn
sie in der Realität in unterschiedlichem Maße stattfinden kann.
Abbildung 5.1: MVC-Interaktionsmodell nach [UI00]
Bei grafischen Benutzerschnittstellen wird klar zwischen Kontrolle, hergestellt durch
Standardeingabegeräte, und Repräsentation durch grafische Ausgabegeräte, wie Monitore, Head-Mounted Displays oder ähnliches, unterschieden. Unter Repräsentation
soll die Darstellung des Zustandes der Anwendung nach außen verstanden werden.
Um die Unterscheidung zu illustrieren, kann als Interaktionsmodell für eine grafische
Benutzerschnittstelle das Model-View-Controller-Schema herangezogen werden (siehe
Abbildung 5.1). Die Repräsentation entspricht hier der View-Komponente.
Für Tangible User Interfaces schlagen Ullmer und Ishii eine Modifikation dieses
Modells vor (siehe Abbildung 5.2), das MCRpd (Model-Controller-Representation
physical/digital) bzw. MCRit-Modell (intagible/tangible). Controller und physische
Repräsentation verschmelzen zu einer Einheit, die Repräsentations- bzw. ViewKomponente zerfällt in zwei Bestandteile, die physische und die digitale Repräsentation (vgl. [UI00]).
Greifbare physische Objekte dienen sowohl der Repräsentation als auch der Kontrolle
des Zustandes der Anwendung. Die physische Repräsentation, wie zum Beispiel die
räumliche Anordnung der greifbaren Objekte, ist an die darunter liegende digitale
58
5.2 Erweiterung zu Tangible Interaction
Abbildung 5.2: MCRpd-Interaktionsmodell für TUIs nach [UI00]
Welt, also an das Model, gekoppelt und wird in Verbindung mit digitalen Repräsentationen, wie Klängen oder Grafik, dargeboten. Der Zustand, also zum Beispiel
die Anordnung der aktiven physischen Objekte spiegelt zu einem großen Teil den
digitalen Zustand des Systems wider.
Geht die Betrachtung weg von den klassischen TUI-Systemen und schließt man die in
Abschnitt 5.2 genannten Systemeigenschaften von Tangible-Interaction-Systemen ein,
muss eine Abstufung der Einheit von Ein- und Ausgabegerät, also der Verkörperung,
vorgenommen werden, so dass die verschiedensten Ausprägungen solcher Systeme
betrachtet werden können. Im folgenden Abschnitt (5.2.2) soll versucht werden, die
Sichtweise zu lockern und damit für eine größere Bandbreite von Tangible-InteractionSystemen zu vereinheitlichen.
5.2.2 Eine Taxonomie für Tangible Interaction
Fishkin beschreibt den allgemeinen, charakteristischen Ablauf bei der Ausführung
eines Tangible-User-Interface-Systems (vgl. [Fis04]). In Verbindung mit den erweiterten Eigenschaften von Tangible Interaction (siehe Abschnitt 5.2, Seite 55) nach
Hornecker (vgl. [Hor07]) ergeben sich die folgenden Schritte:
1. Ein Eingabeereignis findet statt; das heißt, vom Benutzer werden physische
Aktionen an einem greifbaren, materiellen Gegenstand oder Körperbewegungen
in einem realen Raum ausgeführt. Im ersten Fall ist der Gegenstand das
Eingabegerät und wird durch das Computersystem beobachtet, im zweiten
Fall der menschliche Körper selbst.
59
5 Tangible Interaction und Tangible User Interfaces
2. Ein Computersystem erkennt dieses Eingabeereignis und ändert seinen Zustand,
aufgrund der Daten, die in einem Gegenstand oder durch den menschlichen
Körper direkt verkörpert werden.
3. Das System gibt eine Rückmeldung, das Ausgabeereignis manifestiert sich
durch eine physische Änderung an einem Objekt oder im realen Raum. Es kann
sich zum Beispiel um ein visuelles, auditives oder auch haptisches Feedback
handeln.
Darauf aufbauend wird ein zweidimensionales Schema mit den Achsen Verkörperung
und Metapher zur Charakterisierung und Analyse sowie als Entwurfshilfsmittel
für TUI-Systeme vorgeschlagen. Diesen beiden von Fishkin [Fis04] eingeführten
Dimensionen soll eine neue, dritte – die als Körper und Raum bezeichnet wird und
die Bedeutung der körperlichen Bewegung und der Einbettung in den realen Raum
für die Interaktion abbilden soll – hinzugefügt werden.
TUI- bzw. Tangible-Interaction-Systeme lassen sich aufgrund dieses, nun dreidimensionalen, Schemas nicht klar voneinander abgrenzen, jedoch bestimmen die Werte
der beiden Dimensionen, wie „tangible“ bzw. gegenständlich die Interaktion in einem
System abläuft und inwieweit die körperliche Komponente der Interaktion im Mittelpunkt steht. Sowohl Systeme, die auf traditioneller Mensch-Computer-Interaktion
basieren, klassische TUI-Systeme, als auch Systeme, die unter der erweiterten Bezeichnung Tangible Interaction charakterisiert werden, können in dieser Taxonomie
eingeordnet werden.
Verkörperung Im ersten Schritt des Ablaufes betrachtet und verändert der Nutzer
ein bestimmtes Objekt, oder seine eigene Position im Raum, im dritten Schritt wird
ihm das Ergebnis seiner Aktion übermittelt. Der Begriff Verkörperung beschreibt,
wie eng diese beiden Schritte verbunden sind, also inwieweit der Zustand des Systems
durch den Zustand eines physischen Objektes oder des Raumes repräsentiert wird.
Es werden vier Arten der Verkörperung unterschieden:
Vollständige Verkörperung: In diesem Fall ist das Eingabegerät identisch mit dem
Ausgabegerät. Nach einer physischen Veränderung an einem Gegenstand ist der
Effekt sofort sichtbar, die Stufe der Verkörperung entspricht der Interaktion in
der realen Welt.
Vollständige Verkörperung kann in der erweiterten Sichtweise der Tangible
Interaction zum Beispiel bedeuten, dass die Bewegung des Körpers die Erhö-
60
5.2 Erweiterung zu Tangible Interaction
hung der eigenen Körpertemperatur zur unmittelbaren Folge hat. Sind Objekte
Interaktionsgegenstand, entspricht diese Stufe zum Beispiel der Verformung
eines realen Objektes.
Verkörperung in der Nähe: Die Ausgabe findet in der direkten Nähe der Eingabe
statt, liegt also gleichzeitig im Fokus der Aufmerksamkeit. Es kann sich zum
Beispiel um eine visuelle Projektion in der unmittelbaren Umgebung des
physischen Objektes oder des menschlichen Akteurs handeln.
Verkörperung in der Umgebung: Die Ausgabe findet in der Umgebung des Benutzers statt. Das trifft im allgemeinen bei Klang, aber auch beispielsweise bei
Veränderungen des Umgebungslichtes oder der Raumtemperatur zu.
Entfernte Verkörperung: Die Ausgabe ist weiter entfernt und befindet sich nicht im
selben Fokus wie die Eingabe, also zum Beispiel auf einen anderen Bildschirm
oder in einem anderen Raum.
Metapher Die zweite Achse bildet den Begriff Metapher ab und beschreibt, inwieweit die Systemantwort auf eine Aktion des Nutzers analog zum Effekt einer
ähnlichen Handlung in der realen Welt ausfällt. Es wird unterschieden zwischen
Metaphern, die sich auf die Form eines Objektes beziehen und solchen, die sich auf
die Tätigkeit beziehen, die an einem Objekt ausgeführt wird.
Keine Metapher: Hier wird keine Metapher beansprucht. Diese Stufe entspricht dem
Kommandozeileninterface in der konventionellen Mensch-Maschine-Interaktion.
Die Geste des Schreibens auf der Tastatur steht in keinerlei Analogie zum
Effekt.
Form oder Tätigkeit: Bei der metaphorischen Analogie bezüglich Form gibt es einen
Zusammenhang zwischen Aussehen oder Form eines Objektes im System und
einem realen Objekt. Die Tätigkeiten, die mit oder an diesem Objekt ausgeführt
werden können, haben aber keine oder nur geringe Gemeinsamkeiten mit dem
realen Gegenstück.
Bei der Analogie bezüglich der Tätigkeit steht die Aktion, die sowohl am Systemobjekt als auch am realen Objekt ausgeführt werden kann, im Vordergrund,
wobei die Form des betreffenden Objektes unerheblich ist.
Form und Tätigkeit: Hier sind Form und Tätigkeit verbunden, die Systemobjekte
sind aber nach wie vor von den realen verschieden. Wird an einem Objekt im
61
5 Tangible Interaction und Tangible User Interfaces
System eine bestimmte Aktion ausgeführt, ist dies analog zu derselben Aktion
an einem ähnlichen Objekt in der Realität.
Vollständige Metapher: Bei dieser Form der Analogie muss der Nutzer keine Metapher bemühen, denn das virtuelle System ist mit dem realen System identisch.
Für den speziellen Fall der Tangible Interaction, dass Körperbewegungen direkt als
Eingabeereignisse interpretiert werden, bedeutet Metapher der Form, dass dem realen
menschlichen Körper ein virtueller menschlicher Körper gegenübersteht. Metapher
der Tätigkeit hieße, dass die Tätigkeit, die der menschlichen Körper ausführt, an
einem virtuellen Systemobjekt ausgeführt wird.
Körper und Raum Der gesamte, oben beschriebene Ablauf ist durch körperliche
Interaktion gekennzeichnet, deren Bedeutung jedoch variieren kann. Zum Beispiel
ist die körperliche Interaktion beim Schreiben auf der Tastatur oder der Interaktion
mithilfe einer Maus eher unwichtig. Bei einem TUI-System wie Audio D-Touch
(siehe Kapitel 3.2.4, Seite 32) werden physische Objekte bewegt, die Bedeutung
der körperlichen Interaktion ist höher. Eine hohe Bedeutung hat die körperliche
Interaktion zum Beispiel bei interaktiven Klanginstallationen, die auf Bewegungen
des Publikums reagieren. Körperliche Interaktion ist hier das direkte Eingabeereignis.
Eng damit verbunden ist die Einbettung der Interaktion in den realen Raum, die
natürlich umso wichtiger wird, je mehr der Körper und die Körperbewegung Teil
der Interaktion mit dem System sind. Es sollen also drei Bedeutungsabstufungen
unterschieden werden:
Geringe Bedeutung: Realer Raum und körperliche Interaktion stehen nicht im Vordergrund, der Fokus der Interaktion spielt sich im virtuellen Bereich ab.
Mittlere Bedeutung: Die körperliche Interaktion findet mit realen Objekten statt,
die mit digitaler Information gekoppelt sind. Die Einbettung der Aktionen in
die reale Umgebung nimmt an Bedeutung zu.
Hohe Bedeutung: Der Körper und seine Bewegungen im realen Raum stehen selbst
im Mittelpunkt der Interaktion.
62
5.3 Tangible Interaction und digitale Musikinstrumente
5.3 Tangible Interaction und digitale Musikinstrumente
Um die Anwendung der Tangible Interaction Konzepte im Bereich digitaler Musikinstrumente zu verdeutlichen, sollen einige einfache Beispielinstrumente (Abbildungen
5.3, 5.4, 5.5, 5.6, 5.7 und 5.8) betrachtet werden. Jeweils links befindet sich der
Controller des Instrumentes, der blaue Pfeil verdeutlicht das Mapping von den Sensorwerten des Controllers auf Parameter der Klangerzeugung. Ganz rechts ist jeweils das
akustische Ergebnis dargestellt. Grüne Pfeile zeigen zusätzliches, nicht-akustisches
Feedback des Instrumentes an.
Die Beispiele sollen nun im Hinblick auf die drei Dimensionen der in Abschnitt 5.2.2
entwickelten Taxonomie untersucht werden. Dabei muss betrachtet werden, welche
Aktionen der Benutzer an welchem Objekt ausführt und welches Ergebnis dadurch
im System erzielt wird. Das kann Auskunft geben, inwieweit Tangible Interaction zur
Qualität eines Musikinstrumentes oder einer interaktiven Klanginstallation beitragen
kann bzw. welche Eigenschaften von Tangible Interaction für bestimmte Typen von
Musikinstrumenten geeignet sind.
Für Musikinstrumente und Klanginstallationen gilt allgemein, dass die Verkörperung
des akustischen Outputs in der Umgebung stattfindet. Möglich ist ebenfalls die entfernte Verkörperung, wenn die Musik nicht in Hörweite des Benutzers bzw. Musikers
erzeugt wird. Die Verkörperung in Objektnähe oder die vollständige Verkörperung
kommt nur für zusätzlich erzeugtes visuelles oder haptisches Feedback in Frage.
Bei den Merkmalen Metapher sowie Körper und Raum ist die gesamte Bandbreite
möglicher Ausprägungen anzutreffen.
Abbildung 5.3: Beispielinstrument A
Das Instrument A in Abbildung 5.3 arbeitet mit einer einfachen grafischen Benutzeroberfläche. Klickt man auf den Button mit der Aufschrift „Hit“, wird ein Drum-Sample
abgespielt. Die Verkörperung des Systemzustandes findet hier, durch den Klang, in
63
5 Tangible Interaction und Tangible User Interfaces
der Umgebung statt. Beim Klicken verändert sich der Button auf dem Bildschirm,
hierbei handelt es sich um eine entfernte Verkörperung, die visuelle Rückmeldung
findet auf dem Bildschirm außerhalb des Fokus des physischen Eingabegerätes, der
Maus, statt. Eine Metapher im Sinne der Taxonomie wird nicht genutzt, denn das
Klicken auf einen Button steht in keiner Analogie zum Spielen einer Trommel. Die
Einbettung in den realen Raum und die körperliche Bewegung spielen hier für die
Interaktion fast keine Rolle.
Abbildung 5.4: Beispielinstrument B
Das in Abbildung 5.4 dargestellte Instrument B misst die Aktivität (Durchgänge an
bestimmten Messpunkten pro Zeit), die ein Benutzer beim Umherlaufen auf einer
interaktiven Fläche verursacht. Abhängig von dieser Messgöße wird eine Schlagzeugsequenz abgespielt. Bei diesem Aufbau ist die Verkörperung ebenfalls in der
Umgebung, als Klang, zu finden und es wird keine Metapher genutzt, denn vom
Umherlaufen zum Trommeln ist keine metaphorische Übertragung möglich. Dieses
System ist allerdings durch eine sehr hohe Bedeutung der körperlichen Interaktion
und des Raumes geprägt.
Abbildung 5.5: Beispielinstrument C
Die Grundlage des Instrumentes C in Abbildung 5.5 ist ein Gerät, dass wie eine Trommel oder ein Drumpad aussieht, dessen Oberfläche aber mit einem Temperatursensor
versehen ist. Legt der Benutzer zum Beispiel die Hand auf, werden abhängig von
der Temperatur verschiedene Schlagzeugsequenzen gespielt. Zudem gibt es visuelles
64
5.3 Tangible Interaction und digitale Musikinstrumente
Feedback, das Drumpad wird von unten beleuchtet, je höher die Temperatur ist,
desto heller leuchtet die Lampe. Hier verkörpert sich der Systemzustand sowohl durch
Klang in der Umgebung, als auch, durch die reaktive Beleuchtung des Drumpads von
unten, in unmittelbarer Nähe der Eingabe. Die Metapher bezieht sich hier lediglich
auf die Form, das heißt der Controller sieht aus wie eine Trommel, wird aber völlig
anders benutzt. Die Bedeutung von körperlicher Bewegung und realem Raum für die
Interaktion liegt hier, wie auch im Fall der folgenden Beispielinstrumente, eher im
mittleren Bereich.
Abbildung 5.6: Beispielinstrument D
Für die Kontrolle des Instrumentes D in Abbildung 5.6 werden mit Beschleunigungssensoren präparierte Drumsticks benutzt. Man kann mit ihnen Trommelbewegungen
in der Luft oder auf jeder beliebigen Oberfläche ausführen. Abruptes Stoppen der Bewegung, wird wie bei einer realen Trommel als Schlag interpretiert. Dieses Instrument
verfügt über eine haptische Rückkopplung, ein erkannter Schlag wird durch Vibration
des jeweiligen Sticks quittiert. Bei diesem Instrument findet die Verkörperung in
der Umgebung und außerdem, durch das haptische Feedback, vollständig statt. Die
Drumsticks sind gleichzeitig Ein- und Ausgabegeräte.
Abbildung 5.7: Beispielinstrument E
Das in Abbildung 5.7 gezeigte Instrument E benutzt ein Drumpad, also im einfachsten
Fall eine Kunststoffplatte mit darunter liegendem Sensor, der Schläge erkennt,
als Controller. Wenn man auf das Drumpad schlägt, ertönt ein Drumsound. Die
Verkörperung entsteht durch den Klang in der Umgebung, es wird eine Metapher
65
5 Tangible Interaction und Tangible User Interfaces
der Form und Tätigkeit genutzt, das heißt, Trommeln auf dem Drumpad ist wie
Trommeln auf einer echten Trommel.
Abbildung 5.8: Beispielinstrument F
Bei Instrument F in Abbildung 5.8 wird eine echte Trommel als Controller benutzt.
Sie wird mit zusätzlichen Sensoren ausgestattet, die Schläge erkennen. Neben dem
natürlichen Klang der Trommel hört man ein synthetisches Geräusch, das von der
Stärke des Schlages abhängt. Auch hier wird der Systemzustand wieder in der
Umgebung verkörpert, es handelt sich jedoch um eine vollständige Metapher, das
reale System, die Trommel, wird hier tatsächlich genutzt, der produzierte Klang nur
mit zusätzlichem akustischen Output angereichert.
In Abbildung 5.9 wird das dreidimensionale Taxonomie-Schema (siehe Abschnitt
5.2.2) dargestellt. Die Intreraktionskonzepte der in den Abbildungen 5.3 bis 5.8
dargestellten beispielhaften digitalen Musikinstrumente A, B, C, D, E und F sollen
nun zur Veranschaulichung im grafischen Schema eingeordnet werden.
5.4 Zusammenfassung
In diesem Kapitel wurden Tangible User Interfaces – greifbare Benutzerschnittstellen – und Tangible Interaction – vergegenständlichte Interaktion – definiert. Wenn
physische Objekte zur Repräsentation und Kontrolle rechnerinterner Abstraktionen verwendet werden, bezeichnet man solche Benutzerschnittstellen als Tangible
User Interfaces. Erweitert man den Blickwinkel, indem man weniger die Benutzerschnittstelle sondern die vergegenständlichte Interaktion mit einem System in den
Mittelpunkt stellt, spricht man von Tangible Interaction.
Für die Gestaltung von digitalen Musikinstrumenten und interaktiven Installationen
ist Tangible Interaction ein wertvolles Konzept. Durch die Entkopplung von Controller
und Klangerzeugung kann der Controller bzw. die Interaktion mit dem Instrument
aus der Virtualität in die Realität verlagert werden.
66
5.4 Zusammenfassung
Abbildung 5.9: Taxonomie zur Einordnung von Tangible Interaction Systemen mit den drei
Dimensionen Verkörperung, Metapher und Körper und Raum
Verschiedene in Kapitel 4 beschriebene Gestaltungsüberlegungen für Musikinstrumente und Klanginstallationen profitieren von den grundlegenden Eigenschaften
von Tangible Interaction: Körperliche Interaktion, Greifbarkeit, Materialität und
Einbettung in den realen Raum sowie Verkörperung von Daten.
So können die Freiheitsgrade zur Steuerung von musikalischen Eigenschaften erweitert werden, die Nachvollziehbarkeit der Interaktion kann durch Feedback des
Instrumentes zusätzlich zur akustischen Ausgabe verbessert werden. Exploratives
Benutzen wird auch für ungeübte Nutzer möglich. Die Mehrbenutzerfähigkeit ergibt
sich automatisch durch die Verlagerung der Interaktion in die reale Umgebung.
67
6 Das KlangHolz – ein digitales
Musikinstrument
Das KlangHolz ist ein digitales Musikinstrument, das im Rahmen dieser Arbeit
entwickelt wurde.
Ausgangspunkt des KlangHolzes ist ein Controller mit einer einfachen greifbaren
Benutzerschnittstelle (Tangible User Interface). Die aktive Oberfläche besteht aus
einem Holzbrett mit eingelassenen Vertiefungen, insgesamt 17, wobei 16 in einer
4 mal 4 Matrix angeordnet sind. Eine weitere befindet sich als Einzelloch außerhalb der Matrix. Auf diesen Vertiefungen können die physischen Objekte, kleine
Glaskugeln, angeordnet werden. Außerdem können die Vertiefungen durch Handbewegungen abgedeckt werden. Es gibt zwei Typen von Glaskugeln mit unterschiedlicher
Lichtdurchlässigkeit. Der Lichteinfall in den einzelnen Vertiefungen des Bretts wird
gemessen, die Werte werden digitalisiert und im Rechner verarbeitet (zur technischen
Umsetzung siehe auch Abschnitt 6.3, Seite 86).
Eine Inspiration für die äußere Gestaltung des Instrumentes war die Installation
Sound Marbles von Yoon Chung Han (vgl. [Han08]). Hier werden ebenfalls Kugeln
auf einem Brett platziert. Auch weitere, in Abschnitt 3.2.4 (Seite 30 ff.) vorgestellte,
tischbasierte Instrumente, wie Audio D-Touch oder ReacTable basieren auf dem
Konzept, physische Objekte auf einer Oberfläche anzuordnen, wobei virtuelle Daten
in der realen Welt repräsentiert werden.
Die Leistung der vorliegenden Arbeit besteht unter anderem in der Entwicklung eines
eigenständigen Interaktionskonzeptes. Das Potential für musikalische Ausdrucksfähigkeit, das eine solche Anordnung bietet, soll in diesem Rahmen untersucht und
ausgelotet werden. Dazu wird das entwickelte Interaktionskonzept in verschiedenen
Mappings programmiertechnisch umgesetzt. Das hier entworfene KlangHolz zeichnet
sich in seinem Design vor allem durch erweiterte Dimensionen der Kontrolle aus,
69
6 Das KlangHolz – ein digitales Musikinstrument
unter anderem die Möglichkeit, verschiedene physische Objekte mithilfe von Sensoren
identifizieren zu können.
Damit das KlangHolz zu einem Musikinstrument wird, muss dem Controller eine
Klangerzeugungs-Komponente hinzugefügt werden. In diesem Zusammenhang soll
der Frage nachgegangen werden, wie die genannten Messwerte auf die Erzeugung
von Klängen übertragen werden können, denn, wie in Abschnitt 2.1.3 beschrieben,
ist es möglich, diese Daten des Controllers auf beliebige Parameter verschiedener
Algorithmen zur Klangerzeugung abzubilden. Entscheidend ist das Mapping zwischen
beiden Teilen.
Zu diesem Zweck soll zunächst ein Interaktionskonzept für das KlangHolz entwickelt werden. Dabei wird untersucht, wie mithilfe des beschriebenen Controllers
die Parameter und die Struktur von Musik beeinflusst werden können und welche
virtuellen Daten mit den physischen Objekten verknüpft werden sollen, das heißt,
welche Klangerzeugungs-Parameter durch die Glaskugeln und die Holzoberfläche
repräsentiert werden können.
Im Anschluss werden Werkzeuge zur Konstruktion digitaler Musikinstrumente, die
auf Konzepten der Tangible Interaction basieren, vorgestellt. Daten müssen, nach
der Erfassung in der realen Welt, digitalisiert und verarbeitet werden. Akustisches,
und unter Umständen auch nicht-akustisches, Feedback muss generiert werden. Die
geeigneten Werkzeuge für diese Aufgaben werden vorgestellt und untersucht.
Abschließend wird die technische Realisierung des KlangHolz-Instrumentes, mithilfe
einer Auswahl der zuvor beschriebenen Technologien, erläutert.
6.1 Entwicklung eines Interaktionskonzeptes
Bei der Konstruktion eines digitalen Musikinstrumentes ist es möglich, die Steuerung
von computergenerierter Musik aus der virtuellen Welt in die Realität zu verlagern.
Dabei werden an reale Gegenstände digitale Informationen gebunden. Es entsteht
eine greifbare Benutzerschnittstelle, ein Tangible User Interface. Die Interaktion
mit einem solchen System basiert auf den Prinzipien der Tangible Interaction,
wie in Kapitel 5 beschrieben. Beim KlangHolz handelt es sich um ein TangibleUser-Interface-System im engeren Sinne mit den folgenden typischen Bestandteilen:
Physische Objekte und eine aktive Oberfläche. Durch die Anordnung der physischen
Objekte, also der Glaskugeln, auf dem Holzbrett, ist der Zustand des Systems –
70
6.1 Entwicklung eines Interaktionskonzeptes
neben der akustischen Ausgabe – direkt am Eingabegerät sichtbar. Repräsentation
und Kontrolle des Systemzustandes sind somit teilweise integriert.
Das KlangHolz erfüllt somit auch die grundlegenden Eigenschaften von Tangible-Interaction-Systemen (siehe Abschnitt 5.2, Seite 55). Das System besteht aus einem
Holzbrett und Glaskugeln, beruht also auf Greifbarkeit und Materialität seiner
Bestandteile. Je nach konkretem Mapping-Konzept werden bestimmte Daten – Parameter von Klängen, Musik oder musikalischer Struktur – in den physischen Objekten
oder in der aktiven Oberfläche verkörpert. Körperliche Interaktion und Körperbewegung – Handbewegungen und das Bewegen der physischen Objekte, also der
Glaskugeln – machen die Interaktion aus. Nicht zuletzt ist das System in den realen
Raum eingebettet.
Bei der Entwicklung eines Interaktionskonzepts geht es nun darum, welche Daten
von den physischen Objekten und aktiven Oberflächen repräsentiert werden, wie
die physischen Objekte verwendet werden und ihre Anordnung interpretiert wird,
außerdem welche körperlichen Aktionen Bestandteil der Interaktion mit dem System
sind. Als Vorbild werden akustische Musikinstrumente betrachtet, wobei ebenfalls
ein Blick auf elektronische und digitale Instrumente und entsprechende Controller
geworfen werden soll. Grundlage dieser Überlegungen sind die Erkenntnisse aus
Kapitel 4 sowie die allgemeinen und strukturellen Eigenschaften von Musik und
Klängen, wie sie in Abschnitt 2.2 auf Seite 15 beschrieben und in Abbildung 2.4
zusammengefasst dargestellt wurden.
6.1.1 Dimensionen der Kontrolle
Zur Interaktion mit dem KlangHolz stehen verschiedene Dimensionen der Kontrolle
zur Verfügung:
• Der Objekttyp, eine helle oder dunkle Glaskugel, kann ausgewählt werden,
• Objekte können auf den Löchern der aktiven Oberfläche hinzugefügt oder
entfernt werden, die Löcher können ebenfalls mit der Hand abgedeckt werden,
• das Einzelloch kann in bestimmtem Maße mit der Hand abgedeckt oder geöffnet
werden oder auch mit einer Kugel besetzt werden.
Im Weiteren muss geklärt werden, wie diese Kontrolldimensionen auf Parameter der
Klangerzeugung verteilt werden können.
71
6 Das KlangHolz – ein digitales Musikinstrument
6.1.2 Beeinflussung der musikalischen Struktur
Grundsätzlich ist es möglich, mit dem KlangHolz verschiedene Varianten zur Steuerung der musikalischen Struktur umzusetzen. Die beiden Möglichkeiten zur Erzeugung
und Steuerung musikalischer Struktur wurden bereits in Abschnitt 2.2 beschriebenen:
• Die „vertikale“, zeitliche Anordnung akustischer Ereignisse, also einzelner Töne
und Klänge oder größerer Sequenzen,
• die „horizontale“ Anordnung paralleler Stimmen.
Auslösen und Anordnen akustischer Ereignisse Für die „vertikale“ Struktur der
Musik gibt es zwei Möglichkeiten.
1. Akustische Ereignisse können durch direktes Auslösen zu einem bestimmten
Zeitpunkt gesteuert werden. Das heißt eine Aktion hat das akustische Ereignis
zur unmittelbaren Folge.
2. Außerdem ist es möglich, nach dem Vorbild einer Notenrolle1 , die akustischen
Ereignisse im Vorhinein anzuordnen und während der Wiedergabe Veränderungen an der Anordnung vorzunehmen.
Für das KlangHolz bedeutet das:
1. Ein akustisches Ereignis kann ausgelöst werden, indem eine Kugel an eine
bestimmte Position gesetzt wird (siehe Abbildung 6.1(a)) und gestoppt werden,
indem die Kugel wieder entfernt wird. Alternativ kann eine Handbewegung
über einem Loch einen Klang auslösen oder stoppen.
2. Das Prinzip der Anordnung von akustischen Objekten im Vorhinein kann umgesetzt werden, indem die physischen Objekte, also Kugeln, akustische Ereignisse
repräsentieren und auf der aktiven Oberfläche angeordnet werden (siehe Abbildung 6.1(b)). Die aktive Oberfläche steht in diesem Fall für einen Zeitablauf,
so dass die übereinander liegenden Löcher nacheinander interpretiert werden.
Weitere musikalische Parameter könnten durch die Auswahl entsprechender
Objekte beeinflusst werden.
1
72
Die Notenrolle ist ein Element mechanischer Klaviere. Auf der Rolle sind Metallstifte angeordnet,
die, während sich die Rolle dreht, Töne bestimmter Höhe auslösen. Die grafischen Oberflächen
von Sequenzerprogrammen folgen oft demselben Prinzip. In der horizontalen Dimension wird
die Zeit und in der vertikalen die Tonhöhe repräsentiert. In der aufgespannten Fläche können
akustische Ereignisse angeordnet werden.
6.1 Entwicklung eines Interaktionskonzeptes
(a) Auslösen
(b) Anordnen
(c) Auswählen
Abbildung 6.1: Möglichkeiten zur Beeinflussung der musikalischen Struktur beim KlangHolz
Auswahl und Steuerung von Stimmen Das Steuern einzelner Stimmen, also der
„horizontalen“ Struktur, kann nach dem Vorbild eines Mischpults durchgeführt
werden. Dabei können Stimmen ausgewählt, das heißt aktiviert und deaktiviert
werden. Zusätzlich können musikalische Parameter der einzelnen Stimmen modifiziert
werden.
Für das KlangHolz hieße das, dass physische Objekte einzelne Stimmen repräsentieren
und hinzugefügt oder entfernt werden können. Der Ort auf dem Brett kann dann
Einfluss auf bestimmte musikalische Parameter haben (siehe Abbildung 6.1(c)). Auch
die umgekehrte Interpretation ist möglich: Die Stimmen sind auf dem Brett verteilt
und können durch Aufsetzen eines Objektes aktiviert werden.
Tabelle 6.1: Steuern der musikalischen Struktur
Prinzip
Auslösen
Anordnen
Auswählen
physische Objekte
Auslöser
akustische Ereignisse
Stimmen
aktive Fläche
akustische Ereignisse
Notenrolle
beliebiger Parameter
In Tabelle 6.1 sind die drei Prinzipien mit den jeweiligen Funktionen der physischen
Objekte und der aktiven Oberfläche zusammengefasst.
6.1.3 Steuerung musikalischer Parameter
Mithilfe von Musikinstrumenten können die Eigenschaften einzelner akustischer
Ereignisse – Tonhöhe, Lautstärke, Dauer, Klangfarbe und räumliche Position – gesteuert werden. Außerdem kann der Verlauf dieser Parameter über der Zeit beeinflusst
werden.
73
6 Das KlangHolz – ein digitales Musikinstrument
Parameter akustischer Ereignisse können durch die in Abschnitt 6.1.1 beschriebenen
Dimensionen der Kontrolle gesteuert werden. Das heißt, ein bestimmter Wert eines
Parameters des aktuellen akustischen Ereignisses kann repräsentiert werden durch:
• den Ort auf der aktiven Oberfläche, also eines der 16 Löcher auf dem Holzbrett,
• ein bestimmtes physisches Objekt oder einen Objekttyp
• oder eine Geste, das heißt die Position bzw. Höhe der Hand über einer bestimmten Zone der aktiven Oberfläche, dem Einzelloch.
Abbildung 6.2 verdeutlicht die Kontrollmöglichkeiten am KlangHolz.
Abbildung 6.2: Dimensionen der Kontrolle beim KlangHolz
Zunächst wird betrachtet, wie diese Parameter bei akustischen Instrumenten beeinflusst werden können und anschließend jeweils die Frage gestellt, wie die Steuerung
des Parameters in einem Tangible-Interaction-System, speziell beim KlangHolz,
ablaufen kann, so dass sie für den aktiven und passiven Nutzer nachvollziehbar
wird.
Tonhöhe Die Tonhöhe, und in der zeitlichen Dimension die Melodie, kann bei
akustischen Musikinstrumenten entweder durch die Veränderung oder die Auswahl
des klangerzeugenden Mediums gesteuert werden.
74
6.1 Entwicklung eines Interaktionskonzeptes
So kann etwa bei der Violine die Saite durch Fingerdruck an einer bestimmten
Position verkürzt werden, bei einer Flöte kann die schwingende Luftsäule durch die
Position der Finger auf bestimmten Löchern verändert werden. Beim Klavier wird eine
Saite entsprechender Tonhöhe ausgewählt, indem eine bestimmte Taste angeschlagen
bzw. eine Position auf der Klaviatur gewählt wird. Beide Verfahren können auch
kombiniert sein. Bei der Violine etwa können die Saiten nicht nur „verändert“, sondern
auch ausgewählt werden. Zudem unterscheiden sich die Instrumente darin, ob nur
bestimmte, abgestufte oder stufenlose Tonhöhenänderungen spielbar sind.
Bei der Übertragung der Prinzipien auf das KlangHolz ist zu beachten, dass die
Steuerung der Tonhöhe bei akustischen Instrumenten oft mit dem Positionieren
der Finger oder von Objekten verbunden ist. Es können also physische Objekte auf
der aktiven Oberfläche angeordnet werden, wobei verschiedene Positionen auf der
Oberfläche diskrete Tonhöhen repräsentieren.
Die Tonhöhe kann ebenso an physische Objekte gebunden sein, so dass sie durch
die Auswahl oder die Veränderung eines Objektes gesteuert werden kann. Für die
stufenlose Steuerung eignet sich zum Beispiel eine Bewegung im Raum, also zum
Beispiel eine Handbewegung, mit der ein Loch auf dem Brett abgedeckt werden
kann.
Lautstärke und Tondauer Die Lautstärke und die Dynamik werden im Allgemeinen
durch die Anregung des klangerzeugenden Mediums, also eine dosierte Energiezufuhr,
wie zum Beispiel einen Bewegungsimpuls, beeinflusst. Tondauer und Rhythmus
ergeben sich ebenfalls durch die Anregung des klangerzeugenden Mediums, also
durch dieselbe Energiezufuhr, wobei deren zeitliche Verteilung und der Verlauf der
Lautstärke entscheidend sind.
Bei der Violine ist es die Bewegung des Bogens auf den Saiten, beim Akkordeon eine
Druck- und Ziehbewegung, das Blasen bei Blasinstrumenten und beim Klavier zum
Beispiel der mit einer bestimmten Kraft ausgeführte Anschlag einer Saite mithilfe
einer Taste, die Lautstärke und Tondauer regulieren. Die Reichweite und Sichtbarkeit
dieser Bewegungen sind ganz verschieden. Es handelt sich allerdings oft um eine
dynamische Geste, die Körpereinsatz seitens des Musikers erfordert.
Für das KlangHolz lässt sich der Lautstärkeverlauf, und damit auch die Dauer eines
Klanges als kontinuierliche Größe, wiederum am ehesten als Geste oder körperliche
75
6 Das KlangHolz – ein digitales Musikinstrument
Bewegung im realen Raum umsetzen, also zum Beispiel mit einer Handbewegung,
die ein Loch auf dem KlangHolz abdeckt.
Das unter Abschnitt 6.1.2 beschriebene, zur zeitlichen Strukturierung dienende
Prinzip des „Auslösens“ eines Klanges, ist ebenfalls zur Steuerung der Dauer und
des Rhythmus geeignet.
Klangfarbe Die Klangfarbe ist bei den meisten akustischen Instrumenten innerhalb
eines relativ engen Spektrums festgelegt. Eine Violine oder ein Klavier werden immer
als solche am Klang erkennbar sein, feine Abstufungen der Klangfarbe sind allerdings
durch die Spielweise, also die oben beschriebenen Mechanismen, möglich.
Einige akustische Instrumente erlauben die Auswahl einer Klangfarbe, indem eine
Veränderung oder ein Austausch am klangerzeugenden Mechanismus vorgenommen
wird. Bei Blechblasinstrumenten wie der Trompete kann zum Beispiel ein Dämpfer
aufgesetzt, bei Akkordeon oder Orgel können Register gewählt, also ein bestimmter
Satz an Pfeifen oder Zungen kann zu- oder abgeschaltet werden.
Bei elektronischen oder digitalen Instrumenten sind vielfältige Beeinflussungen der
Klangfarbe möglich, indem Parameter der Klangerzeugung direkt gesteuert werden.
So kann zum Beispiel beim Synthesizer die Cutoff-Frequenz eines Filters über einen
Drehregler direkt beeinflusst werden. Außerdem ist die Veränderung durch die
Kombination verschiedener Module möglich, wie etwa beim modularen Synthesizer
oder bei Softwaresystemen wie Max oder Pure Data.
Beim KlangHolz gibt es entsprechend mehrere Möglichkeiten zur Steuerung der
Klangfarbe. Die unterschiedlichen, durch verschiedene Farben gekennzeichneten,
physischen Objekte können bestimmte Klangfarben repräsentieren, wobei die Anordnung auf dem Brett zur Steuerung anderer Parameter dienen kann. Die Klangfarbe
kann allerdings auch durch die aktive Oberfläche repräsentiert werden, so dass Orte
verschiedener Klangfarbe existieren, die mit beliebigen Objekten besetzt werden
können. Weiterhin ist die Steuerung durch Kombination der physischen Objekte auf
der aktiven Oberfläche möglich, so dass die Aktivierung bestimmter Parameter der
Klangfarbe interpretiert wird.
In Tabelle 6.2 wird versucht, zusammenfassend die Eignung der Kontrollmöglichkeiten für die Repräsentation der unterschiedlichen Klangparameter darzustellen. Die
Anzahl der Punkte drückt aus, wie gut die jeweilige Zuordnung zur Abbildung des
76
6.1 Entwicklung eines Interaktionskonzeptes
Tabelle 6.2: Mapping von Kontrolldimensionen auf Klangparameter
Tonhöhe
Lautstärke und Dauer
Klangfarbe
Objekte
•
••
•••
aktive Oberfläche
•••
••
•••
Geste
••
•••
•
betreffenden Klangparameters geeignet ist. So wird zum Beispiel die Tonhöhe am
besten (drei Punkte) durch die aktive Oberfläche bzw. die Position repräsentiert.
6.1.4 Konzeption alternativer Mappings
Für die Verbindung zwischen dem Controller und der Klangerzeugung existieren vielfältige Abbildungsmöglichkeiten. Unter Beachtung der Ergebnisse aus den Abschnitten 6.1.2 und 6.1.3 werden nun drei alternative Mappings vom KlangHolz-Controller
auf Parameter von Klangerzeugungs-Algorithmen definiert. Die verschiedenen Varianten sollen die Möglichkeiten verdeutlichen, strukturelle und klangliche Parameter
von Musik zu steuern.
6.1.4.1 Mapping-Varianten
Mapping-Variante A Bei diesem Mapping wird die musikalische Struktur durch
das Prinzip Auslösen gesteuert, wobei dafür eine Handbewegung über dem Einzelloch
genutzt wird. Bleibt das Loch bedeckt, herrscht Stille, wird es geöffnet, kann der
Klang „entweichen“. Die Parameter Klangfarbe und Lautstärke werden mit derselben
Bewegung beeinflusst. Wird das Loch geöffnet, nehmen die Lautstärke und gleichzeitig
die Cutoff-Frequenz eines Tiefpassfilters kontinuierlich zu.
Der Ort, an dem die Kugel auf der aktiven Oberfläche platziert wird, ist bei dieser
Konfiguration lediglich für die Steuerung der Tonhöhe verantwortlich. Durch das
Positionieren von Kugeln auf verschiedenen Löchern wird hier also eine Klangfläche
zusammengestellt, die durch Handbewegungen über dem Einzelloch zum Erklingen
gebracht werden kann.
Mapping-Variante B Die Struktur bzw. zeitliche Anordnung der akustischen Ereignisse soll hier durch das Prinzip Anordnen hergestellt werden: Durch die aktive
Oberfläche, also die Löcher auf dem Holzbrett, wird ein Zeitablauf in horizontaler
77
6 Das KlangHolz – ein digitales Musikinstrument
Richtung repräsentiert, der sich in einer Schleife wiederholt. Indem die Glaskugeln
auf der Fläche angeordnet werden, kann ein rhythmisches Muster erstellt und in
jedem Durchlauf verändert werden.
Die musikalischen Parameter und die Parameter der Einzelklänge sollen nach folgendem Schema gesteuert werden: Die Klangfarbe wird als Ort auf der aktiven
Oberfläche in vertikaler Richtung repräsentiert. Die Tonhöhe aller Klänge kann mittels einer Handbewegung über dem Einzelloch beeinflusst werden. Mit zunehmender
Abdeckung durch die Hand sinkt die Tonhöhe aller aktiven Klänge.
Mapping-Variante C In einer weiteren Variante wir das Prinzip Auswählen zur
Steuerung der musikalischen Struktur genutzt. Hierbei werden zwei verschiedene,
identifizierbare Glaskugeln verwendet. Die helle Kugel repräsentiert eine SchlagzeugSequenz, die dunkle eine Bass-Sequenz. Durch das Auflegen der Kugeln an einer
beliebigen Stelle der aktiven Oberfläche wird die jeweilige Sequenz hörbar.
Durch den Ort auf der aktiven Oberfläche wird die Klangfarbe und die räumliche
Position der beiden Sequenzen beeinflusst. Die horizontale Anordnung ist für die
räumliche Position im Stereo-Spektrum verantwortlich, also die Positionierung einer
Kugel auf der linken Seite bewegt die durch sie repräsentierte Stimme ebenfalls
auf die linke Seite des Stereo-Spektrums. Die vertikale Position beeinflusst eine
Filter-Einstellung der jeweiligen Sequenz. Am unteren Rand des Brettes werden die
tiefen Frequenzen hervorgehoben, am oberen Rand die hohen.
Die beiliegende CD-Rom enthält Videobeispiele, in denen die drei Varianten demonstriert werden.2
6.1.4.2 Bewertung
Jedes Mapping gibt dem Instrument einen eigenen Charakter und damit einen
eigenen Einsatzbereich. Im Hinblick auf die Betrachtungen, die in Kapitel 4 zu Thema
Konzepte digitaler Musikinstrumente vorgenommen wurden, sollen die konzipierten
Mapping-Varianten bewertet werden.
2
78
Die Videobeispiele zu den drei verschiedenen Mapping-Varianten befinden sich auf der beiliegenden CD-Rom: Mapping-Variante A: Videos/KlangHolz_Demo_A.mp4, Mapping-Variante B:
Videos/KlangHolz_Demo_B.mp4 und Mapping-Variante C: Videos/KlangHolz_Demo_C.mp4.
6.1 Entwicklung eines Interaktionskonzeptes
Alle drei Varianten bilden den Zustand des Controllers relativ deterministisch auf
die Klangerzeugung ab, während bei Variante B zusätzlich die zeitliche Komponente
eine Rolle spielt. Die Objekte werden hier zeitlich im Voraus angeordnet.
Im Spektrum zwischen interaktiven Klanginstallationen und professionellen Musikinstrumenten bewegt sich das KlangHolz eher auf der Seite der Installationen. Das lässt
sich insbesondere an der Mittleren Diversität ablesen: Alle drei Mappingvarianten
erlauben das Spiel in einem relativ begrenzten musikalischen Rahmen, das heißt,
die verschiedenen Performances mit ein und demselben Mapping ähneln sich. Das
Instrument ist allerdings mit allen drei Mappings von musikalischen Laien spielbar,
erlaubt das Improvisieren und Experimentieren, aber ist in der vorliegenden Form
sicher nicht für die Erlangung musikalischer Virtuosität geeignet.
Der große Vorteil des KlangHolzes ist, dass das nicht-akustische bzw. visuelle Feedback bereits durch die Anordnung der Kugeln auf der aktiven Oberfläche gegeben ist.
Das ist eine Eigenschaft, die das KlangHolz mit akustischen Instrumenten teilt. Zudem wird durch die Gesten des Anordnens und die Handbewegungen zur Steuerung
des zusätzlichen Sensors das Spiel des Instrumentes für Zuschauer nachvollziehbar
und für den Benutzer selbst leicht verständlich. Körperliche Interaktion ist klar mit
akustischen Ereignissen verbunden. Das zeigt, dass derartige Interfaces durchaus das
Potential tragen, die Darbietung elektronischer Musik dem Zuhör- und Zuseherlebnis
akustischer Instrumente anzunähern.
Die Bauweise, also die Verlagerung der Benutzerschnittstelle in die reale Umgebung, impliziert ebenso die Möglichkeit der gemeinsamen Nutzung. Die Kugeln, als
physische Objekte, können von verschiedenen Teilnehmern aufgesetzt und entfernt
werden.
Abschließend soll das KlangHolz in die Taxonomie für Tangible-Interaction-Systeme,
die im Abschnitt 5.2.2 (Seite 57) entwickelt wurde, eingeordnet werden. Die Verkörperung des Systemzustandes findet zum einen natürlich durch die akustische Ausgabe
in der Umgebung statt. Bezüglich der Anordnung der Glaskugeln und der daraus
entstehenden visuellen Information über den Systemzustand kann außerdem von
einer vollständigen Verkörperung gesprochen werden, da in dieser Hinsicht Eingabeund Ausgabegerät identisch sind. Die drei, den Mapping-Varianten zugrunde liegenden, Prinzipien, Auslösen, Anordnen und Auswählen, profitieren jeweils von einer
Metapher der Tätigkeit. Schließlich nimmt die körperliche Interaktion und deren
Einbettung in den realen Raum beim KlangHolz eine mittlere Bedeutung ein.
79
6 Das KlangHolz – ein digitales Musikinstrument
6.2 Werkzeugkasten für digitale Musikinstrumente
Ausgangspunkt für die technische Realisierung eines digitalen Musikinstrumentes im
Rahmen der Konzepte von Tangible Interaction bildet das allgemeine Schema der
Mensch-Maschine-Interaktion (siehe Abbildung 6.3).
Abbildung 6.3: Schema der Mensch-Maschine-Interaktion nach [Bon00]
Betrachtet man das Musikinstrument als spezialisierte Maschine ergibt sich die
erweiterte Darstellung in Abbildung 6.4. Der Mensch kann mithilfe seiner motorischen
Fähigkeiten Aktionen in seiner Umwelt ausführen. Sensoren, zum Beispiel zum
Erkennen von Bewegung, Druck, oder anderen Aktionen sowie Kameras für die
Detektion von Bewegungen liefern dem Musikinstrument die nötigen Daten über
den Zustand der Umgebung. Diese Werte werden digtalisiert, verarbeitet und auf
Parameter eines Klangerzeugungs-Algorithmus abgebildet. Schließlich erfolgt eine
akustische Ausgabe, die von visuellem oder haptischem Feedback begleitet werden
kann und wiederum dem Menschen durch seine sensorischen Fähigkeiten zugänglich
wird.
Im Folgenden soll ein Überblick über Technologien gegeben werden, die für diese
Aufgaben auf Seiten des digitalen Musikinstrumentes geeignet sein können.
6.2.1 Controller
6.2.1.1 Sensoren
Ausgehend von den Möglichkeiten des Menschen, den Zustand seiner Umwelt zu
ändern, können Sensoren kategorisiert werden. Muskelaktivität ist die Grundlage
aller Aktionen, das Resultat kann Bewegung, ein Luftstrom oder der Klang der
menschlichen Stimme sein. Dieses Resultat soll von Sensoren erkannt werden und
die Grundlage für das Mapping auf die Klänge eines Musikinstrumentes bilden.
80
6.2 Werkzeugkasten für digitale Musikinstrumente
Abbildung 6.4: Interaktion zwischen Mensch und digitalem Musikinstrument (nach [Bon00])
Für Muskelaktivität kann unterschieden werden, ob eine Bewegung ausgelöst wird,
oder lediglich Druck ausgeübt wird. Druck kann zum Beispiel mit Drucksensoren oder
Tastern gemessen werden. Die Bewegung kann mit mechanischem Kontakt festgestellt
werden: Rotation zum Beispiel durch Drehpotentiometer, Joysticks oder Biegungssensoren, lineare Bewegung durch Schiebepotentiometer oder Standardeingabegeräte
wie Mäuse oder Grafiktabletts. Kontatklose Bewegungsmessung kann mit Magnetfeldsensoren, Neigungsschaltern, Beschleunigungssensoren oder Fotowiderständen
durchgeführt werden (vgl. [Bon00]) .
Darüber hinaus kann eine durch Atemluft erzeugte Strömung gemessen werden, die
Stimme kann mit Mikrofonen erfasst werden und auch andere Körperwerte, die nicht
willentlich beeinflussbar sind, wie Körpertemperatur oder Blutdruck, können mit
speziellen Sensoren gemessen werden.
Alle möglichen körperlichen Aktionen des Menschen können somit zur Kontrolle
digitaler Musikinstrumete genutzt werden.
6.2.1.2 I/O-Boards
Um die Messwerte von Sensoren zu digitalisieren und rechnerintern zur Klangerzeugung weiterverwenden zu können, sind spezielle Hardwaregeräte notwendig. Es gibt
verschiedene Input/Output-Boards, die relativ einfach handhabbare Schnittstellen
für die unkomplizierte Kommunikation mit Sensoren und Aktoren zur Verfügung
stellen.
81
6 Das KlangHolz – ein digitales Musikinstrument
Phidgets Phidgets (vgl. [GF08]) sind ein beliebtes Prototyping-Werkzeug zur Entwicklung physischer Benutzerschnittstellen. Analog zu Widgets, Komponenten für das
Zusammensetzen grafischer Benutzerschnittstellen, sind Phidgets „physical widgets“,
also Bausteine für physische Benutzerschnittstellen. Die Komponenten, Sensoren, etc.
können also einfach zusammengefügt werden. Außerdem existieren APIs für C, .NET,
Java und Flash/Flex; via USB kommunizieren die Phidgets mit dem Computer. Die
Preise für Board und Bauelemente sind allerdings im Vergleich zu anderen Projekten
relativ hoch.
Arduino und Wiring Arduino (vgl. [Ard07]) und Wiring (vgl. [Wir07]) sind elektronische Plattformen, mit dem hauptsächlichen Anwendungsgebiet der prototypischen
Entwicklung interaktiver Objekte und Umgebungen. Es handelt sich um eine Kombination aus Open-Source-Hardware und -Software zu relativ geringen Kosten. Durch
die gute Dokumentation und große Community sind beide Tools auch hervorragend
für weniger elektronikorientierte Anwender aus dem Kunst- oder Designbereich
geeignet.
Beide Hardware-Boards sind mit einem Microcontroller ausgestattet und nutzen
für dessen Programmierung eine High-Level-Programmiersprache, deren Syntax an
C/C++ angelehnt ist. Die zugehörige Entwicklungsumgebung basiert auf Processing.
Durch Einsatz eines programmierbaren Microcontrollers ist das Arduino-Board
sowohl für die serielle Kommunikation via USB mit einem Rechner geeignet, als
auch unabhängig lauffähig. Es stehen mehrere analoge Eingänge sowie digitale Einund Ausgänge zur Verfügung, um über Sensoren Messwerte aus der physischen
Umgebung aufzunehmen, beziehungsweise durch Steuerung von Aktoren, wie zum
Beispiel Lichtern oder Motoren die Umwelt zu beeinflussen.
Doepfer MIDI Interfaces Hierbei handelt es sich um verschiedene ElektronikBoards zum Bau von MIDI-Controllern (vgl. [Doe08]). Der Anschluss beliebiger
Sensoren mit einem bestimmten Spannungsbereich ist möglich, hier ist allerdings
nur die Ausgabe von MIDI-Nachrichten möglich. Es können keine Aktoren betrieben
werden, und es ist kein Microcontroller vorhanden.
In Tabelle 6.3 werden die verschiedenen I/O-Boards hinsichtlich ihrer Eigenschaften
bewertet. Der Punkt zeigt die Verfügbarkeit, das Minus das Fehlen der jeweiligen
Eigenschaft an. Die Höhe der Kosten verhält sich entsprechend der Anzahl der
82
6.2 Werkzeugkasten für digitale Musikinstrumente
Tabelle 6.3: Übersicht zu den verschiedenen I/O-Boards
Programmierbarer Microcontroller
MIDI
Serielle Kommunikation
Aktoren
Kosten
Phidgets
–
–
•
•
•••
Arduino
•
•
•
•
•
Wiring
•
•
•
•
••
Doepfer
–
•
–
–
••
Punkte. Aufgrund der Vielzahl an Kommunikationseigenschaften sowie der Programmierbarkeit bei gleichzeitig geringen Kosten fällt für das KlangHolz die Wahl auf
Arduino.
6.2.1.3 Computervision
Bewegungen von Objekten oder Menschen können ebenfalls mit Kameras erfasst
und algorithmisch ausgewertet werden. Dafür stehen die folgenden Werkzeuge zur
Verfügung:
Reactivision Reactivision (vgl. [Mus08b]) ist ein relativ ausgereiftes, gut dokumentiertes und frei verfügbares Framework für das Tracking von Markierungen,
so genannten Fiducials, die an physischen Objekten angebracht werden können.
Das System wurde an der Universitat Pompeu Fabra in Barcelona entwickelt für
das Design von tischbasierten Tangible-User-Interface-Systemen oder interaktiven
Oberflächen. Reactivision ist eine Software-Anwendung, die Bilder von einer Videokamera empfängt und Open-Sound-Control-Nachrichten bezüglich der Position und
Ausrichtung der Fiducials ausgibt. Außerdem ist mit einem einfachen Sticker, der an
der Fingerspitze angebracht werden muss, das Tracking von Fingerbewegungen auf
einer Oberfläche möglich. Im Allgemeinen wird die Kamera dabei unter einem Tisch
mit trasparenter Oberfläche angebracht, während die markierten Objekte auf dem
Tisch bewegt werden.
PDP und PiDiP PDP (Pure Data Packet) und PiDiP (PiDiP Is Definitely In Pieces)
sind Erweiterungen für die Musik-Programmierumgebung Pure Data. Es handelt
sich um eine Zusammenstellung verschiedener Videoverarbeitungs-Tools. Die Pakete
enthalten ein Farb-Tracking-Werkzeug, einen gitterbasierten Bewegungsdetektor und
83
6 Das KlangHolz – ein digitales Musikinstrument
außerdem ein Tool zum Tracking von Formen. Die Erweiterungen sind quelloffen
und frei verfügbar, aber relativ spärlich dokumentiert (vgl. [Deg07]).
6.2.2 Controller und Klangerzeugung
6.2.2.1 Musik-Programmierumgebungen
Bekannte Musik-Programmiersprachen und Audiosynthese-Environments sind zum
Beispiel Max/MSP [Cyc08], Pure Data [IEM08a], ChucK [WC08] oder SuperCollider
[McC07].
Allen gemeinsam ist das grundlegende Konzept des Unit-Generators, das aus den
Anfängen der Computer-Musik stammt (siehe Abschnitt 3.2.3, Seite 28). Es ist
abgeleitet aus den Verfahren der analogen Klangsynthese. Module werden hierbei
zusammengeschaltet, um einen bestimmten Klangsynthese-Algorithmus zu realisieren.
Alle Module kommunizieren über die gleiche Art von Signalen und können daher
beliebig verschaltet werden. Der Unit-Generator ist die Übertragung diese Konzeptes
in den digitalen Bereich. Instrumente bestehen aus mehreren, zusammengeschalteten
Unit-Generatoren. Dieses Konzept wird auf die eine oder andere Weise in allen
betrachteten Sprachen implementiert. Darüber hinaus gibt es oft zwei verschiedene
Kommunikationsmodi zwischen den Unit-Generatoren. Zum einen können Berechnungen mit Audiorate, also sample-genauer Geschwindigkeit oder, für weniger strikte
Timing-Anforderungen, mit Kontrollrate durchgeführt werden.
Unterschiede zwischen den einzelnen Systemen finden sich hauptsächlich in Bezug
auf das Anwendungsgebiet, die Art der Benutzerschnittstelle, die Qualität der
Dokumentation, den Reifegrad, die verfügbaren Erweiterungen und die Möglichkeiten
der Interoperabilität mit Hardware, zum Beispiel den genannten I/O-Boards, oder
anderen Anwendungen.
Pure Data Pure Data (Pd) ist eine Programmierumgebung, die mit einer grafischen
Programmiersprache, einer sogenannten Patcher-Sprache, arbeitet. Dabei können
Objekte grafisch angeordnet und, nach dem Vorbild modularer Synthesizer, durch virtuelle Kabel verbunden werden. Pd erlaubt Echtzeitverarbeitung für Computermusikund Multimedia-Anwendungen.
84
6.2 Werkzeugkasten für digitale Musikinstrumente
Bei Pd handelt es sich um einen der Hauptzweige der Programmiersprachenfamilie
Max, die auf die MUSIC-Programme von Max Mathews zurückgeht, wobei heute
der bekannteste Ableger das kommerzielle Max/MSP ist. Pd-Programme werden als
Patches bezeichnet. Es existieren zahlreiche Bibliotheken sogenannter Abstractions
und Externals, also vorgefertigter Patches und Zusatzmodule für Standardaufgaben.
Um Pd schart sich eine lebendige Community, der ausgereifte Sprachkern ist gut dokumentiert. Erweiterungen und Zusatzmodule befinden sich allerdings teilweise noch
in experimentellen Stadien. Pd steht kostenfrei und für alle wichtigen Betriebssysteme
zur Verfügung.
SuperCollider SuperCollider ist eine Programmierumgebung zur Echtzeit-Audiosynthese und algorithmischen Komposition. Die Besonderheit von SuperCollider ist
eine Client-Server-Architektur. Beide Bestandteile kommunizieren via Open Sound
Control und können auch unabhängig betrieben werden.
Das System kann via MIDI und OSC angesprochen werden. Grundlage ist eine
objektorientierte Programmiersprache nach dem Vorbild von Smalltalk. SuperCollider
ist frei verfügbar, allerdings nur für Mac OS und Linux.
ChucK ChucK ist ein, relativ neues und noch im Entwicklungsstadium befindliches,
System zur Echtzeit-Audiosynthese und algorithmischen Komposition. Die besondere
Stärke von ChucK ist das On-the-fly-Programming. Das heißt, Modifikationen können
am laufenden Programm vorgenommen werden.
Bei ChucK besteht im Gegensatz zu den anderen betrachteten Systemen keine
Trennung zwischen Audio- und Kontrollrate. Das System bietet native Unterstützung für verschiedenste Ein -und Ausgabegeräte und wird über eine imperative
Programmiersprache kontrolliert (vgl. [WC03]).
In Tabelle 6.4 werden die beschriebenen Musik-Programmierungen noch einmal
übersichtlich im Hinblick auf die genannten Kriterien verglichen.
6.2.2.2 Nicht-akustisches Feedback des Instrumentes
Neben den Musik-Programmierumgebungen zur Erzeugung akustischer Ausgaben
existieren auch Werkzeuge zum Generieren nicht-akustischer Rückmeldungen eines
85
6 Das KlangHolz – ein digitales Musikinstrument
Tabelle 6.4: Übersicht zu den verschiedenen Musik-Programmierumgebungen
Pure Data
EchtzeitAudiosynthese,
Multimedia
SuperCollider
EchtzeitAudiosynthese,
algorithmische
Programmierung
ChucK
AnwendungsgeEchtzeitbiet
Audiosynthese,
algorithmische
Programmierung,
Live-Coding
BenutzerschnittGrafische
Pro- Objektorientierte Imperative ProProgrammierspra- grammiersprache
stelle
grammiersprache
che
Umfang und Qua- • • •
•
••
lität der Dokumentation
Reifegrad
Stabil
Stabil
Nicht ausgereift
Verfügbarkeit von • • •
•
•
Erweiterungen
Interoperabilität
•••
•••
•••
Kosten
frei
frei
frei
Betriebssysteme
Linux, Mac OS, Mac OS, Linux
Linux,
Solaris,
Windows
Mac OS, Windows
Musikinstrumentes. Wichtigstes Kriterium bei der Auswahl der geeigneten Technologien ist die Interoperabilität mit den verwendeten Musik-Programmiersprachen, so
dass das zusätzliche Feedback von demselben Algorithmus wie die Klänge erzeugt
werden kann.
Visuelles Feedback Eine Option für die Generierung visuellen Feedbacks ist die
Nutzung der Grafik-Programmiersprache Processing, für Pure Data gibt es MultimediaErweiterungen wie GEM (Graphics Environment for Multimedia, [IEM08b]) oder
das bereits erwähnte PDP.
Haptisches Feedback Pure Data stellt Objekte für die Steuerung von Standardeingabageräten mit Force-Feedback-Fähigkeiten zur Verfügung, wie zum Beispiel
das HID-Toolkit (vgl. [Ste05b]). Auch I/O-Boards, wie Arduino und Wiring, bieten
die Möglichkeit, Motoren zu kontrollieren, um anhand eigener Geräte Vibration als
fühlbare Rückkopplung zu erzeugen.
86
6.2 Werkzeugkasten für digitale Musikinstrumente
Die genannten Möglichkeiten sollen in dieser Arbeit allerdings nicht weiter vertieft
werden, für das KlangHolz ist in diesem Rahmen kein zusätzliches nicht-akustisches
Feedback vorgesehen. Hier liefern die Positionen der Kugeln auf der aktiven Oberfläche sowie die Handbewegungen an sich schon visuelle Informationen über den
Zustand des Instrumentes.
6.2.3 Kommunikation zwischen Controller und Klangerzeugung
MIDI MIDI (Musical Instruments Digital Interface) ist ein Protokoll zur Übertragung von Steuerinformationen zwischen Instrumenten oder Computern. Es werden
keine Klänge, sondern nur Steuerinformationen, sogenannte MIDI-Befehle, übermittelt. Mit deren Hilfe ist die Steuerung anderer Klangerzeuger oder auch die
Aufzeichnung der Steuerdaten möglich. MIDI-Befehle sind zum Beispiel der Note-onoder der Note-off-Befehl zum An- und Abschalten eines Tones. Ein solcher Befehl
setzt sich aus mehreren Komponenten – Kanalnummer, Tonhöhe und Anschlagstärke
– zusammen.
Dem MIDI-Protokoll liegt eine serielle Datenübertragung mit einer Übertragungsrate von 31250 Bit/s ohne Flusskontrolle zuggrunde. Sechzehn Kanäle stehen zur
gleichzeitigen Steuerung mehrerer Instrumente zur Verfügung. Durch die geringe
Übertragungsrate und die serielle Übertragung können Timing-Probleme entstehen,
Steuerbefehle werden verzögert umgesetzt. MIDI kann ebenfalls via USB oder FireWire mit mehreren virtuellen Verbindungen übertragen werden, die Kanalanzahl
spielt dann keine Rolle mehr, die zeitlichen Probleme können umgangen werden.
Das Protokoll ist mit musikalischen Einschränkungen verbunden: Bei der Entwicklung
waren tastengesteuerte orgelähnliche Synthesizer der Ausgangspunkt. Die Interaktion
mit solchen Instrumenten lässt sich relativ gut abbilden. Andere Formen, zum
Beispiel das Spielen einer Violine, sind dagegen nur schwer zu fassen. Eine weitere
Einschränkung ist die Stimmung nach westlichem Tonsystem mit 12 Halbtönen
pro Oktave. Für andere Skalen ist MIDI nicht vorgesehen. Darüber hinaus kann
die Beschränkung auf 128 Stufen, zum Beispiel bei der Dynamiksteuerung nicht
ausreichend sein.
Open Sound Control Open Sound Control (OSC) ist ein Verfahren zur Kommunikation zwischen Computern, Synthesizern und anderen Multimedia-Geräten. OSC
basiert auf Netzwerktechnologie. Anders als bei MIDI ist keine spezielle Hardware
87
6 Das KlangHolz – ein digitales Musikinstrument
notwendig, sondern die Nutzung basiert auf herkömmlichen Netzwerkinfrastrukturen.
Dabei ist OSC unabhängig vom verwendeten Transportprotokoll.
Die OSC-Kommunikation setzt sich aus Paketen zusammen, die Nachrichten an
einen bestimmten Adressaten enthalten. Eine hohe Auflösung bei Steuerdaten und
Zeitstempeln wird geboten, die Gleichzeitigkeit von Nachrichten ist möglich. Es wird
ein URL-artiges Adressierungsschema verwendet.
Anders als bei MIDI, existieren keine Standards für die zu übertragenden Nachrichten. So kann zum Beispiel der oben beschriebene Note-on-Befehl in verschiedenen
Implementierungen des Protokolls völlig unterschiedlich umgesetzt werden.
Spezielle Protokolle Für bestimmte Übertragungsaufgaben kann es außerdem
sinnvoll sein, eigene spezielle Protokolle zu definieren. Arduino unterstützt zum
Beispiel serielle Kommunikation mit Datenraten von bis zu 115200 Bit/s, also eines
Vielfachen des MIDI-Protokolls.
Für das KlangHolz wurde ein spezielles Protokoll für den Datenaustausch zwischen
Arduino-Board und Rechner definiert. Es basiert, wie MIDI, auf serieller Übertragung, verwendet aber eine höhere Datenrate und ist auf die Anforderungen der
Anwendung zugeschnitten. Für die rechnerinterne Übertragung von Steuerinformationen zur Klangerzeugungs-Komponente wird beim KlangHolz das MIDI-Protokoll
verwendet.
6.3 Technische Umsetzung des KlangHolzes
Das KlangHolz setzt sich aus verschiedenen Hardware- und Software-Komponenten
zusammen. In Abbildung 6.5 werden die beteiligten Komponenten dargestellt und
ihre Verteilung sowie die Kommunikationsabläufe verdeutlicht.
Sensoren übermitteln ihre Messdaten an ein Arduino-I/O-Board. Diese werden dort
digitalisiert, und von einem Programm verarbeitet. Über ein serielles Protokoll
findet ein Datenaustausch zwischen diesem Microcontroller-Programm und einem
Pure-Data-Patch statt. Dort werden die Nachrichten weiter verarbeitet und die
in Abschnitt 6.1.4 vorgestellten Mappings realisiert. Die Klangerzeugung findet in
einem externen Software-Synthesizer bzw. -Sampler statt, der von Pure Data über
88
6.3 Technische Umsetzung des KlangHolzes
Abbildung 6.5: KlangHolz: beteiligte Hardware- und Software-Komponenten
MIDI-Befehle gesteuert wird. Im Folgenden sollen die einzelnen Komponenten und
ihre Funktionen genauer beschrieben werden.
6.3.1 Hardware
Sensoren Ein durch Sensoren erweitertes Holzbrett bildet die Grundlage des Instrumentes. Sechzehn Fotowiderstände wurden, wie in Abbildung 6.6(b) zu erkennen,
in Löcher im KlangHolz integriert. Mithilfe dieser Sensoren kann erkannt werden,
ob sich ein physisches Objekt, eine Glaskugel wie in Abbildung 6.6(c), über einem
bestimmten Bereich der aktiven Oberfläche befindet. In diesem Fall sinkt der Lichteinfall für den betreffenden Sensor unter einen bestimmten Wert, abhängig von der
Lichtdurchlässigkeit des aufgelegten Objektes. Die Messwerte der Sensoren werden
mithilfe eines Arduino-I/O-Boards digitalisiert und an den Computer übertragen.
Ein zusätzlicher Fotowiderstand wurde in das außerhalb der Matrix angeordnete Loch
integriert. Hier wird nicht nur das Absinken des Lichteinfalls unter einen bestimmten
Wert registriert, sondern es ist auch eine stufenlose Steuerung möglich.
I/O-Board Aufgrund der Untersuchungen in Abschnitt 6.2.1.2 (Seite 79), insbesondere wegen seiner Programmierbarkeit und günstigen Verfügbarkeit, wurde
89
6 Das KlangHolz – ein digitales Musikinstrument
(a) Arduino I/O-Board
(b) Sensor in der aktiven
Oberfläche des KlangHolzes
(c) Eine Glaskugel als physisches Objekt des KlangHolzes
Abbildung 6.6: KlangHolz: Details der Umsetzung
das Arduino-Board (siehe Abbildung 6.6(a)) für die Realisierung des KlangHolzes
ausgewählt.
Das Arduino-Board verfügt über fünf analoge Eingänge. Um alle siebzehn Fotowiderstände lesen zu können, müssen die analogen Eingangsmöglichkeiten durch
zwei Multiplexer (analoge Multiplexer/Demultiplexer-ICs 4051) erweitert werden.
Auf diese Weise kann ein analoger Eingang des Arduino-Boards zum Lesen von
acht Sensoren benutzt werden. Drei digitale Ausgänge des Arduino Boards steuern
die Select-Pins des Multiplexers an, die abwechselnd die zur Verfügung stehenden
Eingänge abfragen.
Das Schaltbild (Abbildung 6.7) zeigt die Verkabelung der verwendeten Komponenten.
An den Eingängen analog1 und analog2 des Arduino-Boards ist je ein analoger
Multiplexer vom Typ 4051 angeschlossen. Über die digitalen Ausgänge pin3, pin4 und
pin5 kann eine dreistellige Binärzahl an die Multiplexer übertragen werden. Auf diese
Weise werden nacheinander die Eingänge y0 bis y7 der beiden Multiplexer aktiviert
und können ausgelesen werden. Mit jedem dieser Eingänge ist ein Fotowiderstand
verbunden, wie links im Bild zu sehen ist. Ein weiterer Fotowiderstand ist auf die
gleiche Weise direkt mit dem Arduino-Eingang analog0 verbunden. Hiermit wird der
Helligkeitswert des 17. Loches ermittelt.
6.3.2 Software
Für die softwareseitige Umsetzung ist auf der Hardware-Ebene ein Programm für den
Microcontroller des Arduino-Boards verantwortlich. Die Mapping-Komponente des
KlangHolzes wird mithilfe der Musik- und Multimedia-Programmierumgebung Pure
90
6.3 Technische Umsetzung des KlangHolzes
Abbildung 6.7: Schaltplan für die Elektronik des KlangHolzes
Data, besonders aufgrund ihrer guten Eignung zur Kommunikation mit Arduino und
wegen ihrer guten Dokumentation, umgesetzt.
Microcontroller Für den Microcontroller des Arduino-Boards wurde ein Programm
erzeugt, das für die Steuerung der Multiplexer und das Lesen der Sensorwerte
zuständig ist. In einer Endlosschleife werden sequentiell die Werte der 17 Sensoren
gelesen. Wenn bestimmte Schwellwerte über- oder unterschritten werden, wird eine
Nachricht über die serielle Verbindung an den Rechner verschickt.
Dazu wurde ein einfaches eigenes Protokoll definiert. Eine Nachricht besteht aus
drei Werten: der Nummer des analogen Eingangs am Arduino-Board, dem aktiven
Eingang des Multiplexers und dem aktuellen Messwert. Durch die beiden ersten
91
6 Das KlangHolz – ein digitales Musikinstrument
Werte kann der Sensor identifiziert und der Messwert entsprechend zugeordnet
werden.
Darüber hinaus können die Sensoren kalibriert werden. Wenn das I/O-Board vom
Computer eine entsprechende Nachricht empfängt, wird der Kalibrierungsvorgang
gestartet. Der Nutzer wird aufgefordert, die Sensorfelder nacheinander mit einer
dunklen Glaskugel zu besetzen. Auf diese Weise werden für jeden Sensor, abhängig
vom Umgebungslicht und den verwendeten Glaskugeln, eigene Schwellwerte erzeugt,
und es ist sichergestellt, dass jeder Sensor die verschiedenen Kugeln bzw. Kugeltypen
identifizieren kann.
Auswertung der Sensor-Daten und Mapping Mithilfe eines Pure-Data-Patches
(siehe Abbildung 6.8) werden die, vom Arduino-Board gesendeten, Nachrichten
empfangen und ausgewertet. Dafür ist das [kh_arduinoCom]-Objekt zuständig, das
entsprechende Konvertierungen und Zuordnungen durchführt.
Die einfache grafische Benutzeroberfläche erlaubt, neben der Steuerung der seriellen Verbindung zum Arduino-Board, die Durchführung des Kalibrierungsvorganges und die Auswahl eines der drei, in Abschnitt 6.1.4 konzipierten, hier umgesetzten Mappings. Dazu wird der Nachrichtenstrom an eines der drei Objekte [pd pianoRollMIDI], [pd triggerMIDI] oder [pd selectMIDI] weitergeleitet.
Die genannten Objekte realisieren die konkreten Mappings und erzeugen die MIDISteuerbefehle für die Klangerzeugung.
Klangerzeugung Die Klangerzeugung findet in einem externen Synthesizer- bzw.
Sampler-Programm statt, das zu diesem Zweck von Pure Data mit MIDI-Steuerinformationen versorgt wird. Bei der Umsetzung des KlangHolzes unter Mac OS
X kann der systemeigene IAC-Treiber (Inter-Application Communication) für das
Routing von MIDI-Verbindungen zwischen den verschiedenen Anwendungen genutzt
werden.
6.4 Zusammenfassung
In diesem Kapitel wurde ein eigenes digitales Musikinstrument, das KlangHolz, entwickelt. Das KlangHolz ist ein Tangible-Interaction-System. Der Controller besteht aus
92
6.4 Zusammenfassung
Abbildung 6.8: KlangHolz Pd-Patch
einem, durch Sensoren erweiterten, Holzbrett, der aktiven Oberfläche, und verschiedenfarbigen Glaskugeln, den physischen Objekten. Durch die aktive Oberfläche und
die physischen Objekte, sowie deren Anordnung, können verschiedenste musikalische
Parameter und Eigenschaften repräsentiert werden.
Zur Erkundung dieser Möglichkeiten wurde ein Interaktionskonzept erarbeitet. Verschiedene Prinzipien zur Steuerung musikalischer Struktur – Auslösen, Anordnen
und Auswählen – sowie Möglichkeiten der Beeinflussung von Parametern akustischer
Ereignisse und deren Verlauf konnten identifiziert werden. Auf dieser Grundlage
wurden drei verschiedene Mapping-Varianten für das KlangHolz konzipiert. Diese
drei Konzepte wurden schließlich praktisch umgesetzt und, auf Grundlage der Erkenntnisse zu Eigenschaften digitaler Instrumente aus Kapitel 4 und zu Tangible
Interaction aus Kapitel 5, bewertet.
Technologien, die zur Umsetzung digitaler Musikinstrumente auf Basis greifbarer
Benutzerschnittstellen geeignet sind, wurden untersucht. Für die, abschließend beschriebene, technische Umsetzung des KlangHolzes wurde eine Kombination aus
Lichtsensoren bzw. Fotowiderständen, einem Arduino-I/O-Board zur Digitalisierung und Verarbeitung der Messwerte und Pure Data zur Programmierung der
Kommunikation mit dem Controller sowie der Mapping-Varianten gewählt.
93
7 Schlussbetrachtungen
In diesem abschließenden Kapitel werden die betrachteten Themen sowie die im
Verlauf der Arbeit entstandenen Ergebnisse zusammengefasst. Ein Ausblick auf
mögliche weitere Arbeiten soll zudem aufgezeigt werden.
7.1 Zusammenfassung
Digitale Musikinstrumente bieten die Freiheit, durch beliebige Controller gesteuert zu werden. Die Interaktion mit ihnen muss nicht auf Bildschirmanwendungen,
Standardeingabegeräte oder etwa handelsübliche Faderboxen beschränkt bleiben.
Aus diesem Grund kann die Interaktion mit digitalen Musikinstrumenten aus der
virtuellen in die reale Welt verlagert werden.
Im Rahmen der vorliegenden Arbeit wurden zunächst grundlegende Begriffe definiert. Der schematische Aufbau von Musik wurde umrissen und geklärt, was unter
Musikinstrumenten, zu deren Erzeugung und Steuerung, zu verstehen ist. Auf die
Besonderheiten digitaler Musikinstrumente, hauptsächlich auf die vollständige Entkopplung von Controller- und Klangerzeugungskomponente, wurde eingegangen.
Im Weiteren wurde die Historie von Musikinstrumenten, insbesondere im Hinblick auf
die Verknüpfung von Technologie und Erzeugung von Musik, nachvollzogen. Wichtige
Etappen dieser, die Menschheitsgeschichte begleitenden, Entwicklung konnten identifiziert werden. Unter diesem Gesichtspunkt wurden historische Musikinstrumente
mit richtungsweisender Funktion und interessanten Benutzerschnittstellen, Ansätze
der Computerisierung der Musik sowie aktuelle digitale Instrumente und interaktive
Installationen aus dem Forschungsumfeld vorgestellt.
Abseits der technologischen Aspekte wurden allgemeine Konzepte digitaler Musikinstrumente vorgestellt. Dabei wurde insbesondere der Frage nachgegangen, was die
Tradition akustischer Instrumente dem Instrumentenbauer in der digitalen Domäne
95
7 Schlussbetrachtungen
mit auf den Weg geben kann. Schließlich konnte geklärt werden, welche Eigenschaften
ein digitales Instrument oder eine Installation interessant und attraktiv für Musiker
bzw. Benutzer und auch das Publikum machen.
Die Konzepte der Tangible Interaction und Tangible User Interfaces bilden das theoretische Fundament der Möglichkeit, die Interaktion mit digitalen Musikinstrumenten
in Anlehnung an die akustischen Instrumente aus der virtuellen Bildschirmwelt
heraus zu lösen. Dabei werden digitale Informationen an physische Gegenstände in
der realen Welt gebunden, die somit zu Interaktionsmedien werden. Im Rahmen der
Betrachtungen wurde eine bestehende Taxonomie für Tangible-Interaction-Systeme
erweitert, so dass ein Leitfaden für den Entwurf und die Analyse solcher Systeme
entstand. Explizit wurde der Bogen von Tangible Interaction zu digitalen Musikinstrumenten gespannt, indem verschiedene einfache Beispielinstrumente unter
Beachtung der identifizierten Kriterien – verwendete Metapher, Verkörperung von
Daten und Bedeutung von körperlicher Interaktion und Einbettung in den realen
Raum – ausgewertet wurden.
Alle gewonnenen Erkenntnisse münden im Anschluss in den praktischen Teil dieser
Arbeit, innerhalb dessen ein eigenes digitales Musikinstrument – das KlangHolz –
konzipiert wurde. Die Interaktion findet über das Anordnen von Glaskugeln auf
einem Holzbrett statt. Sensoren messen die Position der Kugeln und identifizieren
die Kugeln. Die Messwerte werden digitalisiert, verarbeitet und in einer bestimmten
Weise auf einen Klangerzeugungs-Algorithmus abgebildet. Zu diesem Zweck wurden
Technologien zur Realisierung digitaler Musikinstrumente mit greifbaren Benutzerschnittstellen analysiert. Tangible Interaction beinhaltet, dass die physische Welt
zur Benutzerschnittstelle wird. Daher umfassen die betrachteten Themenbereiche
sowohl Sensortechnologie, als auch Elektronik, also Möglichkeiten der Digitalisierung
von Sensor-Daten sowie Musik-Programmiersprachen, das heißt Möglichkeiten der
Klangerzeugung.
Für die Umsetzung des praktischen Teils wurde eine Kombination aus einem eigenen,
mit Sensoren erweiterten, Hardware-Controller und Elektronik auf der Basis des
Open-Hardware-I/O-Boards Arduino gewählt. Für die Kommunikation zwischen
Hardware und Software wurde eigens ein einfaches serielles Protokoll definiert. Die
Software für das Mapping der Daten auf die Klangerzeugung wurde unter Verwendung
der Musik-Programmiersprache Pure Data entwickelt.
96
7.2 Fazit
Der Realisierung des KlangHolzes liegt ein Interaktionskonzept zugrunde. Ausgehend
von den Gegebenheiten des Controllers wurden Möglichkeiten zur Steuerung der
musikalischen Struktur entwickelt. Hierbei konnten drei grundlegende Konzepte –
Auslösen, Anordnen und Auswählen – identifiziert werden.
Weiterhin wurde untersucht, welche Varianten der Einflussnahme auf Parameter
einzelner Klänge und der sich im zeitlichen Zusammenhang daraus ergebenden
musikalischen Parameter möglich sind. Hierzu wurde die Eignung der verschiedenen
Dimensionen der Kontrolle untersucht, wobei, im Sinne der Nachvollziehbarkeit
der Interaktion, die Mechanismen akustischer Musikinstrumente als Anhaltspunkt
dienten.
Schließlich wurden für das KlangHolz, den drei Konzepten zur strukturellen Steuerung
entsprechend, verschiedene Mapping-Konzepte von Controller auf Klangerzeugung
entwickelt, prototypisch umgesetzt und ausgewertet. Jedes dieser Konzepte stattet das
Instrument mit einem eigenen Charakter aus und positioniert es auf eine bestimmte
Weise im Kontinuum zwischen interaktiver Klanginstallation und anspruchsvollem
digitalem Musikinstrument. Das KlangHolz erfüllt weiterhin verschiedene Ansprüche:
Neben der akustischen Ausgabe vermittelt das Instrument visuelle Information über
seinen Zustand bereits durch das Anordnen der Kugeln auf der Holzoberfläche sowie
durch die an der Interaktion beteiligten Gesten. Als Tangible-Interaction-System
ist es per se für die gleichzeitige Verwendung durch mehrere Benutzer geeignet.
Anwendungen sind vor allem im Rahmen interaktiver Installationen oder auch in
der musikalischen Ausbildung denkbar.
7.2 Fazit
Es konnte gezeigt werden, dass das in der Einleitung beschriebene Szenario umgangen
werden kann: Die Aufführung von Computer-Musik muss nicht bewegungslos hinter
Monitor und Tastatur stattfinden, sondern kann, ähnlich dem Spiel konventioneller
Musikinstrumente, ein lebendiger körperlicher Interaktionsprozess sein.
Dazu wurde eine Verbindung von Konzepten des Baus digitaler Musikinstrumente,
der Tangible Interaction sowie von Technologien zur Erzeugung greifbarer Benutzerschnittstellen und musikalischer Anwendungen hergestellt und darauf aufbauend ein
eigenes Interaktionskonzept sowie ein digitales Musikinstrument entwickelt.
97
7 Schlussbetrachtungen
Der prototypische Bau von Tangible-User-Interface-Systemen ist ein mit vielen
Problemquellen behaftetes Unterfangen. Das Zusammenspiel verschiedenster Technologien, zum Beispiel Sensoren, Elektronik oder Programmierung, und die Realisierung
des Systems als Verbindung von virtueller und physischer Welt, stellten besondere
Herausforderungen bei der Umsetzung dar.
7.3 Ausblick
Die Ergebnisse der vorliegenden Arbeit können die Grundlage für weitere Schritte
sein – sowohl weitere Experimente, als auch Forschungsthemen im Bereich digitaler
Musikinstrumente mit Tangible User Interfaces.
Das KlangHolz-Instrument selbst kann um verschiedene Konzepte erweitert werden.
Denkbar wäre die Einführung nicht-akustischen Feedbacks, um dem Musiker und dem
Publikum weitere Informationskanäle über den aktuellen Zustand des Instrumentes
zur Verfügung zu stellen. Hierfür wären zusätzlich generierte visuelle Rückkopplungen
des Instrumentes möglich, etwa Projektionen auf der Oberfläche des Instrumentes
oder im umgebenden Raum. Eine weitere Variante wäre die Bereitstellung haptischen
Feedbacks, also beispielsweise Vibrationen der verwendeten physischen Objekte, um
deren Aktivität zu signalisieren.
Die entwickelten Interaktionskonzepte können bei der Gestaltung weiterer digitaler
Musikinstrumente oder interaktiver Klanginstallationen angewendet werden. In
diesem Rahmen wären weiterführende Forschungen zu geeigneten Technologien
für die Konstruktion von Controllern digitaler Musikinstrumente mit greifbaren
Benutzerschnittstellen angebracht.
Schließlich kann eine weitergehende Differenzierung der Einsatzbereiche, zum Beispiel
in Live-Aufführungen, als Bestandteil interaktiver Installationen oder auch in der
Verwendung für musikalische Ausbildung, vorgenommen werden. Außerdem sind
entsprechende Verfeinerungen der Interaktionskonzepte möglich. Insbesondere für
den Ausbildungsbereich ist die Fragestellung denkbar, wie das Greifbar-Machen der
Musik auch in andere Anwendungsgebiete übertragen werden kann.
Letztendlich ist zu bedenken, dass Grenzüberschreitungen und das Loslösen von
vertrauten Formen und Regeln gerade in der Musik neue Wege eröffnen sowie kreative
Ergebnisse und Erlebnisse mit sich bringen können. Aber auch Einschränkungen
und Limitationen stellen oft eine Quelle der Inspiration und Kreativität dar. Diese
98
7.3 Ausblick
Gedanken können bezüglich der Konzeption und technischen Umsetzung von greifbaren Benutzerschnittstellen digitaler Musikinstrumente fortgeführt werden und zu
weiteren interessanten Ergebnissen führen.
99
A KlangHolz – System-Entwurf
Für den Entwurf der KlangHolz-Software wurde die Use-Case-Maps-Notation verwendet (siehe Abbildungen A.1, A.2 und A.3). Auf diese Weise können Verhalten
und Struktur einer komplexen Anwendung gut beschrieben werden. Da es sich bei
Pure Data um eine grafische Programmiersprache handelt, liefern die entwickelten
Patches gleichzeitig detailliertere Entwurfsbeschreibungen.1
Abbildung A.1: KlangHolz-Entwurf: Root-Map für das gesamte System
1
Die Pd-Patches sind auf der beiliegenden CD-Rom gespeichert: Als Pd-Dateien
unter Quellcode/PureData-Patches, außerdem im Postscript-Format im Ordner
Quellcode/PureData-Patches/postscript
101
A KlangHolz – System-Entwurf
Abbildung A.2: KlangHolz-Entwurf: Plugins (Verfeinerungen) für den Arduino-Microcontroller
Abbildung A.3: KlangHolz-Entwurf: Plugins für die Pd-Patches
102
B KlangHolz – Bilder
Abbildung B.1 zeigt eine Ansicht des KlangHolzes mit verschiedenfarbigen Glaskugeln.
Die Abbildungen B.2(a) und B.2(b) dokumentieren den Bau des Controllers.
Abbildung B.1: Das KlangHolz
103
B KlangHolz – Bilder
(a) Bohrung
(b) Rückseite
Abbildung B.2: Bau des KlangHolzes
104
Literaturverzeichnis
[Ard07]
Arduino.
Arduino.
2007.
URL: http://arduino.cc/ [Stand vom
11.08.2008].
[BFH+ 07] Alan F. Blackwell, George Fitzmaurice, Lars Erik Holmquist, Hiroshi
Ishii und Brygg Ullmer. Tangible user interfaces in context and theory.
In CHI ’07: CHI ’07 extended abstracts on Human factors in computing
systems, 2007.
[BK04]
Nick Bryan-Kinns. Computers in Support of Musical Expression. Technical
report, Queen Mary University of London, 2004.
[BMHS03] Rodney Berry, Mao Makino, Naoto Hikawa und Masumi Suzuki. The
Augmented Composer Project: The Music Table. In Proceedings of the
Second IEEE and ACM International Symposium on Mixed and Augmented
Reality (ISMAR ’03), 2003.
[Bon00]
Bert Bongers. Physical Interfaces in the Electronic Arts: Interaction
Theory and Interfacing Techniques for Real-time Performance. Technical
report, Engineering Design Centre, University of Cambridge, 2000.
[CSR03] Enrico Constanza, Simon B. Shelley und John Robinson. Introducing
Audio D-Touch: A Tangible User interface for Music Composition and
Performance. In Proceedings of the 6th International Conference on Digital
Audio Effects (DAFX-03), 2003.
[Cyc08]
Cycling ’74. Cycling ’47 || Tools For Media. 2008. URL: http://www.
cycling74.com/ [Stand vom 20.02.2008].
[Deg07]
Yves Degoyon. PiDiP Is Definitely In Pieces. 2007. URL: http://
ydegoyon.free.fr/pidip.html [Stand vom 04.02.2008].
[Doe08]
Doepfer Musikelektronik. MIDI-Interfaces. 2008. URL: http://www.
doepfer.de/prod_d.htm#MIDI-Interfaces [Stand vom 04.02.2008].
105
Literaturverzeichnis
[End05]
Bernd Enders, Hrsg. Mathematische Musik - musikalische Mathematik.
Pfau-Verlag, Saarbrücken, 2005.
[Fis04]
Kenneth P. Fishkin. A taxonomy for and analysis of tangible interfaces.
Personal and Ubiquitous Computing, 8(5):347–358, 2004.
[Föl04]
Golo Föllmer. Medien Kunst Netz (2004): Cahill, Thaddeus: Telharmonium. 2004. URL: http://www.mediaartnet.org/werke/telharmonium/
[Stand vom 06.07.2007].
[FWC07] Rebecca Fiebrink, Ge Wang und Perry R. Cook. Don’t Forget the Laptop:
Using Native Input Capabilities for Expressive Musical Control. In Proceedings of the 2007 Conference in New interfaces for Musical Expression
(NIME07), 2007.
[Gan01]
Seum-Lim Gan.
Squeezables.
2001.
URL: http://xenia.media.
mit.edu/~gan/Gan/Education/MIT/MediaLab/Research/Squeezables/
[Stand vom 08.01.2008].
[GF08]
Saul Greenberg und Peter Fitchett. Phidgets – Physical widgets for
prototyping physical user interfaces. 2008. URL: http://grouplab.cpsc.
ucalgary.ca/phidgets/ [Stand vom 04.02.2008].
[Han08]
Yoon Chung Han. Sound Marble. 2008. URL: http://mohoya.com/
soundmarble/ [Stand vom 04.02.2008].
[Hil07]
Jürgen Hiller. Trautonium. 2007. URL: http://trautonium.de/ [Stand
vom 11.07.2009].
[Hor07]
Eva Hornecker. Die Rückkehr des Sensorischen: Tangible Interfaces und
Tangible Interaction. In Hans Dieter Hellige, Hrsg., Engpass MenschComputer-Interface. Historische, aktuelle und zukünftige Lösungsansätze
für die Computerbedienung. Transcript Verlag (in press), 2007.
[HSU04] Lars Erik Holmquist, Albrecht Schmidt und Brygg Ullmer. Tangible
interfaces in perspective. Personal and Ubiquitous Computing, 8(5):291–
293, 2004.
[IEM08a] IEM – Institute of Electronic Music and Acoustics. About Pure Data –
PD Community Site. 2008. URL: http://puredata.info/ [Stand vom
20.02.2008].
[IEM08b] IEM – Institute of Electronic Music and Acoustics. Gem – PD Community
Site. 2008. URL: http://gem.iem.at/ [Stand vom 20.02.2008].
106
Literaturverzeichnis
[IML01]
Hiroshi Ishii, Ali Mazalek und Jay Lee. Bottles as a minimal interface
to access digital information. In CHI ’01: CHI ’01 extended abstracts on
Human factors in computing systems, 2001.
[IU97]
Hiroshii Ishii und Byrgg Ullmer. Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms. In Proceedings of CHI ’97, March
1997.
[JKGB05] Sergi Jordà, Martin Kaltenbrunner, Gunter Geiger und Ross Bencina.
The reacTable*. In Proceedings of the International Computer Music
Conference (ICMC2005), 2005.
[Jor01]
Sergi Jordà. New Musical Interfaces and New Music-making Paradigms.
In Proceedings of New Interfaces for Musical Expression. CHI 2001, 2001.
[Jor04a]
Sergi Jordà. Digital Instruments and Players: Part I – Efficiency and Apprenticeship. In Proceedings of International Conference on New Interfaces
for Musical Expression, 2004.
[Jor04b]
Sergi Jordà. Digital Instruments and Players: Part II – Diversity, Freedom
and Control. In Proceedings of International Computer Music Conference
2004, 2004.
[Jor05]
Sergi Jordà. Multi-user Instruments: Models, Examples and Promises.
In Proceedings of 2005 International Conference on New Interfaces for
Musical Expression, 2005.
[Kis06]
Spencer Kiser. SpinCycle: a color-tracking turntable sequencer. In NIME
’06: Proceedings of the 2006 conference on New interfaces for musical
expression, 2006.
[KJGA06] Martin Kaltenbrunner, Sergi Jordà, Gunter Geiger und Marcos Alonso. The reacTable*: A Collaborative Musical Instrument. In WETICE
’06: Proceedings of the 15th IEEE International Workshops on Enabling
Technologies: Infrastructure for Collaborative Enterprises, Seiten 406–411,
2006.
[Les07]
Charles Richard Lester. Theremins. 2007. URL: http://www.137.com/
theremin/ [Stand vom 11.07.2009].
[Mas36]
C. P. Mason. Theremin “Terpsitone”: A New Electronic Novelty. Radio
Craft, Seite 365, 1936.
[McC07] James McCartney. The SuperCollider Home Page. 2007. URL: http:
//www.audiosynth.com/ [Stand vom 20.02.2008].
107
Literaturverzeichnis
[MM07]
Thor Magnusson und Enrike Hurtado Mendieta. The Acoustic, the Digital
and the Body: A Survey on Musical Instruments. In Proceedings of the
2007 Conference in New interfaces for Musical Expression (NIME07),
2007.
[Moo05]
David Mooney. Opaque Melodies: The Rythmicon. 2005. URL: http:
//www.city-net.com/~moko/rhome.html [Stand vom 09.07.2007].
[Mus08a] Music Technology Group – Pompeu Fabra University – Barcelona. Reactable Media. 2008. URL: http://mtg.upf.edu/reactable/?media [Stand
vom 08.01.2008].
[Mus08b] Music Technology Group – Pompeu Fabra University – Barcelona. reacTIVision 1.3. 2008. URL: http://mtg.upf.edu/reactable/?software
[Stand vom 04.02.2008].
[obs05a]
obsolete.com. 120 Years of Electronic Music: Mellotrons and Chamberlins. 2005. URL: http://www.obsolete.com/120_years/machines/
mellotron/index.html [Stand vom 10.08.2008].
[obs05b]
obsolete.com.
120 Years of Electronic Music: The Electro-
phon, Sphäraphon, Partiturophon and the Kaleidophon (19211930). 2005. URL: http://www.obsolete.com/120_years/machines/
spharaphon/index.html [Stand vom 10.08.2008].
[obs05c]
obsolete.com. 120 Years of Electronic Music: The Theremin. 2005. URL:
http://www.obsolete.com/120_years/machines/theremin/index.
html [Stand vom 09.07.2007].
[Pie99]
John R. Pierce. Klang – Musik mit den Ohren der Physik. Spektrum
Akademischer Verlag, 1999.
[PO03]
Joseph A. Paradiso und Sile O’Modhrain. Current Trends in Electronic
Music Interfaces. Journal of New Music Research, Special Issue on New
Musical Interfaces, 32(4), 2003.
[Rus98]
André Ruschkowski. Elektronische Klänge und musikalische Entdeckungen.
Philipp Reclam jun. Stuttgart, 1998.
[Sac13]
Curt Sachs. Reallexilon der Musikinstrumente. Georg Olms Verlag, Berlin,
1913.
[Sta07]
Kurt Stallmann. An Interview with Max Mathews. Society for ElectroAcoustic Music in the United States Newsletter, July 2007.
108
Literaturverzeichnis
[Ste05a]
Hans-Christoph Steiner. Building your own instrument with Pd. In
Proceedings of the 1st International Pd Conference, Graz, Austria, 2005.
[Ste05b]
Hans-Christoph Steiner. [hid] toolkit: a unified framework for instrument
design. In Proceedings of the 2005 conference on New Interfaces for
Musical Expression (NIME05), 2005.
[The07]
Theremin Center. Theremin Center: Rhythmicon. 2007. URL: http:
//theremin.ru/ [Stand vom 11.07.2009].
[UI00]
Brygg Ullmer und Hiroshi Ishii. Emerging frameworks for tangible user
interfaces. IBM Systems Journal, 39(3-4):915–931, 2000.
[Wai06]
Michel Waisvisz. The Hands. 2006. URL: http://www.crackle.org/
TheHands.htm [Stand vom 08.08.2007].
[WC03]
Ge Wang und Perry Cook. ChucK: A Concurrent, On-the-fly, Audio
Programming Language. In Proceedings of the International Computer
Music Conference. ICMA, 2003, Seiten 219–226, 2003.
[WC08]
Ge Wang und Perry Cook. ChucK => Strongly-timed, On-the-fly Audio
Programming Language. 2008. URL: http://chuck.cs.princeton.edu/
[Stand vom 20.02.2008].
[Wei07]
Kristine Weißbarth. Klangsichten – Musikalische Perspektiven des Klangeinsatzes für interaktive Interfaces. Diplomarbeit, Technische Universität
Dresden, 2007.
[WG01]
Gil Weinberg und Seum-Lim Gan. The Squeezables: Toward an Expressive
and Interdependent Multi-player Musical Instrument. Computer Music
Journal, 25(2):37–45, 2001.
[Wir07]
Wiring. Wiring. 2007. URL: http://www.wiring.org.co/ [Stand vom
11.08.2008].
109
Abbildungsverzeichnis
2.1
Bestandteile eines digitalen Musikinstrumentes . . . . . . . . . . . .
12
2.2
Einfaches Beispiel für ein digitales Musikinstrument
13
2.3
Allgemeine Funktion der Abbildung zwischen Controller und Klanger-
. . . . . . . . .
zeugung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4
14
Schematischer Aufbau von Musik (Darstellung in Anlehnung an
[Wei07, Seite 57]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
3.1
Schritte in der Entwicklung der Musikinstrumente bis heute . . . . .
20
3.2
Theremin und Rhythmicon . . . . . . . . . . . . . . . . . . . . . . .
24
3.3
Das Terpsiton und das Trautonium . . . . . . . . . . . . . . . . . . .
25
3.4
The Hands
31
3.5
Die tischbasierten Musikinstrumente Audio D-Touch, ReacTable und
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Music Table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6
Die digitalen Musikinstrumente SpinCycle, MusicBottles und The
Squeezables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1
32
34
Interaktion zwischen Benutzer (Musiker oder Publikum) und einem
Musikinstrument (oder einer interaktiven Installation) . . . . . . . .
37
4.2
Ebenen der Kontrolle eines Instrumentes über Musik . . . . . . . . .
41
4.3
Diversität eines Musikinstrumentes nach [Jor04b] . . . . . . . . . . .
43
4.4
Feedback eines Musikinstrumentes . . . . . . . . . . . . . . . . . . .
45
5.1
MVC-Interaktionsmodell nach [UI00] . . . . . . . . . . . . . . . . . .
56
5.2
MCRpd-Interaktionsmodell für TUIs nach [UI00] . . . . . . . . . . .
57
5.3
Beispielinstrument A . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
5.4
Beispielinstrument B . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
5.5
Beispielinstrument C . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
5.6
Beispielinstrument D . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
5.7
Beispielinstrument E . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
111
Abbildungsverzeichnis
5.8
Beispielinstrument F . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.9
Taxonomie zur Einordnung von Tangible Interaction Systemen mit
64
den drei Dimensionen Verkörperung, Metapher und Körper und Raum 65
6.1
Möglichkeiten zur Beeinflussung der musikalischen Struktur beim
KlangHolz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
6.2
Dimensionen der Kontrolle beim KlangHolz . . . . . . . . . . . . . .
72
6.3
Schema der Mensch-Maschine-Interaktion nach [Bon00] . . . . . . . .
78
6.4
Interaktion zwischen Mensch und digitalem Musikinstrument (nach
[Bon00]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
6.5
KlangHolz: beteiligte Hardware- und Software-Komponenten . . . . .
87
6.6
KlangHolz: Details der Umsetzung . . . . . . . . . . . . . . . . . . .
88
6.7
Schaltplan für die Elektronik des KlangHolzes . . . . . . . . . . . . .
89
6.8
KlangHolz Pd-Patch . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
A.1 KlangHolz-Entwurf: Root-Map für das gesamte System . . . . . . . .
99
A.2 KlangHolz-Entwurf: Plugins (Verfeinerungen) für den Arduino-Microcontroller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A.3 KlangHolz-Entwurf: Plugins für die Pd-Patches . . . . . . . . . . . . 100
B.1 Das KlangHolz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
B.2 Bau des KlangHolzes . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
112
Tabellenverzeichnis
6.1
Steuern der musikalischen Struktur . . . . . . . . . . . . . . . . . . .
71
6.2
Mapping von Kontrolldimensionen auf Klangparameter . . . . . . . .
75
6.3
Übersicht zu den verschiedenen I/O-Boards . . . . . . . . . . . . . .
81
6.4
Übersicht zu den verschiedenen Musik-Programmierumgebungen . .
84
113
Herunterladen