Klangsichten - Musikalische Perspektiven des Klangeinsatzes für

Werbung
Klangsichten
Musikalische
Perspektiven des
Klangeinsatzes für
interaktive
Interfaces.
Diplomarbeit
vorgelegt von:
Kristine Weißbarth
(Matrikelnr.: 2702174)
eingereicht am:
28.02.2007
Betreuer:
Herr M.Sc. Ingmar S. Franke
verantwortlicher Hochschullehrer:
Prof. Dr.-Ing. habil. Rainer Groh
Lehrstuhl für Mediengestaltung
Institut für Software- und Multimediatechnik
Fakultät Informatik
Legende
Verlinkung eines
Hörbeispiels
Verlinkung eines
Videobeispiels
Die jeweiligen Hör- und Videobeispiele sind auf der beigefügten
Präsentations-CD zu finden. Zusätzlich können die Hörbeispiele über die
beigelegte Audio-CD in chronologischer Reihenfolge, entsprechend der in
der Arbeit benannten Nummerierung, in einem CD-Player abgespielt werden.
ii
Inhaltsverzeichnis
1. Einklang
1
1.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2. Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3. Gliederung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2. Audition - Begriffe und Definitionen
5
2.1. Die auditive Wahrnehmung des Menschen . . . . . . . . .
6
2.1.1. Physiologische Grundlagen . . . . . . . . . . . . . .
6
2.1.2. Ausbreitung
und
Wahrnehmungseigenschaften
von Schallsignalen . . . . . . . . . . . . . . . . . . .
8
2.1.3. Effekte der menschlichen Wahrnehmung . . . . . .
10
2.2. Der Ton macht die Musik - Einführung in die Musiktheorie
14
2.3. Affektenlehre - die Wirkung von Musik . . . . . . . . . . .
17
2.4. Synästhesie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
21
3.1. Frühzeit bis Mittelalter . . . . . . . . . . . . . . . . . . . . .
22
3.1.1. Frühzeit . . . . . . . . . . . . . . . . . . . . . . . . .
22
3.1.2. Griechisch-Römische Antike . . . . . . . . . . . . .
24
3.1.3. Mittelalter . . . . . . . . . . . . . . . . . . . . . . . .
26
3.2. Renaissance und Neuzeit . . . . . . . . . . . . . . . . . . . .
27
3.2.1. Klang und Farbe . . . . . . . . . . . . . . . . . . . .
27
3.2.2. Musik in Bildern . . . . . . . . . . . . . . . . . . . .
35
3.2.3. Klang und Form . . . . . . . . . . . . . . . . . . . .
38
3.2.4. Klang durch Aktion . . . . . . . . . . . . . . . . . .
41
3.2.5. Klang zeitgenössischer Arbeiten - Fusion der Stile .
45
3.2.5.1.
Messa di Voce (G. L EVIN, 2003) . . . . . .
45
3.2.5.2.
The Shape of a Song (M. WATTENBERG) .
48
3.2.5.3.
AVES - AudioVisual Environment Suite
(G. L EVIN, 2000) . . . . . . . . . . . . . . .
49
iii
Inhaltsverzeichnis
3.2.5.4.
Small Fish (M. F UJIHATA , K. F URUKAWA ,
W. M UENCH, 2000) . . . . . . . . . . . . .
49
Arbeiten von T OSHIO I WAI . . . . . . . . .
50
3.3. Zusammenfassung und Fazit . . . . . . . . . . . . . . . . .
51
3.2.5.5.
4. Die Möglichkeit eines musikalischen Interaktionsbildes
53
4.1. Das Interaktionsbild . . . . . . . . . . . . . . . . . . . . . .
53
4.2. Der musikalische Charakter . . . . . . . . . . . . . . . . . .
56
4.2.1. Untersuchungen zur Musik . . . . . . . . . . . . . .
56
4.2.2. Ansätze einer Kategorisierung . . . . . . . . . . . .
59
4.3. Grafonie - Grafisch-musikalische Abbildungen . . . . . . .
64
4.4. Funktionen des Klangeinsatzes . . . . . . . . . . . . . . . .
72
4.5. Zusammenfassung und Fazit . . . . . . . . . . . . . . . . .
74
5. Singende klingende Formen
77
5.1. Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
5.2. Klangkörper - Visuell Komponieren . . . . . . . . . . . . .
77
5.3. Audiskop - Bilder blind über Klang erschließen . . . . . . .
79
5.4. Technische Umsetzung . . . . . . . . . . . . . . . . . . . . .
83
5.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
6. Ausklang
85
6.1. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . .
85
6.2. Kritische Betrachtung . . . . . . . . . . . . . . . . . . . . . .
86
6.3. Fazit und Ausblick . . . . . . . . . . . . . . . . . . . . . . .
89
A. Wahrnehmungseffekte
III
B. Musiktheorie
V
C. Ton und Farbe
VII
D. Musik in der bildenden Kunst
XI
E. Klangfiguren von C HLADNI
XXI
F. Klassendiagramme
XXIII
G. Literaturverzeichnis
XXV
H. Abbildungsverzeichnis
XXXI
I. Tabellenverzeichnis
iv
XXXV
Inhaltsverzeichnis
J. Medienverzeichnis
XXXVII
K. Ehrenwörtliche Erklärung
XXXIX
v
1. Einklang
Musik. Das Parfüm des Hörens.
D. A CKERMANN in [Ack91]
Zur Einstimmung in den Themenbereich sei ein kurzer Ausschnitt eines Interviews mit S EMYON B YCHKOV, Chefdirigent des Westdeutscher
Rundfunk (WDR) Sinfonieorchesters, vorgestellt, welcher einleitend einige prägnante Fragen des audiovisuellen Bereichs thematisiert. Im Anschluss daran werden Motivation, Zielsetzung und Gliederung der vorliegenden Arbeit dargelegt.
B YCHKOV führte am 1. Januar 2006, anlässlich des 50. Geburtstagsjahres
des WDR, G USTAV M AHLERS Auferstehungssinfonie in einem multimedialen Ereignis auf, dem Projekt Vision Mahler. Während das Orchester
spielte, schwebten auf einer 54 Meter langen 180-Grad-Leinwand farbige
Kunstformen von J OHANNES D EUTSCH entlang (vgl. [Wor07]).
WDR Herr Bychkov, braucht Musik überhaupt Bilder?
S. Bychkov Nein, eigentlich braucht Musik keine Bilder. Musik kann aber Bilder erzeugen. Musik ist eine abstrakte Kunstform, die in uns Hörern oft
Assoziationen und Visionen weckt. Einige davon können sehr konkret sein,
andere eher abstrakt. Es ist darum leicht nachzuvollziehen, dass Musik
einen Künstler inspiriert, Bilder zu schaffen. Und genau das macht Johannes Deutsch.
WDR Worin liegt der Reiz, die visuelle Kunstform mit der musikalischen zu
verbinden?
S. Bychkov Es ist nicht der Versuch, die Sinfonie von Mahler zu verbessern.
Diese Musik muss nicht mehr verbessert werden, sie ist großartig, so wie
sie ist. Es ist eher unser Wunsch zu sehen, was passiert, wenn zwei Kunstformen in einer Synthese zusammenkommen. Das ist übrigens gar nicht
so ungewöhnlich: Viele Komponisten haben mit bestimmten Tonarten bestimmte Farben verbunden. In diesem Sinne ist das, was wir machen, nicht
neu. [...] Die Computertechnologie macht es möglich, Musik mit dreidimensionalen abstrakten Bildern zu visualisieren. Die Zuschauer bekommen während der Aufführung drei Interpretationen gleichzeitig. Das eine
1
1. Einklang
ist die pure musikalische Interpretation der zweiten Sinfonie von Mahler. Die zweite ist die Interpretation eines Künstlers, der inspiriert ist von
Mahlers Musik und diese in abstrakte Malerei übersetzt. Und die dritte Interpretation ist die Interpretation der Technologie, die dann die Bilder von
Johannes Deutsch im Moment der musikalischen Interpretation umwandelt. Wenn zum Beispiel das Tempo langsam ist, dann nehmen die visuellen Objekte eine andere Form an, als wenn das Tempo plötzlich schneller
wird. Diese Sensibilität der Technologie war in der Vergangenheit nie möglich.[...]
WDR Der Medienkünstler Johannes Deutsch sagt, durch die Visualisierung
werde die Musik begreifbarer, emotionaler. Kann der Zuhörer Mahler mit
Bildern wirklich besser verstehen?
S. Bychkov Das wissen wir erst, wenn die Aufführung beendet ist. Wir haben
es nie zuvor ausprobiert. Die wichtigste Frage ist: Kann unser Nervensystem gleichzeitig musikalische und visuelle Information aufnehmen, ohne
den wichtigsten Aspekt - und das ist die Musik von Mahler - zu verlieren?
Sind wir dazu in der Lage? Können wir mit unseren Augen hören und mit
unseren Ohren sehen?
Das Gespräch führte S ILKE W ORTEL.
1.1. Motivation
Bildende Kunst und Musik besitzen die Fähigkeit, sowohl Informationen,
als auch Stimmungen und Emotionen zu transportieren. Musik, als das
Parfüm des Hörens, strahlt darüber hinaus seit jeher eine besonders starke Faszination auf den Menschen aus. Die musikalische Ausdruckskraft
in geradezu allumfassender Wirkung vermag es, diverse Gemütszustände auszulösen und das Leben bis in alltäglichste Situationen hinein zu
begleiten und zu bereichern. Auch im Bereich der Informationstechnologie haben Klänge inzwischen Einzug gehalten und tönen in verschiedensten Formen in die Welt hinaus. Leider wird dabei allzu oft die Angemessenheit außer Acht gelassen, so dass das klangliche Spiel vielerorts mehr
störend als bereichernd wirkt. Oftmals fehlen die Relationen zwischen
Anwendung und Klang gänzlich, so dass eine akustische Unterstützung
seitens des Nutzers in Konsequenz gänzlich abgelehnt wird. Doch sind
es nicht genau Klänge und Musik, die es (alleinig) vermögen, interaktive Medien dem Nutzer vertrauter zu machen, ihn innerlich zu berühren
und zu bereichern? Bilder könnten durch adäquate Klänge informell und
2
1.2. Zielsetzung
emotional verstärkt werden und in Fusion könnte es dem Bildlichen und
Klanglichen gelingen, dem Menschen zu einem ganzheitlichen Sinneseindruck zu verhelfen.
Im Bereich der Kunst existieren seit Längerem Bestrebungen, die bildende mit der musikalischen Kunst in einer Art Gesamtkunstwerk zu vereinen.
Doch beschränken sich diese Überlegungen meistens auf den Einfluss
von Musik in der bildenden Kunst und die Darstellung von Musik über
bildende Kunst: die Visualisierung von Musik. Es stellt sich nun die Frage, inwiefern bildende Kunst auch über Musik ausdrückbar ist? Können
womöglich vorhandene bildliche Strukturen in Musik (in Form einer musikalisierten Visualisierung) fassbar gemacht werden? Ist es möglich, die
visuelle Wahrnehmung im Umgang mit interaktiven Medien, durch eine
geeignete Umsetzung in akustische Strukturen, zu entlasten? Vermag es
Musik den Menschen im Umgang mit digitalen Medien zu unterstützen,
zu bereichern und womöglich neue Anwendungsbereiche zu schaffen?
1.2. Zielsetzung
Gegenstand dieser Arbeit sind die wechselseitigen Beziehungen der
visuellen und akustischen Abbildungen. Auf der Basis theoretischer
Betrachtungen zu den Grundlagen der Klang- und Musikwahrnehmung und den im Laufe der geschichtlichen Entwicklung entstandenen
Techniken und Verfahren des Themengebiets werden (durch Ableitung
aus und Kombination von vorhandenen Arbeiten) Überlegungen und
Versuche einer Systematisierung von Musik und einige daraus resultierende mögliche Abbildungen vom Bildlichen in das Musikalische
vorgestellt. Ziel ist es, Gestaltern eine grundlegende Basis zur Seite zu
stellen, welche die Wahl angemessener und verständlicher musikalischer
Mittel im Bereich interaktiver Interfaces erleichtert. Der Schwerpunkt
liegt dabei in Untersuchungen zu Abbildungen grafischer auf akustische
Eigenschaften.
1.3. Gliederung
Nachdem in diesem Kapitel die Motivation und Zielsetzung der vorliegenden Arbeit dargelegt wurde, klärt Kapitel 2 zunächst die Grundlagen
der akustischen Wahrnehmung, der Ausbreitung von Schall und den
damit zusammenhängenden Wahrnehmungseffekten. An dieser Stelle
wird außerdem in Kürze auf die Grundlagen der Musiktheorie, der
3
1. Einklang
Bedeutung der so genannten Affektenlehre und auf das Phänomen der
Synästhesie eingegangen. Daran anschließend ist in Kapitel 3 ein Einblick
in die im Laufe der geschichtlichen Entwicklung wechselnde Rolle von
bildender Kunst und Musik zu finden. Epochenweise werden Schritt für
Schritt bedeutende Bestrebungen und Entwicklungen vorgestellt, welche
Wissenschaftler, Philosophen oder Künstler jener Zeit beschäftigten. Die
zahlreichen seit der Renaissance entstandenen audio-visuellen Modelle
werden zusätzlich in Kategorien unterteilt, welche die Art und Weise
der Beziehung zwischen Bildlichem und Musikalischem beschreibt:
Klang und Farbe, Musik in Bildern, Klang und Form sowie Klang
durch Aktion. Abschließend werden einige zeitgenössische künstlerische
Projekte beispielgebend für die zunehmende Fusion der Stile vorgestellt.
Kapitel 4 sucht aus diesen Betrachtungen eine Essenz als Grundlage
für musikalisch umgesetzte Abbildungen zu ziehen. Nachdem zunächst
ein Einblick in das Modell des Interaktionsbildes gegeben wird, konzentrieren sich die weiteren Untersuchungen darauf, Musik und die
sie bestimmenden Attribute herauszuarbeiten und in geeigneter Form
zu systematisieren. Beispielhaft werden denkbare Abbildungen vom
Bildlichen ins Musikalische vorgestellt und Einsatzbereiche aufgezeigt.
Kapitel 5 stellt daran anschließend zwei prototypische Umsetzungen
vor, welche einige der in Kapitel 4 diskutierten Gedanken verarbeiten
und den Nutzer, auf abstrakter Ebene und in spielerischer Art und
Weise, mit dem Bereich der tonalisierten Visualisierung vertraut machen.
Abschließend liefert Kapitel 6 eine Zusammenfassung der Überlegungen
mit kritischer Betrachtung und ausblickenden Gedanken.
4
2. Audition - Begriffe und
Definitionen
Nehmen wir die Musik. Sie ist am wenigsten mit der Wirklichkeit verbunden. Vielmehr, zwar verbunden aber ohne Idee. Mechanisch. Durch den bloßen Klang. Ohne Assoziation. Trotzdem dringt
die Musik durch irgendein Wunder bis in die Seele. Was gerät ins
Schwingen in uns als Antwort auf die zur Harmonie gebrachten Geräusche? Verwandelt sie für uns in eine Quelle erhabenen Genusses?
Verbindet und erschüttert uns?
aus A NDREJ TARKOWSKIJs Stalker
Das vorangehende Zitat beschreibt die Faszination von Musik, der
die Menschen seit Jahrtausenden unterliegen. Elementar betrachtet sind
Töne, Klänge oder Geräusche vom Ohr wahrgenommene Schwingungen,
welche als akustische Konsequenzen kinetischer Ereignisse entstehen.
Dabei bestimmt die Beschaffenheit der aufeinander treffenden Elemente
den Klang. Generell kann man die uns umgebenden Klänge in folgende
Kategorien einordnen: die überwiegend Geräusche erzeugenden Naturereignisse (Plätschern eines Baches, Klirren von Eis oder Rauschen von
Blättern), mechanische Ereignisse (Rattern eines Motors), sowie das Töne
erzeugende Spiel auf Musikinstrumenten oder Gesang. Die elektronische
Klangsynthese bildet eine Sonderform, da hier die Töne über elektrische
Impulse, nicht aber durch das Aufeinandertreffen zweier „Elemente“
gebildet werden. Dennoch wird auch diese Art von Klängen, abgesehen
von der internen Repräsentation elektronischer Musik in Form von
Programmcode, nur hörbar, indem die Membranen der Lautsprecher
in Schwingung versetzt werden, was der oben genannten Definition
wiederum entspräche: ein Ton als pulsierende Luft, die die Organe in
unseren Ohren stimuliert [Ack91, S.264].
In dem folgenden Kapitel werden zunächst die physikalischen und
physiologischen Eigenschaften von Schall und der menschlichen
Wahrnehmung betrachtet, bevor anschließend einige (theoretische)
Grundlagen von Musik geklärt werden, die im weiteren Verlauf der
5
2. Audition - Begriffe und Definitionen
Arbeit hilfreich sein werden. Dies schließt sowohl eine kurze Einführung
in die Musiktheorie, als auch einige Erläuterungen zur Wirkung von
Musik und zu dem Bereich der Synästhesie ein.
2.1. Die auditive Wahrnehmung des Menschen
2.1.1. Physiologische Grundlagen
Die Wahrnehmung von Schallsignalen ist auf die Schwingung von Objekten und deren Einwirkung auf ihre Umwelt, wie zum Beispiel Luft oder
Wasser, zurückzuführen. Schallwellen erzeugen in der Luft ein Muster
aus Hoch- und Tiefdruckregionen, welche über die Luftmoleküle weitergegeben werden (vgl. [Gol97, S.315 ff]) und über die Parameter Frequenz und Amplitude bestimmt sind. Wenn die Schallwellen das menschliche Ohr erreichen, passieren sie zunächst die Ohrmuschel und den äußeren Gehörgang, welche zu dem äußeren Ohr zählen (Abb. 2.1). Den Abschluss dieses Bereichs bildet das Trommelfell, welches durch die auftreffenden Schallwellen in Schwingung versetzt wird und diese an die Gehörknöchel (Hammer → Amboß → Steigbügel) im Mittelohr überträgt (Abb.
2.1). Der Steigbügel leitet die Schwingung durch Druck an die, das ovale Fenster abdeckende, Membran weiter, welche somit die Flüssigkeit in
der Cochlea des Innenohres (Abb. 2.1) in Schwingung versetzt. Die Haarzellen des in der Cochlea befindlichen cortischen Organs sind schließlich
für die Ausschüttung des Neurotransmitters zuständig, welcher die Entladungen in die Fasern des Hörnervs auslöst (vgl. [Gol97, S.320 ff]).
Abb. 2.1.: Aufbau des menschlichen Ohres [Gol97]
6
2.1. Die auditive Wahrnehmung des Menschen
Die physikalische Beschaffenheit von Schallsignalen bewirkt unterschiedliche Merkmale in deren Wahrnehmung. So wird beispielsweise
die wahrgenommene Tonhöhe eines Schallsignals durch dessen Frequenz bestimmt: je höher die Frequenz, desto höher der Ton. Für den
Menschen sind nur Schwingungen im Bereich von 16 Hz bis 20.000
Hz hörbar. Die Lautstärke wiederum wird über die Amplitude des
Schalldrucks beschrieben: bei zunehmender Amplitude steigt auch die
wahrgenommene Lautstärke und umgekehrt.
(a) Hörschwellkurve und Hörfläche [Gol97]
(b) Kurven gleicher Lautstärke [Rec85]
Abb. 2.2.: Zusammenhang von Schalldruckpegel, Frequenz und Lautstärke
Ein weiterer Aspekt, der das Hören beeinflusst, ist die so genannte
Hörschwellkurve, welche die Beziehung zwischen Empfindlichkeit der
Wahrnehmung und Frequenz des Schallsignals ausdrückt. Schallsignale,
deren Schalldruckpegel unterhalb der Hörschwellkurve liegen, werden
vom Menschen nicht gehört. Dabei ist festzustellen, dass tiefe und ganz
hohe Frequenzen einen höheren Schalldruckpegel benötigen, um gerade
gehört zu werden, als die im mittleren Bereich befindlichen Frequenzen
(Abb. 2.2(a)). Der oberhalb der Hörschwellkurve liegende Bereich wird
als Hörfläche bezeichnet und wird nach oben durch die Fühlschwelle
begrenzt (Abb. 2.2(a)). Oberhalb dieser Grenze wird die Schallwahrnehmung als schmerzhaft empfunden (vgl. [Gol97, S.352ff] und [Rec85,
S.124ff]). Auch die Lautstärkenwahrnehmung kann mit dem Schalldruckpegel in Verbindung gebracht werden, wobei hier unterschieden werden
muss zwischen dem physikalischen Maß der Reizstärke (Schallstärke)
und der, tatsächlich durch die menschlichen Sinne wahrgenommenen,
Empfindungsstärke (Lautstärke). Da die Empfindlichkeit des menschlichen Ohres, über den gesamten Frequenzbereich betrachtet, variiert (vgl.
[Rec85, S.124ff]), ist die Lautstärkenwahrnehmung stets abhängig von
der jeweiligen Frequenz. Abbildung 2.2 verdeutlicht diesen Sachverhalt,
indem zum einen in Abbildung 2.2(a) die Hör- und Schmerzschwelle
7
2. Audition - Begriffe und Definitionen
bezeichnet werden (SPL steht für Schalldruckpegel) und zum anderen
die Kurven gleich empfundener Lautstärke verzeichnet sind (siehe auch
Abbildung 2.2(b)). Bei Frequenzen über 4000 Hz gilt beispielsweise: je
höher der Schalldruckpegel, desto größer die Lautstärke.
2.1.2. Ausbreitung und Wahrnehmungseigenschaften von
Schallsignalen
Über die Auswertung der Schallsignalunterschiede von rechtem und
linken Ohr, welche durch die eintreffenden Schallwellen verschieden
stimuliert werden, ist es dem Menschen möglich, zu lokalisieren, aus welcher Richtung das Schallsignal kommt. Dieser Effekt wird als binaurales
Abb. 2.3.:
Interaurale
Zeitdifferenz
[Gol97]
Hören bezeichnet und setzt sich aus zwei grundlegenden Eigenschaften
zusammen: der interauralen Zeitdifferenz und der interauralen Pegeldifferenz (vgl. [Gol97, S.335 ff]). Die interaurale Zeitdifferenz beschreibt
die unterschiedliche Laufzeiten der Schallwellen, die das Ohr erreichen.
So haben die Schallwellen der in Abbildung 2.3 als B bezeichneten
Schallquelle einen längeren Weg zum linken Ohr zurückzulegen, als zum
rechten und treffen somit dort auch später ein. Bestimmte Neuronen
sprechen auf die interaurale Zeitdifferenz an und signalisieren über eine
Art Zeitcode, aus welcher Richtung der Schall kommt. Die interaurale
Abb. 2.4.:
Ausbreitung
tieffrequenten
Schalls [Gol97]
Pegeldifferenz wiederum beschreibt die Intensität, mit der die Schallwellen an den Ohren eintreffen. Die in Abbildung 2.3 von der Schallquelle B
kommenden Schallwellen werden durch den Kopf reflektiert und treffen
somit am linken Ohr in verminderter Intensität ein. Der Kopf wirft eine
Art Schallschatten. Dieser Effekt wird besonders bei hochfrequenten
Tönen deutlich, da diese im Verhältnis zum Kopf eine kurze Wellenlänge
haben und reflektiert werden (Abb. 2.4). Tieferfrequente Töne (unter
1000 Hz) haben dementsprechend zur Kopfgröße eine lange Wellenlänge
Abb. 2.5.:
Ausbreitung
hochfrequenten
Schalls [Gol97]
und werden kaum beeinflusst (Abb. 2.5). Dies hat zur Folge, dass dem
Menschen die Ortung eines tieferfrequenten Tones schwer oder gar nicht
möglich ist.
Bei bewegten Schallquellen bewirken die Ausbreitungseigenschaften
von Schall, dass ein und das gleiche Schallsignal in unterschiedlichen
Höhen wahrgenommen wird, was auch als Dopplereffekt bekannt
ist. Durch die Bewegung breitet sich der Schall in der direkten Umgebung der Schallquelle nicht mehr gleichmäßig in alle Richtungen aus,
sondern wird gegen die Fahrtrichtung verschoben (Abbildung 2.6),
was eine Veränderung der Wellenlänge zur Folge hat. Somit sind die
vor der Schallquelle befindlichen Schallwellen höherfrequent, als die
8
2.1. Die auditive Wahrnehmung des Menschen
dahinterliegenden und werden demnach auch höher wahrgenommen,
wie es typischerweise beim Vorbeirauschen eines Krankenwagens oder
hupenden Autos (siehe Hörbeispiel 1) nachvollziehbar ist. Je weiter der
Hörer von der bewegten Schallquelle entfernt ist, desto weniger drastisch
empfindet er die Frequenzverschiebung. Analoges geschieht bei der
Bewegung des Empfängers relativ zur Schallquelle.
Die Wahrnehmung eines Schallsignals wird außerdem stark durch
die Umgebung und Objekte bestimmt, die es auf dem Weg zum Ohr
beeinflussen. Dabei ist die Stärke von Reflexionen stets abhängig von
der Oberflächenbeschaffenheit der Gegenstände, an denen der Schall
reflektiert wird. So wird die Ortung einer Schallquelle außerdem durch
den Präzedenzeffekt beeinflusst, welcher zwei verschiedene Arten von
Abb. 2.6.:
Ausbreitung
der Schallwellen bei
bewegter
Schallquelle
Schall unterscheidet: den Primärschall und den reflektierten Schall. Während der reflektierte Schall auf seinem Weg zum Ohr an Gegenständen
in der Umgebung reflektiert wird, erreicht der Primärschall das Ohr
auf direktem Wege und trifft somit früher und direkt aus der Richtung
der Schallquelle ein. Die Ortung der menschlichen Wahrnehmung
bezieht sich immer auf den zuerst auftreffenden Schall, so dass ein
durch Reflexion aus einer anderen Richtung kommendes Schallsignal
keine Verwirrung stiften kann. Ein weiterer durch die Umgebung hervorgerufener Effekt der Wahrnehmung ist die Nachhallzeit, welche die
Menge des reflektierten Schalls eines Raumes beschreibt (vgl. [Gol97,
S.363ff]). Klänge kurzer Nachhallzeiten klingen klanglos und trocken, da
ein Großteil des Schalls vom Raum absorbiert wird. Überlagern sich die
Schallwellen jedoch bei zu vielen Reflexionen (lange Nachhallzeit), wirkt
die Musik breiig und verwaschen. Eine optimale Nachhallzeit für einen
Konzertsaal liegt bei 1,5 - 2 Sekunden.
Der Klang eines Tones wird jedoch nicht nur durch die Nachhallzeit,
sondern auch durch dessen Klangfarbe geprägt. So können Töne der
gleichen Tonhöhe und Lautstärke völlig verschieden klingen, werden sie
von unterschiedlichen Musikinstrumenten dargeboten. Ein Grund dafür
liegt in der relativen Stärke der harmonischen Oberschwingungen eines
Tones, die je nach Instrument verschieden sind. So weist beispielsweise
die Gitarre in hohen Frequenzen mehr Obertöne auf als ein Fagott
oder ein Altsaxophon (vgl. [Gol97, S.361ff]). Doch auch der Ein- und
Ausschwingvorgang trägt entscheidend zur Qualität der Klangfarbe bei.
Generell kann beispielsweise festgehalten werden, dass sich tiefe Obertöne schneller aufbauen und eine längere Ausschwingzeit aufzeigen. In der
Phase zwischen Ein- und Ausschwingen des Tons bleibt die harmonische
Struktur relativ konstant (vgl. [Gol97, S.363]).
9
Hörbsp. 1.:
Dopplereffekt
2. Audition - Begriffe und Definitionen
2.1.3. Effekte der menschlichen Wahrnehmung
Obwohl sich das auditive und visuelle System der menschlichen Wahrnehmung sowohl in Struktur als auch Arbeitsweise stark unterscheiden,
finden sich in der Art der Reizaufnahme viele Ähnlichkeiten (siehe auch
Tabelle 2.1). Über die Umwelt nimmt der Mensch komplexe sich oftmals
überlagernde Schallsignale wahr. Deren Gesamtheit wird, ähnlich zur
bildlichen Welt, als akustische Szene bezeichnet (vgl. [Gol97]). Eine typische akustische Szene eines Nachmittags im Freien wäre beispielsweise
das Aufeinandertreffen von Vogelgezwitscher, Gesprächen zwischen Personen, Radiomusik, Autohupen, Wasserplätschern und Kindergeschrei.
Über die sogenannte auditive Lautsphärenanalyse wird dieses komplexe
Schallsignal in bedeutungshaltige Schallereignisse zerlegt, so dass der
Mensch die einzelnen Geräusche oder Töne klar voneinander trennen
und dem Geschehnis in der Umwelt zuordnen kann. Dies entspricht der
getrennten Wahrnehmung einzelner Objekte in visuellen Szenen. Durch
die Fähigkeit, gezielt auditive Reize aufzunehmen, wird der Mensch
darin unterstützt, beispielsweise die Stimme eines Bekannten aus einer
komplexen akustischen Szene herauszufiltern. Die auditive Differenzierung äußert sich außerdem in der spezialisierten Wahrnehmung von
Unterschieden, wie zum Beispiel schnell-langsam, kurz-lang, laut-leise
und hoch-tief.
Visuelle und auditive Wahrnehmung scheinen in ständiger Wechselwirkung zueinander zu stehen. So sucht die menschliche Wahrnehmung beständig danach, zu wahrgenommenen Geräuschen oder Klängen bildliche Entsprechungen zu finden. Außerdem können bestimmte Attribute
sowohl visuelle, als auch akustische Qualitäten beschreiben, wie zum Beispiel Helligkeit. Einen weiteren Schritt macht W OLFGANG K ÖHLER, mit
Abb. 2.7.:
Figuren von
KÖHLERs phonetischem
Experiment
seinem um 1927 vorgestellten phonetischen Experiment (vgl. [Köh29]), in
welchem er Probanden befragt, welche der beiden Grafiken in Abbildung
2.7 das Wort maluma und welche das Wort takete verkörpern. Die überwiegende Mehrheit verknüpfte die zackige Form mit dem Wort takete und die
runde Form mit dem Wort maluma. Dies verdeutlicht, dass auch der Klang
eines Wortes in gewisser Weise andere Wahrnehmungsebenen beeinflusst
und ihm über die menschliche Wahrnehmung bestimmte Qualitäten, wie
Form oder Oberflächenbeschaffenheit eines visuellen Objektes, zugeordnet werden. Obwohl diese Korrespondenz in modernen Sprachen weitestgehend verloren ging, kann die Herkunft vieler Wörter auf die Oberflächenform oder Oberflächenbeschaffenheit des zu beschreibenden Elementes zurückgeführt werden (vgl. [Köh29, S.242]).
10
2.1. Die auditive Wahrnehmung des Menschen
Hören
Sehen
Reizaufnahme
Umwandlung von Druckschwankungen aus der Luft in
elektrophysiologische Signale
Umwandlung elektromagnetischer Strahlung in elektrophysiologische Signale
spezifische
Empfindlichkeit
(auf bestimmte
Umweltaspekte
antwortende
Neuronen)
auf bestimmte sehr schmale
Frequenzbereiche ansprechende Haarzellen in Cochlea und
Hörnervenfasern
auf Bewegungsrichtungen
ansprechende richtungsempfindliche Neuronen, auf
bestimmte Ausschnitte des
sichtbaren Lichtspektrums
reagierende drei verschiedene Zapfenarten (rot, grün,
blau)
Konvergenz
(Weiterleitung
vieler Signale auf
ein Neuron)
Weiterleitung des Signals von
vielen empfindlichen Haarzellen an eine Hörnervenfaser
→ Fähigkeit der Schallsignalwahrnehmung sehr geringer
Intensitäten und Tonhöhen
Weiterleitung des Signals
von vielen Stäbchen an eine Bipolarzelle → hohe
Empfindlichkeit des dunkeladaptierenden visuellen
Systems
Spezialisierung
auf bestimmte
Reize
auf bestimmte Geräusche ansprechende Zellen (zum Beispiel das Klirren einer Schüssel), Glissando-Detektoren,
Spezialisierung auf Sprachewahrnehmung
Spezialisierung auf die
Wahrnehmung von Gesichtern
Tabelle 2.1.: Vergleich der auditiven und visuellen Wahrnehmung
Während für Gruppierungen visueller Reizmuster die Gestaltgesetze hinlänglich bekannt sind, lassen sich einige dieser Prinzipien, wie im Folgenden zu sehen sein wird, interessanterweise auch auf die auditive Wahrnehmung übertragen (vgl. [Gol97, S.372ff]).
Prinzip der Ähnlichkeit
„Töne, die einander ähnlich sind, werden meist als zusammengehörig
wahrgenommen.“ Dabei spielt die Tonhöhe eine entscheidende Rolle,
denn je stärker die Ähnlichkeit der Tonhöhe zweier oder mehrere Töne
ist, desto wahrscheinlicher werden sie als zusammengehörig empfunden.
So bauen sich beispielsweise auch Melodien meist auf kleinen Tonhö-
Hörbsp. 2.:
J.S. B ACH:
Suite in d-Moll,
BWV 1009,
Prélude,
Ausschnitt
henunterschieden auf. Komponisten des Barock machten sich in diesem
Zusammenhang das Phänomen der Melodietrennung zu nutze, indem
sie Melodien aus kurz aufeinander treffenden hohen und tiefen Tönen
komponierten, welche bei schnellem Spielen als zwei getrennte Melodien
erscheinen. Hörbeispiel 2 zeigt dies an einem Werk B ACHs, während
Hörbeispiel 3 den Ausschnitt eines zeitgenössischen Musikstückes mit
dem Effekt der Melodietrennung präsentiert. Die zugehörigen Noten
sind in Anhang A zu finden. Ein ähnliches Phänomen wird durch die
Tonleitern-Illusion, entdeckt durch die Psychologin D IANA D EUTSCH,
11
Hörbsp. 3.:
Y.T IERSEN:
Comptine d’été
n◦ 3, Ausschnitt
2. Audition - Begriffe und Definitionen
beschrieben: bei einem Experiment werden Probanden ohrenweise
abwechselnd Töne einer aufsteigenden und einer absteigenden Melodie
vorgespielt. Die Tonleitern-Illusion ergibt sich daraus, dass die Probanden
zusammengehörige Töne auf einem Ohr gruppieren. So nimmt zum
Beispiel das rechte Ohr die Melodie der höheren Töne und das linke
die der tieferen Töne wahr. Das Gehirn reagiert auf diese Weise, da
es in der Umwelt dem Normalfall entspricht, ähnliche Schallsignale
derselben Schallquelle zuzuordnen. Das Prinzip der Ähnlichkeit hilft
dem Menschen also im Allgemeinen richtig wahrzunehmen, woher
Schallsignale kommen und seine Umwelt in diesem Sinne effizient zu
interpretieren (vgl. [Gol97, S.372]).
Prinzip der Nähe
„Töne müssen rasch aufeinander folgen, um gemeinsam wahrgenommen
zu werden.“ Dies kann zum Beispiel an dem Effekt der Melodietrennung
verdeutlicht werden, da die Melodie trotz Tonhöhenähnlichkeit nicht als
getrennt wahrgenommen wird, wenn ihre Töne zeitlich zu weit auseinander liegen (vgl. [Gol97, S.374]).
Prinzip des guten Melodieverlaufs
Wird ein Ton abgehackt in jeweils durch Stille getrennten Intervallen gespielt, so nehmen Menschen sowohl den Ton, als auch die Stille wahr. Sobald die Stillephasen allerdings durch ein Rauschsignal gefüllt werden,
wird der Ton kontinuierlich wahrgenommen. Bei diesem Prinzip spielen
vorangehende Erfahrungen und die daraus resultierenden Erwartungen
eine wichtige Rolle. Das Gedächtnisschema für Melodien bezeichnet dabei
den Effekt, dass man beispielsweise beim Hören zweier gleichzeitig abgespielter unbekannter Melodien lediglich eine Tonwirrwarr empfindet,
sobald die Melodien aber bekannt sind, in der Lage ist, diese voneinander getrennt wahrzunehmen. Das Gedächtnisschema entspricht hier der
vertrauten Melodie. Wenn nicht bekannt ist, dass sich hinter einer Tonfolge eine Melodie verbirgt, kann jedoch nicht auf das Gedächtnisschema
zugegriffen werden (vgl. [Gol97, S.375]).
Auditive Täuschungen
Abb. 2.8.:
M.C.Eschers
Treppauf und
treppab
Neben den soeben genannten Phänomenen, findet man auch beim Hören
interessante Illusionen analog zu optischen Sinnestäuschungen. So entdeckte der Psychologe R OGER S HEPARD beispielsweise, ähnlich der von
M.C. E SCHER gezeichneten endlosen Treppe Treppauf und treppab (Abbildung 2.8), das Phänomen einer scheinbar endlos an- oder absteigende
Tonfolge (vgl. [BLC96]). Erzeugt wird diese Illusion durch das gleichzei-
12
2.1. Die auditive Wahrnehmung des Menschen
tige Abspielen mehrerer Töne, die die gleiche Note oktavweise versetzt
spielen: Ton1 = C1, Ton2 = C2, Ton3 = C3, Ton4 = C4, Ton5 = C5, Ton6 = C6.
Jeder Tonn durchläuft die gesamte Tonleiter (zum Beispiel C1, D1, E1, F1,
G1, A1, H1) und beginnt dann wieder am Anfang (C1), so dass beispielsweise Ton2 die Tonleiter von Ton1 fortsetzt und Ton3 die von Ton4 etc. Das
menschliche Ohr kann keinen Hauptton herausfiltern und empfindet somit eine scheinbar endlos auf- oder absteigende Melodie. Während der
von S HEPARD beschriebene Effekt durch diskrete Tonfolgen geprägt ist
Hörbsp. 4.:
Shepard
Tonleiter
[ASA07]
(siehe Hörbeispiel 4), erzeugte J EAN -C LAUDE R ISSET eine kontinuierliche Variante (siehe Hörbeispiel 5). Da auch diese auf dem zuvor beschriebenen Effekt beruht, wird dieser oft auch als Shepard-Risset Tonfolge bezeichnet.
Hörbsp. 5.:
Risset Tonfolge
[ASA07]
Rauhigkeit eines Tones
Die Psychoakustik beschäftigt sich mit den Zusammenhängen zwischen
physikalischen Schallreizen, wie zum Beispiel Schallintensität, Frequenz
und Spektrum, und den durch sie hervorgerufenen Hörempfindungen,
wie zum Beispiel Tonhöhe, Lautstärke oder Klangfarbe (vgl. [Höl06]).
Wenngleich Details den Rahmen dieser Arbeit übersteigen würden, soll
an dieser Stelle kurz der psychoakustische Begriff der Rauhigkeit eines
Tones vorgestellt werden. Die Rauhigkeit beschreibt eine Art Grad der
Gleichmäßigkeit in der Empfindung eines Tones. Je rauer ein Ton, desto
ungleichmäßiger und unschöner wird er empfunden. Die physikalischen
Grundlagen dieser Erscheinung liegen in dem Aufeinandertreffen mehrerer Schwingungen, die je nach Frequenzunterschied beispielsweise Interferenzen (gleiche Frequenz), Schwebungen (leicht unterschiedliche Frequenz) oder Kombinationstöne (große Frequenzunterschiede) hervorrufen.
Haben die verschiedenen Schwingungen nur leicht unterschiedliche Frequenzen (Unterschied von 0,1 Hz bis 16 Hz), ist es dem menschlichen Ohr
nicht möglich, die Schwingungen getrennt wahrzunehmen. Es empfindet
dann einerseits einen Höheneindruck, der zwischen den beiden Frequenzen liegt und außerdem ein An- und Abschwellen der Lautstärke (vgl.
[Höl06]). Dies wird als Schwebung bezeichnet. Die Anzahl der Schwebungen eines Tones pro Sekunde wird (beispielsweise beim Stimmen eines Klaviers) auch als Maß der Tonhöhenbestimmung genutzt. Sobald
der Frequenzunterschied 16 Hz übersteigt, wird der Ton schließlich als
rau und unangenehm empfunden, bis er bei weiter steigendem Frequenzunterschied als Kombinationston wahrgenommen wird. In Hörbeispiel 6
(aus [ZF99, FFK07]) wird die Abhängigkeit der Rauhigkeit von der Modulationsfrequenz demonstriert. Für einen 1 kHz-Ton mit einem Schallpe-
13
Hörbsp. 6.:
Rauhigkeit
eines Tones
2. Audition - Begriffe und Definitionen
gel von 70 dB wird die Modulationsfrequenz bei einem Modulationgrad
m = 1 in sechs Schritten von 10 Hz nach 20, 50, 100, 200, 400 Hz gesteigert.
Während die Rauhigkeit zunächst zunimmt, werden schließlich getrennte Töne wahrgenommen.
2.2. Der Ton macht die Musik - Einführung in die
Musiktheorie
Musik ist die Kunst, Töne in bestimmter Gesetzmäßigkeit hinsichtlich
Rhythmus, Melodie und Harmonie zu einer Gruppe von Klängen (und zu
einer stilistisch eigenständigen Komposition) zu ordnen [Dud03]. Töne sind
gekennzeichnet durch die Parameter Tonhöhe, Dauer, Lautstärke (oder
auch Intensität) und Klangfarbe. Die Tonhöhe, welche sich aus der
Frequenz des Tones ergibt, setzt sich zusammen aus den Parametern Ton
(zum Beispiel C, D, E, F, G, A, H) und Register (zum Beispiel C1, C2 etc.).
Während Geräusche vorwiegend als Rhythmus wahrgenommen werden,
weist die Aneinanderreihung von Tönen Melodien auf, die die eben
genannten Parameter um die Eigenschaften Tempo, Dynamik, Harmonie
und auch Rhythmus erweitern. Ein musikalisches Werk wird maßgeblich
bestimmt durch die Spannung zwischen den Noten (vgl. [Coo59, S.34ff]),
welche über drei Dimensionen definiert werden kann: Tonhöhe (tonale
Spannungen und Intervallspannungen), Zeit (Rhythmus und Dauer)
und Lautstärke. Der musikalische Ausdruck wird außerdem unterstützt
durch die Klangfarbe und Klangbeschaffenheit.
Hörbsp. 7.:
L ISZT: Au Bord
d’une Source,
Ausschnitt
Harmonien werden je nach Kulturkreis sehr unterschiedlich empfunden.
Dies zeigt sich auch in der Abfolge der Ganz- und Halbtonschritte einer
Tonleiter. Die ältesten Tonleitern sind die der Pentatonik, welche sich
aus fünf Tönen im Abstand von Ganztonschritten und kleinen Terzen
zusammensetzen (Tabelle B.1 in Anhang B). Die schwarzen Tasten einer
Klaviatur stellen beispielsweise eine natürlich-pentatonische Tonleiter
dar. Fünftonleitern sind besonders in Asien bis heute vorherrschend
Hörbsp. 8.:
Ich geh mit
meiner Laterne
und finden sich in unseren Breiten als Musik des Vorschulalters häufig
in Kinderliedern wieder. Ein Beispiel eines Musikstückes in Pentatonik
ist F RANZ L ISZTs Au Bord d’une Source (siehe Hörbeispiel 7) oder das
bekannte Kinderlied Ich geh mit meiner Laterne (siehe Hörbeispiel 8).
Die europäische Musik wurde bis zum 18. Jahrhundert stark durch die
modalen Tonleitern (besonders die dorische Skala) geprägt, die auch als
Kirchentonarten bekannt und den heutigen Dur- und Molltonleitern sehr
ähnlich sind. Sie entstanden in der griechischen Antike und gehören zu
14
2.2. Der Ton macht die Musik - Einführung in die Musiktheorie
den diatonischen Tonleitern, welche sich aus Halb- und Ganztonschritten zusammensetzen (vergleichbar einer Klaviatur) und jeweils einem
Tongeschlecht (zum Beispiel Dur, Moll oder Phrygisch etc.) und einer
Tonart (zum Beispiel b-Moll) zugeordnet sind. Der Begriff der Heptatonik drückt das gleiche aus und verdeutlicht dabei zusätzlich, dass die
jeweiligen Tonleitern aus sieben verschiedenen Tönen im Abstand von
zwei kleinen und fünf großen Sekunden bestehen. Zu den modalen Tonleitern zählen die lydische, die ionische (entspricht der Dur-Tonleiter),
die mixolydische, die dorische, die äolische (entspricht der natürlichen
Moll-Tonleiter), die phrygische und die lokrische Tonleiter (siehe Tabelle
B.3 in Anhang B) (vgl. [Hof07]). Ab dem 18.Jahrhundert wurde die
europäische Musik immer stärker durch die Dur- und Moll-Tonarten
(Tabelle B.2 in Anhang B) der Diatonik beeinflusst.
Das System der Dur- und Moll-Tonleitern wird durch den Quintenzirkel
(Abbildung 2.9(a)) beschrieben, welcher auf einen Kreis abgebildet die
Verwandtschaftsbeziehungen der einzelnen Tonarten darstellt. Dabei
gleichen sich zwei auf dem Quintenzirkel benachbarte (quintverwandte)
Tonleitern immer in sechs Tönen (Beispiel: C-Dur mit c,d,e,f,g,a,h und
G-Dur mit c,d,e,fis,g,a,h). Je weiter die Tonleitern auseinander liegen,
desto weniger verwandt sind sie miteinander. Das Modell des Quintenzirkels beruht auf der wohltemperierten Stimmung B ACHs, welche
die, für Instrumente mit diskreter Tonerzeugung (zum Beispiel Klavier
Hörbsp. 9.:
B EETHOVEN:
Für Elise,
Ausschnitt
oder Gitarre) unpraktikable, pythagoräische Teilung verändert. Dies
führt im unteren Teil des Kreises zu den so genannten enharmonischen
Verwechslungen. So klingt beispielsweise Fis-Dur mit sechs # genauso wie
Ges-Dur mit sechs b, da gemäß wohltemperierter Stimmung folgendes
gilt: fis=ges, cis=des, gis=as, etc. Nach dem phythagoräischem System,
der reinen Stimmung nach Quinten, entspricht dies allerdings unterschiedlichen Tönen. Als Hörbeispiel einer diatonischen Komposition
ist nebenstehend L UDWIG
VAN
B EETHOVENs Bagatelle a-moll WoO 59
(Hörbeispiel 9), auch bekannt als Für Elise, zu finden.
Hörbsp. 10.:
S CHÖNBERG:
Klavierstücke
Opus 11 Nr.1,
Ausschnitt
Ein Gegenpol der Diatonik ist die chromatische Tonleiter, welche, entsprechend einer Klaviatur, mit einer Folge von zwölf Halbtönen völlig
neue Harmonien beschreibt. Als Sonderform der Chromatik entwickelte
sich die so genannte Zwölftonmusik, welche zu Beginn des 20. Jahrhunderts besonders durch A RNOLD S CHÖNBERG und seine Schüler
verbreitet wurde (siehe Hörbeispiel 10 und Hörbeispiel 11). Deren
Gesetzmäßigkeiten sahen nicht nur ein Vorkommen aller zwölf Töne auf
engstem Raum innerhalb eines Musikstücks vor, sondern führten auch
zu einer Gleichberechtigung aller zwölf Töne.
15
Hörbsp. 11.:
S CHÖNBERG:
Klavierstücke
Opus 11 Nr.3,
Ausschnitt
2. Audition - Begriffe und Definitionen
Darüber hinaus haben sich durch die Musik bestimmter Volksgruppen
ganz eigene Tonleitern etabliert, wie zum Beispiel die der Klezmermusik
oder der Zigeunermusik. Vom Kulturkreis abhängig ist auch die Tonvielfalt der Skalen: im Gegensatz zu der in zwölf Halbtöne unterteilten
Oktave des europäischen Kulturkreises, existieren im arabischen Raum
24 Vierteltöne innerhalb einer Oktave.
(a) Der Quintenzirkel
(b) Ähnlichkeitsfolge der Tonigkeiten [Mic05]
Abb. 2.9.: Musiktheoretische Modelle
Ein interessantes Phänomen zeigt sich in Abbildung 2.9(b), in welcher der
Zusammenhang zwischen Tonigkeit und Tonhöhe zu sehen ist. Es wird
deutlich, dass zwei gleiche oktavversetzter Töne, trotz unterschiedlicher
Tonhöhen, eine gewisse Ähnlichkeit (c-igkeit, d-igkeit) aufweisen (vgl.
[Mic05, S.21]). Die in Abbildung 2.9(b) dargestellte Tonspirale bildet die
chromatische Tonigkeitsfolge (in Halbtonstufen) ab, wobei die einander
ähnelnden Töne (oktavversetzt) in gleicher Farbe erscheinen. Die Wahrnehmung der Tonigkeit tritt bei sehr hohen und sehr tiefen Frequenzen
hinter der Helligkeit zurück.
Abschließend soll an dieser Stelle kurz auf die Eigenschaft der Konsonanz und Dissonanz eingegangen werden, welche ein sehr bestimmendes
Merkmal von Musik ist. Musikalische Intervalle werden als konsonant
bezeichnet, wenn sie wohlklingend beziehungsweise zusammenklingend erscheinen und im Gegensatz dazu als dissonant, wenn sie als
spannungsvoll beziehungsweise auseinander klingend wahrgenommen
werden. Gemäß der Proportionstheorie des P YTHAGORAS klängen zwei
Töne um so konsonanter, je einfacher deren Schwingungsverhältnis
ist. Eine große Septime mit einem Schwingungsverhältnis von 8:15
ist demnach weniger konsonant (sondern dissonant), als eine Oktave
mit 1:2 oder einer Quinte mit 2:3. Die Klangverwandtschaftstheorie nach
16
2.3. Affektenlehre - die Wirkung von Musik
H ELMHOLTZ versucht die Empfindung von Konsonanz und Dissonanz
über den Tonaufbau zu klären. Sie besagt, dass zwei Töne konsonant
klingen, wenn ein oder mehrere ihrer Obertöne zusammenfallen [Mic05,
S.21]. Nähere Ausführungen dazu, sowie weitere Theorien bezüglich der
Kon- und Dissonanz zweier Töne sind in [Mic05] zu finden.
2.3. Affektenlehre - die Wirkung von Musik
Musik und Klang gehören zu den stärksten Kommunikationsmitteln und
haben die Fähigkeit, Stimmungen, Emotionen, Gefühle auszulösen und
Erinnerungen zu wecken. Musik vermag es, Gefühle zu beschreiben, die
in Worten nicht ausdrückbar sind. Manche sagen gar, Musik sei neben
dem Schweigen die reinste Form der nonverbalen Kommunikation. Dies
wird inzwischen gezielt in Filmen, Werbung und Vermarktungsstra-
Videobsp. 1.:
Werbevideo,
FX
tegien eingesetzt. Die Audio Consulting Group [Dir07] stellte bei einer
ihrer Studien beispielsweise fest, dass Menschen Lichtstimmungen und
Schnitte eines Werbefilmes abhängig von der Musik ganz unterschiedlich
empfinden und den Marken somit sehr differenzierte Sympathien entgegen bringen. Anhand der Videobeispiele 1, 2 und 3 [Dir07] ist dieser
Effekt nachzuvollziehen.
Videobsp. 2.:
Werbevideo,
Hard
Bereits in der Antike verwies P LATON auf die Ausdrucksstärke von
Musik und kategorisierte in seinem Werk Der Staat Tonleitern nach deren
emotionalen Wirkungen. Demnach steht die dorische und die phrygische
Tonleiter (Abschnitt 2.2) für Tapferkeit und Männlichkeit, während die
lydische eher als weich und schlaff empfunden wird. In der Musik der
westlichen Welt werden häufig der gegensätzlichen Wirkungen der
Dur- und Molltonarten genutzt, um Stimmungen zu erzeugen. Dabei
verkörpern Dur-Tonarten Freude, Vertrauen, Liebe, Gelassenheit und
Triumph, während Moll-Tonarten vorwiegend Schmerz, Angst, Hass,
Unruhe und Hoffnungslosigkeit vermitteln (vgl. [Coo59, S.50ff]). Und
tatsächlich wirken Stücke in Dur eher fröhlich und leicht, wohingegen
Moll-Stimmungen eher traurig und wehmütig scheinen. Konsonanzen
werden im Allgemeinen mit Ruhe und Zufriedenheit gleichgesetzt,
wohingegen Dissonanzen für Ekel, Verdruss und Schmerz stehen (vgl.
[Gra04]). Doch auch andere tonpsychologische Merkmale, wie beispielsweise die Dichte, das Volumen und das Gewicht von Tönen, welche
besonders bei sehr hohen und tiefen Frequenzen hervortreten, beeinflussen den Eindruck von Musik. So gelten tiefe Töne als groß, voluminös und
bauchig, als schwer, plump und behäbig, als porös, stumpf und weich [Mic05,
S.21], während hohe Töne als klein, schmal und schlank, als ätherisch, leicht
17
Videobsp. 3.:
Werbevideo,
Soft
2. Audition - Begriffe und Definitionen
und wendig, als spitz, fest und kantig[Mic05, S.21] gelten. Die Affektenlehre
bezieht sich aber auch auf Taktart und Rhythmus.
Abgesehen von der emotionalen Wirkung kann Musik auch körperliche
Auswirkungen auf den Menschen haben. Diese sind allerdings von
Mensch zu Mensch individuell ausgeprägt. Herzschlag, Atmung, Blutkreislauf, Muskelspannung, Hirnpotentiale und chemischer Blutumsatz
können durch Musik beeinflusst werden. Angeblich gäben Kühe bei
Einspielung von klassischer Musik mehr Milch und das Hören der Musikstücke M OZARTs solle bestimmte Gehirnareale derart aktivieren, dass
temporal eine Steigerung der Konzentrationsfähigkeit zu verzeichnen sei
(siehe auch [Gem02]). In der Hamburger Metro erhofft man sich durch
das Einspielen klassischer Musik eine Senkung des Aggressionspotentials. Doch auch nicht mehr hörbare Frequenzen können das Empfinden
des Menschen beeinflussen, wie beispielsweise die so genannte Angstfrequenz, welche ein Gefühl von Unwohlsein und Schrecken vermitteln
soll und vermehrt auch in der Filmindustrie zum Einsatz kommt, um die
Wirkung entsprechender Szenen zu intensivieren.
Gemäß Prof. Dr. M ICHAEL H EINEMANN (Hochschule für Musik Carl
Maria von Weber Dresden) werden beim Hören von Musik die Nervenbahnen genauso angeregt, als ob man ein solches Gefühl empfände. Der
Körper reagiert also beispielsweise beim Hören von trauriger Musik
so, als durchlebe er ein trauriges Erlebnis. Umgekehrt kann sie auch
anregend, belebend und beruhigend wirken und kann somit in der
Therapie mit beispielsweise Kindern, Behinderten oder psychosomatisch
erkrankten Patienten sehr hilfreich sein (vgl. [Ack91, S.270]). Bereits in
der Bibel findet Musik in heilender Wirkung Erwähnung:
Sooft nun der böse Geist von Gott über Saul kam, nahm David die
Harfe und spielte darauf mit seiner Hand. So wurde es Saul leichter,
und es ward besser mit ihm, und der böse Geist wich von ihm.
[Bib, 1. Samuel, 16, 22]
2.4. Synästhesie
Der Begriff Synästhesie stammt aus dem griechischen (syn: zusammen,
aisthesis: Wahrnehmung) und beschreibt die Verschmelzung mehrerer
Sinne, wie zum Beispiel Hören und Sehen oder Tasten und Schmecken.
So können Synästheten beispielsweise Farben hören, Klänge sehen (siehe
Abbildung 2.10) oder Formen schmecken. Für viele Synästheten haben
auch Buchstaben oder Zahlen eine bestimmte Farbe. Nur ein Bruchteil
18
2.4. Synästhesie
der Menschen verfügt über diese Fähigkeit, wobei selbst unter diesen
kein einheitliches Muster erkennbar scheint, dem die verschmelzenden
Empfindungen folgen. In Experimenten konnte jedoch festgestellt werden, dass zumindest der Faktor der Helligkeit ausschlaggebend für die
jeweilige Wahrnehmung zu sein scheint: so rufen helle Konsonanten,
wie „i“ oder „e“, im Allgemeinen helle Farbempfindungen und dunkle
Konsonanten, wie „o“ oder „u“, immer dunklere Farbempfindungen
hervor (vgl. [vC99]). Da diesen Effekt allerdings fast jeder Mensch nachvollziehen kann, liegt die Vermutung nahe, dass diese Erkenntnis auch
auf das sinnliche Brückenprinzip der intermodalen Analogien (vgl. [Lin01])
zurückzuführen sein könnte. Dieses beruht darauf, dass die Sinnesorgane
neben Informationen auch emotionale Qualitäten vermitteln und findet
sich verstärkt bei Faktoren wie Helligkeit, Intensität, Rauhigkeit oder
Dichte wieder. Der Unterschied bei synästhetischen Empfindungen ist
jedoch, dass diese unbewusst, passiv und kontextunabhängig auftreten.
Trotzdem die Erforschung des synästhetischen Phänomens noch nicht
viele Ergebnisse bringen konnte, vermuten Wissenschaftler, dass die Verschmelzung mit der Lage der einzelnen Verarbeitungsareale im Gehirn
zusammenhängt, die sich gegenseitig erregen (vgl. [RH03]). K ANDINSKY
lieferte diesbezüglich eine sehr bildliche Erklärung. Er verglich die
menschlichen Nerven mit den Saiten eines Klaviers: wird ein Ton eines
von zwei nebeneinander stehenden Klavieren angeschlagen, gerät auch
die jeweilige Saite des anderen Klaviers in Schwingung (vgl. [vC99]).
Das Phänomen der Synästhesie ist im Zusammenhang mit dieser Arbeit
erwähnenswert, da die synästhetische Empfindung dem entspricht, was
viele Denker und Künstler im Laufe der Jahre (zum Beispiel in den FarbTon-Modellen Abschnitt 3.2.1) versucht haben, in ihren Werken umzusetzen. Besonders gegen Ende des 19. Jahrhunderts, nachdem WAGNER den
Begriff des Gesamtkunstwerkes geprägt hatte (Abschnitt 3.2.1), blühten die
Bemühungen wieder neu auf, visuelle, auditive und andere sinnliche Elemente miteinander zu verbinden. Auch in der Malerei zeigen sich Versuche, neben der zweiten und dritten Dimension auch die zeitliche Komponente abzubilden. So schaffte beispielsweise M ONDRIAN in seinen Bildern (zum Beispiel Composition with Gray Lines oder Broadway Boogie Woogie (siehe Abbildung 3.11(a))) durch visuelle Raster eine Art von Bewegungswahrnehmung (siehe auch Abschnitt 3.2.2, S. 38), was man als Synästhesie aus visuellen Bildern und musikalischen Rhythmen bezeichnen
könnte (vgl. [vC99]). Die Neuerungen der digitale Verarbeitung von Bild
und Ton treiben die Bestrebungen fortwährend voran. Aus den Ergeb-
19
Abb. 2.10.:
Farb-TonAbbildung
S CRIABINs
2. Audition - Begriffe und Definitionen
nissen wird sichtbar werden, dass eine Verbindung aus Bildlichem und
Musikalischem durchaus möglich ist. Es bleibt jedoch offen, inwieweit
Menschen ohne synästhetische Empfindungen einen ähnlichen Eindruck
(gegebenenfalls durch Erlernen) wahrnehmen können.
20
3. Musik und bildende Kunst Geschichte der
Musikvisualisierung
Im ersten Frühlingsmonat steht die Sonne im Zeichen Ying Schi.
Zur Zeit der Morgendämmerung kumuliert das Sternbild We. Seine
Tage sind Gia und J. Sein göttlicher Herrscher ist Tai Hau (der grosse Leuchtende). Sein Schutzgott ist Gou Mang (der Säer). Seine Tier
sind die Schuppentiere. Seine Note ist Güo (Terzton der Fünftonskala). Seine Tonart ist Tai Tsu. Seine Zahl ist acht. Sein Geschmack ist
sauer. Sein Geruch ist muffig. Man opfert den Türgeistern. Unter
den Opfergaben steht die Milz voran.
L Ü B U W E, [Wehr] zitiert aus [Pfr54, S.25]
In der Beschreibung der Verbindung jeglicher Wahrnehmungen des einleitenden Zitates aus dem alten China, scheint die Einheit aus Hörbarem und Sichtbarem selbstverständlich. Bilder und Töne wurden seit Anbeginn der menschlichen Kultur erzeugt und seit Jahrhunderten strebt
der Mensch eine Verschmelzung der Sinneseindrücke zu einem synästhetischen Erlebnis, einem Gesamtkunstwerk, an. Im folgenden Abschnitt
wird die Entwicklung der Synthese zwischen Musik und Farbe, Bildern,
Form und Licht untersucht, von der Frühzeit bis zur heutigen Kultur. Besonders in der Frühzeit wurde der Musik eine stärkere Bedeutung zugeordnet, wobei Bilder und Geschehnisse der Welt als aus der Musik hervorgegangen betrachtet wurden. Ab dem 17. Jahrhundert wurde die Verschmelzung der inzwischen zu Künsten etablierten musikalischen und
bildenden Bereiche schließlich bewusst betrachtet. Zahlreiche Experimente entstanden, welche durch die Verbreitung von Ton- und Filmtechnik
und elektronischen Medien im 20. Jahrhundert zu vielfältigen Ausprägungen moderner Kunst führten. Doch neben der Kunst vollzog sich Ende diesen Jahrhunderts auch eine starke Beeinflussung im Bereich der Informatik, indem neue Anwendungsbereiche das Wissen aus Musik und
Kunst vereinen, um dem Nutzer sowohl unterstützend, als auch unterhaltend den Umgang mit der Informationstechnologie zu erleichtern.
21
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
3.1. Frühzeit bis Mittelalter
Während die Verbindung von Hörbarem und Sichtbarem bereits in den
Mythen der Urvölker eine entscheidende Rolle spielte, setzen sich die
bewussten Bemühungen einer Verschmelzung der visuellen und akustischen Sinne über die Jahre fort. In den folgenden Abschnitten werden
visuell-musikalische Einflüsse von der Frühzeit bis ins Mittelalter vorgestellt.
3.1.1. Frühzeit
Von den zahlreichen in [Zip85] präsentierten Schöpfungsmythen verschiedener Urvölker, soll hier vor Allem die Schöpfungsmythe der
nordamerikanischen Atsina-Indianer Erwähnung finden, bei der Gott
folgendes sprach:
’Ich werde dreimal singen und dreimal rufen.’ Dann sang und rief
er dreimal und stieß die Erde... Das Wasser kam hervor... und über
die ganze Erde hin war Wasser. [...] Gott lässt durch seinen Gesang
jedesmal eines der Tiere, die vorerst noch tot sind, lebendig werden...
Ein bißchen Erde in seiner Hand, begann er zu singen, dreimal,
und dann rief er dreimal. Dann ließ er die Erde langsam ins Wasser
fallen, ... Land genug für ihn, darauf zu sitzen.
[Zip85]
Musik steht hier als etwas Magisches und Unerklärbares, was wunderbare, bewegende Kräfte besitzt und in Form eines schöpferischen Urklanges die Welt erschaffen hat. Die akustische Schwingung als Urform aller Bewegung. Auch in der altindischen Mythologie steht die tonliche
Harmonie am Anfang der sinnlichen Manifestation. Die stoffliche Welt
jedoch soll sich erst beim allmählichen „Verklingen“ des Urtons materialisiert haben und wurde dabei entsprechend klangarm (vgl. [Pas04, S.44]).
Dennoch besitzt nach brahmanischer Überlieferung jede Materie immer
noch diese verborgen-verstummte akustische Qualität, die sich in Form
von durch Anschlagen oder Luftbewegung hervorgerufenen Geräuschen
und Tönen zeigt. Diese Überlieferungen bilden den Ursprung des später
durch die Pythagoreer geprägten Begriffs der Sphärenmusik. Der Schöpfergott Prajapati beispielsweise wird als Hymnus beschrieben: sein Körper
bestand aus drei mystischen Silben, aus deren Klangopfer Himmel und Erde hervorgegangen sind [Zip85, S.11] und die ersten Menschen waren leuchtende
und klingende Wesen. Bereits hier wird also eine Licht-Ton-Beziehung beschrieben (vgl. [Kla07]).
22
3.1. Frühzeit bis Mittelalter
Auch in der ägyptischen Schöpfungsmythologie spielen Licht und Musik
eine entscheidende Rolle: die Entstehung der Welt wird auf den Lichtschrei der singenden Sonne und das gewaltige Lachen des Gottes Thot,
auch als Gott der Musik bezeichnet, zurückgeführt.
In der altchinesischen Kosmologie, unter anderem überliefert in der ältesten Aufzeichnung altchinesischer Musiktheorie: Frühling und Herbst des
Lü Bu We (um 250 v.Chr.), ist schließlich festgehalten, wie die irdische
Musik aus der himmlischen hervorging:
Zur Zeit der großen Heiligen, als höchste Vernunft auf Erden
herrschte, war der Atem von Himmel und Erde in Einklang und
erzeugte die Winde. Immer wenn die Sonne an einen bestimmten
Punkt kam, so gab der Mond dem Wind einen Klang und auf diese
Weise wurden die zwölf Tonarten erzeugt.
[Wehr] zitiert aus [Zip85, S.16] und [Pfr54, S.25]
Ein interessanter Begriff, der ebenfalls aus dem chinesischen Raum der
Frühgeschichte stammt, ist der des Ohrenlichts. Auf den ersten Blick könnte dies als eine frühe Form der Musikvisualisierung verstanden werden.
Genauer handelt es sich hierbei jedoch um die Kunst, Steinen bizarre Töne und Klänge zu entlocken1 . Das Ohr steht dabei als Symbol für das Hören und das Licht für die Erleuchtung (vgl. [Fes07]). Im weitesten Sinne
kann somit also auch die Verschmelzung zweier Sinne, wie beispielsweise Hören und Sehen oder Fühlen, verstanden werden.
Die Harmonie jener klanglich orientierten Welt wurde durch die Sonnenund Sternengötter versinnbildlicht und auch die Gestirne selbst wurden
als Gottheiten verehrt. Die Bewegungen der Sterne und deren Deutung
rückten somit immer stärker in den Mittelpunkt des Interesses, bis sich
daraus schließlich, vorwiegend in China und Babylon, eine Verknüpfung
von mythisch-symbolischen Zahlen und der Ordnung der Töne ergab
(vgl. [Zip85, S.18]). Die Zahl Sieben beispielsweise spielt sowohl in der
Mythologie als Anzahl der bis dahin entdeckten sieben Planeten, als auch
in der Musiktheorie als Grundstruktur der Siebentonleiter eine bedeutende Rolle. In [Zip85] und [Pfr54] sind diesbezüglich detailliertere Ausführungen zu finden. Die Vervollständigung des Synthesegedankens von
Zahl und Musik vollbrachten letztendlich die Pythagoreer der griechischrömischen Antike. Abbildung 3.1 zeigt die chinesische Tonleiter (pentatonisch), bei welcher den einzelnen Tönen eine entsprechende kosmologischen Bedeutungen zugeordnet ist. Der Grundton (Kung) steht dabei stets
für das Ganze und die Folgetöne für das Einzelne (vgl. [Mic05, S.168]).
1
in der Literatur auch als Musik der Steine bezeichnet
23
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
Abb. 3.1.: Chinesische Tonleiter mit kosmologischen Bedeutungen der Töne
[Mic05, S.168]
Die Verbindung zwischen optischer und akustischer Wahrnehmungen
bestand also seit altersher, wobei sich diese besonders in der indischen
und chinesischen Kultur auch auf Jahreszeiten, Himmelsrichtungen und
Schutzgötter erstreckte, was bereits durch das einleitende Zitat dieses
Kapitels deutlich wurde.
3.1.2. Griechisch-Römische Antike
Schritt für Schritt entwickelt sich Musik vom magisch Unerklärbaren zu
einem Element, welches bewusst eingesetzt wird (unter anderem zur Unterhaltung) und dessen Struktur immer mehr an Bedeutung gewinnt. In
der griechischen Antike verstand man unter dem Begriff Musiké - als Synthese aus Klang, Wort und Bewegung [...] - neben dem Ästhetisch-Schönen zugleich die Harmonie schaffende mathematische Ordnung [Zip85, S.28]. Während die bildenden Künste lediglich als handwerkliche Tätigkeiten angesehen wurden, zählte Musik zu den sieben freien Künsten, den artes
liberales (vgl. [Joh07]). Durch die Pythagoreer (um 500 v.Chr.), die sich vorwiegend mit den vier zahlbezogenen Wissenschaften Arithmetik, Geometrie, Harmonik und Astronomie beschäftigten, wurde in das bisher stark
mythisch orientierte Denken die rational-begriffliche Ebene eingeführt.
Auf Basis der von den Pythagoreern als göttlich verehrten drei Mächte
- die Trias: (Sternen-)Himmel, (musikalische) Harmonie und Zahl - gelang P YTHAGORAS (um 570 - 510 v.Chr.) die Erklärung der Tonlehre über
mathematische Gesetzmäßigkeiten (vgl. [Joh07]). Er erkannte, dass sich
die musikalischen Intervalle durch Zahlen darstellen lassen (vgl. [Zip85,
S.23]). So ergeben sich aus den Längenverhältnissen einer Saite beispielsweise folgende Proportionen: Oktave 1:2, Quinte 2:3 und Quarte 3:4 (vgl.
[Mic05, S.88ff]). Diese Erkenntnis bestimmt bis heute die Musiktheorie.
Die (diatonische) Tonleiter kann außerdem innerhalb einer Oktave in sieben Noten (zum Beispiel C-D-E-F-G-A-H) unterteilt werden, welche sich
in gleicher Reihenfolge im Oktavabstand höher oder tiefer wiederholen
24
3.1. Frühzeit bis Mittelalter
(siehe Kapitel 2.2). Interessanterweise entsprächen (vgl. [Zip85]) die sieben Tonabstände darüber hinaus den Abständen der sieben Planetenbahnen. Dieser gemeinsame kosmischen Nenner aus Musik, Astronomie und
Mathematik kommt in seiner deutlichsten Ausprägung in der Sphärenmusik2 zum tragen, welche zum Symbol der pythagoreischen Weltanschauung wurde. Gemäß dieser Philosophie klingt das gesamte Weltall, wobei die Töne allerdings zu tief sind, um vom Menschen wahrgenommen
werden zu können. Musik wurde zum Scharnier zwischen Mikro- und
Makrokosmos erklärt.
P LATON (427 - 347 v.Chr.) erkannte schließlich einen besonderen Zusammenhang zwischen Auge und Ton und bringt die Musik mit den bildenden Künsten in Verbindung. Bereits in der antiken Philosophie wurde der
Begriff der Synästhesie (Abschnitt 2.4) eingeführt, welcher später häufig
als Grundlage der Experimente mit Klang und Farbe diente (Abschnitt
3.2). Doch auch bei Platon wird der Musik noch eine wesentlich stärkere
Rolle zugeordnet, die Musik als Unterstützung zur Erkenntnis des Schönen. Folgendes Zitat verdeutlicht dies.
Die Erziehung durch Musik ist darum die vorzüglichste, weil der
Rhythmus und die Harmonie am meisten in das Innerste der Seele
dringt und am stärksten sie erfasst und Anstand bringt und anständig macht, wenn jemand darin richtig erzogen wird, - wo nicht, das Gegenteil. Und weil hinwiederum der, welcher hierin erzogen
ist, wie es sein soll, das Übersehene und von der Kunst oder der
Natur nicht schön Ausgeführte am schärfsten wahrnimmt und mit
gerechtem Widerwillen vor diesem das Schöne lobt und mit Freuden
es in seine Seele aufnimmt und daran sich nährt und schön und gut
wird, ...
P LATON, [Pla40] zitiert aus [Pfr54, S.36]
Kurz darauf entwickelte sein Schüler A RISTOTELES (384 - 322 v.Chr.)
in Anlehnung an die pythagoreischen und platonischen Lehren ein
Harmonieprinzip, welches auf Zahlen beruhend und gekoppelt an seine
subjektive Wahrnehmung eine Siebenteilung der Farben, Töne und
Geschmäcker beschreibt (vgl. [Kla07]). Dieses gilt als erstes seiner Art
und fand später häufig Verwendung als Grundlage für die ab der Renaissance entstandenen Modelle der Farb- und Tonintervallzuordnungen
(Abschnitt 3.2.1).
2
auch als Klang der Gestirne bezeichnet
25
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
3.1.3. Mittelalter
Der abendländische Ursprung eines Zusammenspiels von Musik und bildender Kunst ist in der christlichen Liturgie zu finden. Die Schaufrömmigkeit des Mittelalters verlangte nach einer alle menschlichen Sinne ansprechenden
Inszenierung, gleichsam einem religiösen Gesamtkunstwerk (vgl. [Joh07]). Das
Altarbild als bildliche Kulisse im Zusammenspiel mit der musikalischen
Gestaltung. Geistliche Spiele, wie zum Beispiel die österlichen Passionsspiele, suchten nach neuen sowohl musikalischen als auch bildlichen Kompositionen (vgl. [Joh07]). Auch finden sich in der Zeit des Mittelalters verschiedene Überlieferungen einzelner Mönche oder Kirchengelehrter, welche sich zu der pythagoreischen Lehre und der allumfassenden Kraft von
Rhythmus und Harmonie bekennen. Allerdings geschieht dies im Gegensatz zur Antike nicht vor einem kosmologischen Hintergrund, sondern
stets in Bezug zu Gott. Musik verkörpert außerdem, wie bereits in der
Bibel geschrieben, die heilende, helfende Kraft, die in Form von Psalmengesängen bis hin zu Minnesängen verarbeitet wurde.
Bedeutende Fortschritte bezüglich einer unmittelbaren Verbindung verschiedener Sinne und Musik sind allerdings nicht erkennbar bis der italienische Musiktheoretiker F RANCHINO G AFFURIO um 1492 das in Griechenland entstandene modale Tonsystem (Abschnitt 2.2) mit farblichen
Entsprechungen in Europa wiedereinführte (vgl. [Day07]). Sein System
sah folgende Zuordnungen vor: eine dorische Stimmung repräsentiert eine kristalline Farbe, phrygische Harmonien eine orange, lydische Tonleitern eine rote und mixolydische Stimmungen werden durch eine undefinierte gemischte Farbe beschrieben. Auf welcher Grundlage diese Zuordnungen entstanden konnte allerdings nicht geklärt werden.
Am Ende der Epoche griff ATHANASIUS K IRCHER den Gedanken der
Sphärenmusik neu auf und unternahm den Versuch einer Systematisierung des musikalischen Denkens. Musik als Abbild des Himmels und die
Orgel als himmlisches Instrument. In seinem musiktheoretischen Werk
Musurgia Universalis beschäftigt er sich außerdem mit der Affektenlehre
(siehe auch Abschnitt 2.3), der Wirkung von Musik und deren physiologischem Hintergrund. Eine seiner ebenfalls darin festgehaltenen Entwicklungen ist die Kompositionsmaschine: in einer Zeit, in der das Verlangen
nach einer allgemeinen Verständigung besonders groß war (es existierten
noch keine Grammatiken und einheitliche Sprachen) beschreibt K IRCHER
die Musik als Universalsprache. Seinen Ausführungen nach lässt sich mit
Hilfe der Kompositionsmaschine jeder Text und jede Sprache vertonen und
schafft somit eine einheitliche Verständigungsform. Völkerverständigung
26
3.2. Renaissance und Neuzeit
wird gefördert und Kriege (zu dieser Zeit besonders Konfessionskriege)
können verhindert werden - der Einsatz reicht bis zur Staatenführung
und verknüpft Musik somit mit allen Geschehnissen.
3.2. Renaissance und Neuzeit
Künstler der Renaissance, vornehmlich L EON B ATTISTA A LBERTI und
L EONARDO
DA
V INCI, fordern schließlich die Gleichsetzung der bil-
denden Künste mit den artes liberales (Abschnitt 3.1.2). Als Basis der
Forderung diente die Entdeckung der Zentralperspektive, welche auch
die bildende Kunst eng mit der Mathematik verband. L EONARDO beschäftigt sich in seinem Werk Il Paragone eingehend mit der Beziehung
zwischen Malerei und Musik und meint sogar, dass die Malerei die Musik überragt, weil sie nicht sofort nach der Erschaffung wieder vergeht wie die
unglückselige Musik, sondern, im Gegenteil, am Leben bleibt. Er verdeutlich
dabei den wesentlichen Unterschied der beiden Künste: die bildenden
Künste sind bestimmt durch den Raum, die Musik jedoch durch die Zeit
und ist in diesem Sinne vergänglicher.
Mit der Renaissance blühten auch die Bemühungen auf, Übereinstimmungssysteme zwischen Farben und Musik zu finden. Da sich die Bemühungen aber auch auf andere Bereiche erstrecken und sich die Gesamtheit in einer derartigen Fülle darstellt, soll der geschichtliche Abriss
im Folgenden der Übersichtlichkeit halber in einzelne Bereiche unterteilt
werden.
3.2.1. Klang und Farbe
Seit der Antike sind Menschen versucht, ein Naturgesetz der Verwandtschaft von Farben und Tönen zu finden. Philosophisch betrachtet könnte
man den Grund darin sehen, dass die menschliche Wahrnehmung den
einzigen Ort darstellt, an dem Licht und Schall in eine wechselseitige
Beziehung treten, in eine Synästhesie von Bild und Ton [Dan06]. Bis heute
wurde jedoch keine eindeutige Zuordnung gefunden, die über eine
subjektive Wahrnehmung (beispielsweise warmer und kalter Klangfarben) hinaus geht. Eine Erklärung dafür liegt unter anderem in der
bereits durch H ELMHOLTZ herausgestellten Tatsache, dass Töne ihren
Charakter durch das Verhältnis zu anderen Tönen erhalten, während für Farben
die absolute Größe ihrer Schwingungsdauer wichtiger sei, als ihr Verhältnis
zu anderen Farben. So würde eine Melodie [im Gegensatz zum Bild] ihren
wesentlichen Charakter behalten, wenn sie eine Terz höher transponiert würde
27
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
[Kla07]. Tatsächlich besteht physiologisch kaum eine Analogie zwischen
der Ton- und der Farbempfindung: In der Gegend des Gelb und Grün
[bezogen auf das Farbspektrum] sind die Farbübergänge außerordentlich
schnell, an den Enden des Spectrums außerordentlich langsam. Dort sind
sämtliche Übergangsstufen zwischen Gelb und Grün in die Breite eines halben
Tones zusammengedrängt, hier befinden sich Intervalle von der Größe einer
kleinen oder großen Terz, in denen das Auge gar keine Veränderung des Farbtons
wahrnimmt [Kla07]. Alle im Folgenden vorgestellten Modelle beruhen
auf subjektiven Eindrücken, wobei bei einigen Vertretern durchaus
synästhetische Empfindungen einfließen.
In Anlehnung an das bereits durch A RISTOTELES vorgestellte Modell
entwickelten ATHANASIUS K IRCHER (um 1646), M ARTIN C UREAU
LA
DE
C HAMBRE (um 1650) und I SAAC N EWTON (um 1700) ihre eigenen
Farb-Ton-Modelle (vgl. [Day07, Kla07]). Die genauen Zuordnungen sind
im Anhang C zu finden. Bei einer aufmerksamen Betrachtung dieser
Modelle fällt auf, dass die Zuordnungen nicht vollständig übereinstimmen. Besonders das Modell Newtons zeigt starke Abweichungen.
Dies resultiert im Wesentlichen daraus, dass die Modelle von K IRCHER
und
DE LA
C HAMBRE weitestgehend auf traditionellem Symbolismus
und den Überlegungen des A RISTOTELES beruhen. Ob hierbei physiologisch begründete synästhetische Empfindungen einfließen ist nicht
ausreichend belegt, ist vermutlich aber eher unwahrscheinlich. Das
Newtonsche Modell jedoch geht von einem weit wissenschaftlicheren
Standpunkt aus: Newton verarbeitet dabei seine auf Experimenten
beruhende Erkenntnis, dass einerseits das sichtbare Lichtspektrum in
sieben Farben zerlegbar ist und diese Spektralfarben außerdem den
gleichen Proportionsverhältnissen entsprechen wie die Intervalle einer
Tonleiter. Später streitet Newton jedoch eine wahre Verbindung zwischen
Farben und Tönen ab. Sein Modell beschreibe lediglich Analogien. Trotz
der Diskussionen um die Authentizität von Farb-Ton-Zuordnungen, gab
es fortwährend Bemühungen, diese Verschmelzung herzustellen.
Ein beständiger Verfechter der Farb-Ton-Verbindung war der französische Jesuitenpater und Mathematiker L OUIS -B ERTRAND C ASTEL.
Inspiriert von den Arbeiten K IRCHNERS setzte er sich als Erster über
die theoretischen Betrachtungen hinweg und entwickelte, auf seinem
eigenen Ton-Farb-Modell aufbauend, die erste technische Umsetzung
einer Farb-Ton-Fusion: 1742 stellte er sein Licht-Cembalo vor, das Clavecin Oculaire. Dieses bestand aus einem Cembalo, über welchem sich
ein großer mit 60 kleinen farbigen Fenstern bestückter Rahmen befand.
An jedem Fenster war ein kleinen Vorhang befestigt, welcher über ein
28
3.2. Renaissance und Neuzeit
Hebelsystem mit den einzelnen Tasten verbunden war. Bei Tastendruck
wurde der jeweilige Vorhang gehoben, so dass das Licht der dahinter
stehenden Kerze durch die farbigen Scheiben fiel und die farbliche
Entsprechung des Tones den Zuschauer erreichte (vgl. [Mor97, Lev00]).
Der Erfindung C ASTELS folgten eine Reihe von Entwicklungen audiovisueller Instrumente, darunter auch zahlreiche Farbklaviere, deren
grundlegender Aufbau sich nur unwesentlich von ihrem „Urmodell“
unterschieden.
(a) Pyrophone
(b) B ISHOPs color-organ
(c) R IMINGTON vor seiner
color-organ
Abb. 3.2.: Farborgeln des 19.Jahrhunderts
Auf einem anderen Klangerzeugungsmechanismus beruhte das, 1869 von
F REDERIK K ASTNER entwickelte, Pyrophone (Abbildung 3.2(a)), welches
durch farbige Gasflammen zugleich Licht und Töne erzeugte. Es bestand
aus 37 unterschiedlich langen Glasröhren, ähnlich einer Orgel, und einer
dreioktavigen Tastatur. Aufbauend auf dem physikalischen Effekt der singenden Flammen befand sich in jeder Röhre ein Kreis kleiner Gasbrenner
deren Flammen sich, durch Vergrößern oder Verringern, verbanden und
wieder trennten (vgl. [Lev00]). Das Anschlagen einer Taste bewirkte das
Trennen der Flammen der jeweiligen Röhre und erzeugte somit sowohl
den Klang, als auch Farben.
Die Entdeckung der Elektrizität eröffnete neue Möglichkeiten. Dies
machte sich auch B AINBRIDGE B ISHOP in Amerika zu Nutze und
entwickelte 1877 sein color-organ (Abbildung 3.2(b)), eine elektrisch
betriebene Farborgel, deren Aufbau im Wesentlichen dem des Clavecin
Oculaire entsprach. Allerdings wurde hier statt Kerzen elektrisches Licht
genutzt, so dass das Problem der Hitze und des schlechten Geruchs
umgangen werden konnte (vgl. [Mor97]). B ISHOP selbst beschrieb sein
Werk in [Bis93] als ... a large ground glass about five feet in diameter, framed
29
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
like a picture, and set in the upper part of the instrument. On this the colors
were shown. The instrument had little windows glazed with different-colored
glass, each window with a shutter, and so arranged that by pressing the keys of
the organ the shutter was thrown back, letting in a colored light. [...] Chords
were shown properly, the lower bass spreading over the whole as a ground
or foil for the other colors or chords of color, and all furnishing beautiful and
harmonious effects in combination with the music. Wenig später, im Jahr
1893, begann auch A LEXANDER WALLACE R IMINGTON in England mit
dem Bau seines Color-Organs (Abbildung 3.2(c)), dessen entscheidende
Neuerung verschieden einstellbare farbige Lampen darstellten, welche
unterschiedliche Abstufungen in Farbton, Helligkeit und Sättigung
ermöglichten. R IMINGTON ließ sein Modell erstmals patentieren. Mit
seinen Modellen wurden um 1895 erste Konzerte gegeben, welche sich
sowohl in Europa, als auch in den Vereinigten Staaten starker Beliebtheit
erfreuten (vgl. [Day07]). Ein Problem stellte allerdings der Mangel
existierender Werke dar, welche das Mitwirken einer Farborgel explizit
vorsahen. Die 1911 von A LEXANDER S CRIABIN komponierte sinfonische
Dichtung Prométhée, le poéme du feu war das erste Werk, welches in der
Partitur spezielle Anweisungen für den Einsatz einer Farborgel enthielt.
Bei der Uraufführung dieses mit synästhetischen Motiven durchsetzten
Werkes 1915 in New York wurde das Licht über R IMINGTONs FarborgelModell auf eine Leinwand oberhalb des Orchesters geworfen. Auch
S CRIABIN entwickelte auf Basis seiner eigenen Synästhesieerlebnisse
eine Farb-Ton-Zuordnung (Anhang C) und strebte in seinen Werken das
Zusammenwachsen aller fünf Sinne zu einer Einheit an (vgl. [FG06]).
Die (synästhetischen) Experimente aus Musik, Farbe und Form nehmen
über die Jahrhundertwende stärker zu. Bereits 1850 fordert R ICHARD
WAGNER das Erstreben eines Gesamtkunstwerkes als einzige Form der
weiteren Entwicklung von Malerei, Tanz, Musik und Dichtung (vgl.
[Dan06]). Dieser Gedanke kommt nicht nur in dem von ihm eigens für
seine Vision erschaffenen Gebäude, dem Festspielhaus Bayreuth, zum
Ausdruck, sondern ist auch in seinen Opern stark nachvollziehbar. In
diesen verarbeitet er sein Streben nach einer perfekten Vereinigung aus
Musik, Text, dramatischer Handlung und Bühneninszenierung. Weitere
Impulse liefern der Fortschritt in Elektrik und Optik, die Erfindung des
Films, die Entwicklung der modernen Wahrnehmungspsychologie und
der Einzug der Abstraktion in die bildenden Künste (vgl. [Lev00, S.23]).
Es entstanden eine Reihe von Erfindungen, von denen im Folgenden
einige der bedeutendsten Erwähnung finden werden. Eine detaillierte
Zeittafel ist in [Lev00, Appendix A] zu finden.
30
3.2. Renaissance und Neuzeit
Die wichtigsten Vertreter der amerikanischen Szene sind T HOMAS
W ILFRED, M ARY H ALLOCK G REENEWALT und C HARLES D OCKUM.
Obwohl der in Dänemark geborene T HOMAS W ILFRED anfangs von der
Existenz einer absoluten Abbildung zwischen Ton und Farbe überzeugt
war, widerlegte er diese These nach eingehenden Studien der Arbeiten
seiner Vorgänger. Er wandte sich nunmehr der Kunst des puren Lichtes
zu, bei welcher Farbe und Ton keine oder nur eine nebenläufige Rolle
spielen sollten. Das von ihm 1919 entwickelte Clavilux gehört somit
eigentlich nicht mit in den Bereich der Musik-Farb-Experimente, soll aber
aufgrund seiner Ähnlichkeit zu anderen Farborgeln dennoch genannt
werden. Die Farben des Clavilux entstanden durch bemalte ineinander
überblendende Scheiben (Abbildung 3.3), welche durch die, auf der
Tastatur befindlichen, fünf Reihen koppelbarer Tasten und Hebel gesteuert wurden. Sechs Reflektoren und einige Hilfsreflektoren sorgten
für die nötige Helligkeit (vgl. [Lev00, S.23ff]) der Projektionen, welche
von W ILFRED als Lumia bezeichnet wurden (Abbildung 3.4). Neben
den großen Vorführsystemen, unter anderem für die ab 1922 öffentlich
stattfindenden Clavilux-Konzerte, entwickelte W ILFRED aber auch eine
Reihe so genannter Lumia-Boxen, welche Fernsehern ähnlich für den
Heimgebrauch nutzbar waren (Abbildung 3.5(a)) und bis zu Monaten
spielen konnten ohne Bilder zu wiederholen (vgl. [Mor97]). Einige seiner
Werke sind im Internet unter [Col07a] als Animation oder Standfoto zu
finden.
Abb. 3.4.: Standbilder einer Clavilux Vorführung: Study in Depth, Opus 152,
1959 im Hirshhorn Museum, Washington, D.C. [Mal07]
Im Gegensatz zu W ILFRED soll M ARY H ALLOCK G REENEWALT synästhetische Fähigkeiten besessen haben. Die studierte Pianistin suchte mit
der Entwicklung ihrer Farborgel, der Sarabet (Abbildung 3.5(b)), die Atmosphäre eines Konzertsaales für besonders gefühlvolle Musik, wie beispielsweise der von Chopin, zu beeinflussen. Um gleichmäßige Lichtübergänge schaffen zu können, entwarf sie den Rheostat, einen stufenlos
einstellbaren elektrischen Widerstand, und den liquid mercury switch, den
Quecksilberschalter, welche später von vielen anderen Künstlern adaptiert wurden (vgl. [Mor97]).
31
Abb. 3.3.:
Scheiben
einer ClaviluxProjektion
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
(a) W ILFRED vor (b) G REENE einem Home-WALT mit
Clavilux
Sarabet
[Lev00]
[Mor97]
(c) D OCKUM mit
seinem MobilColor
Projector [Mor97]
(d) B ARANOFF -R OSSINÉs
Piano Optophonique
[Gro07]
Abb. 3.5.: Audio-Visuelle Instrumente des 20.Jahrhunderts
Wie W ILFRED unterstützt durch ein Forschungsstipendium des Guggenheim Museums, entwickelte der Kalifornier C HARLES D OCKUM ab
den späten 30iger Jahren verschiedene Farborgeln. Seine bedeutendste
Entwicklung ist der MobilColor, ein großes Projektionssystem (Abbildung
3.5(c)), welches bewegte Muster und farbige Formen erzeugen konnte.
Er unterschied dabei drei Arten von Bildern: geometrische Formen,
vibrierende Punktmuster und weiche sinnliche Pfade und Linien (vgl.
[Mor97]). Der Vorführer arbeitete mit vorgefertigten Bildern, welche
durch Rotation, Translation und unterschiedliche Färbung verändert
wurden. Die weichen und dann wieder harten Kanten der Bilder
entstanden durch Defokussieren und Fokussieren (vgl. [Lev00]). Ein
erheblicher Nachteil gegenüber dem automatisch laufenden Clavilux war
allerdings, dass zur Vorführung eines MobilColor drei Personen nötig
waren. Dennoch überzeugten die Projektionen durch ihre erstaunliche
Lichtintensität und den komplexen übereinander gelagerten Bildern
(Abbildung 3.6) with a „living“ glow more „real“ than any imagery projected
through cinema [Mor97].
Abb. 3.6.: Projektionen des MobilColor Projector [Lev00]
Beeinflusst durch Farblichtinstrumente und beseelt von dem Wunsch,
die musikalischen Elemente (Klangintensität, Klanghöhe, Rhythmus und
Bewegung) zu isolieren, um sie ähnlichen, existierenden Elementen im Licht
zuzuführen [vM94, S.214] entwirft der ukrainische Künstler W LADIMIR
B ARANOFF -R OSSINÉ um 1916 das Piano optophonique (Abbildung 3.5(d)).
32
3.2. Renaissance und Neuzeit
Obwohl es sich hierbei (vgl. Clavilux) um eine reine Lichtprojektion
handelt, ist es aufgrund seiner Form- und Farbvariationen in dem
hiesigen Kontext nennenswert. Im Inneren des Instruments befanden
sich die so genannten optophonischen Scheiben, verschiedene mit Farben
und Formen bemalte Glasscheiben (Abbildung 3.7(a)), welche sich bei
Tastendruck, ähnlich dem Clavilux, von Motoren angetrieben drehten.
Das projizierende Licht wurde darüber hinaus je nach Tastenanschlag
durch zusätzliche optische Elemente wie Prismen, Linsen und Spiegel
geleitet, so dass sich auf der vor dem Instrument befindlichen Leinwand
vielfältige, kaleidoskopartige Projektionen (Abbildung 3.7(b)) ergaben
(vgl. [vM94, Lev00]).
(a) Ausschnitt einer
bemalten
optophonischen
Scheibe
(b) kaleidoskopartige statische Projektionen
Abb. 3.7.: Piano Optophonique
Der gegen Ende des 19.Jahrhunderts von T HOMAS A LVA E DISON entwickelte Phonograph ermöglicht es erstmals, Klang aufzuzeichnen und wiederzugeben. Er führt schließlich über die Entwicklung des Kinetoscopes,
für die Wiedergabe von Bildern, kurz darauf zum Kinematographen, der
ersten Filmkamera (vgl. [Dan06]). Obwohl diese Erfindungen zunächst
die Trennung von Bild und Ton förderten (Grammophon und Stummfilm), beflügeln diese dennoch die Möglichkeiten vor a. der abstrakten
Kunst, welche zu dieser Zeit in Europa, besonders in Deutschland, großen
Einfluss hatte. So beschäftigte sich beispielsweise A LEXANDER L ÁSZLÓ,
ungarischer Musiker und Komponist, neben theoretischen Arbeiten auch
mit Kompositionen zum Thema Farblichtmusik. In diesem Rahmen entstanden unter anderem die 11 Préludes Opus 10 (1. ultramarine, 2. yellow, 3. violet etc.) (vgl. [Day07, Mor97]). Seine Kompositionen wurden
größtenteils auf seiner eigens konzipierten Farborgel mit farbigen Scheinwerfern und Diaprojektionen vorgeführt. Um gefilmte abstrakte Bilder in
seine Vorführungen mit aufnehmen zu können, engagierte er den durch
WALTHER R UTTMANN3 maßgeblich beeinflussten O SKAR F ISCHINGER.
3
Pionier des abstrakten Films, der gemeinsam mit seinen damaligen Kollegen nach neuen Formen im Ausdruck des Films suchte
33
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
Abb. 3.8.: Lumigraph während einer Vorführung [Lev00]
Später beschäftigte sich F ISCHINGER, inzwischen als großer abstrakter
Animator bekannt, auch mit Farborgelinstrumenten und entwickelte um
1940 den Lumigraph, welcher ihn befähigte, Licht zu jedweder Musik zu
spielen (vgl. [Mor97]) und der sich durch eine gänzlich neue Methode
hervorhob. Der Lumigraph bestand zum Einen aus einem drei mal drei
Fuß großen, mit einer Latexfolie überzogenem, Holzrahmen, welcher als
(Film-) Leinwand diente. In einem an der Seite befestigten Holzkasten
rotierten außerdem mit farbigem Gel bestrichene Glasstreifen (eine
Farbe pro Glasstreifen), welche auf der Hinterseite des Kastens manuell
bewegt wurden und somit parallel verschiedene Farben erzeugten (vgl.
[Fis07a]). Durch eine kleine Öffnung an der Vorderseite des Kastens
gelangte das durch die Glasstreifen gefärbte Licht der Neonröhren
auf die Gummileinwand, wobei die Lichtschichten sowohl parallel,
als auch direkt auf die Leinwand projiziert wurden (vgl. [Sni03]). Die
charakteristischen farbigen Übergänge entstanden, indem sich eine
Person hinter der Leinwand verschieden stark mit unterschiedlichen
Körperteilen gegen die Leinwand drückte und somit die einzelnen
farbigen Lichtschichten durchbrach (Abbildung 3.8). Eine schematische
Darstellung des Lumigraph ist in Anhang C zu finden. Jede Geste des
Spielers, ob fein oder energisch, bewirkte eine visuelle Veränderung, so
dass die Musik augenblicklich Gestalt und Farbe annahm (vgl. [Fis07a]).
Das Lichtspiel selbst ist hier allerdings keine direkte Reaktion auf die
Musik, sondern wird durch die Bewegungen des Spielers erzeugt. Die
Musik dient als Begleitung und zur Inspiration des Spielers.
In der Öffentlichkeit wurde der Lumigraph nur selten aufgeführt, wurde
aber unter anderem in dem 1964 erschienenen science-fiction Film The
Time Travelers als „love machine“ eingesetzt [Mor97]. Auch F ISCHINGER
hoffte, wie schon C ASTEL und W ILFRED vor ihm, dass Lumigraphen als
Alltagsgegenstände Einzug in die Haushalte nehmen würden. Zwar
ist dies nie geschehen, man kann den Lumigraph aber noch heute im
Deutschen Filmmuseum in Frankfurt besichtigen.
34
3.2. Renaissance und Neuzeit
3.2.2. Musik in Bildern
Die nahe liegendste Form der Darstellung von Musik in Bildern oder Zeichen ist die der musikalischen Notation, wie sie seit Jahrhunderten besteht, den Partituren. Neben der üblichen linearen Zeilennotation existieren ganz eigene Ausprägungen. Bei der so genannten Augenmusik, wie sie
häufig zwischen 1400 und 1650 praktiziert wurde, wird die Ästhetik einer
solchen visuellen Vermittlung musikalischer Strukturen besonders gut
deutlich (vgl. [FG06, War00]). Das Interessante an dieser Notationsform
ist, dass der Künstler nicht nur die rein musikalische, sondern auch eine
symbolische Notation ableiten kann. Bekannte Beispiele für Augenmusiken dieser Zeit sind T ELEMANNs Gulliver Suite und B AUDE C ORDIERS
Belle, Bonne, Sage, in welchem die Stimmen des dreistimmigen Rondos in
Herzform angeordnet sind (Abbildung 3.9(a)). Der Komponist D IETER
S CHNEBEL greift diesen Gedanken im 20. Jahrhundert mit seinem Leseund Bilderbuch Mo-No: Musik zum Lesen wieder auf und versucht, mit
Hilfe der Bilder, Musik im Kopf des Lesers entstehen zu lassen, so dass
er im Lesen allein seiend - mono - zum Ausführenden von Musik wird, für sich
selbst Musik macht (vgl. Klappentext von [Sch69]). Eine Abbildung aus seinem Buch ist in Abbildung 3.9(b) dargestellt.
(a) C ORDIER:
Partitur zu
Belle, Bonne,
Sage, um 1400
(b) Aus D IETER S CHNEBELs
Mo-No: Musik zum Lesen
(c) J OHN C AGE: Fontana Mix
Abb. 3.9.: Augenmusik, (a) aus [FG06], (b) und (c) aus [Med06]
Das Aufbrechen der bildenden Kunst zur Abstraktion führte auch zu
neuen Konzepten musikalischer Interpretation, welche in Grundzügen
denen der Augenmusik ähneln. Künstler wie beispielsweise E DGAR
VARESE sprechen von einer räumlichen Musik, bei welcher sich Klänge
als bewegliche Tonkörper im Raum entfalten. Sie träumen von spatialer
Musik, wie sie ansatzweise bereits bei H EINRICH S CHÜTZ (17. Jahrhundert) durch räumlich verteilte Musiker oder später bei S TOCKHAUSEN
über die räumliche Verteilung von Tonquellen und in der Elektronik
umgesetzt wurde (vgl. [vM94]). Aus der Notwendigkeit heraus, die
35
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
Klangphänomene, Klangeffekte und Klangerzeuger der neuen Musik in
eine in den Raum greifende adäquatere Zeichensprache zu überführen,
gelangte die musikalische Notation in der Musikalischen Grafik zu einer
bildhaften Eigenständigkeit (vgl. [vM94]). Vereinzelte Komponisten, wie
J OHN C AGE und E ARLE B ROWN, begannen, grafische Partituren zu
erstellen (Abbildung 3.9(c)). Die Partitur zu J OHN C AGEs Fontana Mix
besteht aus 20 Seiten geschwungener Linien mit zufällig darüber verteilten Punkten. Die genaue Tonhöhe, Tondauer, Lautstärke und Klangfarbe
wurde anhand von, zu den grafischen Vorlagen definierten, Regeln
bestimmt (vgl. [FG06]). Deutlich wird, dass sich die Musiker mit linearen
Formen und einer schwarz-weißen Darstellung begnügen, da für sie
die Verdeutlichung von musikalischen Strukturen und Verknüpfungen,
Tonhöhenverläufe, Artikulation und instrumentale Differenzierung im
Vordergrund stehen (vgl. [vM94]). In Anhang D sind weitere Beispiele
grafischer Musik zu finden.
(a) B ILINSKY:
Graphische
Umsetzung
eines Choralvorspiels
(b) K LEE: Bildnerische Darstellung der
Anfangstakte aus B ACHs Adagio der
sechsten Sonate für Violine und Cembalo,
G-Dur
(c) K LEE: 3D
Darstellung
eines Melodieverlaufs
Abb. 3.10.: Verhältnis zwischen musikalischer und bildnerischer Form
B ORIS B ILINSKY soll einer der ersten Maler gewesen sein, die versucht
haben, ein Transponierungssystem von Musik in Farben und Formen
zu finden. Die Graphische Umsetzung des Choralvorspiels ’Herzlich tut mich
verlangen’ von Bach, BWV 727, ist in Abbildung 3.10(a) zu sehen. Auch
Bauhaus-Maler wie PAUL K LEE beschäftigten sich mit der Beziehung
zwischen musikalischer und bildnerischer Form und suchten nach
eigenen Transkriptionsformen. In [Gro07, vM94] werden zwei Ansätze
K LEEs vorgestellt: während die eine Umsetzung stark an moderne
Sequenzer-Programme erinnert (Abbildung 3.10(b)), welche Tonhöhen in
Form eines Koordinatensystems mit der Zeitachse verbinden, repräsentiert die 3D-Variante sehr gut die dynamische Bewegung einer Melodie
(Abbildung 3.10(c)) und spiegelt das musikalische Geschehen auf eine
besondere Weise wieder (vgl. [Gro07, vM94]). H ENRIK N EUGEBOREN
erstellt aus seiner diagrammartigen Transkription (Abbildung D.11
36
3.2. Renaissance und Neuzeit
im Anhang) einiger Takte aus B ACHs vierstimmiger Fuge No.1 des
Wohltemperierten Klaviers (in Es-Moll) gar eine dreidimensionale Plastik
(Abbildung D.17 im Anhang).
Während die Einbeziehung bildnerischer Mittel in der Musik, abgesehen
von der Augenmusik, erst um 1950 begann, waren Maler schon frühzeitig
bestrebt, wie Musiker zu arbeiten und blieben von den Einflüssen durch
Klänge und Musik nicht unberührt. Sowohl das akustische Umfeld, als
auch der Klang von Pinsel, Gravournadel oder Meißel inspirierten die
Künstler. In ganz offensichtlicher Form äußert sich dies in den immer
wieder auf Bildern verschiedenster Künstler abgebildeten Musikinstrumenten (zum Beispiel G EORGES B RAQUE, PABLO P ICASSO). Eine
Auswahl an beispielhaften Werken ist in Anhang D und D zu finden.
G EORGES VANTONGERLOO schreibt 1924 in L’Art et son Avenir, dass
die Neue Gestaltung [...] ausgeglichene Beziehungen der Farben [Malerei], der
Volumen [Skulptur], der Töne [Musik] wünscht, um zu einer ästhetischen
Einheit zu gelangen und erinnert damit an die Visionen WAGNERs. WAS SILY
K ANDINSKY beispielsweise verarbeitet musikalische Erlebnisse
in seinen abstrakten Farbmustern und drückt darüber Klangeindrücke
und zeitliche Proportionen aus (vgl. [FG06]). Die Aufführung eines
von A RNOLD S CHÖNBERGs Konzerten 1911, bereits geprägt durch
den Beginn seiner atonalen Schaffensperiode, gaben K ANDINSKY und
anderen Künstlern der Neuen Künstlervereinigung (unter anderem F RANZ
M ARC) einen entscheidenden Impuls zur Abstraktion. K ANDINSKYs
Gemälde Impression 3 (Abbildung D.1 im Anhang) entstand unter diesem
Eindruck (vgl. [Joh07]). Interessant wird die Betrachtung seiner Bilder
und Werke mit dem Wissen, dass auch K ANDINSKY die von ihm empfundenen Zuordnungen zwischen Instrumenten und Farbe in einem
Farb-Instrument-Modell (Anhang C) festgehalten hat. Darüber, ob er
Synästhet war, ist sich die Literatur nicht einig.
(a) M ONDRIAN:
Broadway Boogie
Woogie, 1942/43
(b) W EDER: Orchestersuite 3 in
D-Dur von J.S.Bach,
1980-81
(c) D USCHEK: Bach,
Sonate 1 in G-Moll,
1977
Abb. 3.11.: Rhythmus in Bildern
37
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
Andere abstrakte Künstler wie P IET M ONDRIAN (Abbildung 3.11(a)),
J AKOB W EDER (Abbildung 3.11(b)), K ARL D USCHEK (Abbildung
3.11(c)) und H ANS R ICHTER versuchten in ihren Bildern verstärkt
auch den Rhythmus von Musik widerzuspiegeln. Das Raster aus
wiederkehrenden kleinen Formen, ähnlich einem Grundschlag, und akzentuierenden größeren Formen in M ONDRIANs Bildern vermitteln den
Eindruck tänzerisch-rhythmischer Bewegungen. J.J. S WEENEY beschreibt
seinen Eindruck der Bilder folgendermaßen: Das Auge wird von einer
Gruppe von Farbtönen in unterschiedlicher Schnelligkeit zur anderen geführt.
Gleichzeitig und kontrastierend mit dem endlosen Wechsel in den kleineren
Motiven herrscht die konstante Wiederholung des Rechten-Winkel-Themas
vor, das wie ein gleichbleibender Baß-Anschlag durch ein Gesprenkel rasender
Arpeggios und graziöser Klarinettentöne hindurchdröhnt [vM94, S.403].
3.2.3. Klang und Form
Eine der ersten bekannten Überlieferungen der so genannten Tonschreibekunst, welche versucht, Töne auf Formen abzubilden, findet sich 1787
(vgl. [Lev03]). E RNST F LORENS F RIEDRICH C HLADNI experimentierte
mit auf Glasscheiben verteiltem Quarzstaub, welcher ganz eigene Formen bildet (Abbildung 3.12), wenn ein Violinbogen die Glasplatte in
Schwingungen versetzt. Er fand heraus, dass die jeweiligen Klangfiguren
bestimmten Tönen entsprechen (Abbildung E.1 in Appendix E) und katalogisierte diese in seinem Werk Die Akustik von 1802. Das faszinierende
Abb. 3.12.:
Klangfiguren
aus Quarzstaub
dieser Technik ist, dass die Formen tatsächlich, aufgrund physikalischer
Gesetze, aus den Tönen selbst entstehen.
Inspiriert von Arbeiten K LEEs, wie zum Beispiel der Fuge in Rot
(Abbildung D.2 im Anhang), entwickelte der am Bauhaus tätige
L UDWIG H IRSCHFELD -M ACK mehrere Farb-Form-Lichtspiele. So entstand 1921/22 in Zusammenarbeit mit K URT S CHWERDTFEGER das
Farbenlicht-Spiel (Abbildung 3.13(b)), welches Musikelemente mit dem
Spiel, den Mischungen und Überlagerungen der Farben und Formen verband
[vM94, S.216]. Das Spiel umfasste rhythmisch bewegte gelbe, blaue,
rote und grüne Lichtfelder, welche in verschiedenen Helligkeitsstufen
und Formen auf einer transparenten Leinwand künstlerisch geplant
orchestral dargeboten wurden. Der Aufführung der Lichtspiele dienten
spezielle Partituren, welche der Musik die jeweiligen Farben und Formen
zuordneten (Abbildung 3.13(a)).
38
3.2. Renaissance und Neuzeit
(a) Auszug der Partitur von H IRSCHFELD -M ACKs
’Dreiteiliger Farbensonatine’
(b) Projektionsaufnahme
Farb-Licht-Spiel
Abb. 3.13.: Farbenlicht-Spiel
Die Herausbildung des abstrakten Films im 20. Jahrhundert erschloss in
Form der bewegten Abstraktion eine ganz neue Welt von Bildern. Der
daraus entstandenen Bewegung des Absoluten Films gehörten unter anderem WALTER R UTTMANN, O SKAR F ISCHINGER, V IKING E GGELING und
H ANS R ICHTER an. Schließlich unterstützte die Entwicklung des Tonfilms
als Synthese aus Klang und Bild das Interesse, die Äquivalenz zwischen
Form und Musik eingehender zu untersuchen. Als repräsentatives Beispiel gilt der von O SKAR F ISCHINGER vorgestellte Film Radio Dynamics
(Abbildung 3.14). Als F ISCHINGER im Laufe seiner Arbeit die Ähnlichkeit der abstrakten Formen seiner Filme und denjenigen der Tonspur bewusst wird, beginnt er mit dem, nach dem optoelektrischen Prinzip arbeitenden, Lichtton zu experimentieren (vgl. [Gro98]). Eines der Resultate
ist der Film Klingende Ornamente, welcher dem Betrachter genau diejenigen Formverläufe vorführt, die gleichzeitig auf der Tonspur den Klang
erzeugen (Abbildung 3.15). Er fand heraus, dass flache und glatte Figuren weiche und weit weg klingende Töne ergeben, mittelgroße Dreiecksformen eine normale Lautstärke und spitz zulaufende Formen mit tiefen
Einschnitten den lautesten Klang erzeugen (vgl. [Fis07b]). Ein ähnliches
Beispiel ist L ÁSZLÓ M OHOLY-N AGYs Film Tönendes ABC. Obwohl diese
Form der Bild-Klang-Relation technisch nicht eindeutig ist, da ganz unterschiedliche Filmsequenzen den gleichen akustischen Eindruck erzeugen können4 , bilden sie dennoch eine Art technischer Synästhesie (vgl.
[Kla07]).
Im Gegensatz zu F ISCHINGER, welcher seine Bildsequenzen mit Hilfe
des Tonfilms hörbar machte, arbeitet R UDOLF P FENNINGER nach dem
umgekehrten Prinzip. Mit Hilfe eines Oszilloskops studierte er die durch
bestimmte Töne erzeugten graphischen Formen und fand über die
4
die Photozelle registriert zwar Veränderungen der Lichtintensität, nicht aber bestimmte
Muster
39
Abb. 3.14.:
Standbild aus
F ISCHINGERs
Radio Dynamics
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
Abb. 3.15.: Photoplatten von F ISCHINGERs Klingende Ornamente
Jahre eine eindeutige graphische Entsprechung für jeden Ton. Er war
somit in der Lage, mit Hilfe seiner Tönenden Handschriften, vorhandene
Melodien zu visualisieren (vgl. [Lev03]). Ähnlich dazu entwickelte der
Abb. 3.16.:
M C L AREN: Abbildung eines
Tones über
Index-Card und
Schablone
Kanadier N ORMAN M C L AREN eine Methode, verschiedene Klänge
über Schablonen zu erzeugen. Dazu entwickelte und katalogisierte
er zunächst so genannte Index-Cards, deren in bestimmten Abständen
aufgemalte Streifen die Töne der jeweiligen chromatischen Tonleiter
darstellten. In Abbildung 3.16 ist am unteren Rand der Index-Card die
Beschriftung der Tonstufen in Solmisationsform (do-re-mi-fa-so-la-si-do
steht für C-D-E-F-G-A-H-C) zu erkennen. Um unterschiedliche Klangfarben (anschwellend oder abschwellend) zu erhalten, maskierte er die
jeweiligen Töne der Index-Card mit einer in spezieller Form geschnittenen
Schablone (Abbildung 3.17). In dieser Weise wurde Ton für Ton auf die
Abb. 3.17.:
M C L AREN:
Schablonen
optische Tonspur des Filmes fotografiert (vgl. [Lev00]). Die Besonderheit
dieser auf dem Prinzip der optischen Tonspur beruhenden Techniken ist,
dass sie die Klänge nicht nur repräsentieren, sondern diese auch direkt
generieren.
Ebenfalls in den Bereich der Synthese aus Klang und Form fallen die zahlreichen Arbeiten mit Oszilloskopen ab den 50er Jahren. Auch hier wird
der Ton direkt, in Wellenform auf dem Bildschirm, abgebildet. Vertreter dieser Richtung sind M ARY E LLEN B UTE, N ORMAN M C L AREN und
Videobsp. 4.:
L.LYE, Colour
Flight, 1937
die W HITNEY Brüder. Zahlreiche Film- und Installationskünstler spielen
mit Formen, Farben, Bewegung und Bild und stellen diesen Geräusche
und Töne gegenüber. L EN LYEs abstrakte Filme erinnern stark an moderne Musikvideos, wobei LYE die Musik lediglich als Untermalung der im
Vordergrund stehenden Bilder nutzt (siehe Videobeispiel 4 und 5). Als einer der bekanntesten Videokünstler sei N AM J UNE PAIK genannt, dessen
Videobsp. 5.:
L.LYE, Particles
in Space, 1966
Werke sich zum Großteil sehr experimentell mit der Fernseh- und Videotechnik auseinandersetzten, wobei Video und Sound derart eng verbunden sind, dass die Anwesenheit des einen ohne das andere kaum vorstellbar scheint. Da dies aber nur noch bedingt in den Bereich der Musikvisualisierung fällt, werden dessen Werke hier nicht näher betrachtet.
40
3.2. Renaissance und Neuzeit
Im Laufe dieser Jahre erfreuen sich audiovisuelle Experimente zunehmender Beliebtheit, so dass konzertbegleitende bombastische Lichtshows
zu einem Muss für jeden Pop-Star werden (bis in die heutige Zeit hinein).
KünstlerInnen wie zum Beispiel L AURIE A NDERSON nutzen vielfältige
audiovisuelle Elemente als Versinnbildlichung ihrer Musik. Musikvideos
werden nahezu zur eigenständigen Kunstform und Videojockeys (VJs) arbeiten mit Diskjockeys (DJs) Hand in Hand, um Kompositionen aus Musik
und Bildern zu schaffen.
3.2.4. Klang durch Aktion
Klang durch Aktion beschreibt den Einsatz von Klang und Musik als
Feedback für getätigte Aktionen. Bei der Interaktion mit der Umwelt und
besonders im Einsatz mechanischer Geräte ist der Mensch seit jeher an eine direkte akustische Rückmeldung durchgeführter Aktionen gewöhnt.
Man läuft durch den Wald und die Stöckchen knacken. Ein Motor läuft,
sobald man das Rattern vernimmt. Diese Geräusche fehlen in der digitalen Informationsverarbeitung und beschreiben somit einen der Gründe
für den immer noch für viele Menschen ungewohnten Umgang damit.
Wurde der Button nun betätigt oder noch nicht? Wieso startet ein Programm, das eigentlich nicht ausgewählt wurde?
Die steigende Komplexität graphischer Benutzeroberflächen verlangt von
dem Nutzer, neben der Erfüllung seiner eigentlichen Arbeitsaufgabe, zusätzliche Aufmerksamkeit bei der Nutzung der Werkzeuge. Um den Umgang zu erleichtern reichen graphische Lösungen oft nicht aus, da diese
neben der zusätzlichen visuellen Belastung außerdem weiteren Raum auf
dem Bildschirm benötigen. Warum also nicht die Eigenschaft des Menschen ausnutzen, Aufgaben im Zusammenspiel verschiedener Sinne zu
absolvieren und somit gleichermaßen der Urgewohnheit des akustischen
Feedbacks gerecht werden? Die Vorteile eines unterstützenden Einsatzes
von Sound in diesem Bereich sind, dass Sound die visuelle Aufmerksamkeit des Nutzers nicht stört, omnidirektional wahrgenommen wird und
sehr effektiv auf Veränderungen aufmerksam machen kann, während der
Nutzer seiner Aufgabe nachgeht. Die genutzten Sounds werden in Form
so genannter Earcons eingesetzt: abstrakte strukturierte nicht-sprachliche
Klangnachrichten, welche außerdem den Vorteil der Sprachunabhängigkeit besitzen. Problematisch ist allerdings die unter bestimmten Bedingungen einsetzende Geräuschbelästigung. Der Einsatz von Klängen sollte also gut durchdacht sein (siehe auch Guidelines zum Einsatz von Ear-
41
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
cons [BWE95]). Im Folgenden werden einige Beispiele des unterstützenden Einsatzes durch Earcons vorgestellt.
Audio Unterstützung für Buttons
Buttons einer Benutzeroberfläche am Bildschirm sind einer der grundlegendsten Bestandteile einer Mensch-Computer-Schnittstelle. Eine der
Hauptfehlerquellen bei der Nutzung solcher Buttons ist der Eindruck des
Nutzers, der Button sei gedrückt worden, obwohl dies nicht der Fall ist.
Dies geschieht beispielsweise wenn der Nutzer den Button verlässt, bevor die Maustaste losgelassen wurde. Diese Probleme treten immer dann
auf, wenn der Nutzer, sich auf eine Aufgabe konzentrierend, nicht auf
den Button schaut, um die Auswahl zu überprüfen. B REWSTER
ET AL .
[BWED95] empfehlen den Einsatz zwei verschiedener Sounds, um adäquates Feedback zur Unterscheidung eines erfolgreichen oder fehlgeschlagenen Buttonklicks bereitzustellen: einen, um das highlighting des
Buttons zu untermalen, sobald der Nutzer mit dem Mauszeiger über den
Button fährt, und einen weiteren Klang, um das erfolgreiche Klicken zu
indizieren.
Audio Unterstützung für Menüs
Ähnlich den Buttons tritt auch bei Menüs das Auswahlproblem auf: zum
einen kann es zu einer Fehlauswahl kommen, indem ein anderer darüber
oder darunter liegender Eintrag getroffen wird (item slips) oder aber es
wird gar kein Element ausgewählt (menu slip). Zur Unterstützung schlagen B REWSTER
ET AL .
[BC97] vor, drei Earcons zu verwenden. Eines um
das Ausklappen eines Menüs zu signalisieren: sobald und solange wie
der Mauszeiger über den Menüpunkt fährt, erklingt der Sound. Dabei
wird für jeden Menüpunkt eine eigene Instrumentfamilie gewählt. Um
die einzelnen Menüeinträge unterscheiden zu können, wird eine Kombination zweier Earcons (in unterschiedlichen Tonlagen) empfohlen: für gerade und ungerade Menüeinträge. Der Sound erklingt, sobald der Mauszeiger länger als eine halbe Sekunde über dem Menüeintrag verharrt. Das
dritte Earcon steht schließlich für die getroffene Auswahl. Falls ein Trennstrich getroffen wurde ertönt kein Sound, so dass der Nutzer erkennt, ob
ein Eintrag ausgewählt wurde oder nicht.
Audio Unterstützung für Tool-Paletten
Tool-Paletten (Abbildung 3.18) sind ein üblicher Bestandteil der meisten
Grafikprogramme, mittels welcher dem Nutzer eine Auswahl an Bearbeitungswerkzeugen zur Verfügung gestellt wird. Die Benutzung der einzelnen Tools ist allerdings oft unterschiedlich angelegt: bei manchen Pro-
42
3.2. Renaissance und Neuzeit
grammen fällt die Auswahl nach der Benutzung eines Tools zur Standardeinstellung, meistens dem Auswahltool, zurück, bei anderen wiederum
bleibt das ausgewählte Tool aktiv bis der Nutzer die Auswahl ändert.
Wenn sich der Nutzer nicht bewusst ist, welches Tool gerade ausgewählt
ist, können diese verschiedenen Nutzungsmethoden zu Usabilityproblemen führen. Dies geschieht vor allem, sobald sich der Nutzer voll und
ganz auf seine Arbeitsaufgabe konzentriert. Ein Lösungsvorschlag wäre
die Repräsentation der einzelnen Tools durch verschiedene Earcons. Da
das Hauptproblem jedoch im Wechsel von einem Tool zu einem anderen
liegt, schlagen B REWSTER
ET AL .
[BC05] vor, lediglich den Toolwechsel
durch Sound zu untermalen.
Audio Unterstützung für blinde Nutzer
Der Einsatz nicht-sprachlicher Sounds im Interfacedesign kann besonders
auch blinde Nutzer unterstützen, sich besser zurecht zu finden. Zwar
kann durch Screenreader der textliche Inhalt zugänglich gemacht werden, durch Soundunterstützung kann darüber hinaus aber auch ein besserer Eindruck des Aufbaus und des Geschehens verdeutlicht werden. So
kann beispielsweise das Scrollen mit Scrollbalken über die in Abschnitt
2.1.3 vorgestellten Shepard-Risset Tonfolgen akustisch repräsentiert werden
(vgl. [BLC96]).
(a) Kreis
(b) Rechteck
(c) Horizontale Linie
Abb. 3.19.: Musikalische Objektrepräsentation [AR98]
A LTY und R IGAS zeigen in [AR98] ein Verfahren, mittels dessen sowohl
einzelne Objekte, als auch ganze Szenen von Objekten über Klang erfahrbar gemacht werden. Jedem Objekt wird eine bestimmte Art Klang zugeordnet (Abbildungen 3.19(a), 3.19(b) und 3.19(c)). Um die gesamte Szene zu erfassen, werden drei verschiedene Arten musikalischer Scans verwendet: Top-Down Scanning (stufenweises Abtasten der Szene von oben
nach unten in Leserichtung), Centre Scanning (Abtasten in größer werdenden Kreisen von der Mitte beginnend) und Ascending Scanning (Abtasten
der Objekte im Raum nach steigender Größe). Wenn darüber hinaus ein
Bezug zum Kontext hergestellt werden kann, der Nutzer also ungefähr
weiß, ob es sich zum Beispiel um eine Straßenszene oder Buchstaben han-
43
Abb. 3.18.:
Toolpalette
eines Grafikprogramms
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
delt, wurden in den durchgeführten Experimenten (vgl. [AR98]) erstaunlich hohe Erkennungsraten erreicht.
Während die bisher vorgestellten Earcons vorwiegend aus einfachen Tonfolgen bestehen, stellen H ANKINSON und E DWARDS (vgl. [HE99]) eine
musikalisch komplexere Anwendung vor. Die Erstellung der jeweiligen
Earcons unterliegt dabei einer Art musikalischer Grammatik, welche sich
unter anderem aus den Elementen Note, Akkord, Rhythmus, Tonhöhe
und Melodie zusammensetzen kann und sich (in dem vorgestellten Fall)
an den Regeln der westlichen Tonharmonie orientiert. Dabei wird besonders die Wechselwirkung der musikalischen Konsonanz und Dissonanz
ausgenutzt. Ziel ist es, eine musikalische Rückmeldung bezogen auf bestimmte Objekte und darauf auszuführende Aktionen zu geben, wobei
nicht alle Aktionen auf jedes Objekt ausführbar sind. Die Ausführbarkeit der jeweiligen Aktion wird über einen wohlklingenden (Ausführung
möglich) oder dissonanten (Ausführung nicht möglich) Akkord repräsentiert. Auf Grundlage der in Abbildung 3.20(a) beispielhaft dargestellten Kombinationsregeln von Objekten und Aktionen, werden Akkorde
einander so zugeordnet, dass eine mögliche Aktion auf ein Objekt einen
wohlklingenden Akkord und eine nicht mögliche Aktion einen dissonanten Akkord hervorrufen (Abbildung 3.20(b)). Um darüber hinaus nicht
nur die Möglichkeit einer Aktion, sondern auch die Art der jeweiligen
Aktion hörbar zu machen, schlagen die Autoren den Einsatz von kurzen, prägnanten auf den jeweiligen Akkorden beruhenden Melodien vor
(Abbildung 3.20(c)).
(a) Objekt-Aktion
Kombinationen
(b) beispielhafte
Objekt-Aktion
Akkorde
(c) mögliche Earcon
Melodien für Objekte
und Aktionen
Abb. 3.20.: Earcons auf Basis musikalischer Grammatiken [HE99]
Diese Art des Musikeinsatzes unterstützt die besondere Eigenschaft von
Musik, selbst sehr feine Unterschiede zu verdeutlichen. Dies ist auch darauf zurückzuführen, dass das Gehör des Nutzer auf Feinheiten empfindlicher reagiert, als es oftmals visuell der Fall ist. Viele Nutzer würden beispielsweise eher Unstimmigkeiten einer Klangharmonie, als einer Farbharmonie wahrnehmen.
44
3.2. Renaissance und Neuzeit
3.2.5. Klang zeitgenössischer Arbeiten - Fusion der Stile
The world of abstract expression pioneered in twentieth century art
by Schoenberg in music and Kandinsky and others in painting can
now be given concrete expression thanks to the interactive media
made possible by computer technology
Masaki Fujihata in [FFW07]
3.2.5.1. Messa di Voce (G. L EVIN, 2003)
Messa di Voce (italienisch, „die Stimme setzen“) ist eine audiovisuelle
Performance und Installation für Stimme und interaktive Medien, welche in Zusammenarbeit von G OLAN L EVIN und Z ACHARY L IEBERMAN
entstand. Jede stimmliche Nuance der Stimmakrobaten (J OAN L A B AR BARA
und J AAP B LONK), ob Geräusche, Sprache oder Gesang, wird über
eine spezielle Software in korrespondierende, ausdrucksstarke Grafiken
umgesetzt. Diese virtuellen Objekte dienen jedoch nicht nur als Abbild
der Stimme, sondern sind auch Instrument der Interaktion: durch körperliche Manipulationen können die Künstler den Klang der erzeugten
Grafiken wieder abspielen. Messa di Voce verbindet phonetische Klangkunst mit virtuellen Objekten über Echtzeitberechnung interaktiver Systeme und versucht in zwölf aufeinander folgenden kurzen Akten (Vignetten) die Bandbreite symbolischer, taktiler und audiovisueller Aspekte darzustellen. Diese werden im Folgenden kurz beschrieben (vgl. [LL03]).
Brightness-Balance (Helligkeit-Balance) präsentiert die fundamentalen
Elemente des Messa di Voce Systems: Licht und Atem. Das Atmen des
einen Stimmkünstlers erzeugt die auf die Leinwand projizierten Beleuchtungen und Animationen, während der Atem des anderen Stimmkünstlers die Elemente rotieren lässt.
Clouds (Wolken) bildet aus Luft-, Wind- und Atemgeräuschen animierte
Wolken (siehe Abbildung 3.23(a)), deren Struktur sich aus der Klangfarbe des die Wolke erzeugenden Geräuschs ergibt: helle Geräusche bewirken unruhige Wolkenstrukturen (siehe Abbildung 3.22), während dunk-
Abb. 3.21.:
„hhhhhh“
Wolke (Clouds)
lere Klänge weichere Wolken (siehe Abbildung 3.21) ergeben.
Bodystamp (Körperabdruck) stempelt die Körperumrisse der Künstler
als helle Schatten auf die Leinwand: sobald ein Stimmkünstler zu sprechen oder singen beginnt, wird sowohl der Ton, als auch die bewegte Silhouette des Künstlers aufgezeichnet und später synchron in periodischen
Zyklen wieder abgespielt (siehe Abbildung 3.23(b)).
45
Abb. 3.22.:
„ssssss“ Wolke
(Clouds)
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
(a) Clouds
(b) Bodystamp
(c) Ripple
Abb. 3.23.: Ausschnitte aus Messa di Voce
Bounce
erzeugt, durch ein eigentümliches Wangenschlackerge-
räusch hervorgerufene, aufsteigende Blasen (siehe Abbildung 3.26(a)),
welche am oberen Rand aneinander drändelnd eine instabile Wolke
bilden. Die Wolke zerfällt, sobald sich der Stimmkünstler der Leinwand
zuwendet und Blase um Blase fällt zu Boden (siehe Abbildung 3.26(b)),
wobei beim Aufeinandertreffen der Blasen mit dem Künstler oder dem
Boden das die Blase erzeugende Geräusch widerklingt.
Ripple (Wellen)
Abb. 3.24.:
Wellenerzeugung
pro Ton
(Ripple)
wandelt die Leinwand zur Wasseroberfläche,
welche durch Schnatter- und Schnalzgeräusche - jeder Ton ergibt eine
Welle (siehe Abbildung 3.24) - bewegt wird. Simultane Bewegungen
und Töne eines Künstlers bewirken Verwirbelungen (siehe Abbildung
3.23(c)).
Insect Nature Show (Insekten)
stellt eine Art Tierdokumentation
dar, bei welcher der Erzähler in abstrakter Sprache die Eigenschaften eines Wesens, verkörpert durch den anderen Stimmkünstler, erläutert, und
damit ein filigranes Liniengebilde erzeugt (links in Abbildung 3.26(c)).
Das Tier selbst besteht aus dem grob gezeichneten Umriss der interaktiv
projizierten Silhouette des Künstlers (siehe Abbildung 3.25), welche
Abb. 3.25.:
Umriss (Insect
Natur Show)
sich je nach Tonhöhe und Klangfarbe der Geräusche ändert. Spezielle
Zischlaute bewirken einen dampfartig aufsteigenden Blasenstrom (siehe
Abbildung 3.26(c)).
(a) Bounce
(b) Bounce
(c) Insect Nature Show
Abb. 3.26.: Ausschnitte aus Messa di Voce
46
3.2. Renaissance und Neuzeit
(a) Fluid
(b) Stripes
Abb. 3.27.: Ausschnitte aus Messa di Voce
Fluid (Flüssigkeit)
bildet durch weiche tuschelnde und zischende
Laute leuchtend-rauchartige Strömungen (siehe Abbildung 3.27(a)), deren Richtung über Körperbewegungen beeinflusst werden kann. Die Vokalart des erzeugenden Lautes bestimmt die Farbe der Strömungen: zum
Beispiel ergeben helle Vokale, wie „ee“, grünliche und gelbe Farbtöne.
Rothko erstellt zu den aufsteigenden Melodien des Stimmkünstlers R O THKO s
Bildern ähnliche farbige Säulen (siehe Abbildung 3.29(a)), deren
Färbung und Position durch die Klangfarbe und Tonhöhe der die Säule
erschaffenden Melodie und durch die Position des Künstlers beim Singen
bestimmt wird. Die Melodien werden in Echtzeit aufgenommen und im
Loop (kontinuierliche Wiederholung) abgespielt.
Stripe (Streifen) bewirkt die Darstellung schmaler, je nach Tonhöhe und
Klangfarbe, verschiedenfarbiger Streifen (siehe Abbildung 3.27(b)), welche das von puren Tönen und feinen Dissonanzen bestimmte Duett der
beiden Stimmakkrobaten auf eine besondere Weise visualisieren.
Pitchpaint (Malen nach Tonhöhen)
erzeugt aus dem Gesang der
Künstler abstrakte Gemälde (siehe Abbildung 3.29(b)), deren Liniendicke
durch die Lautstärke bestimmt wird. Absteigende Tonfolgen bilden im
Uhrzeigersinn drehende Linien, aufsteigende Tonfolgen gegen den Uhrzeigersinn drehende Linien (siehe Abbildung 3.28) und Tonfolgen auf
gleicher Höhe repräsentieren gerade Linien. Eine Oktave bildet einen
Halbkreis. Die Linien beginnen an der Position des Künstlers und verblassen über die Zeit. Geschlossene Flächen werden, je nach Art des vorherrschenden Vokals, mit einer bestimmten Farbe gefüllt. „Ssch!“-Geräusche
löschen das Bild.
Zum Abschluss der Performance stellen sich die Akteure und Schöpfer
von Messa di Voce selbst vor, wobei die ausgesprochenen Namen als
Wortblase auf der Leinwand erscheinen (siehe Abbildung 3.29(c)).
47
Abb. 3.28.:
Richtung je
nach Tonabfolge
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
(a) Rothko
(b) Pitchpaint
(c) Credits
Abb. 3.29.: Ausschnitte aus Messa di Voce
3.2.5.2. The Shape of a Song (M. WATTENBERG)
Eine strukturbasierte Art der Musikvisualisierung erstellt die Software
zu The Shape of a Song, welche die Struktur der in Midi-Form vorliegenden musikalischen Werke analysiert und darauf aufbauend Diagramme
halbtransparenter Bögen erstellt, die Aufschluss über die Tiefenstruktur
der Komposition geben. Dabei werden jeweils zwei sich gleichende Passagen des Musikstücks als ein Bogen verbindend dargestellt. In Abbildung 3.30(a) ist das Analyseergebnis des einfach-strukturierten Stückes
Mary Had a Little Lamb abgebildet, wobei anhand der Partitur die Korrespondenz zwischen Noten und Bögen nachvollziehbar ist. Komplexere Kompositionen ergeben dementsprechend kompliziertere Diagramme
(Abbildung 3.30(b)). [Wat06]
(a) Mary Had a Little Lamb
(b) B EETHOVEN: Sonata Pathetique,
Adagio
Abb. 3.30.: Musikanalyse mittels The Shape of a Song
The Shape of a Song macht sich die Eigenschaft von Midi-Dateien zu nutze,
neben Beschreibungen der Noten auch Spuren der einzelnen Instrumente oder Stimmen zu beinhalten. Diese Daten werden durch die Software
separat untersucht und ergeben letztendlich ein repräsentatives Bild der
musikalischen Struktur des Stückes, da auch die besonders den einzelnen
Stimmen eigenen Wiederholungen erkannt werden. Auf den Internetseiten von The Shape of a Song [Wat06] ist eine große Auswahl an Beispielstücken zu finden.
48
3.2. Renaissance und Neuzeit
3.2.5.3. AVES - AudioVisual Environment Suite (G. L EVIN, 2000)
Die AudioVisual Environment Suite von G OLAN L EVIN ist ein Tool für
audiovisuelle Performances und beinhaltet fünf verschiedene Systeme.
Beeinflusst durch die Bildsprache abstrakter Gemälde und Animationen
befähigt AVES den Nutzer, abstrakte Klänge, Bilder und Animationen zu
schaffen und miteinander zu verbinden. Jedes der Teilsysteme wird auf
seine Weise durch die Gesten des Nutzers in Echtzeit gesteuert und stellt
somit ein experimentelles, flexibles und leicht zu erlernendes interaktives
Interface dar (vgl. [Lev00]).
(a) Aurora
(b) Floo
(c) Yellowtail
(d) Loom
Abb. 3.31.: Teilsysteme der AudioVisual Environment Suite (AVES)
beschreibt eine schimmernde nebelartige Wolkenstruktur
Aurora
aus Klang und Farbe (siehe Abbildung 3.31(a)), welche sich durch die Bewegungen des Nutzers entfaltet, auflöst oder verschwindet.
Floo
formt rankenartige Gebilde (siehe Abbildung 3.31(b)), welche
sich nutzergesteuert ausbreiten und verschlingen. Das Wachsen der Ranken ist begleitet von Shepard-Risset artigen synthetischen Tonfolgen.
wiederholt die durch den Nutzer in Form und Bewe-
Yellowtail
gung spezifizierten Striche (Abbildung 3.31(c)) und erzeugt über ein inverses Spektogramm korrespondierende Klänge.
Warbo befähigt den Nutzer, animierte Kompositionen leuchtender Blobs
zu erschaffen.
Loom
wiederholt die vom Nutzer gezeichneten Figuren (siehe Ab-
bildung 3.31(d)) untermalt mit Klang und schafft somit ein rhythmisches
Bild-Klang-Erlebnis.
3.2.5.4. Small Fish (M. F UJIHATA , K. F URUKAWA , W. M UENCH, 2000)
Die hinter Small Fish stehende Idee ist es, einen Raum zu schaffen, in welchem die Bedeutung grafischer Elemente wie Punkte, Linien und Farben
mit der Bedeutung tonaler Elemente wie Tonhöhe und Klangfarbe interagiert. Musik über grafische Elemente erfahren, ohne ständig bewusst
zu übertragen. Small Fish ist eine spielerische Installation, bei welcher
49
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
sich kleine projizierte Fische über die am Boden befindliche ProjektionsVideobsp. 15.:
Smallfish, ARS
Electronica
Linz
fläche bewegen. Beim Zusammenstoß mit darauf verstreuten grafischen
Objekten erzeugen sie bestimmte Töne. Die verschieden geformten projizierten Grafiken reagieren auf reale, je nach Installation zum Beispiel
aus Schaumstoff (siehe sowohl Abbildungen 3.32(c) und 3.32(d) als auch
Videobeispiel 16) oder Plastik (siehe sowohl Abbildungen 3.32(a) und
3.32(b) als auch Videobeispiel 15) bestehenden, Objekte, die vom Nutzer
bewegt werden können, um den Tonfluss zu beeinflussen. Je nach Form
Videobsp. 16.:
Smallfish, ICC
Tokyo
des Objektes entstehen unterschiedliche Klänge (vgl. [FFW07]).
(a) ARS Electronica
Center Linz,
2000
(b) AEC Linz Detail
(c) ICC Tokyo, 2000
(d) C3 Budapest,
2001
Abb. 3.32.: verschiedene Installationen des Small Fish
3.2.5.5. Arbeiten von TOSHIO I WAI
Medienkünstler T OSHIO I WAI ist seit mehreren Jahren im Bereich audiovisueller Programme und Installationen tätig. So entstanden beispielsweise in Zusammenarbeit mit unterschiedlichen Firmen eine Reihe von
Computerspielen und audiovisuellen Musikinstrumenten. Einige seiner
Arbeiten werden im folgenden exemplarisch vorgestellt.
Music Insects (1992)
Das für Nintendo und das San Francisco Exploratorium entwickelte Computerspiel, stellt eine Mischung aus Zeichen- und Soundprogramm dar.
Mit Hilfe der Eingabesteuerung platziert der Nutzer aus einer Palette
verschiedenfarbige Pixelpunkte oder ganze Linien auf dem Bildschirm,
welche, sobald eines der sich auf dem Bildschirm bewegenden Insekten diese berührt, einen Klang und eine Art Lichtblitz auslösen. Über die
Punkte kann auch die Laufrichtung der Insekten kontrolliert werden (vgl.
[Iwa07b, Lev00]). Toshio selbst bezeichnet sein Programm als a sort of tool
for visual music performance (Abbildung 3.33(a)).
Tenori-On (2006)
Dieses noch in Entwicklung befindliche digitale Musikinstrument entstand in Zusammenarbeit mit YAMAHA. Es besteht aus 16x16, in einen
Aluminiumrahmen gefassten, LED Knöpfen Abbildung 3.33(b)), welche
50
3.3. Zusammenfassung und Fazit
es via Fingerdruck ermöglichen, intuitiv visuelle Musik zu komponieren.
Mit Hilfe der zusätzlich am Rahmen befestigten Knöpfe können Licht und
Klang geändert werden. Die Rückseite des Tenori-on besteht aus ebenfalls
16x16 LED Lampen, welche das Licht der Vorderseitenknöpfe kopieren
und somit bei Bühnenpräsentationen ein beeindruckendes Lichtspiel erzeugen. Deutlich wird hier I WAIs Anliegen, die Schönheit von Licht und
Klängen in einem greifbaren Interface zu vereinen (vgl. [Iwa07a]). Das Videobeispiel (siehe Überschrift) zeigt eine Vorführung des Tenori-On durch
T. I WAI selbst.
Piano - as an image media (1995)
Diese multimediale Installation besteht aus zwei Projektionsflächen, welche an der Tastatur eines elektromechanischen Flügels zusammenkommen. Über die Eingabesteuerung (in Abbildung 3.33(c) jeweils auf der
linken Seite) werden auf der ersten Projektionsfläche punktartig leuchtende Daten-Events in Richtung Tastatur geschickt (vgl. [Gro07]), welche
auftreffend das Anschlagen der jeweiligen Tasten auslösen und als Lichtblitze oder farbige Formen auf der zweiten Projektionsfläche nach oben
verschwinden. Ein Eindruck dessen bietet das Videobeispiel (siehe Überschrift). Als Variation dieser Installation lässt T OSHIO I WAI die Formen
und Lichtblitze durch einen live spielenden Pianisten erzeugen. In einer diese Variante weiterführenden Variation bewirken dessen Lichtblitze wiederum das Anschlagen der Tasten eines weiteren, in diesem Fall
elektromechanischen, Flügels, so dass eine Art Fugenkonzert in Zusammenspiel von Mensch und Technik entsteht.
(a) Music Insects (b) TOSHIO I WAI mit
Interface
seinem Tenori-On
(c) Installation Piano - as an image media
Abb. 3.33.: Arbeiten von TOSHIO I WAI
3.3. Zusammenfassung und Fazit
Der geschichtliche Abriss verdeutlicht, dass die Verbindung von Klang
und Bild seit jeher eine große Bedeutung für den Menschen besitzt,
wobei der Ursprung in den, in Abschnitt 3.1.1 angesprochenen, Schöp-
51
3. Musik und bildende Kunst - Geschichte der Musikvisualisierung
fungsmythen der Frühzeit liegt. Nachdem sich im Laufe der Zeit der
Mantel des Magisch-Unerklärbaren lüftet und Raum lässt für bewussten Einsatz, gewinnen auch strukturelle Untersuchungen, zunächst
vor allem des Klanglichen, stärker an Bedeutung. Dies wird in den
mathematisch-musikalischen Theorien des P YTHAGORAS deutlich, der
damit den Grundstein der Musiktheorie schuf (Abschnitt 3.1.2). In
den darauf folgenden Abschnitten wurden die, besonders mit Beginn
der Renaissance, aufblühenden zahlreichen Bemühungen beschrieben,
eine Synthese aus Klang und Bild zu finden. Dabei wurde gemäß der
unterschiedlichen Ausprägungen unterschieden in Klang und Farbe,
Klang und Form und Musik in Bildern. Abschnitt 3.2.4 beschäftigte sich
schließlich mit den im Bereich der digitalen Informationsverarbeitung
angesiedelten Bemühungen, Bild mit Klang zu verbinden. Diesbezüglich
wurden Beispiele aufgeführt, die zum einen die Nutzung erleichtern und
zum anderen beispielsweise blinden Nutzern den Zugang überhaupt
erst ermöglichen. Abschließend wurden in Abschnitt 3.2.5 Arbeiten
zeitgenössischer Künstler vorgestellt, welche in beeindruckender Art
und Weise klangbildliche Zusammenspiele in einer Fusion der verschiedensten Stile präsentieren und dabei viele der im Laufe der Geschichte
entstandenen Ideen verarbeiten.
52
4. Die Möglichkeit eines
musikalischen Interaktionsbildes
Die Essenz aus den im vorherigen Abschnitt vorgestellten Arbeiten soll
nun einfließen in neue Überlegungen, die sich mit der Möglichkeit und
Art und Weise einer Repräsentation grafischer Objekte durch Klänge (und
in der Weiterführung Musik) beschäftigen. Dabei steht die Frage im Vordergrund, wie die Erfahrungen der „historischen Arbeiten“ und das Wissen über Musik genutzt werden können, um Visualisierungen hörbar zu
machen. Die Auslegung von Klängen wird hierbei vorwiegend tonal geprägt sein. Geräusche werden bei den Überlegungen weitestgehend außer Acht gelassen, wenngleich diese gegenüber Tönen den entscheidenden Vorteil bergen, neben der auditiven Information stets auch Hinweise
über deren Quelle zu vermitteln. Dieses Arbeitsfeld wird jedoch durch
einen anderen Forschungsbereich beschritten.
Während im Folgenden also zunächst das Vokabular und Modell des
(bildnerischen) Interaktionsbildes vorgestellt wird, sind die Überlegungen im Anschluss daran auf die Abbildungsbeziehungen von Visualisierungen und Musik in der Interaktion gerichtet. Welche Eigenschaften
bietet Musik? Suggerieren bestimmte Klänge bestimmte bildnerische Eigenschaften oder umgekehrt? Es wird außerdem auf die zu beachtenden
Aspekte einer Integration akustischer Ereignisse in Interfaces und deren
Vorteile eingegangen. Zusammengefasst stellen die Überlegungen einen
Ansatz dar, eine Interaktionsbild ähnliche Systematisierung für den Einsatz klanglicher Elemente zu finden.
4.1. Das Interaktionsbild
Die Schnittstelle zwischen Nutzer und interaktiver virtueller bildhafter
Gestaltung beschreibt G ROH [Gro05] in Form des Interaktionsbildes (Abbildung 4.1), welches im Folgenden kurz erläutert werden soll. Die Komplexität der Interaktion wird im Interaktionsbild, wie in Abbildung 4.1 dargestellt, auf vier syntaktische Felder heruntergebrochen: Gestalt, Raum,
Bewegung und Dauer. Gestalt und Bewegung beschreiben dabei die Ant-
53
4. Die Möglichkeit eines musikalischen Interaktionsbildes
wort gebende quantitative Dimension, innerhalb welcher das Konkrete,
Messbare, individuell Erfahrbare und Echte zu finden ist, wobei der Betrachter stets als Maßstab und Bezugspunkt herangezogen werden kann.
Dem gegenüber steht die Fragen aufwerfende, durch Raum und Dauer beschriebene, qualitative Dimension, welche das Unanschauliche und
Metaphorische umfasst. In deren Pluralität der räumlichen und zeitlichen
Bezugspunkte (Multiperspektivität) verliert der Betrachter an Bedeutung.
Die syntaktischen Felder sind außerdem durch eine weitere Zuordnung
gekennzeichnet: während Gestalt und Raum statische Konstrukte (zum
Beispiel Gegenstände, Orte, Situationen und Knoten) beschreiben, finden
sich in Dauer und Bewegung dynamische Verhältnisse (zum Beispiel Relationen, Übergänge und Transformationen) wieder (vgl. [Gro05, S.104]).
Konkretisierend wird jedem der vier syntaktischen Felder eine im Gestaltungsprozess übliche und gebräuchliche Vergegenständlichung [Gro05, S.104]
wie folgt zugeordnet: Gestalt - Körper, Raum - Sphäre, Bewegung - Fahrt,
Dauer - Schnitt.
Abb. 4.1.: Übersicht über die das Interaktionsbild beeinflussenden Elemente
[Gro05]
Wie in Abbildung 4.1 zu sehen ist, werden außerdem so genannte Übergangssyntagmen definiert, welche zum einen die Zwischenform aus Gestalt und Raum, Blatt, und zum anderen den Übergang zwischen Dauer und Bewegung, Blättern, beschreiben. In zwei weiteren Stufen einer
semantisch-funktionalen Konkretion, welche zunächst auf die Funktionalität interaktiver und prozessualer Systeme verweist und diese schließlich
präzisiert, werden die in Tabelle 4.1 dargestellten Zuordnungen vorgenommen.
54
4.1. Das Interaktionsbild
Syntagmen
1. Stufe
2. Stufe
Raum [Sphäre]
Offenheit
Suchen
Gestalt [Körper]
Endlichkeit
Wählen
Bewegung [Fahrt]
Gegenwärtigkeit
Handeln
Dauer [Schnitt]
Unabhängigkeit
Ordnen
Tabelle 4.1.: Zuordnungen der semantisch-funktionalen Konkretion [Gro05,
S.154]
G ROH schafft außerdem eine Verbindung zwischen den einzelnen Syntagmen und den verschiedene Arten von Interfaces (Abbildung 4.1).
Er unterscheidet dabei unmittelbare Interfaces, simulierende Interfaces
und mittelbare Interfaces (vgl. [Gro05, S.133ff]). Bei unmittelbaren
Interfaces wird die Realität durch das Interface in ihrer konkreten
Gestalt abgebildet, so dass der Nutzer glaubt, die Realität direkt vor
sich zu haben (Rechner verschwindet) und diese in Echtzeit erfährt
und beeinflusst. Mittelbare Interfaces verdecken die Realität vor dem
Nutzer, welcher die Realität nunmehr ausschließlich über das durch
das Interface bereitgestellte Abbild erfahren und beeinflussen kann. Die
Wirklichkeit ist somit sowohl zeitlich, als auch räumlich vom Nutzer
entkoppelt. Die Mischform zwischen diesen beiden Gegenpolen bilden
die simulierenden Interfaces, bei denen die Realität ähnlich den unmittelbaren Interfaces direkt erfahrbar ist, während das Interface eine
kommentierende Rolle einnimmt. Das Interface stellt ein Abbild der
Realität dar, welches allerdings im Gegensatz zu mittelbaren Interfaces
noch direkt erfahr- und beeinflussbar ist.
Während bisher die das Interaktionsbild bestimmenden Elemente in
ihrer Systematisierung vorgestellt wurden, setzt sich das Interaktionsbild
selbst letztendlich zusammen aus dem Datenbild und dem Navigationsbild (vgl. [Gro05, S.169ff]). Dabei steht das Datenbild für die mittels
Computergrafik visualisierte Datenstruktur und das Navigationsbild zeigt
die Möglichkeiten des Nutzers, mit diesem zu interagieren und dient
gleichzeitig als Interpretationshilfe. G ROH beschreibt darauf aufbauend
zwei Arten der Interaktion: die datenbildkonforme und die navigationsbildkonforme Interaktion. In der datenbildkonformen Interaktion
wird nicht verändernd in das Datenbild eingegriffen, sondern zum
Beispiel mittels detailbezogener Vergrößerung, durch Sprünge in der
Beobachtungsperspektive (Draufsicht, Vorderansicht etc.) oder über, das
Verständnis für die Datenlandschaft unterstützende, Hilfsmittel (zum
55
4. Die Möglichkeit eines musikalischen Interaktionsbildes
Beispiel Lineale) interagiert. Die navigationsbildkonforme Interaktion
hingegen sucht die optimierte Erkundung [Gro05, S.177] und Interpretation
des Datenbildes und fordert in diesem Sinn dessen Veränderung. Eine
solche Veränderung kann sich dynamisch oder statisch einerseits als
Objektänderung oder aber als Strukturänderung (bzgl. des Objektortes
also) äußern. Ausführliche Beschreibungen zum Interaktionsbild und
dessen bestimmende Elemente und Interaktionen sind in [Gro05] zu
finden.
4.2. Der musikalische Charakter
4.2.1. Untersuchungen zur Musik
Es stellt sich nun die Frage, inwiefern eine Systematisierung, ähnlich der
soeben vorgestellten, auch für den Einsatz von Musik in der Interaktion
gefunden werden kann, um den Gestalter bei der Auswahl des Musikeinsatzes zu unterstützen? Ein musikalisches Interaktionsbild sozusagen. Um
sich der Problematik schrittweise zu nähern, soll zunächst geklärt werden, was den musikalischen Charakter ausmacht. Was ist Musik?
Abb. 4.2.: Modell der Spannungen in der Musik, angelehnt an C OOKE [Coo59]
Aus der Sicht eines Komponisten beschreibt A RNOLD S CHÖNBERG Musik als eine Kunst, die sich in der Zeit abspielt. Aber die Vorstellung des Kunstwerks beim Komponisten ist davon unabhängig, die Zeit wird als Raum gesehen.
Beim Niederschreiben wird der Raum in die Zeit umgeklappt [vM94, S.328].
Elementarer betrachtet kann Musik, wie in Abschnitt 2.2 (S. 14) bereits
erwähnt, als die Spannung zwischen den Tönen verstanden werden (vgl.
[Coo59, S.34ff]), welche durch bestimmte Charakteristika beeinflusst werden: die Tonhöhe, die Zeit und die Lautstärke (Abbildung 4.2). Diese Faktoren werden wiederum durch weitere Elemente bestimmt. So entsteht
die Spannung der Tonhöhe zum einen durch tonale Spannungen (ein hoher Ton ist in der Regel spannungsvoller als ein tiefer) und zum anderen
durch Intervallspannungen (eine Septime wird als spanungsvoller emp-
56
4.2. Der musikalische Charakter
funden als beispielsweise eine Quarte). Eine zeitliche Spannung kann einerseits durch den Rhythmus (Spannung zwischen einem starken und
einem schwachem (Zweier) oder einem starken zwei schwachen (Dreier) Schlägen) und außerdem durch die Dauer der Töne entstehen, wobei hier Faktoren wie Tempo (schnell vs. langsam), Bewegung (gleichmäßig vs. ruckartig) und Phrasierung (Staccato versus Legato) zum Tragen
kommen. Lautstärke kann Spannungen durch das Wechselspiel aus leisen
(Piano, Pianissimo) und lauten (Forte, Fortissimo) Passagen erzeugen.
Abb. 4.3.: Schematischer Aufbau von Musik
In der Weiterführung dieses Gedankens kann festgestellt werden, dass
Musik modular aufgebaut ist und die musikalische Komplexität mit steigender Abstraktionsstufe wächst. Die einzeln betrachteten musikalischen
Elemente formen, ineinander geschachtelt, schließlich eine Melodie, die
im Zusammenspiel mit anderen Stimmen, Instrumenten oder Musikern
das Musikstück bildet. Dies ist in Abbildung 4.3 schematisch dargestellt.
Die in kleinen eckigen Kästchen befindlichen Elemente sind als (kleinste)
Eigenschaften der jeweiligen, diese umgebenden, abgerundeten Kästen
zu betrachten, welche musikalische Einheiten darstellen. Als musikalische Einheiten sollen im Folgenden jene elementaren Komponenten
von Musik verstanden werden, die nicht nur Eigenschaft, sondern
eigenständig musikalisch existent und hörbar sind. In Kombination mit
weiteren Eigenschaften können musikalische Einheiten (zum Beispiel
Ton oder Akkord) neue musikalische Einheiten bilden (zum Beispiel
Melodie). Jede musikalische Einheit kann auch Eigenschaft der musikalischen Einheit höherer Stufe sein. Ein Ton wird durch die Eigenschaften
Klangfarbe, Tonhöhe, Lautstärke, Rauhigkeit (siehe Abschnitt 2.1.3, S. 13)
und Nachhall bestimmt. Die Eigenschaft Nachhall steht hier vorrangig
für den durch ein Instrument selbst hervorgerufenen Nachhall. So kann
beispielsweise beim Klavier über eine der Pedalen direkt ein Nachhall
57
4. Die Möglichkeit eines musikalischen Interaktionsbildes
der Töne erzeugt werden. Die zum Beispiel durch die Umgebung beeinflusste Art von Nachhall, so dass Töne beispielsweise in einer Kirche
viel stärker nachhallen, als in einem mit Stoff bespannten Raum, wird
hier vorerst außer Acht gelassen, da dies nicht als musikeigenes Attribut
betrachtet wird. Aufbauend auf der musikalischen Einheit Ton und deren
Eigenschaften setzt sich ein Akkord aus einer bestimmten Anzahl an
Tönen und den Tonabständen zwischen diesen zusammen.
Auch wenn sich Musik genau genommen stets über die Zeit definiert,
soll an dieser Stelle eine Unterscheidung vorgenommen werden: zwar
breitet sich der Klang von Ton und Akkord über die Zeit aus, dennoch
werden diese als abgeschlossene Einheiten gesehen, welche in sich
zu einem bestimmten Zeitpunkt betrachteten werden. Die zeitlichen
Kriterien erlangen erst in nächster Stufe gestaltende Bedeutung, bei
der Beschreibung einer Melodie. Zu den Zeit gestaltenden Kriterien
zählen vor allem Rhythmus, Metrum und Tempo. Da die Abgrenzung
dieser Begrifflichkeiten nicht eindeutig ist und selbst in der Literatur
differiert, soll die Bedeutung, wie sie in dieser Arbeit verwendet werden wird, kurz erläutert werden. Der Grundschlag als regelmäßiger
Puls bildet die Grundlage des Metrums und wird durch den Takt als
metrische Ordnungsgröße gruppiert. Der Takt ist gekennzeichnet durch
die Beziehungen einer Zeiteinheit (des Taktganzen) zu ihren gleichzeitig mit
ihr einsetzenden Teilwerten (Zählzeiten) [MH83, S.53]. Das Metrum selbst
stellt durch Akzente eine Art Betonungsmuster der zugrunde liegenden
Struktur dar. So kann beispielsweise ein 4/4-Takt auf der Eins und
Drei oder aber auf der Zwei und Vier betont werden. Die Grundlage
des Rhythmus sind die unterschiedlichen Tondauerwerte, welche in
den Beziehungen zueinander (kürzer als, länger als, gleichlang) den
Charakter des Rhythmus bestimmen (siehe auch [MH83, S.20ff]). Die
Wechselwirkung des Metrums und des Rhythmus entsteht durch die
zeitliche Gestaltung, innerhalb welcher das Metrum bereits bestimmte rhythmische Gruppierungen impliziert. Das Metrum kann auch als
Grundlage des Rhythmus betrachtet werden, was in Abbildung 4.3 durch
die gestrichelte Erweiterung des Rhythmus gekennzeichnet ist, welche
das Metrum mit einfasst. Das Zeitmaß wird demnach durch das Metrum
gesetzt, während der Rhythmus die Zeit gestaltet. Das Tempo wiederum
bestimmt die Abfolgegeschwindigkeit der musikalischen Einheiten
und beeinflusst somit den Grundschlag des Metrums. Ausführliche
Definitionen und interessante Diskussionen zu den zeitlichen Kriterien
von Musik sind unter Anderem in [MH83] zu finden. Weitere zeitlich
bedingte Eigenschaften einer Melodie sind die Bewegung und die Phra-
58
4.2. Der musikalische Charakter
sierung, die unter anderem bereits in Abbildung 4.2 Erwähnung fanden
und maßgeblich durch den Rhythmus beeinflusst werden. Eine Melodie
ist also geprägt durch die über einen Zeitraum hinweg betrachtete
Aneinanderreihung von Tönen oder Akkorden und wird durch zeitliche
(zum Beispiel Rhythmus und Metrum) und harmonische Eigenschaften
(gestaltend) bereichert. In die harmonischen Kriterien fließen neben den
musiktheoretischen Gesetzmäßigkeiten (siehe Abschnitt 2.2, S. 14) auch
kulturelle und gesellschaftliche Regeln ein, die das Harmonieempfinden
prägen können. Diese sollen hier allerdings nur am Rande betrachtet
werden, da sie die Musik einerseits nur bedingt beeinflussen und Interfaces im Idealfall losgelöst vom Kulturkreis funktionieren sollten.
Das musikalische Zusammenspiel, das Musikstück, entsteht schließlich
aus Melodien und der hier benannten „Raum“-Komponente, welche
die vertikale und horizontale Ausdehnung beschreiben soll. Sie steht
für die Aneinanderreihung mehrerer Melodien in zeitlicher Abfolge
(horizontal) und für das zeitliche Zusammenspiel mehrerer Stimmen
und Instrumente (vertikal).
4.2.2. Ansätze einer Kategorisierung
Während Abbildung 4.3 den Versuch zeigt, Musik in ihre Einzelmodule
zu zerlegen, um derart heruntergebrochen Eigenschaften zu identifizieren, welche musikbestimmend sind, wird im Folgenden untersucht,
inwieweit diese Eigenschaften für den (unterstützenden) Einsatz in der
Interaktion denkbar wären.
Zunächst werden einige beispielhafte interaktionsrelevante Ereignisse
zusammengetragen und untersucht, welche Eigenschaften von Musik in
dem jeweiligen Fall hilfreich wären. Hier kommen die in Abbildung 4.3
herausgearbeiteten Eigenschaften zum Tragen. Tabelle 4.2 bildet das
Ergebnis der Überlegung ab, wobei die eingeklammert markierten
Abbildungen nur unter Vorbehalt eingesetzt werden sollten.
Es zeigt
sich, dass beispielsweise für die Darstellung von Kontrasten alle Eigenschaften einsetzbar sind, während sich für die exakte Darstellung
von Unterschieden (wie zum Beispiel Größe oder Höhe) lediglich die
Tonhöhe und eventuell auch die Lautstärke oder Tondauer eignen.
Dabei ist zu berücksichtigen, dass die menschliche Wahrnehmung selbst
bezüglich der letzten beiden nicht differenziert genug erscheint. Für
Größendarstellungen wiederum bieten sich Lautstärkenunterschiede
hervorragend an, wie unter anderem in Abschnitt 4.3 noch zu sehen sein
59
Rauhigkeit
Nachhall
Rhythmus
Tondauer
Metrum
Tempo
x
x
x
x
x
x
x
x
exakte Unterschiede
x
(x)
Größe
Harmonie
Klangfarbe
x
Phrasierung
Lautstärke
Kontraste
Bewegung
Tonhöhe
4. Die Möglichkeit eines musikalischen Interaktionsbildes
x
x
x
x
x
(x)
x
Emotionen
(x)
Akzente
x
x
Bewegung
x
(x)
Zoom
(x)
x
Geschwindigkeit
(x)
Richtung oben/unten
x
Richtung rechts/links
(x)
x
x
x
(x)
(x)
(x)
(x)
x
(x)
x
Tabelle 4.2.: Zuordnung musikalischer Eigenschaften zu interaktionsbestimmenden Ereignissen
wird. Dies kann wahrscheinlich auch auf die Entfernungswahrnehmung
des Menschen zurückgeführt werden, da entfernte Objekte leiser klingen
und auch kleiner erscheinen, als analoge Objekte, die sich näher am
Betrachter befinden. Die Eigenschaft Metrum scheint für die dargestellten Ereignisse nicht sonderlich geeignet. Es darf allerdings nicht außer
Acht gelassen werden, dass das Metrum den Rhythmus maßgeblich
beeinflusst und sozusagen dessen Grundlage schafft. Vorstellbar wäre
außerdem, die Eigenschaft Metrum einzusetzen, um Raster oder auch
Muster zu verkörpern. Etwas verwirrend mögen die Zuordnungen
besonders im unteren Bereich der Tabelle 4.2 wirken, da hier nicht nur
die tatsächliche Eigenschaft, sondern auch wahrnehmungsbedingte
Effekte berücksichtigt wurden. So kann Geschwindigkeit beispielsweise
tatsächlich durch schnelle Rhythmen und kurze in schnellem Tempo
aufeinander folgende Töne verdeutlicht werden. Die Geschwindigkeitswahrnehmung kann aber auch durch eine dem Dopplereffekt (siehe
Abschnitt 2.1.2, S. 8) nachempfundene Tonhöhenänderung unterstützt
werden: je schneller die Tonhöhenänderung erfolgt, desto höher die
Geschwindigkeit. Des Weiteren scheint der Einsatz von Tonhöhen für
Richtungsangaben nach oben und unten selbstverständlich, während die
horizontale Richtungsweisung nur bedingt auf diesem Wege ausgedrückt
werden kann. Mit entsprechenden Abbildungsregeln kann dennoch, wie
in Abschnitt 4.3 noch diskutiert werden wird, über die Tonhöhe eine
60
4.2. Der musikalische Charakter
horizontale Richtung verdeutlicht werden (siehe auch Abschnitt 3.2.5.1,
S. 45). Für eine Zoombewegung wäre ein gleitender Wechsel von leise
in lauter (fern und näher) angebracht und am ehesten unserer Umwelt
nachempfunden, wobei ein Wechsel der Tonhöhe ebenfalls denkbar,
wenn auch weniger intuitiv, wäre.
Versucht man nun, die musikalischen Attribute der quantitativen oder
der qualitativen Dimension zuzuordnen, um so auf bestimmte Gestaltungsregeln zu stoßen, wird schnell deutlich, dass dies bei den (meisten)
gegebenen Attributen nicht ohne weiteres klar abgrenzbar ist. Quantität
steht dabei für die messbaren, objektiven Eigenschaften, welche in Bezug
auf Musik keinen Einfluss auf den Ausdruck haben, während Qualität die
fühlbaren, subjektiven Eigenschaften repräsentiert, die es ermöglichen,
Ausdruck (beschwingt, freudig, schleppend, schwer, traurig etc.) zu vermitteln. Das Bedeutende an Musik ist ihr Ausdruck, der es vermag den
Menschen innerlich zu berühren, sei es positiv oder negativ. An dieser
Stelle soll angesetzt werden, um die gefundenen musikalischen Attribute zunächst in ihrer Fähigkeit, Ausdruck zu vermitteln zu kategorisieren.
Dabei wird, wie in Tabelle 4.3 zu sehen, in Attribute unterschieden, die
einen großen, einen geringen oder aber gar keinen Einfluss auf die musikalische Ausdruckskraft haben.
Großer Einfluss
Geringer Einfluss
Kein Einfluss
Harmonie
Klangfarbe
Tonhöhe
Rhythmus
Nachhall
Tondauer
Tempo
Rauhigkeit
Metrum
Lautstärke
Phrasierung
Bewegung
Tabelle 4.3.: Einfluss musikalischer Attribute auf die Ausdruckskraft
Wie zu erwarten, hat ein Großteil der Attribute einen hohen Anteil an
der Ausdruckskraft eines Musikstückes. Es wird ebenfalls deutlich, dass
Attribute wie zum Beispiel Rhythmus oder Tempo, die intuitiv aufgrund
der sie bestimmenden Dauern eher als quantitative Eigenschaft identifiziert worden wären, einen hohen Einfluss auf den Ausdruck haben
können und somit eigentlich eher qualitativ betrachtet werden sollten.
Doch genau hier liegt die Ambiguität dieser Art von Unterteilung:
Quantitäten bergen stets auch qualitative Aspekte in sich und sollten
somit abhängig von der Fragestellung zugeordnet werden. Es muss also
61
4. Die Möglichkeit eines musikalischen Interaktionsbildes
gewichtet werden, welche der Wirkungen, die eine Eigenschaft erzielen
kann, am prägendsten für diese ist. Rhythmus beispielsweise kann einerseits durch dessen quantitativ bestimmbare Tondauern (auch beeinflusst
durch Takt, Metrum) als zählbares Medium betrachtet werden, hat aber
auch entscheidenden Einfluss auf den Ausdruckscharakter (beschwingt,
kraftvoll, schleppend, schwer) eines Musikstückes. Ein geschulter Hörer
nimmt zwar durchaus die verschiedenen Tondauern wahr, das prägende
ist aber das Ganze, der durch den Rhythmus vermittelte Ausdruck.
Tabelle 4.4.: Zuordnung musikalischer Attribute nach Quantität und Qualität
Tabelle 4.4 zeigt den Versuch, die Attribute als Quantitäten und Qualitäten zu ordnen, wobei durch die fließenden Übergänge der oben angesprochene Aspekt verdeutlicht werden soll. Nicht alle Attribute werden demnach ausschließlich einer Seite zugeordnet, sondern können, mehr oder
weniger stark, sowohl quantitativ als auch qualitativ betrachtet werden.
Dabei wird unter anderem auch der Eigenschaft des Rhythmus Rechnung
getragen, welcher trotz der ihn bestimmenden quantitativen Tondauern
in der Musik vorwiegend qualitativ wirkt. Ebenso werden auch die Eigenschaften Lautstärke und Tempo eingestuft, die trotz ihrer quantitativ
bestimmbaren Werte, subjektiven Einfluss auf die Ausdruckskraft eines
Musikstückes haben können. Während Tondauer, Metrum und Tonhöhe eindeutig der quantitativen Dimension zugewiesen wurden, vertreten Bewegung, Phrasierung und Harmonie gänzlich das Qualitative. Die
Harmoniegebung wirkt sich entscheidend auf die Gemütsfärbung eines
Stückes aus (Abschnitt 2.3, S. 17).
Eine weitere Unterteilung, welche, den Interaktionsgedanken unterstützend, getroffen werden sollte, ist die in statische und dynamische Eigenschaften, wie sie in Tabelle 4.2 bereits teilweise ablesbar ist. Hierbei soll
noch einmal festgehalten werden, dass nicht nur ein einzelner Ton, son-
62
4.2. Der musikalische Charakter
dern das musikalisch Ganze im Verlauf der Zeit betrachtet wird. Diese
Feststellung ist wichtig, da die in Abbildung 4.3 dargestellten Eigenschaften anders verteilt werden müssten, würde nur ein einzelner Ton, losgelöst vom musikalischen Gesamtkontext, betrachtet. Dies betrifft vor allem
die Tondauer, welche durch den veränderten zeitlichen Standpunkt bereits dem Ton zugeordnet werden würde. Bestimmte Attribute wiederum,
wie zum Beispiel Rhythmus, kämen überhaupt nicht zum Tragen. Musik, welche sich über die Zeit definiert, scheint auf den ersten Blick stets
dynamisch, obwohl diese durchaus Attribute enthält, die eher statischen
Charakter besitzen. Dennoch fällt das eindeutige Zuordnen auch bei dieser Art der Einteilung schwer. Es bleibt beispielsweise fraglich, inwiefern
Eigenschaften wie Harmonie oder Phrasierung überhaupt einer solchen
Unterscheidung unterzogen werden sollten. Außerdem gilt es zwischen
der tatsächlichen statischen oder dynamischen Qualität und dem statischen oder dynamischen Eindruck zu unterscheiden, welcher durch entsprechende Ausdrucksmöglichkeiten der jeweiligen Eigenschaften vermittelt werden kann.
Abb. 4.4.: Zuordnung musikalischer Attribute nach Statik und Dynamik
Abbildung 4.4 zeigt den Versuch einer solchen Einordnung, wobei die
statischen, etwas dynamischen und dynamischen Eigenschaften ihrer Fähigkeit zugeordnet werden, dynamischen, unter Umständen möglichen
dynamischen oder statischen Eindruck zu vermitteln. Die beiden Extreme bilden dabei der Rhythmus, welcher zeitlich von Bewegung, Spannung und Energie geprägt fließend dynamisch vorantreibt, und die rein
statisch zugeordnete Klangfarbe und Rauhigkeit. Die eigentlich als dynamisch betrachtete Tondauer vermag es hingegen, losgelöst vom struk-
63
4. Die Möglichkeit eines musikalischen Interaktionsbildes
turgebenden Rhythmus und Metrum, kaum, dynamischen Eindruck zu
vermitteln. Im Gegensatz dazu steht die Lautstärke, welche zwar an sich
betrachtet eher statisch erscheint, im zeitlichen Verlauf jedoch äußerst dynamisch wirkt. Die Wirkung von Lautstärkenunterschieden im Kontext
eines musikalischen Werkes, wird in der Fachsprache bezeichnenderweise auch als Dynamik betitelt. Im Mittelfeld finden sich schließlich die Eigenschaften Tempo, Phrasierung, Bewegung und Harmonie wieder, die
also leicht dynamischen Charakter besitzen und diesen auch vermitteln.
4.3. Grafonie - Grafisch-musikalische Abbildungen
Nachdem vorangehend Versuche einer Kategorisierung musikalischer Eigenschaften vorgestellt wurden, sollen diese nun durch beispielhafte Abbildungen unterstützt werden. Dabei sollen Erkenntnisse des Kapitels 3
mit den vorangehenden Überlegungen zum Charakter von Musik (Abschnitt 4.2) verbunden werden. Wie könnte eine Abbildung graphischer
auf musikalische Eigenschaften aussehen bzw. klingen? Im Folgenden
werden einige solcher Möglichkeiten aufgegriffen und diskutiert.
Ton und Farbe
Wie in Abschnitt 3.2.1 bereits beschrieben, entstanden im Laufe der Geschichte eine Reihe von Farbmodellen, welche bestimmten Tönen spezielle Farben zuordnen. Abbildung 4.5 zeigt eine Auswahl davon. Weitere Farb-Ton-Modelle sind in Anhang C zu finden. Die Genauigkeit der
in Abbildung 4.5 unterhalb der Trennlinie dargestellten Modelle ist fraglich, da die Farben hier bestimmten Intervallen zugeordnet wurden (siehe Anhang C) und diese nicht hundertprozentig auf die Tonleiter übertragbar sind. Dennoch kann die Darstellung als Richtwert gesehen werden. In der Übersicht wird die Vielfalt der unterschiedlich zugeordneten Farben deutlich, was die These unterstützt, dass es keine eindeutige
Zuordnung von Farben auf Töne gibt (siehe auch Abschnitt 3.2.1, S. 27).
Dennoch lassen sich, bis auf einige Ausnahmen, bestimmte Tendenzen
in den Farbbereichen erkennen: so finden sich am Anfang der Tonleiter
zumeist rote und orangene Farbtöne, im mittleren Bereich gelb und grün
und am Ende eher blaue und violette Nuancen. Nahe liegender scheint
die Abbildung von Farbhelligkeiten auf Tonhöhen, wie es beispielsweise
bei den meisten Werken S TRÜBINs nachvollzogen werden kann (zum Beispiel Abbildung D.5 in Anhang D). Dabei ordnet er jedem der 12 Halbtöne eine bestimmte Farbe bei, um die jeweilige Helligkeit zu erzielen. Helle
Farben stehen für helle, höhere Töne, während dunkle Farben dunklere,
64
4.3. Grafonie - Grafisch-musikalische Abbildungen
tiefe Töne ergeben. Trotzdem in der Geschichte keine eindeutige Zuordnung gefunden werden kann, ist die Verbindung von Tonhöhen und Farben eine sehr einfache und relativ intuitive (weil wenig komplexe) Form
der Abbildung, auch wenn die Zuordnungen zuvor erlernt werden müssen.
Abb. 4.5.: Auswahl einiger Farb-Ton-Zuordnungen
Selbst die Wortverwandtschaft von Farbharmonie und (Musik-) Harmonie lässt Gemeinsamkeiten vermuten. So wies F RANCHINO G AFFURIO,
wie bereits in Kapitel 3.1.3 (S. 26) erwähnt, den modalen Tonleitern
einzelne Farben zu. Auch die visuellen Darstellungen in Farbkreis1 und
Quintenzirkel (siehe Abschnitt 2.2, S. 15) scheinen Parallelen aufzuweisen und suggerieren die Möglichkeit des Übereinanderlegens der
beiden Modelle, wie es in Abbildung 4.6(c) versuchsweise dargestellt
wird. Sowohl einander ähnelnde Farben, als auch quintverwandte Tonleitern sind auf den Kreisen nebeneinander angeordnet. Je weiter diese
auseinander liegen, desto weniger Ähnlichkeit weisen sie auf. Eine Art
Komplementärbeziehung wie sie bei sich gegenüberliegenden Farben
eines Farbkreises zu finden sind, kann allerdings nicht auf das Quintenzirkelmodell übertragen werden. Auch unterliegen die so entstehenden
Farb-Tonleiter-Zuordnungen keinerlei Gesetzmäßigkeit. Womöglich
würde höchstens ein Synästhet eine derartige Verwandtschaft wirklich
empfinden können.
Dennoch ist es vorstellbar, durch nichtlineare Abbildungen Ähnlichkeiten in den Harmonien zu vergleichen. Dabei soll nicht eine einzelne Farbe
einen bestimmten Ton repräsentieren, sondern es wird ein Farbklang aus
beispielsweise drei Farben einem musikalischen Dreiklang gleichgesetzt.
Harmonische „Gleichklänge“ zwischen Farben zu identifizieren fällt
vielen Menschen wesentlich schwerer, als Dissonanzen zu hören. Ein
1
Als eines der gängigsten Modelle wurde der Farbkreis nach I TTEN gewählt. Es bleibt
weiteren Untersuchungen vorbehalten, ob andere Modelle für diese Überlegung ebenso geeignet wären.
65
4. Die Möglichkeit eines musikalischen Interaktionsbildes
(a) Farbkreis nach I TTEN
(b) Quintenzirkel
(c) Kombination aus
Farbkreis und
Quintenzirkel
Abb. 4.6.: Ähnlichkeiten der Harmoniemodelle von Farbe und Musik
musikalischer Dur-Dreiklang setzt sich stets aus einer großen und einer
kleinen Terz zusammen. Erklänge nun statt einer der Terzen beispielsweise eine Quarte, wäre dies sofort hörbar. Variationsmöglichkeiten
bieten außerdem der Moll-Dreiklang (kleine Terz und große Terz), der
verminderte Dreiklang (zwei kleine Terzen) und der übermäßige Dreiklang (zwei große Terzen). In welcher Weise eine solche Wechselwirkung
umgesetzt würde, ist abhängig von den jeweiligen Abbildungsregeln.
Denkbar wäre zusätzlich, die Farbgebung der Farbklänge durch Durund Moll-Stimmungen zu beeinflussen: helle, blumige Farbtöne vertreten
Dur-Stimmungen und dunkle, blaue Farbtöne ergeben Moll.
Klang und Textur
In Betrachtung der phonetischen Experimente K ÖHLERs (Abschnitt 2.1.3,
S. 10), welche den Hang des Menschen verdeutlichen, eckigen Formen
Hörbsp. 12.:
Ton rau
eher scharf klingende Worte (zum Beispiel „takete“) und weichen,
runden Formen eher weich klingende Worte (zum Beispiel „maluma“)
zuzuordnen, stellt sich die Frage, ob auch Klängen eine bestimmte
Objektbeschaffenheit (zum Beispiel Oberfläche oder Form) zugeordnet
werden kann oder diese in bestimmter Weise suggerieren. Ist es möglich,
aufgrund eines bestimmten Klanges auf eine entsprechende Objektbe-
Hörbsp. 13.:
Ton ruhig
schaffenheit oder Objektform zu schließen und umgekehrt?
In Abschnitt 2.1.3 (S. 13) wird beispielsweise die Rauhigkeit von Tönen
angesprochen, welche gut zur Repräsentation der Oberflächenstruktur von Objekten oder auch des Musters der Oberfläche geeignet
ist. Das nebenstehende Hörbeispiel 12 könnte somit beispielsweise
Abbildung 4.7(a) oder auch Abbildung 4.7(c) beschreiben. Die Abbildungen 4.7(b) und 4.7(d) wiederum würden dem Hörbeispiel 13 zugeordnet.
Betrachtet man die Abbildung der Oberflächenstruktur oder des Musters
nicht nur auf einen Ton, sondern auf Musik gerichtet, können ganz
66
4.3. Grafonie - Grafisch-musikalische Abbildungen
verschiedene Attribute zur Beschreibung herangezogen werden. Diese
können entweder allein oder in Kombination mit anderen Attributen eingesetzt werden, um die Textur zu beschreiben. Ein wichtiges Attribut ist
die Tondauer. Sie beeinflusst unter anderem das Merkmal der Bewegung
einer Melodie, die einerseits gleich bleibend oder auch unstetig verlaufen
kann, genau wie die Oberflächenstruktur oder das Muster eines Objektes.
Aber auch die Phrasierung kann einen großen Einfluss auf die Ausstrahlung einer Melodie haben. Staccato-Phrasen wirken abgehackt, hart
und ungleichmäßig. Während Legato-Passagen große Bögen spannen
und eher für Ruhe sorgen. Durch starke Tonhöhenunterschiede können
jedoch auch Legato-Phrasen Unruhe vermitteln. Tonhöhenunterschiede
sind ein sehr wichtiges Mittel, um Ruhe oder Unruhe zu erzeugen und
eignen sich daher besonders gut im Zusammenhang mit der Repräsentation von Objektoberflächen. Dabei wirken große Kontraste aufwühlend,
hektisch und uneben, während nur mäßige Tonhöhenunterschiede eher
Ausgeglichenheit, Ebenheit und Ruhe ausstrahlen. Auch der Rhythmus
kann entscheidend für die Texturbeschreibung eingesetzt werden, was
besonders gut bei Mustern vorstellbar ist, da diese ebenfalls rhythmisch
wiederkehren. So beschreiben beispielsweise ungerade Rhythmen (5er,
7er, 9er) viel unruhigere, rastlosere Flächen, als gerade Rhythmen (2er,
4er). Auf M ONDRIANs Bilder verweisend, welche ein Gefühl von Rhythmus und Bewegung vermitteln (Abschnitt 3.2.2, S. 38), kann festgestellt
werden, dass der Rhythmus von Texturen auch auf Musik übertragbar
ist. Je nach Kulturkreis kann auch Harmoniereinheit oder -unreinheit
eingesetzt werden, um Oberflächen zu bezeichnen. Ein weiteres Attribut,
was in Kombination zum Beispiel den Effekt von Tonhöhenunterschieden
und Tondauer verstärken kann, ist die Lautstärke. Allein stehend ist diese allerdings kaum in der Lage, Aussagen über Eben- oder Unebenheiten
zu vermitteln.
(a) raue
Oberfläche
(b) glatte
Oberfläche
(Marmor)
(c) unruhiges
Muster
(d) ruhiges
Muster
Abb. 4.7.: Rauhigkeit von Tönen in Objektoberflächen
67
4. Die Möglichkeit eines musikalischen Interaktionsbildes
Beispielgebend sei auf die nebenstehenden Hörbeispiele verwiesen,
welche Ausschnitte eines ruhigen (Hörbeispiel 15) und eines unruhigen
Hörbsp. 14.:
S TOCKHAUSEN:
Mantra,
Ausschnitt
Musikstückes (Hörbeispiel 14) vorstellen. Der Ausschnitt aus K. S TOCK HAUSEN s
Mantra Takt 121-131 (Hörbeispiel 14) zeichnet sich aus durch
eine ungleichmäßige Melodiebewegung. Abgehackte, spitze und von
starken Tonhöhenunterschieden durchsetzte Passagen ungewöhnlicher
Harmoniesätze assoziieren Unruhe, unebene Flächen und rastlose Muster. Als Gegensatz dazu steht S. B ARBERs Adagio für Streicher Opus 11
(Hörbeispiel 15), das geprägt ist von einem starken Legato-Bogen, wel-
Hörbsp. 15.:
B ARBER:
Adagio für
Streicher Opus
11, Ausschnitt
cher die langsam steigende Melodieführung in gleichmäßiger Bewegung
trägt und dadurch einen sehr ausgeglichenen, reinen und beruhigenden
Eindruck vermittelt.
Klang und Form
Wie in Abschnitt 3.2.3 durch einige vorgestellte Künstler (zum Beispiel
O. F ISCHINGER) bereits angedeutet wurde, ist es ebenfalls vorstellbar,
bestimmte Arten von Klängen mit bestimmten Formen zu assoziieren.
Es scheint eine gewisse Kontinuität darin zu bestehen, scharfe, abgehackte Klänge mit eckigen Formen und runde, durchgehende Klänge
mit runden Formen in Verbindung zu bringen. So dass das ruhige
Hörbeispiel spontan beispielsweise mit einer lang gestreckten, runden
Blasenform in Verbindung gebracht werden könnte, während das unruhige Hörbeispiel eine kantige, zackige Stachelform als Assoziation
hervorruft. Im folgenden Abschnitt wird zu sehen sein, dass auch die
Abb. 4.8.:
Halbkreis aus
fünf aufsteigenden Tönen
Lautstärke als Mittel zur Objektformbeschreibung eingesetzt werden
kann (Abbildung 4.10). Bei horizontal verlaufenden Objekten ist auch
der Einsatz von Tonhöhe vorstellbar, indem hohe Töne hohe Objektteile
und tiefere Töne entsprechend flachere Objektteile beschreiben. Die Art
und Weise der Tondarbietung entscheidet schließlich über die Gleichmäßigkeit. So beschreiben kurz angespielte Töne mit Pausen dazwischen
(staccato-ähnlich) balkenartige Formen beispielsweise eines Diagramms.
Verbundene Töne ließen wiederum eine kontinuierliche Form entstehen,
ähnlich der oberen Hälfte der in Abbildung 4.10 dargestellten Figur. Die
in Abschnitt 3.2.5.1 vorgestellte Performance Messa di Voce verwendet
im Pitchpaint-Teil (S. 47) ebenfalls eine Kodierung über die Tonhöhe
Abb. 4.9.:
Viereck aus
erweitertem
Dreiklang
und deren Verlauf, so dass über die Zeit eine Komposition abstrakter
Formen entsteht. Aufsteigende Tonfolgen könnten somit beispielsweise
in Uhrzeigersinn drehende Linien und absteigende Tonfolgen entgegengesetzt drehende Linien (Abbildung 3.28) repräsentieren, während
68
4.3. Grafonie - Grafisch-musikalische Abbildungen
gleich bleibende Tonfolgen in geraden Linien resultieren. Wenn nun
jeder Ton eine Richtungsänderung um 45◦ in die jeweilige Richtung
bewirkt, zeichnen zum Beispiel drei aufeinander folgende Töne einen
Viertelkreis, acht aufeinander folgende Töne (Oktave) einen Kreis und
ein um eine Terz erweiterter Dreiklang (Vierklang) ein Viereck. Dies kann
in Abbildung 4.8 und 4.9 nachvollzogen werden.
Nahe liegend ist auch die Abbildung der Formgröße über die Tonlänge
(und Lautstärke), wie beispielsweise in K ANDINSKYs Studie der Klangpunkte (Abbildung D.12 in Anhang D) nachvollziehbar ist. R. S TRÜBIN
bildete in seinem Werk Musikbild (Abbildung D.5 in Anhang D) die
Tondauer auf die Dicke der dargestellten Formen ab. Doch auch die Form
selbst kann, mit einer gewissen Vorerfahrung über die darzustellenden
Objekte, durch die Tondauer beschrieben werden, wie es beispielsweise
in Abbildung 3.19 (S. 43) des Abschnitts 3.2.4 kurz vorgestellt wurde.
Hier entscheidet die Tonlänge und die Art und Weise der aufeinander
gespielten Töne über die Darstellung. Während eine Linie durch einen
durchgehenden Ton bezeichnet wird, repräsentieren vier aufeinander
abgespielte Töne ein Viereck. Die Abspiellänge eines Tones entscheidet
dabei über die Länge der jeweiligen Seite. Ein Kreis wird beschrieben
durch zwei Töne: ein kurzer, der den Weg vom Ausgangspunkt zum
Kreisrand bezeichnet, und ein durchgehend langer, welcher die Kreisbahn abfährt. Trotzdem keinerlei Richtungsangaben vermittelt werden,
ist auch diese Art der Formrepräsentation relativ leicht verständlich,
insofern klar ist, dass es sich um einfache geometrische Objekte handelt.
Die Eindeutigkeit, Verständlichkeit und damit Wiedererkennbarkeit
der auf diese Weise entstehenden Klang-Form-Abbildungen hängt aber
wahrscheinlich in jedem Fall vom Grad der Erfahrung und des Lernens
ab. Der Vorteil einer melodiehaften Darstellung beispielsweise eines
Balkendiagramms (durch Tonhöhenunterschiede) ist die schnellere,
unkomplizierte Wahrnehmensweise. Im Vergleich zweier Balkendiagramme wäre sofort klar, ohne auf Zahlen oder Details achten zu
müssen, dass sich diese, sobald die Melodien differieren, unterscheiden, da musikalisch selbst feine Unterschiede schnell wahrgenommen
werden.
Lautstärke und Größe
Eine der nahe liegendsten Abbildungen ist jene, Größe auf (Laut-)Stärke
abzubilden (siehe auch K ANDINSKYs Klangpunkte, Abbildung D.12
in Anhang D). Etwas sehr Großes ist sehr stark. Somit können große
69
4. Die Möglichkeit eines musikalischen Interaktionsbildes
Objekte durch eine hohe Lautstärke und kleinere Objekte dementsprechend leiser repräsentiert werden. Im Pitchpaint-Teil von Messa di Voce
Hörbsp. 16.:
Lautstärkenunterschiede
(Abschnitt 3.2.5.1, S. 47) wird beispielsweise die Liniendicke über die
Lautstärke bestimmt. Doch nicht nur die Objektgröße oder Objektdicke
an sich, sondern auch die Objektform könnte durch Lautstärkenunterschiede visualisiert werden, so dass laute Passagen groß und dick
erscheinen und leise Passagen dementsprechend schmaler. Abrupte
Lautstärkeänderungen resultieren in scharfen Kanten und langsam
an- oder abschwellende Lautstärkeunterschiede bezeichnen mehr oder
Abb. 4.10.:
Form zum
Hörbeispiel
weniger sanfte Rundungen. So weckt das Hörbeispiel 16 beispielsweise
das Bild einer wie in Abbildung 4.10 dargestellten Form. Betrachtet man
das Hörbeispiel im normalisierten Frequenzbild (Abbildung 4.11) wird
genau solch eine Figur sichtbar, was an die Experimente O. F ISCHINGERs
und N. M C L ARENs (Abschnitt 3.2.3) erinnert. Eine Einschränkung in
der Wahrnehmung der Lautstärkenunterschiede liegt allerdings in der
schwierigen Differenzierung feiner Unterschiede.
Abb. 4.11.:
Form als Frequenzbild
Klang und Bewegung
Inwiefern ist es möglich, über Klang Bewegungen oder Richtungen
anzuzeigen oder zu signalisieren? Tonhöhen scheinen ideal geeignet für
Angaben bezüglich der vertikalen Ebene: hohe Töne oben, tiefe Töne
unten. Ein Glissando von tiefen zu hohen Tönen beschreibt aufstrebende,
wachsende Formen, während Abwärtsbewegungen durch Glissandi
von hohen zu tiefen Tönen verdeutlicht werden. Ähnlich der auditiven
Beschreibung einer Form kann die Schnelligkeit und Abruptheit des
Tonhöhenwechsels Auskunft über die Art und Weise der Auf- und
Abwärtsbewegung geben. Die kontinuierlichen, scheinbar stetig aufoder abwärtsgerichteten Tonfolgen der Shepard-Risset-Tonleitern, wie
sie in Abschnitt 2.1.3 (S. 13) beschrieben wurden, eignen sich gut, um
gleichmäßige Bewegungen der Vertikalen zu repräsentieren. Dieser
Effekt kann, wie in Abschnitt 3.2.4 (S. 43) kurz erwähnt, beispielsweise
für die auditive Darstellung der Scrollbalkenbewegung genutzt werden,
um blinden oder sehbehinderten Menschen den Umgang und das
Verständnis interaktiver Interfaces zu erleichtern.
Auch die bereits beschriebenen Abbildungen bestimmter Tonfolgen auf
Formen, wie jene in Abbildung 4.8 und 4.9, kann für die Repräsentation
von Bewegung eingesetzt werden. Bei fortlaufenden Bewegungen, wie
es zum Beispiel im Pitchpaint-Teil von Messa di Voce (Abschnitt 3.2.5.1)
der Fall ist, kann sich das Objekt, in diesem Fall die Linie, durch die Töne
und den damit verbundenen Richtungsänderungen frei über die Fläche
70
4.3. Grafonie - Grafisch-musikalische Abbildungen
bewegen, wobei eine Ausrichtung in alle Richtungen der Ebene möglich
ist: nach oben, unten, rechts und links. Eine Abbildung der Richtung, wie
sie in Messa di Voce (Abschnitt 3.2.5.1) gewählt wurde, scheint auf den
ersten Blick nicht sehr intuitiv, da man absteigende Tonfolgen eher mit
absteigenden Linien assoziiert, als mit rechtsdrehenden Bewegungen.
Dennoch ist eine derartige Abbildung sinnvoll, weil man somit in beide
Richtungen agieren kann (nach rechts und links) statt lediglich rechtsgerichtete Auf- und Abwärtsbewegungen zu beschreiben.
Für die Repräsentation horizontaler Bewegungen bietet sich in jedem Fall
der Einsatz der Stereokanäle an. Der Nutzer kann somit tatsächlich einen
Ortswechsel der Töne von rechts nach links wahrnehmen oder umgekehrt (siehe Abschnitt 2.1.2, S. 8), vorausgesetzt er befindet sich zwischen
Abb. 4.12.:
Unterschiede in
Objektanzahl
den beiden Lautsprechern. Mit Hilfe von Surround-Soundsystemen lässt
sich der Wahrnehmungseffekt sogar auf die Ausrichtungen vorn und hinten erweitern. Ist ein Stereoeinsatz nicht möglich, könnte eine Bewegung
in der Horizontalen auch durch, dem Dopplereffekt (Abschnitt 2.1.2, S. 8)
nachempfundene, Tonhöhenänderungen hervorgerufen werden. Eine
Lokalisierung des Tonsignals nach rechts oder links ist somit allerdings
Hörbsp. 17.:
Ein Ton versus
drei Töne
nicht mehr möglich. Ferne und Nähe könnte außerdem durch Unterschiede in der Lautstärke umgesetzt werden, da von dem Schall weit
entfernterer Schallquellen üblicherweise auch weniger wahrnehmbar
ist. Wenig Lautstärke stünde also für entfernte Objekte und stärkere
Lautstärke für entsprechend näher liegende.
Klang und Verteilung
Mit dem Zusammenhang aus Klang und (räumlicher) Verteilung ist
hier weniger die Richtungslage der Verteilung, sondern vielmehr deren Ausgewogenheit oder Unausgewogenheit gemeint. Dabei können
musikalische Attribute ähnlich denen der zuvor beschriebenen Abbildungen von Klang auf Textur (siehe Abschnitt 4.3, S. 66) eingesetzt
werden. Während die Mengenverhältnisse beispielsweise durch die
Abb. 4.13.:
Unterschiede in
Anordnung
Anzahl der dargebotenen Töne umsetzbar ist (siehe Abbildung 4.12
und Hörbeispiel 17), kann deren Stimmigkeit oder Unstimmigkeit,
beziehungsweise deren Ausgewogenheit oder Unausgewogenheit beispielsweise bezüglich der Anordnung, zusätzlich über Konsonanzen
und Dissonanzen zwischen den Tönen verdeutlicht werden (siehe
Abbildung 4.13 und Hörbeispiel 18). Auch Rhythmus ist als Attribut von Ausgewogenheit vorstellbar, indem verschiedene Rhythmen
(gleichmäßig gegen wechselnd) einander gegenübergestellt werden.
71
Hörbsp. 18.:
Konsonanz
versus
Dissonanz
4. Die Möglichkeit eines musikalischen Interaktionsbildes
4.4. Funktionen des Klangeinsatzes
Es mag sich die Frage stellen, in welchem Kontext die bisher in diesem
Kapitel präsentierten Überlegungen anwendbar sind. In welcher Funktion ist der Einsatz von Klängen und Musik sinnvoll? Für den Einsatz akustischer Informationen können grob drei Grundfunktionen unterschieden
werden: der Einsatz als Warnfunktion, zum Feedback oder Earcandy. Tabelle 4.5 zeigt eine Übersicht dieser Funktionen und ihrer Eigenschaften,
wobei Form hier die für die Anwendung geeignete musikalische Einheit
(siehe Abschnitt 4.2) meint.
Warnfunktion
Feedback
Earcandy
Rolle:
notwendig
unterstützend
bereichernd
Form:
Ton, Akkord, u.U. auch
Musikstücke zur Emotionalisierung (vermitteln von Gefahr)
Ton, Akkord,
Melodie
Melodie, Musikstück
prägnante Earcons
Earcons (auch
komplexerer
Form)
Hintergrundmusik
einer Website
Beispiel:
Tabelle 4.5.: Funktionen des Einsatzes von Klang und Musik
Die Feedbackfunktion beschreibt eine Art musikalische Rückmeldung,
welche dem Nutzer den interaktiven Umgang erleichtern soll. Darunter
sind beispielsweise Bestätigungen durchgeführter Aktionen (erfolgreich beziehungsweise fehlgeschlagen), Fortschrittsanzeigen oder auch
Hilfestellungen zu verstehen. Momentan geschieht dies überwiegend
durch klangliche Nachahmung ähnlicher real-existenter Vorgänge, in
Form synthetisch erzeugter Geräusche (vgl. Papierknüllgeräusch beim
Lösch-Befehl). Unterstützend für den Arbeitsfluss sind auditive Feedbackinformationen auch für erfahrene, vorwiegend über Short-Cuts
agierende, Nutzer, denen somit eine sofortige Rückmeldung der erfolgten Aktion geliefert werden kann, ohne die visuelle Aufmerksamkeit zu
beeinträchtigen. Geeignete klangliche Formen solcher Rückmeldungen
durch Musikalisierung des Bildlichen können unter Anderem aus den
im vorigen Abschnitt beschriebenen Abbildungen entwickelt werden.
Abschnitt 3.2.4 stellte außerdem bereits einige Applikationen unter
Anwendung von Earcons vor. Die geeignetsten musikalischen Einheiten
für den Einsatz als Feedback sind Ton, Akkord oder Melodie, umgesetzt
beispielsweise in Form von Earcons. Die Warnfunktion stellt, genau
genommen, eine Spezialisierung des Feedbacks mit erhöhter Priorität
dar, da sie den Nutzer vor Fehlern in der Interaktion bewahren soll.
72
4.4. Funktionen des Klangeinsatzes
Eine Aktion mit unwiederuflichen Konsequenzen (zum Beispiel löschen)
sollte demnach entsprechend warnend unterlegt sein. Sinnvollerweise werden bei Warnfunktionen die natürlichen Reaktionsmuster des
Menschen eingesetzt, um angemessene Reaktionen auf das Signal zu
erhalten. Entsprechende Warnfarben wären beispielsweise rot oder gelb.
Musikalisch gilt es in der Regel, kurze, prägnante oder gar schrille Klänge
zu wählen, die sich möglichst vom übrigen Kontext abheben und den
Nutzer aufrütteln. Man denke an die Warnpfiffe unter Murmeltieren, die
Sirene eines Martinhorns oder das, zu früheren Zeiten vorwiegend vor
Gefahrensituationen warnende, Geläut eines Kirchturms. Als geeignete
musikalische Einheiten bilden sich hierbei Ton und Akkord heraus. Unter
Umständen bietet sich auch der Einsatz musikalischer Phrasen an, um
mittels Emotionalisierung den Eindruck von Gefahr zu unterstreichen
(siehe Hörbeispiel 19) und somit die Tragweite der bevorstehenden
Aktion zu verdeutlichen. Der Einsatz von Klängen zur Warnung ist eine
omnipräsente Möglichkeit, den Nutzer zu jeder Zeit zu erreichen (hardwareseitige Audiounterstützung vorausgesetzt). Ohren können nicht
„geschlossen“ werden und versetzen den hörenden Menschen somit
stets in einen Zustand der auralen Aufmerksamkeit, wenngleich dies die
Gefahr der Geräuschbelästigung in sich birgt. Bereichernd in der Funktion eines so genannten Earcandy, macht sich die Musik ihre typischen
Stärken zu nutze, Emotionen und Ausdruck zu übermitteln. So können
Situation musikalisch in weitaus eindrucksvollerem und prägnanterem
Ausdruck vermittelt werden, als dies oftmals in Bildern möglich ist.
Einem neutral betrachteten Ereignis kann Musik mit entsprechendem
Ausdruck ganz unterschiedliche Emotionsfärbungen verleihen. Dies ist
beispielsweise in faszinierender Form an der Wirkung von Stummfilmen
durch deren Begleitmusik nachvollziehbar. Musik kann einerseits Gefahr
(in diesem Sinne unter Umständen auch als Warnfunktion einsetzbar),
Hörbsp. 19.:
Streicher aus
H ITCHCOCKs
Film Psycho,
Ausschnitt
Schrecken (siehe Hörbeispiel 19), Schmerz und Trauer vermitteln oder im
Gegensatz dazu Ruhe und Ausgeglichenheit oder Freude und Euphorie
(siehe Hörbeispiel 20) ausstrahlen. Dennoch sollte Musik auch im Einsatz
als Earcandy mit Bedacht gewählt werden, um einerseits den Sachverhalt
angemessen zu unterstützen, und andererseits eine Reizüberflutung
zu vermeiden. Die typischerweise zu verwendenden musikalischen
Einheiten sind Melodie und Musikstück.
Entscheidend bei der Gestaltung eines auditiven Interfaces ist die Frage
nach dem, was erreicht werden soll: wird (lediglich) eine intuitivere Unterstützung der Abläufe durch Musik, das Erlangen von Aufmerksamkeit
73
Hörbsp. 20.:
B EETHOVEN:
Schlusschor
der 9. Sinfonie
(d-moll Opus
125,
Presto-Allegro
assai), Ode an
die Freude,
Ausschnitt
4. Die Möglichkeit eines musikalischen Interaktionsbildes
oder gar eine komplett auditive Darstellung angestrebt? Die Wirkung der
jeweiligen Klänge sollte stets dem Sachverhalt angepasst sein, um den effektiven Einsatz zu gewährleisten. Die Kluft (Abstand) zwischen Klang
und Interface sollte für eine angemessene Wirkung nie zu groß werden,
um zu verhindern, dass der Nutzer keine Relation mehr zwischen den
klanglichen Signalen und den Interaktionen herstellen kann.
4.5. Zusammenfassung und Fazit
In diesem Kapitel wurden Versuche gezeigt, Informationen akustisch zu
übermittelt. Der Schwerpunkt lag dabei zunächst auf der Frage, inwieweit sich grafische Eigenschaften auditiv darstellen lassen. Dabei bildeten
die Bestrebungen und Erkenntnisse der in Kapitel 3 vorgestellten Arbeiten die Grundlage. Im Folgenden wird in einem kurzen Fazit die Essenz
dieser Überlegungen gezogen.
↑
↑
↑
auditives Leitsystem (Auto)
Navigationssystem
mit Bildschirm
Stadtplan
Telefon
Bildtelefon
Fotoapparat
Radio
Fernseher, Kino
Screenreader
Musikbearbeitungssoftware
EDV (Textbearbeitung)
Musik
Tanz
Malerei
PC
↑
Zeitung
Tabelle 4.6.: Einordnung in visuelle und akustische Interfaces
Tabelle 4.6 zeigt die Unterteilung einiger Anwendungen bezüglich der
zum Tragen kommenden üblichen visuellen und akustischen Ausprägung. Die Arbeit am Rechner (PC) ist immer noch stark visuell geprägt,
obwohl eine Entlastung des visuellen Sinns durch Anwendung akustischer Informationen durchaus sinnvoll wäre. In Abschnitt 4.4 wurden
drei denkbaren Einsatzbereiche (Warnfunktion, Feedback, Earcandy)
vorgestellt. Wie genau letztendlich eine Umsetzung entsprechend der
drei Bereiche aussieht, bleibt dem Gestalter überlassen. Die Grundlagen dazu wurden in Abschnitt 4.2.2 geliefert, wo aufbauend auf einer
detaillierten Definition und Kategorisierung von Musik die entscheidenden musikalischen Attribute herausgearbeitet wurden. Auf unterster
Abstraktionsstufe wurden anschließend in Abschnitt 4.3 mögliche Um-
74
4.5. Zusammenfassung und Fazit
setzungen grafischer Eigenschaften mit Hilfe der zuvor erarbeiteten
musikalischen Attribute vorgestellt. Tabelle 4.7 fasst die vorgestellten
Abbildungen in einer Übersicht zusammen. Dabei wird deutlich, dass
einige musikalische Attribute geeigneter scheinen als andere, wobei dies
stets kontextabhängig betrachtet werden sollte (siehe auch Tabelle 4.2).
Wie bereits in Kapitel 3 zu sehen war, strahlen Abbildungen von Farbe
auf Ton eine starke Faszination aus, obwohl keine tatsächliche eindeutige
Abbildungsregel gefunden werden kann. Andere auf den ersten Blick
weniger reizvolle Abbildungen hingegen, wie die von Formen auf
Klänge, sind zwar weniger üblich, können aber eine äußerst effektive
Wirkung erzielen (Abschnitt 4.3 (S. 68), sowie Experimente K ÖHLERs
x
x
Verteilung
Form
x
Bewegung
Textur
x
Größe
Helligkeit
Tonhöhe
(-nunterschiede)
Farbe
(S. 10), P FENNINGERs und F ISCHINGERs (Abschnitt 3.2.3)).
x
Rauhigkeit
x
Tondauer
x
x
x
Lautstärke
(x)
x
x
Bewegung
x
Phrasierung
x
Rhythmus
x
x
Harmoniereinheit
x
x
Stereo
x
x
Tabelle 4.7.: Übersicht möglicher grafisch-musikalischer Abbildungen
Geräusche wurden bei den Überlegungen gänzlich außer Acht gelassen,
da sonst ein zu breites Spektrum hätte untersucht werden müssen. Dennoch sind Geräusche ein ausschlaggebender Punkt, warum es derart sinnvoll erscheint, auditiv stärker zu arbeiten und den visuellen Sinn zu entlasten. In der realen Welt wird fast jede Aktion von einem akustischen
Feedback begleitet (zum Beispiel Motor starten, Kartoffeln schneiden, Tür
zuschlagen), so dass der Mensch (unbewusst) seit Jahrhunderten darauf
geschult ist, solche Signale (parallel verarbeitend) wahrzunehmen. Die
Gefahr bei akustisch unterstützten Anwendungen ist jedoch die Überreizung durch Geräuschbelästigung. Dies gilt es durch behutsam und angemessen ausgewählte Klänge zu verhindern.
75
4. Die Möglichkeit eines musikalischen Interaktionsbildes
Der Titel des Kapitels lässt die Möglichkeit eines musikalischen Interaktionsbildes vermuten. Erste Kategorisierungen und Verallgemeinerungen
konnten vorgestellt werden, wobei für eine komplette Interaktionsbild
ähnliche Systematisierung weitere Untersuchungen unter Berücksichtigung der vorgestellten Erkenntnisse notwendig sind.
76
5. Singende klingende Formen
5.1. Einleitung
Die in dem folgenden Kapitel vorgestellten prototypischen Anwendung
verdeutlichen auf abstrakte Weise einige der in Kapitel 4 diskutierten
Abbildungsmöglichkeiten. Dabei werden musikalische Eigenschaften mit
grafischen Elementen verknüpft und diese spielerisch erfahrbar gemacht.
Während die Anwendung Klangkörper in komponierender Art und Weise
farbige geometrische Objekte zu musikalisieren versucht und somit eine Mischform aus visualisierten Tönen und tonalisierten Abbildungen
repräsentiert, stellt die Anwendung Audiskop eine Oberfläche zur Verfügung, innerhalb welcher nicht sichtbare grafische Abbildungen über
Klänge ertastet werden können. Dabei kommen verschiedene Repräsentationsformen zum Einsatz.
5.2. Klangkörper - Visuell Komponieren
In Anlehnung an die neue Kunstauffassung der abstrakten Künstler, Maler und Musiker, wird in diesem Abschnitt ein Versuch vorgestellt, welcher auf spielerischer Ebene interaktiv (im Umgang mit dem Computer) eine Fusion aus Musik, Farben und geometrischen Formen präsentiert. Formen im Raum „verkörpern“ Klänge und Farben werden als Töne wahrgenommen. Eine Verschmelzung aus Hören und Sehen, ähnlich
den Empfindungen von Synästhetikern. Klangkörper soll als eine Art visuelle Komponiermaschine verstanden werden, bei welcher durch Komposition unterschiedlicher Formen und Farben „bunte“ Klangteppiche unterschiedlicher Tonhöhen und Rhythmen entstehen. Das Abbild der Formen erinnert an die Auffassung E DGAR VARESEs von spatialer Musik
und an die grafischen Partituren J OHN C AGEs oder S TOCKHAUSENs (siehe Kapitel 3.2.2).
Bezogen auf die in Abschnitt 4.3 vorgestellten Überlegungen zu einer Verbindung von Klang und Form, werden den einzelnen geometrischen Figuren in der Anwendung Klangkörper unterschiedliche Klangarten zugeordnet: das Rechteck verkörpert einen eckigen, weniger gleichmäßigen
77
5. Singende klingende Formen
Klang, während der Kreis gleichmäßig und rund klingt. Der jeweilige
Ton wird hörbar, sobald die Formen auf die Bühne gezogen und ihnen
ein Farbton zugeordnet wurde. Die Farb-Ton-Auswahl, welche auf den in
Abschnitt 3.2.1 und 4.3 vorgestellten Arbeiten basiert, ermöglicht es, den
Klängen unterschiedliche Tonhöhen zuzuordnen. Dazu wird zunächst eines der Farb-Ton-Modelle ausgewählt und anschließend die Farbe per
Drag and Drop der Klangform zugeordnet. Je nach Farbwahl erklingen
harmonische oder disharmonische Klangspiele. Abbildung 5.1 zeigt die
visuelle Darstellung eines C-Dur Dreiklangs in Klangkörper, welcher nach
dem Farb-Ton-Modell S CRIABINs (siehe Abbildung 5.1(a)) und R IMING TON s
(siehe Abbildung 5.1(b)) abgebildet wird. Die beiden Abbildungen
klingen also harmonisch gleich, obwohl sie ganz unterschiedliche Formen
darstellen.
(a) Farbmodell S CRIABIN
(b) Farbmodell R IMINGTON
Abb. 5.1.: Klangkörper - Dreiklang dargestellt in verschiedenen Farbmodellen
Für das Komponieren werden verschiedene Transformationen bereitgestellt. So kann die Größe der Formen durch Skalieren (STRG + linke
Maustaste) reguliert werden und beeinflusst, in Anlehnung an Abschnitt 4.3, die Lautstärke der einzelnen Klänge. Je größer die Form,
desto lauter der Klang und umgekehrt. Die bereits auf der Bühne
befindlichen Klangformen können außerdem dupliziert (SHIFT + linke
Maustaste) oder entfernt (ENTF + linke Maustaste) werden. Über die
Aufnahmefunktionalität können eigens von dem Nutzer komponierte
audio-visuelle Samples erstellt werden, die anschließend als vorgefertigte
Abläufe weitere Kompositionen bereichern können. Dabei geschieht eine
Vermischung der Paradigmen: während zuvor tonalisierte Abbildungen
präsentiert werden, wandeln sich diese durch das Abspielen fertiger
78
5.3. Audiskop - Bilder blind über Klang erschließen
Abläufe zu visualisierten Klängen.
Vorstellbar wäre, die bisher nur prototypisch ausgeprägte Anwendung
durch weitere Komponenten zu erweitern. Dabei sollte der Nutzer
beispielsweise den Tonhöhen seine eigenen Farbempfindungen oder
auch den Formen seine eigens aufgenommenen Sounds zuordnen können. Darüber hinaus impliziert die momentane Umsetzung keinerlei
Ortsabhängigkeit der Objekteposition auf der Bühne. Denkbar wäre es
jedoch, bestimmte sensitive Bereiche zu schaffen, innerhalb derer die Formen zusätzlichen Veränderungen unterworfen würden. So könnte den
einzelnen Tönen beispielsweise je nach Position ein unterschiedliches
Instrument (Klangfarbe) zugeordnet werden. Um die Positionen festzulegen, könnte der Aufbau eines klassischen Sinfonieorchesters auf die
Bühne projiziert werden. Einen anderen Ansatz stellt die Umsetzung des
Modells der Stiftwalzen-Spieluhren dar. Bei diesen entstehen Melodien,
indem Metallblättchen (Stimmzungen) über eine mit Stiften bespickte
Walze gleiten und jeweils beim Passieren der einzelnen Stifte einen Ton
wiedergeben. Für die hier dargestellte Anwendung könnte dieses Modell
auf eine weitere Rhythmusebene übertragen werden: in periodischen
Abständen scannt ein Rhythmusstreifen die Bühne von rechts nach
links ab und akzentuiert die Klänge der passierten Formen. Ein weiterer
Ansatzpunkt einer Erweiterung wäre eine gegenseitige Beeinflussung
der Formen auf der Bühne, so dass sich bei Änderungen der einen Form
auch gewisse Zustandsänderung der in unmittelbarer Nähe befindlichen
anderen Formen ergeben.
5.3. Audiskop - Bilder blind über Klang erschließen
Ähnlich der Wahrnehmungserfahrung blinder Menschen soll in der
Anwendung Audiskop dargestellt werden, wie visuelle Welten blind
durch Klänge erschlossen werden können. In dem vorgestellten Prototyp
können auf diese Weise nicht sichtbare, hinter einer weißen Wand
(Bühne auf Bildschirm) verborgene, abstrakte Formen auf verschiedenen
Wegen erfühlt werden. Dabei wird nach unterschiedlichen Erschließungsmustern vorgegangen, welche an im vorigen Kapitel vorgestellten
grafisch-musikalischen Abbildungen angelehnt sind. In der vorgestellten
Version kann der Nutzer zwischen drei zu ertastenden (Strich-) Figuren
auswählen (A, B oder C). Während er mit der Maus über die Bühne auf
dem Bildschirm fährt, erklingen bestimmte Tonsignale, welche die Nähe
der Form repräsentieren. Mit gedrückter rechter Maustaste gewinnt der
Mauszeiger die Funktion eines Zeichenstiftes hinzu. Ziel ist es, eine
79
5. Singende klingende Formen
Form, die sich hinter dem Weiß der Bühne verbirgt, auditiv zu erkennen
und diese nachzuzeichnen. Der Zeichenerfolg kann jederzeit über den
Prüfen-Button ermittelt werden. Dann erscheint die zu erkennende Form
auf der Bühne und kann mit der selbst gezeichneten Figur verglichen
werden. Mit Hilfe des Neues Glück-Button können die gezeichneten
Linien wieder gelöscht werden. Im Folgenden wird kurz auf die vier
Erschließungsmuster eingegangen.
Lautstärkenunterschiede
Bei der Erschließung durch Lautstärkenunterschiede kommt die in Kapitel 4.3 (S. 71) kurz angesprochene Wahrnehmungserfahrung zum Ausdruck, dass entfernt liegende Objekte (bei gleicher Schallstärke) in der
Regel leiser klingen, als Objekte, die sich näher am Betrachter befinden.
Übertragen auf das Erfühlen der Form bedeutet dies, dass man sich umso weiter von dem Objekt (der Linie) entfernt befindet je leiser der Klang
ist. Schwillt die Lautstärke langsam an (stufenweise realisiert), ist dies ein
Zeichen der Annäherung an die Linie. Nachdem der Höhepunkt (größte
Lautstärke) erreicht wurde und die Lautstärke wieder abnimmt, bedeutet dies ein Entfernen von der Figur. Ertönt überhaupt kein Klang mehr,
so befindet sich die Maus gänzlich außerhalb des sensitiven Bereichs. Es
gilt also, entlang ds Bereichs der größten Lautstärke zu zeichnen, um die
Figur korrekt zu ertasten. Es hat sich allerdings herausgestellt, dass Lautstärkenunterschiede nicht exakt genug wahrgenommen werden, um zufriedenstellende Ergebnisse zu liefern.
Tonhöhenunterschiede
Das Prinzip des Ertastens durch Tonhöhenunterschiede entspricht im Wesentlichen dem der Lautstärkenunterschiede. Zwar trifft hier die Entfernungsmetapher nicht zu, doch lassen sich Tonhöhenunterschiede bedeutend exakter wahrnehmen als Lautstärkenunterschiede. Hier gilt: je höher der Ton, desto näher befindet man sich an der Linie. Sobald die Linie überschritten ist, nimmt die Tonhöhe wieder ab. Im Vergleich zum
Ertasten durch Lautstärkenunterschiede können sehr genaue Ergebnisse
erzielt werden.
Fokussierung durch Konzentration auf einen bestimmten Klang
Das Ertasten durch Fokussierung versucht ein Phänomen des menschlichen Hörens nachzuempfinden, welches Ansatzweise bereits in Kapitel
2.1.3 beschrieben wurde. Trotz einer sehr lauten und schallsignalreichen
Umgebung ist das menschliche Gehör in der Lage, auf bestimmte (ver-
80
5.3. Audiskop - Bilder blind über Klang erschließen
traute) Klänge zu fokussieren und diese getrennt von dem Umgebungsklangchaos wahrzunehmen. In der Literatur wird dies teilweise auch als
Cocktail-Party Effekt betitelt. In der Anwendung Audiskop ertönt der Umgebungsklang in einem Wirrwarr verschiedenster Geräusche, welche an
eine laue Sommernacht erinnern (Grillenzirpen, Frösche etc.). Je näher
der Mauszeiger der verborgenen Figur jedoch kommt, desto mehr kristallisiert sich ein bestimmter Klang heraus, während die Umgebungsgeräusche zunehmend leiser werden. Sobald nur noch dieser einzelne Klang
wahrgenommen wird, befindet sich der Mauszeiger direkt auf der Linie
der Strichfigur.
Fokussierung durch Stille
Die Fokussierung durch Stille stellt eine vereinfachte Variante der zuvor
beschriebenen Art und Weise der Fokussierung dar. In dieser Variante
kristallisiert sich kein einzelner Klang mehr heraus, sondern nimmt der
Umgebungsklang so lange ab, bis nur noch Stille wahrzunehmen ist. Es
wird auf die Stille fokussiert. Obwohl diese Variante dem Ertasten durch
Lautstärkenunterschiede sehr ähnlich ist, zeigen sich bessere Ergebnisse.
Dies ist durch die einfachere Wahrnehmung des Unterschiedes zwischen
leisem Umgebungsklang und Stille (direkt auf Linie), im Gegensatz zu
lauterem und ganz lautem Ton (direkt auf Linie) zu erklären.
In Abbildung 5.2 sind exemplarisch die Ergebnisse eines Nutzertests vorgestellt, welche den Erfolg des Ertastens abbilden. Der Nutzer wurde
kurz mit dem System vertraut gemacht und daraufhin angewiesen, die
verborgene Form akustisch zu erfühlen. Um ein verfälschtes Ergebnis
durch zuvor vermutete Formen zu verhindern, wurde der Nutzer in dem
Glauben gelassen, jedes Mal eine andere verborgene Form zu erfühlen.
Während Abbildung 5.2(a) die zu ertastende Figur zeigt, bilden Abbildung 5.2(b), Abbildung 5.2(c) und Abbildung 5.2(d) die erzielten Ergebnisse des Nutzers ab. Dabei entsprechen die roten Linien der zu ertastenden Figur und die grauen den Zeichnungen des Nutzers. Wie vorangehend bereits angedeutet, wird deutlich, dass das auditive Erfühlen
durch Lautstärkenunterschiede keine gute Repräsentationsform darbietet. Es sind deutliche Abweichungen der ursprünglichen Figur zu erkennen (siehe Abbildung 5.2(b)). In dem dargestellten beispielhaften Nutzertest scheint die auditive Repräsentation der Figur durch Fokussierung auf
Stille das beste Ergebnis zu erzielen (siehe Abbildung 5.2(d)).
81
5. Singende klingende Formen
(a) Form
(b) Ergebnis Lautstärkenunterschiede
(c) Ergebnis Tonhöhenunterschiede
(d) Ergebnis Fokussierung durch Stille
Abb. 5.2.: Audiskop - Nutzertest
82
5.4. Technische Umsetzung
Während in der hier vorgestellten prototypischen Version des Audiskops
die Erschließung einzelner auf der Bühne befindlicher Strichfiguren umgesetzt ist, sollte es ausblickend möglich sein, komplexere Szenen grafischer Elemente akustisch erfahren zu können. Auf die in diesem Prototyp
vorgestellte Art und Weise wäre das Ertasten mehrer verteilter Figuren
allerdings relativ mühsam, da in den Zwischenräumen zwischen zwei Figuren nicht klar wäre, welche Nähe der Fühler signalisiert (recht, links,
oben oder unten) oder ob man sich womöglich innerhalb einer Figur befindet. Für das Abbilden komplexerer Szenen scheint es demnach sinnvoller, die einzelnen Figuren ganzheitlich darzustellen, so dass diese je
nach Form, Größe und Farbe (ähnlich den Klangkörpern aus Kapitel 5.2)
einen anderen Klang hervorrufen. Auf diese Weise ließe sich das Gesamtbild einer komplexeren Szene (beispielsweise ein abstraktes Bild) leichter
akustisch erfassen.
5.4. Technische Umsetzung
Die Anwendungen Klangkörper und Audiskop wurden mit Hilfe des Authoringtools Macromedia Flash Professional 8 erstellt, wobei die Programmierung objektorientiert mit der Flash eigenen Programmiersprache ActionScript umgesetzt wurde. Der SEPY ActionScript Editor (Version 1.0.6.78)
diente dem Editieren des Codes. Bei der Umsetzung wurde nach dem
Model-View-Controler Konzept vorgegangen, wobei eine Trennung der
Anwendungslogik von der grafischen Repräsentation angestrebt wird.
Während die Elemente der grafischen Oberfläche über das Integrated Development Environment (IDE) von Flash erzeugt wurden, ist die Steuerung dieser Elemente in den ausgelagerten ActionScript-Klassen angesiedelt. Die jeweiligen Klassendiagramme der Applikationen sind in Anhang F zu finden. Die kompletten Quelldateien sind auf der beigefügten
CD hinterlegt.
Besonders problematisch bei der Umsetzung war die Behandlung von Sounds in Flash, welche den ursprünglichen Vorstellungen leider nicht gerecht werden konnte. Die relativ unflexible Integration und Behandlung
verschiedener Sounds verhindern eine vielseitige Nutzung. Darüber hinaus muss mit Performanceeinbußen gerechnet werden. Für weitere Projekte sollte eventuell eine Orientierung auf Processing (Beta) [FR07] in Betracht gezogen werden.
83
5. Singende klingende Formen
5.5. Fazit
Die an dieser Stelle vorgestellten Applikationen verdeutlichen in prototypischer Weise die Potentiale von Klängen und Musik, wobei besonders
bei Klangkörper die musikalische Komponente hervortritt. Im Sinne eines
grafischen Komponierens erzeugen die auf eine Bühne gezogenen geometrischen Figuren, je nach Form und Farbe, schwebende Klangteppiche
bis hin zu rhythmisch unruhigen Sequenzen in harmonischen oder disharmonischen Stimmungen. Durch die Möglichkeit des Aufnehmens eigener Samples wird das Komponieren zu einer Mischung aus tonalisierter Visualisierung (eigenes Spiel) und visualisierter Musik (Samples). In
Audiskop geht es weniger um das Erstellen von Musik, als viel mehr um
das blinde Erfahren visueller Welten durch klangliche Signale. Der Sensor
geht dabei nach unterschiedlichen Strategien bezüglich der Abbildung
der Formenumrisse auf Klang vor. So können die Umrisse der verborgenen Form durch Lautstärkenunterschiede, durch Tonhöhenunterschiede
oder durch Fokussierung auf einen bestimmten Klang oder Stille erfühlt
werden. Selbst in der Einfachheit der vorgestellten Prototypen werden einige der in Kapitel 4 untersuchten Abbildungen verdeutlicht und in einer
Weise umgesetzt, die den spielerischen Gedanken des Nutzers herausfordert und in interaktiver Form klangliche Welten erfahren lässt.
84
6. Ausklang
Auf den folgenden Seiten werden die vorangehend vorgestellten Arbeiten und Erkenntnisse zunächst in einer kurzen Zusammenfassung zusammengetragen und anschließend in einer kritischen Betrachtung diskutiert. Den Abschluss der Arbeit bildet das Fazit mit ausblickenden Gedanken.
6.1. Zusammenfassung
Die vorliegende Arbeit präsentierte eine Zusammenstellung des vielseitigen Schaffens in audio-visuellen Verschmelzungsbereichen und
Impressionen von deren Anwendungsmöglichkeiten. Die zahlreichen
im Laufe der Geschichte entstandenen Experimente und Apparaturen
wurden in Kapitel 3 in Form eines geschichtlichen Abrisses vorgestellt
und grob gruppiert. Dabei bildeten sich die Bereiche Klang und Farbe,
Klang und Form, der übergreifende Bereich des Klangs in Bildern, sowie
der stark durch die Informationstechnologie geprägte Bereich des Klangs
durch Aktion heraus. In den anschließend vorgestellten ausgewählten
Arbeiten zeitgenössischen Wirkens wurde deutlich, dass hier eine Fusion
der zuvor einzeln betrachteten Bereiche zu finden ist.
Die Essenz dieser vorgestellten Arbeiten diente der Inspiration zu
grundlegenderen Betrachtungen bezüglich der Abhängigkeiten visueller
und auditiver Elemente. Dabei wurde der bereits vielfach betrachtete
Weg vom Musikalischen auf das Grafische, welcher beispielsweise
für die grafischen Gebilde der weit verbreiteten Musikvisualisierer
bekannter Audioprogramme genutzt wird, weitestgehend außer Acht
gelassen. Vielmehr streben die hier vorliegenden Untersuchungen nach
Abbildungsmöglichkeiten grafischer Eigenschaften auf musikalische
Eigenschaften. Eine grundlegende Basis stellten dabei die in Kapitel 2
aufgeführten Grundlagen der Psychoakustik und der Musiktheorie dar.
Es wurde versucht, den Begriff Musik und dessen Charakter grundlegend zu klären, um darauf aufbauend die einzelnen musikalischen
Eigenschaften herauszuarbeiten, welche zur Abbildung grafischer Eigenschaften und deren Funktion in interaktiven Interfaces hilfreich sein
85
6. Ausklang
können. Die musikalischen Eigenschaften wurden dabei jeweils bezüglich ihrer Anwendbarkeit in den Bereichen Ton und Farbe, Klang und
Textur, Klang und Form, Lautstärke und Form, Klang und Bewegung,
sowie Klang und Verteilung untersucht. Die entsprechenden Ergebnisse
sind in Kapitel 4 zu finden.
Um die Effekte solcher Abbildungen zu verdeutlichen, wurden in Kapitel 5 schließlich zwei Prototypen vorgestellt, die die Fähigkeiten von
Klang als Repräsentant grafischer Elemente zeigen. Die prototypisch
umgesetzte Anwendung Klangkörper dient dabei dem Komponieren
mittels einfacher geometrischer Formen, in Verbindung mit bestimmten
Klangarten und Farben. Durch die Möglichkeit des Speicherns und
Wiederabspielens eigens erstellter grafischer Klangsamples kann eine
Brücke zwischen den ursprünglichen tonalisierten Abbildungen zu
visualisierten Klängen geschlagen werden. Der vorgestellte Prototyp
Audiskop wiederum beschreibt das blinde Erfahren grafischer Objekte mit
Hilfe von Klängen. Dabei wurden verschiedene Repräsentationsformen
der grafisch-akustischen Abhängigkeit aufgezeigt und bewertet.
6.2. Kritische Betrachtung
Ein Gesichtspunkt, der während den in dieser Arbeit vorliegenden Untersuchungen immer wieder anklingt, dennoch aber weitestgehend außer Betracht gelassen wurde, ist die Frage nach der tatsächlichen Fähigkeit von Musik, als Kommunikationsmittel zu agieren. Zwar steht Musik als Sinnbild dafür, Stimmungen und Emotionen zu kommunizieren,
doch bleibt es nach wie vor fraglich, ob musikalische Formen tatsächlich
in der Lage sind, auch „trockene“ Fakten und Sachverhalte zu vermitteln. Die große Stärke von auditiven und musikalischen Formen liegt in
der Fähigkeit des Menschen, innerhalb dieser außerordentlich gut unterscheiden zu können und verschiedene Ausprägungen gleichzeitig wahrzunehmen. So erkennt der aufmerksame Hörer eines Musikstückes problemlos die gleichzeitig auftretenden musikalischen Elemente wie Tonhöhe, Lautstärke, Klangfarbe und Tondauer. Darüber hinaus kann er bestimmen, aus welcher Richtung der Klang kommt. Dem Nutzer könnten
also neben der visuellen Information mindestens vier zusätzliche Attribute unterstützend dargeboten werden, um in interaktiven Welten zu agieren. Die Fähigkeit der menschlichen Wahrnehmung, komplexe Schallsignale durch die auditive Lautsphärenanalyse (siehe Kapitel 2.1.3) selbst in
sehr schallsignalreichen Umgebungen korrekt und differenziert zu interpretieren ermöglicht es dem Nutzer, aus den gleichzeitig dargebotenen
86
6.2. Kritische Betrachtung
Informationen, die für ihn bedeutungshaltigen Informationen herauszufiltern. Der Einsatz musikalischer Elemente zur Darstellung großer Datenmengen ist ebenfalls vorstellbar, da somit gewissermaßen auf einen
„auditiven Blick“ der Gesamtzustand „überschaut“ werden kann, was visuell oftmals erst nach genaueren (zeitaufwändigen) Betrachtungen möglich ist.
Dennoch bergen all diese Vorteile auch Gefahren. Geräuschbelästigung ist
für die menschlichen Sinne im Allgemeinen unerträglicher, als die Belastung durch visuelle Überreizung, da sich die auralen Sinne der Belastung
nicht ohne Weiteres entziehen können, wie es beispielsweise durch das
Schließen der Augen möglich ist. Aus diesem Grund lehnt eine Vielzahl
der Nutzer von vornherein den Einsatz auditiver Elemente ab. In Konsequenz bleiben die Potentiale der auditiven Informationsaufnahme vielfach ungenutzt, obwohl sich deren Wahrnehmungsqualität und -fähigkeit
von der visuellen nicht oder nur kaum unterscheiden. Der Mensch ist
stärker an die visuelle Informationsaufnahme gewöhnt und inzwischen
zweifellos geschulter im Umgang damit, während die auditive Wahrnehmung gewissermaßen verkümmert. Doch selbst diese Vernachlässigung
birgt Potentiale, da Musik und Klang somit noch als effektive Trenner
zwischen der alltäglichen Welt und Informationen genutzt werden können. Als Beispiel seien die einleitenden Jingles der Straßenbahn- oder Busansagen zu sehen, welche ohne das vorherige Ding-Dong womöglich gar
nicht wahrgenommen würden.
Auf die beständige Frage der Kritiker, in welcher Gewichtung der Einsatz
von Klängen und Musik eher Belastung als Entlastung darstellt, wird an
dieser Stelle in zweierlei Hinsicht geantwortet. Zum einen sollte der visuelle Informationskanal, sofern möglich, nicht gänzlich ausgeschalten werden, um eine erneute komplette Abschottung durch Konzentration auf
eine rein auditive Informationsvermittlung zu verhindern. Eine Synthese
auditiver und visueller Vermittlung scheint demnach ideal. Andererseits
ist nicht unbedingt gesichert, dass kombinierte Wege stets bessere Ergebnisse zeigen. Hier kann durch Missinterpretation der beiden aufeinander
treffenden Informationskanäle eine erhöhte Fehlerzahl auftreten. Es wird
also deutlich, wie wichtig die angemessene Gestaltung der entsprechenden Informationsvermittlung ist.
Die in dieser Arbeit vorgestellten Untersuchungen stellen eine Übersicht
möglichst intuitiver Abbildungen dar, welche ausgehend von den bisher
vorwiegend grafisch umgesetzten Eigenschaften interaktiver Interfaces
eine musikalische Realisierung vorschlagen. Der Fokus lag dabei auf der
Erarbeitung konkreter geeigneter Abbildungen, wobei die jeweiligen Ein-
87
6. Ausklang
satzbereiche vorerst außer Acht gelassen wurden. Einige dieser Umsetzungen verlangen allerdings nach einer gewissen musikalischen Vorbildung, so dass musikalisch weniger geschulten Nutzern ein Nachteil bezüglich der Verarbeitung und des Verständnisses der akustisch kodierten
Informationen entstünde. In der Literatur wird aus diesem Grund oftmals
ein bevorzugter Einsatz sprachlicher Klänge oder Umgebungsgeräusche
vorgeschlagen, da somit eine gleichberechtigte Wahrnehmung gesichert
scheint. Einige der im musikalischen Kontext vorgestellten Attribute können tatsächlich auch auf Sprache übertragen werden. So findet sich beispielsweise die Tonhöhe in der Intonation einer Sprache wieder, deren
Anwendung besonders in asiatischen Sprachen sehr verbreitet ist. Die
Dauer ist durch die Sprechgeschwindigkeit ausdrückbar und auch Rhythmus kann durch verschiedene Betonungen und Akzentuierung herausgearbeitet werden. Selbst die Klangfarbe kann von Stimme und Stimmung
abhängig variieren. Auch bei Umgebungsklängen oder -geräuschen können entsprechende Analogien gefunden werden. Geräusche haben außerdem die Eigenschaft, gleichzeitig Informationen über deren Herkunft zu
vermitteln. Zusätzlich wird die Eignung von Geräuschen durch die natürliche Erfahrung eines stetigen akustischen Feedbacks und den damit
einhergehenden Assoziationen unterstützt. Allerdings vermögen Sprache
oder Geräusche nicht in annäherndem Maße wie musikalische Klänge,
einen gefühlsbetonten und stimmungsabhängigen Eindruck zu vermitteln. Da dies aber auch nicht in jedem Kontext notwendig beziehungsweise wünschenswert ist, sollten auch diese Formen der akustischen Informationsvermittlung bei weiteren Untersuchungen einbezogen werden.
Eine weitere Limitierung des Einsatzes musikalischer Elemente, die allerdings auch im visuellen Bereich auftritt, steht in engem Zusammenhang
mit der magischen Sieben. Dieses Phänomen tritt bei allen menschlichen
Sinnen auf und beschreibt eine Art Grenze der Verarbeitungskapazität. So
kann sich das visuelle Gedächtnis in kurzer Zeit beispielsweise nur maximal sieben (plusminus zwei) Abbildungen einprägen. Der Geruchssinn
vermag es nicht, mehr als sieben (plusminus zwei) verschiedene Gerüche
hintereinander zu unterscheiden. Bezogen auf Musik bedeutet dies, dass
die auditive Informationsverarbeitung nicht in der Lage ist, mehr als sieben (plusminus zwei) Reize gleichzeitig aufzunehmen beziehungsweise
zu unterscheiden. Dies betrifft zum Beispiel die Informationsdarstellung
in Akkorden, bei welcher die Anzahl von sieben (plusminus zwei) den
Akkord bestimmenden Tönen nicht überschritten werden sollte, um eine
Unterscheidung noch zu ermöglichen. Wie auch in der visuellen Gestaltung sollte generell auf einen sparsamen Umgang der musikalischen Mit-
88
6.3. Fazit und Ausblick
tel geachtet werden. Auch hier gilt der Grundsatz, dass eine gute Gestaltung genau dann am prägnantesten ist, wenn keines der Elemente mehr
weggelassen werden kann.
Die in dieser Arbeit präsentierten Recherchen geben einen Einblick in die
Vielzahl der im audio-visuellen Bereich entstandenen Arbeiten und deuten somit gleichzeitig die schwierige Aufgabe an, innerhalb dieser Weitläufigkeit und Interdisziplinarität geeignete Schwerpunkte zu setzen. Oftmals steht der Anspruch auf Vollständigkeit dem Anspruch auf Gründlichkeit gegenüber. In der vorliegenden Arbeit wurden die Untersuchungen in Form einer horizontalen Vorgehensweise angelegt, welche ganzheitlich eine solide Basis für weiterführende (vertikale) Untersuchungen
liefert.
6.3. Fazit und Ausblick
Abschließend betrachtet bietet der reichhaltige Bereich der audio-visuellen Bestrebungen eine Vielzahl an Einsatzmöglichkeiten auf dem
Gebiet der informationsverarbeitenden Anwendungen. Besonders zur
Unterstützung der Informationsvisualisierung scheinen Klänge und
Musik geeignet zu sein, Arbeitsabläufe effektiver und auch angenehmer
zu gestalten. Mögliche Einsatzbereiche liegen dabei beispielsweise in den
Gebieten der Medizin, Geographie, Demographie und Börse bis hin zu
Serverüberwachungen in der Informatik. Die tonalisierten Abbildungen
können dem Nutzer helfen, sich innerhalb der großen Datenmengen zu
orientieren und diese schneller zu erfassen. Dies wird besonders durch
die Fähigkeit der gleichzeitigen Wahrnehmung verschiedener musikalischer Elemente (und der mit diesen verknüpften Parameter) unterstützt.
Musikalische Melodien als Repräsentanten von Datenflüssen haben
darüber hinaus den Vorteil, in Form von Umgebungsmusik angenehm
unauffällig zu sein und dennoch Daten beziehungsweise Informationen
zu vermitteln. Die musikalische Überwachung von Datenflüssen ist
beispielsweise auf unterschiedliche Instrumente abbildbar und vermittelt
je nach Melodieführung und Tonhöhe bestimmte Aktivitäten. Weitere
Potentiale liegen in dem Bereich der Accessibility. So könnte die durch
einen Screenreader textlich vorgetragene Beschreibung von Bildern (oder
auch Texten) mittels Klängen und Melodien begleitet werden, welche die
Stimmung des Bildes wiedergeben. Den sehbehinderten Nutzer würden
somit neben dem rein bildlichen Informationsgehalt auch Eindrücke der
bildlichen Ausstrahlung erreichen. Der geeignete Einsatz von Klängen
kann außerdem einen erheblichen Einfluss auf die Joy of Use einer Anwen-
89
6. Ausklang
dung haben und in diesem Sinne die Nutzerzufriedenheit erhöhen. Doch
nicht nur als Earcandy, sondern auch als unterschwellige Warnfunktion
in Form von Melodien, welche die Gewichtung beziehungsweise Konsequenzen bestimmter Aktionen musikalisch wiedergeben, ist der Einsatz
akustischer Formen vorstellbar. Einfaches Navigieren und Explorieren
einer Benutzeroberfläche würde somit ambient durch seichte Musik
untermalt, während folgenschwere Aktionen, wie beispielsweise die
einer Löschen-Funktionalität, ein dramatisches Anschwellen der Melodie
bewirken. Es ist denkbar, dass derartige Umsetzungen den Zugang zu
Informationstechnologie, besonders für wenig damit vertraute Nutzer,
erleichtern.
Während der Bereich der Informationstechnologie bisher weitestgehend
durch den Einsatz visuell geprägter Anwendungen dominiert wird,
zeigen zukunftsorientierte Bestrebungen, wie beispielsweise die der
ubiquitären Anwendungen, wie bedeutsam ein Aufholen im Bereich
der auditiven Informationsvermittlung ist. Notwendigerweise müssen
fundierte Grundlagen zum Einsatz akustischer Elemente geschaffen
werden, um darauf aufbauend, den Anforderungen moderner Nutzer
gerecht zu werden. Ubiquitäres Design ermöglicht dem Nutzer einen
alle Sinne umfassenden Umgang mit Informationstechnologie. Dies
meint jedoch nicht unbedingt die Informationsaufnahme über alle Sinne
zur gleichen Zeit, sondern vielmehr das Schaffen fließender Übergänge
zwischen der Verarbeitung über die verschiedenen Sinne. Dabei sei
sowohl an den Bereich spielerischer Anwendungen, als auch an die
Arbeitsabläufe der Businessprozesse verwiesen, bei welchen die einzelnen Kommunikationsstrukturen immer stärker ineinander greifen. Um
derartige interperzeptuale Arbeitsabläufe möglichst barrierefrei gestalten
zu können, müssen die jeweiligen Schnittstellen in gleichberechtigter
Ausprägung (allumfassend) zur Verfügung gestellt werden. Ausblickend
sollte der moderne Nutzer in der Lage sein, je nach Situation und
Vorlieben, den für ihn geeignetsten Informationskanal (beispielsweise
für Feedback oder Steuerung) selbst zu wählen. So muss nicht länger
der Nutzer seine Arbeitsweise an die vorhandene informationstechnologische Infrastruktur anpassen, sondern passt die Anwendung an seine
jeweilige Arbeitssituation an. Während beispielsweise eine akustische
Steuerung (eventuell auch haptisch) des Navigationssystems beim Fahren eines Autos der visuellen Steuerung vorzuziehen ist, mögen einige
Nutzer ein Umschalten auf visuelle Ein- und Ausgaben während der Rast
bevorzugen. Die Ausrüstung informationstechnologischer Anwendung
in allumfassender Art und Weise birgt den entscheidenden Vorteil der
90
6.3. Fazit und Ausblick
Wahlmöglichkeit des Nutzers. Einer Überlastung aufgrund einseitig
genutzter Informationskanäle kann somit vorgebeugt werden.
Die in dieser Arbeit präsentierten Untersuchungen bezüglich grafischer
und musikalischer Eigenschaften, stellen grundlegende Ansätze und
Anregungen zur Verfügung, Klänge und musikalische Formen in geeigneter Weise in interaktive Interfaces einzubeziehen. Die konkrete
Umsetzung bleibt dabei dem Gestalter überlassen. Die durch die zahlreichen historischen Arbeiten deutlich gewordene Interdisziplinarität
des Bereiches weist in gleicher Weise auf den Forschungsbedarf in den
einzelnen Gebieten hinsichtlich des akustischen Interaktionsdesigns hin.
So sind für weiterführende Erkenntnisse intensivere Untersuchungen
in den Bereichen der (Wahrnehmungs-) Psychologie, Musik und des
Bildnerischen notwendig. Empirische Untersuchungen bezüglich der
Angemessenheit und Nutzbarkeit sollten die Forschungsergebnisse
zusätzlich stützen.
91
Anhang
A. Wahrnehmungseffekte
Noten eines Stückes mit Melodietrennungseffekt
Abb. A.1.: Auszug aus YANN T IERSENs Comptine d’été n◦ 3
III
B. Musiktheorie
Pentatonik
Durpentatonik
Mollpentatonik
Tabelle B.1.: Fünftonleitern
Heptatonik
D-Dur
Moll (natürlich)
Moll (harmonisch)
Moll (melodisch)
Tabelle B.2.: Dur- und Moll-Tonleitern
V
B. Musiktheorie
Lydisch
Ionisch = Dur
Mixolydisch
Dorisch
Äolisch = natürl. Moll
Phrygisch
Lokrisch
Tabelle B.3.: Modale Tonleitern
VI
C. Ton und Farbe
Modelle K IRCHNERs und
DE LA
C HAMBREs
A. K IRCHER
M. C. DE LA C HAMBRE
Oktave
grün
Doppeloktave
schwarz
Septime
blau-violet
Duodezime
violett
große Sexte
feuerrot
Undezime
blau
kleine Sexte
rot-violett
Oktave
grün
erweiterte Quinte
dunkelbraun
Quinte
rot
Quinte
golden
Quarte
gelb
verminderte Quinte
blau
Grundton
weiss
Quarte
braun-gelb
große Terz
helles rot
kleine Terz
golden
große Sekunde
schwarz
großer Ganzton
schwarz
kleine Sekunde
weiss
kleiner Ganzton
grau
Tabelle C.1.: Farb-Tonintervall-Modelle nach A.K IRCHER und M.C.
C HAMBRE [Day07]
DE LA
VII
C. Ton und Farbe
Übersicht verschiedener Farb-Ton-Modelle
Abb. C.1.: Übersicht über Farbtonleitern, angelehnt an [Col07b]
VIII
Instrument-Farb-Modell nach W. Kandinsky
Farbe
Instrument
gelb
Trompete, Klang der Fanfare
himmelblau
Flöte
blau
tiefe Töne der Orgel
dunkelblau
Cello
tiefdunkelblau
Bass
grün
Mitteltöne der Violine
weiss
kurzzeitige Pause
schwarz
abschließende Pause
grau
Klangloch
hellrot
Fanfare, Tuba/ Horn
dunkelrot
Trommelwirbel, Tuba/ Horn
kaltes rot
Mittel- und Tieftöne des Cello
helles kaltes rot
andere Töne der Violine
orange
Mittelglocken der Kirche, starke Altstimme, Bratsche
violett
Englisch-Horn, Dudelsack
tiefpurpur
tiefe Töne der Holzbläser, Fagott
Tabelle C.2.: Instrument-Farb-Modell nach K ANDINSKY [Day07]
IX
C. Ton und Farbe
schematische Darstellung des Lumigraph
Abb. C.2.: Ausschnitt einer schematische Zeichnung des Lumigraphs, 1955 von
F ISCHINGER erstellt
X
D. Musik in der bildenden Kunst
malerische Musik
Abb. D.1.: WASSILY K ANDINSKY: Impression 3, 1911
Abb. D.2.: PAUL K LEE: Fuge in Rot, 1921
XI
D. Musik in der bildenden Kunst
Abb. D.3.: M IKALOJUS KONSTANTINAS C IURLIONIS: Präludium und Fuge, 1907
Abb. D.4.: J OHANNES I TTEN: Blaugrüner Klang, 1917
XII
Abb. D.5.: R OBERT S TRÜBIN: Robert Schumann, e-moll - Symphonie, Opus 13,
Nr. IX, 1958
XIII
D. Musik in der bildenden Kunst
Musik in der Malerei
Abb. D.6.: G USTAV K LIMT: Die Musik, 1895
Abb. D.7.: PABLO P ICASSO: Violine „Jolie Eva“, 1912
XIV
Abb. D.8.: G EORGE M EYER -M ARTON: Orchester, 1957
Abb. D.9.: M AN R AY: Bewunderung des Orchestrions für den Kinematographen,
1919
XV
D. Musik in der bildenden Kunst
Grafische (visuelle) Musik
Abb. D.10.: G. RÜHM: Blatt aus Zyklus Duo, 1983
Ähnlich wie visuelle poesie ausschließlich zum sehen bestimmt ist,
soll auch visuelle musik mit den augen wahrgenommen werden und
nur im »inneren ohr« - synoptisch - vage akustische vorstellungen
wecken. die vorgegebenen notenlinien suggerieren dabei - dem zeichenvorgang konform - einen zeitlichen verlauf, eine »leserichtung«
(was nicht ausschließen soll, das blatt auch als ganzes auf sich wirken zu lassen) und lenken die assoziationen beim betrachten der
zeichnung in musikalische bereiche.
G. R ÜHM, [vM94, S.311]
Hörbsp. 34.:
B ACH: Wohltemperiertes
Klavier No.1,
Es-Moll
Abb. D.11.: H ENRIK N EUGEBOREN: Grafische Darstellung der vierstimmigen Fuge No.1 aus dem Wohltemperierten Klavier von J.S. Bach (in EsMoll) (siehe Hörbeispiel 34), später plastisch umgesetzt (Abbildung
D.17)
XVI
Abb. D.12.: WASSILY K ANDINSKY: Klangpunkte aus „Von Punkt, Linie zu Fläche“, 1926
Abb. D.13.: K. S TOCKHAUSEN: Elektronische Studien, Studie II, 1956
Abb. D.14.: G YÖRGY L IGETI: Artikulation, 1970
XVII
D. Musik in der bildenden Kunst
Grafische Partituren
Hörbsp. 35.:
X ENAKIS:
Oresteia, Les
Eunémides,
Ausschnitt
Abb. D.15.: I ANNIS X ENAKIS: Auszug der Partitur zu Oresteia, 1965/66 (siehe
Hörbeispiel 35)
XVIII
Abb. D.16.: E ARLE B ROWN: Ausschnitt der Partitur zu Synergy, 1952
XIX
D. Musik in der bildenden Kunst
Plastische Musik
Abb. D.17.: H ENRIK N EUGEBOREN: B ACH Monument aus Edelstahl im Park des
Krankenhauses der Stadt Leverkusen nach einem Modell von 1928,
in Anlehnung an die Diagrammartige Darstellung (Abbildung D.11)
XX
E. Klangfiguren von C HLADNI
Abb. E.1.: Klangfiguren erzeugt auf einer quadratischen Platte, katalogisiert von
C HLADNI
XXI
F. Klassendiagramme
Abb. F.1.: Klassendiagramm Klangkörper
XXIII
F. Klassendiagramme
Abb. F.2.: Klassendiagramm Audiskop (Arbeitsname: Erfühler )
XXIV
G. Literaturverzeichnis
[Ack91]
D. Ackerman. Die schöne Macht der Sinne. Kindler Verlag,
Berlin, 1991.
[AR98]
J.L. Alty and D.I. Rigas. Communicating graphical information to blind users using music: the role of context. In CHI
’98: Proceedings of the SIGCHI conference on Human factors in
computing systems, pages 574–581, New York, NY, USA, 1998.
ACM Press/Addison-Wesley Publishing Co.
[ASA07]
Acoustical Society of America.
http://asa.aip.org/sound.html, Februar 2007.
[BC97]
S.A. Brewster and M.G. Crease. Making menus musical. In
Proceedings of IFIP Interact’97, pages 389–396, Sydney, Australia, 1997. Chapman & Hall.
[BC05]
S.A. Brewster and V.C. Catherine. The Design and Evaluation of a Sonically Enhanced Tool Palette. ACM Transition on
Applied Perception, 2(4):455 – 461, Oktober 2005.
[Bib]
Die Bibel. Evangelische Haupt-Bibelgesellschaft, Berlin und
Altenburg.
[Bis93]
B. Bishop. A Souvenir of the Color Organ, with some suggestions in regard to the soul of the rainbow and the harmony of light.
1893.
[BLC96]
M. Beaudouin-Lafon and S. Conversy. Auditory illusions for
audio feedback. In CHI ’96: Conference companion on Human
factors in computing systems, pages 299–300, New York, NY,
USA, 1996. ACM Press.
[BWE95]
S.A. Brewster, P.C. Wright, and A.D.N. Edwards. Experimentally derived guidelines for the creation of earcons. In
Adjunct Proceedings of BCS HCI’95, pages 155–159, Huddersfield, UK, 1995.
XXV
G. Literaturverzeichnis
[BWED95] S.A. Brewster, P.C. Wright, A.D.N. Edwards, and A.J. Dix.
The Sonic Enhancement of graphical buttons. In K. Nordby,
P. Helmersen, D. Gilmore, and S. Arnesen, editors, Proceedings of Interact’95, pages 43–48, Lillehammer, Norway, 1995.
Chapman & Hall.
[Col07a]
E. Epstein Collection. Light Art Lumia. http://www.lumiawilfred.org, Februar 2007.
[Col07b]
F. Collopy. Rhythmic Light. http://www.rhythmiclight.com,
Februar 2007.
[Coo59]
D. Cooke. The Language of Music. Oxfrod University Press,
London, 1959.
[Dan06]
D. Daniels. Sound & Vision in Avantgarde & Mainstream.
http://www.medienkunstnetz.de/themen/bild-tonrelationen/ sound_vision, September 2006.
[Day07]
S.A. Day. A Brief History of Synaesthesia and Music.
http://www.thereminvox.com/article/articleview/33/1/5,
Februar 2007.
[Dir07]
P. Langeslag (Managing Director). Audio Consulting Group.
http://ac-g.de, Februar 2007.
[Dud03]
Duden. DUDEN. Deutsches Universalwörterbuch. Augsburger
Buch und Verlagshaus, Augsburg, 2003.
[Fes07]
K. Fessmann. Klangbewegungen im Stein - Ideale Resonanzen. http://www.ev-akademie-tutzing.de/doku/aktuell/
upload/KlangWerkstatt.htm, Februar 2007.
[FFK07]
Prof. H. Fastl, M. Fruhmann, and S. Kerber. Hörbeispiele Acoustic Demonstrations. http://www.mmk.ei.tum.de/
t̃al/demos, Februar 2007.
[FFW07]
M. Fujihata, K. Furukawa, and W.Muench. Smallfish.
http://hosting.zkm.de/wmuench/small_fish, Februar 2007.
[FG06]
G. Föllmer and J. Gerlach. Audiovisionen. Musik als intermediale Kunstform. http://www.medienkunstnetz.de/
themen/bild-ton-relationen/audiovisionen, September 2006.
[Fis07a]
E. Fischinger.
Writing Light.
http://www.centerforvisualmusic.org/WritingLight.htm,
Februar 2007.
XXVI
G. Literaturverzeichnis
[Fis07b]
O. Fischinger.
Sounding Ornaments.
http://www.oskarfischinger.org/Sounding.htm, Februar
2007.
[FR07]
B. Fry and C. Reas. Processing (Beta). http://processing.org,
Februar 2007.
[Gem02]
H. Gembris. Wirkung von Musik - Musikpsychologische
Forschungsergebnisse. In G. Hofmann, editor, Mensch und
Musik. Wißner Verlag, 2002.
[Gol97]
E.B. Goldstein. Wahrnehmungspsychologie: eine Einführung.
Spektrum Akademischer Verlag GmbH, Heidelberg, Berlin,
Oxford, 1997.
[Gra04]
T. Grasse. Wirkungen von Musik. Master’s thesis, Staatliche
Hochschule für Musik, Trossingen, 2004.
[Gro98]
R. Grossmann. Farbklavier, Oszilliskop, Sequenzer. In Intermedialität - Theorie und Praxis eines interdisziplinären Forschungsgebietes, pages 108 – 119, Berlin, 1998. Helbig, Jörg.
[Gro05]
R. Groh. Das Interaktions-Bild. TUDpress, 2005.
[Gro07]
R. Grossmann. Monitor - Intermedium zwischen Ton,
Bild und Programm.
http://kulturinformatik.uni-
lueneburg.de/grossmann/monitor/monitor.htm, Februar
2007.
[HE99]
J.C.K. Hankinson and A.D.N. Edwards. Designing earcons
with musical grammars. SIGCAPH Comput. Phys. Handicap.,
(65):16–20, 1999.
[Hof07]
H. Hofmann.
Terra Musica - Online Musikschule.
http://www.musikurlaub.com/online-gitarrenschule/ musiktheorie/tonleitern/tonleitern.html, Februar 2007.
[Höl06]
R. Höldrich.
Skriptum Bereich Akustik.
http://iem.at/lehre/skripten/skriptum.pdf, Dezember
2006.
[Iwa07a]
T. Iwai.
Tenori-On.
http://www.global.yamaha.com/design/tenori-on,
Februar 2007.
XXVII
G. Literaturverzeichnis
[Iwa07b]
T. Iwai. Work of Toshio Iwai. http://ns05.iamas.ac.jp/ĩwai/
iwai_main.html, Februar 2007.
[Joh07]
B. John. Das klingende Bild - über das Verhältnis von
Kunst und Musik. Ein kunsthistorischer Rückblick.
http://www.medienkunstnetz.de/themen/bild-tonrelationen/ das_klingende_bild, Februar 2007.
[Kla07]
T. Klages. Techno Talk - Dialoge zwischen den Medien. http://www.audio.uni-lueneburg.de/webseiten/ tectalk/tec1.htm, Februar 2007.
[Köh29]
W. Köhler. Gestalt Psychology. Horace Liveright, Inc., New
York, 1929.
[Lev00]
G. Levin. Painterly Interfaces for Audiovisual Performance. Master’s thesis, Massachusetts Institute of Technology,
September 2000.
[Lev03]
T.Y. Levin. Tones from out of nowhere: Rudolph Pfenninger
and the Archaeology of synthetic sound. Grey Room, 12, 2003.
[Lin01]
S. Lindner.
SINN:SINN.
http://www.sinnich.de/theorie.pdf, 2001.
[LL03]
G. Levin and Z. Lieberman.
Messa di Voce.
http://tmema.org/messa/messa.html, Februar 2007, 2003.
[Mal07]
V. Mallory. Visual Music - Hirshhorn Museum and Sculpture
Garden. http://hirshhorn.si.edu/visualmusic/organs.html,
Februar 2007.
[Med06]
Medien-Kunst-Netz. http://www.medienkunstnetz.de,
August 2006.
[MH83]
K. Mehner and M. Hager. Rhythmus und Metrum in der Musik.
Deutscher Verlag für Musik, Leipzig, 1983.
[Mic05]
U. Michels. dtv-Atlas Musik. Deutscher Taschenbuch Verlag,
München, 2005.
[Mor97]
W. Moritz. The Dream of Color Music, And Machines That
Made it Possible. Animation World Magazine, Issue 2.1, April
1997.
[Pas04]
K.S. Pascha. Gefrorene Musik. PhD thesis, Technischen Universität Berlin, Fakultät Architektur, 2004.
XXVIII
G. Literaturverzeichnis
[Pfr54]
H. Pfrogner. Musik. Geschichte ihrer Deutung. Verlag Karl
Alber, Freiburg/ München, 1954.
[Pla40]
Platon. Sämtliche Werke, volume Bd.II, S.102-103. Berlin, 1940.
[Rec85]
A. Recknagel. Physik - Schwingungen und Wellen. Verlag
Technik, Berlin, 1985.
[RH03]
V.S. Ramachandran and E.M. Hubbard. Blauer Dienstag,
duftende Fünf. Gehirn und Geist, pages 58–65, Mai 2003.
[Sch69]
D. Schnebel. Mo-No: Musik zum Lesen. Köln, 1969.
[Sni03]
S. Snibbe. Body, Screen and Shadow. San Francisco Media
Arts Council (SMAC), 2003.
[vC99]
C. van Campen. Artistic and Psychological Experiments
with Synesthesia. Leonardo, 32(1):9–14, 1999.
[vM94]
K. v. Maur, editor. Vom Klang der Bilder: Die Musik in der
Kunst des 20. Jahrhunderts. Prestel-Verlag, München, 1994.
[War00]
D. Warner.
Installations.
http://helios.hampshire.edu/d̃cwMB, Februar 2007,
2000.
[Wat06]
M. Wattenberg.
The Shape of a Song.
http://www.turbulence.org/Works/song, Februar
2007, 2006.
[Wehr]
Lü Bu We. Frühling und Herbst, volume V, Kapitel 2. 237
v.Chr.
[Wor07]
S. Wortel. Mit den Ohren sehen, mit den Augen hören.
http://www.wdr.de, Februar 2007.
[ZF99]
E. Zwicker and H. Fastl. Psychoacoustics - Facts and Models.
Springer-Verlag, 1999.
[Zip85]
F. Zipp. Vom Urklang zur Weltharmonie. Merseburg Berlin
GmbH, Kassel, 1985.
XXIX
H. Abbildungsverzeichnis
2.1. Aufbau des menschlichen Ohres . . . . . . . . . . . . . . .
6
2.2. Schalldruckpegel, Frequenz und Lautstärke . . . . . . . . .
7
2.3. Interaurale Zeitdifferenz [Gol97] . . . . . . . . . . . . . . . . .
8
2.4. Ausbreitung tieffrequenten Schalls [Gol97] . . . . . . . . . . .
8
2.5. Ausbreitung hochfrequenten Schalls [Gol97] . . . . . . . . . . .
8
2.6. Ausbreitung der Schallwellen bei bewegter Schallquelle . . . .
9
2.7. Figuren von K ÖHLERs phonetischem Experiment . . . . . . . .
10
2.8. M.C.Eschers Treppauf und treppab . . . . . . . . . . . . . . . . .
12
2.9. Musiktheoretische Modelle . . . . . . . . . . . . . . . . . .
16
2.10. Farb-Ton-Abbildung S CRIABINs . . . . . . . . . . . . . . . . .
19
3.1. Chinesische Tonleiter . . . . . . . . . . . . . . . . . . . . . .
24
3.2. Farborgeln des 19.Jahrhunderts . . . . . . . . . . . . . . . .
29
3.3. Scheiben einer Clavilux-Projektion . . . . . . . . . . . . . . . .
31
3.4. Standbilder einer Clavilux Vorführung . . . . . . . . . . . .
31
3.5. Audio-Visuelle Instrumente des 20. Jahrhunderts . . . . . .
32
3.6. Projektionen des MobilColor Projector . . . . . . . . . . . . .
32
3.7. Piano Optophonique . . . . . . . . . . . . . . . . . . . . . .
33
3.8. Lumigraph während einer Vorführung . . . . . . . . . . . .
34
3.9. Augenmusik . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
3.10. Verhältnis zwischen musikalischer und bildnerischer Form
36
3.11. Rhythmus in Bildern . . . . . . . . . . . . . . . . . . . . . .
37
3.12. Klangfiguren aus Quarzstaub . . . . . . . . . . . . . . . . . . .
38
3.13. Farbenlicht-Spiel . . . . . . . . . . . . . . . . . . . . . . . .
39
3.14. Standbild aus F ISCHINGERs Radio Dynamics . . . . . . . . . . .
39
3.15. Photoplatten von F ISCHINGERs Klingende Ornamente . . . .
40
3.16. M C L AREN: Abbildung eines Tones über Index-Card und Scha. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
3.17. M C L AREN: Schablonen . . . . . . . . . . . . . . . . . . . . . .
40
3.18. Toolpalette eines Grafikprogramms . . . . . . . . . . . . . . .
43
3.19. Musikalische Objektrepräsentation . . . . . . . . . . . . . .
43
3.20. musikalischer Grammatiken . . . . . . . . . . . . . . . . . .
44
3.21. „hhhhhh“ Wolke (Clouds) . . . . . . . . . . . . . . . . . . . .
45
blone
XXXI
H. Abbildungsverzeichnis
3.22. „ssssss“ Wolke (Clouds) . . . . . . . . . . . . . . . . . . . . .
45
3.23. Messa di Voce 1 . . . . . . . . . . . . . . . . . . . . . . . . .
46
3.24. Wellenerzeugung pro Ton (Ripple) . . . . . . . . . . . . . . . .
46
3.25. Umriss (Insect Natur Show) . . . . . . . . . . . . . . . . . . .
46
3.26. Messa di Voce 2 . . . . . . . . . . . . . . . . . . . . . . . . .
46
3.27. Messa di Voce 3 . . . . . . . . . . . . . . . . . . . . . . . . .
47
3.28. Richtung je nach Tonabfolge . . . . . . . . . . . . . . . . . . .
47
3.29. Messa di Voce 4 . . . . . . . . . . . . . . . . . . . . . . . . .
48
3.30. Musikanalyse mittels The Shape of a Song . . . . . . . . . . .
48
3.31. Teilsysteme der AVES . . . . . . . . . . . . . . . . . . . . . .
49
3.32. verschiedene Installationen des Small Fish . . . . . . . . .
50
3.33. Arbeiten von T OSHIO I WAI . . . . . . . . . . . . . . . . . .
51
4.1. Übersicht der das Interaktionsbild beeinflussenden Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
4.2. Modell der Spannungen in der Musik . . . . . . . . . . . .
56
4.3. Schematischer Aufbau von Musik . . . . . . . . . . . . . .
57
4.4. Zuordnung musikalischer Attribute nach Statik und Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
4.5. Auswahl einiger Farb-Ton-Zuordnungen . . . . . . . . . .
65
4.6. Ähnlichkeiten der Harmoniemodelle von Farbe und Musik
66
4.7. Rauhigkeit von Tönen in Objektoberflächen . . . . . . . . .
67
4.8. Halbkreis aus fünf aufsteigenden Tönen . . . . . . . . . . . . .
68
4.9. Viereck aus erweitertem Dreiklang . . . . . . . . . . . . . . . .
68
4.10. Form zum Hörbeispiel . . . . . . . . . . . . . . . . . . . . . .
70
4.11. Form als Frequenzbild . . . . . . . . . . . . . . . . . . . . . .
70
4.12. Unterschiede in Objektanzahl . . . . . . . . . . . . . . . . . .
71
4.13. Unterschiede in Anordnung . . . . . . . . . . . . . . . . . . .
71
5.1. Klangkörper - Dreiklang . . . . . . . . . . . . . . . . . . . . .
78
5.2. Audiskop - Nutzertest . . . . . . . . . . . . . . . . . . . . . .
82
A.1. Auszug aus YANN T IERSENs Comptine d’été n◦ 3 . . . . . . .
III
C.1. Übersicht über Farbtonleitern . . . . . . . . . . . . . . . . . VIII
C.2. Ausschnitt einer schematische Zeichnung des Lumigraphs .
X
D.1. K ANDINSKY: Impression 3 . . . . . . . . . . . . . . . . . . .
XI
D.2. K LEE: Fuge in Rot . . . . . . . . . . . . . . . . . . . . . . . .
XI
D.3. C IURLIONIS: Präludium und Fuge . . . . . . . . . . . . . . .
XII
D.4. I TTEN: Blaugrüner Klang . . . . . . . . . . . . . . . . . . . .
XII
D.5. S TRÜBIN: Robert Schumann . . . . . . . . . . . . . . . . . . . XIII
XXXII
H. Abbildungsverzeichnis
D.6. K LIMT: Die Musik . . . . . . . . . . . . . . . . . . . . . . . . XIV
D.7. P ICASSO: Violine „Jolie Eva“ . . . . . . . . . . . . . . . . . . XIV
D.8. M EYER -M ARTON: Orchester . . . . . . . . . . . . . . . . . .
XV
D.9. R AY: Bewunderung des Orchestrions für den Kinematographen
XV
D.10.R ÜHM: Zyklus Duo . . . . . . . . . . . . . . . . . . . . . . . XVI
D.11.H ENRIK N EUGEBOREN: B ACH, Es-Moll-Fuge . . . . . . . . XVI
D.12.K ANDINSKY: Klangpunkte . . . . . . . . . . . . . . . . . . . XVII
D.13.S TOCKHAUSEN: Studie II . . . . . . . . . . . . . . . . . . . . XVII
D.14.L IGETI: Artikulation . . . . . . . . . . . . . . . . . . . . . . . XVII
D.15.X ENAKIS: Partitur zu Oresteia . . . . . . . . . . . . . . . . . XVIII
D.16.B ROWN: Partitur zu Synergy . . . . . . . . . . . . . . . . . . XIX
D.17.H ENRIK N EUGEBOREN: B ACH Monument . . . . . . . . . .
XX
E.1. Klangfiguren von C HLADNI . . . . . . . . . . . . . . . . . . XXI
F.1. Klassendiagramm Klangkörper . . . . . . . . . . . . . . . . . XXIII
F.2. Klassendiagramm Audiskop . . . . . . . . . . . . . . . . . . XXIV
XXXIII
I. Tabellenverzeichnis
2.1. Vergleich der auditiven und visuellen Wahrnehmung . . .
11
4.1. Zuordnungen der semantisch-funktionalen Konkretion . .
55
4.2. Zuordnung musikalischer Eigenschaften zu interaktionsbestimmenden Ereignissen . . . . . . . . . . . . . . . . . . .
60
4.3. Einfluss musikalischer Attribute auf die Ausdruckskraft .
61
4.4. Zuordnung musikalischer Attribute nach Quantität und
Qualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
4.5. Funktionen des Einsatzes von Klang und Musik . . . . . .
72
4.6. Einordnung in visuelle und akustische Interfaces . . . . . .
74
4.7. Übersicht möglicher grafisch-musikalischer Abbildungen .
75
B.1. Fünftonleitern . . . . . . . . . . . . . . . . . . . . . . . . . .
V
B.2. Dur- und Moll-Tonleitern . . . . . . . . . . . . . . . . . . .
V
B.3. Modale Tonleitern . . . . . . . . . . . . . . . . . . . . . . . .
VI
C.1. Farb-Tonintervall-Modelle nach A.K IRCHER und M.C.
DE
C HAMBRE . . . . . . . . . . . . . . . . . . . . . . . . . .
VII
C.2. Instrument-Farb-Modell nach K ANDINSKY . . . . . . . . .
IX
LA
XXXV
J. Medienverzeichnis
Hörbeispiel 1.: Dopplereffekt . . . . . . . . . . . . . . . . . . . .
9
Hörbeispiel 2.: J.S. B ACH: Suite in d-Moll, BWV 1009, Prélude,
Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Hörbeispiel 3.: Y.T IERSEN: Comptine d’été
n◦ 3,
11
Ausschnitt . . . .
11
Hörbeispiel 4.: Shepard Tonleiter [ASA07] . . . . . . . . . . . . .
13
Hörbeispiel 5.: Risset Tonfolge [ASA07] . . . . . . . . . . . . . .
13
Hörbeispiel 6.: Rauhigkeit eines Tones . . . . . . . . . . . . . . .
13
Hörbeispiel 7.: L ISZT: Au Bord d’une Source, Ausschnitt . . . . .
14
Hörbeispiel 8.: Ich geh mit meiner Laterne . . . . . . . . . . . . .
14
Hörbeispiel 9.: B EETHOVEN: Für Elise, Ausschnitt . . . . . . . . .
15
Hörbeispiel 10.: S CHÖNBERG: Klavierstücke Opus 11 Nr.1, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
Hörbeispiel 11.: S CHÖNBERG: Klavierstücke Opus 11 Nr.3, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
Videobeispiel 1.: Werbevideo, FX . . . . . . . . . . . . . . . . . .
17
Videobeispiel 2.: Werbevideo, Hard . . . . . . . . . . . . . . . . .
17
Videobeispiel 3.: Werbevideo, Soft . . . . . . . . . . . . . . . . .
17
Videobeispiel 4.: L.LYE, Colour Flight, 1937 . . . . . . . . . . . . .
40
Videobeispiel 5.: L.LYE, Particles in Space, 1966 . . . . . . . . . .
40
Videobeispiel 6.: Messa di Voce - Bounce . . . . . . . . . . . . . .
46
Videobeispiel 7.: Messa di Voce - Ripple . . . . . . . . . . . . . .
46
Videobeispiel 8.: Messa di Voce - Insect Nature Show . . . . . .
46
Videobeispiel 9.: Messa di Voce - Fluid . . . . . . . . . . . . . . .
47
Videobeispiel 10.: Messa di Voce - Pitchpaint . . . . . . . . . . .
47
Videobeispiel 11.: AVES - Aurora . . . . . . . . . . . . . . . . . .
49
Videobeispiel 12.: AVES - Floo . . . . . . . . . . . . . . . . . . . .
49
Videobeispiel 13.: AVES - Yellowtail . . . . . . . . . . . . . . . .
49
Videobeispiel 14.: AVES - Loom . . . . . . . . . . . . . . . . . . .
49
Videobeispiel 15.: Smallfish, ARS Electronica Linz . . . . . . . .
50
Videobeispiel 16.: Smallfish, ICC Tokyo . . . . . . . . . . . . . .
50
Videobeispiel 17.: T OSHIO I WAI - Tenori-On . . . . . . . . . . . .
50
Videobeispiel 18.: T OSHIO I WAI - Piano Performance . . . . . . .
51
XXXVII
J. Medienverzeichnis
Hörbeispiel 12.: Ton rau . . . . . . . . . . . . . . . . . . . . . . .
66
Hörbeispiel 13.: Ton ruhig . . . . . . . . . . . . . . . . . . . . . .
66
Hörbeispiel 14.: S TOCKHAUSEN: Mantra, Ausschnitt . . . . . . .
68
Hörbeispiel 15.: B ARBER: Adagio für Streicher Opus 11, Ausschnitt
68
Hörbeispiel 16.: Lautstärken-unterschiede . . . . . . . . . . . . .
70
Hörbeispiel 17.: Ein Ton versus drei Töne . . . . . . . . . . . . .
71
Hörbeispiel 18.: Konsonanz versus Dissonanz . . . . . . . . . . .
71
Hörbeispiel 19.: Streicher aus H ITCHCOCKs Film Psycho, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
Hörbeispiel 20.: B EETHOVEN: Schlusschor der 9. Sinfonie (dmoll Opus 125, Presto-Allegro assai), Ode an die Freude,
Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
Hörbeispiel 21.: Pentatonik - Dur . . . . . . . . . . . . . . . . . .
V
Hörbeispiel 22.: Pentatonik - Moll . . . . . . . . . . . . . . . . . .
V
Hörbeispiel 23.: Heptatonik - D-Dur . . . . . . . . . . . . . . . .
V
Hörbeispiel 24.: Heptatonik - Moll natürlich . . . . . . . . . . . .
V
Hörbeispiel 25.: Heptatonik - Moll harmonisch . . . . . . . . . .
V
Hörbeispiel 26.: Heptatonik - Moll melodisch . . . . . . . . . . .
V
Hörbeispiel 27.: Modi - lydisch . . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 28.: Modi - ionisch . . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 29.: Modi - mixolydisch . . . . . . . . . . . . . . . .
VI
Hörbeispiel 30.: Modi - dorisch . . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 31.: Modi - äolisch . . . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 32.: Modi - phrygisch . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 33.: Modi - lokrisch . . . . . . . . . . . . . . . . . . .
VI
Hörbeispiel 34.: B ACH: Wohltemperiertes Klavier No.1, Es-Moll . . XVI
Hörbeispiel 35.: X ENAKIS: Oresteia, Les Eunémides, Ausschnitt . . XVIII
XXXVIII
K. Ehrenwörtliche Erklärung
Hiermit erkläre ich, die vorliegende Diplomarbeit selbständig und ausschließlich unter Verwendung der aufgeführten Literaturangaben und
sonstigen Informationsquellen angefertigt zu haben.
Kristine Weißbarth
Dresden, den 27.02.2007
XXXIX
Herunterladen