Klangsichten Musikalische Perspektiven des Klangeinsatzes für interaktive Interfaces. Diplomarbeit vorgelegt von: Kristine Weißbarth (Matrikelnr.: 2702174) eingereicht am: 28.02.2007 Betreuer: Herr M.Sc. Ingmar S. Franke verantwortlicher Hochschullehrer: Prof. Dr.-Ing. habil. Rainer Groh Lehrstuhl für Mediengestaltung Institut für Software- und Multimediatechnik Fakultät Informatik Legende Verlinkung eines Hörbeispiels Verlinkung eines Videobeispiels Die jeweiligen Hör- und Videobeispiele sind auf der beigefügten Präsentations-CD zu finden. Zusätzlich können die Hörbeispiele über die beigelegte Audio-CD in chronologischer Reihenfolge, entsprechend der in der Arbeit benannten Nummerierung, in einem CD-Player abgespielt werden. ii Inhaltsverzeichnis 1. Einklang 1 1.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2. Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3. Gliederung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2. Audition - Begriffe und Definitionen 5 2.1. Die auditive Wahrnehmung des Menschen . . . . . . . . . 6 2.1.1. Physiologische Grundlagen . . . . . . . . . . . . . . 6 2.1.2. Ausbreitung und Wahrnehmungseigenschaften von Schallsignalen . . . . . . . . . . . . . . . . . . . 8 2.1.3. Effekte der menschlichen Wahrnehmung . . . . . . 10 2.2. Der Ton macht die Musik - Einführung in die Musiktheorie 14 2.3. Affektenlehre - die Wirkung von Musik . . . . . . . . . . . 17 2.4. Synästhesie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung 21 3.1. Frühzeit bis Mittelalter . . . . . . . . . . . . . . . . . . . . . 22 3.1.1. Frühzeit . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.1.2. Griechisch-Römische Antike . . . . . . . . . . . . . 24 3.1.3. Mittelalter . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2. Renaissance und Neuzeit . . . . . . . . . . . . . . . . . . . . 27 3.2.1. Klang und Farbe . . . . . . . . . . . . . . . . . . . . 27 3.2.2. Musik in Bildern . . . . . . . . . . . . . . . . . . . . 35 3.2.3. Klang und Form . . . . . . . . . . . . . . . . . . . . 38 3.2.4. Klang durch Aktion . . . . . . . . . . . . . . . . . . 41 3.2.5. Klang zeitgenössischer Arbeiten - Fusion der Stile . 45 3.2.5.1. Messa di Voce (G. L EVIN, 2003) . . . . . . 45 3.2.5.2. The Shape of a Song (M. WATTENBERG) . 48 3.2.5.3. AVES - AudioVisual Environment Suite (G. L EVIN, 2000) . . . . . . . . . . . . . . . 49 iii Inhaltsverzeichnis 3.2.5.4. Small Fish (M. F UJIHATA , K. F URUKAWA , W. M UENCH, 2000) . . . . . . . . . . . . . 49 Arbeiten von T OSHIO I WAI . . . . . . . . . 50 3.3. Zusammenfassung und Fazit . . . . . . . . . . . . . . . . . 51 3.2.5.5. 4. Die Möglichkeit eines musikalischen Interaktionsbildes 53 4.1. Das Interaktionsbild . . . . . . . . . . . . . . . . . . . . . . 53 4.2. Der musikalische Charakter . . . . . . . . . . . . . . . . . . 56 4.2.1. Untersuchungen zur Musik . . . . . . . . . . . . . . 56 4.2.2. Ansätze einer Kategorisierung . . . . . . . . . . . . 59 4.3. Grafonie - Grafisch-musikalische Abbildungen . . . . . . . 64 4.4. Funktionen des Klangeinsatzes . . . . . . . . . . . . . . . . 72 4.5. Zusammenfassung und Fazit . . . . . . . . . . . . . . . . . 74 5. Singende klingende Formen 77 5.1. Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.2. Klangkörper - Visuell Komponieren . . . . . . . . . . . . . 77 5.3. Audiskop - Bilder blind über Klang erschließen . . . . . . . 79 5.4. Technische Umsetzung . . . . . . . . . . . . . . . . . . . . . 83 5.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 6. Ausklang 85 6.1. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . 85 6.2. Kritische Betrachtung . . . . . . . . . . . . . . . . . . . . . . 86 6.3. Fazit und Ausblick . . . . . . . . . . . . . . . . . . . . . . . 89 A. Wahrnehmungseffekte III B. Musiktheorie V C. Ton und Farbe VII D. Musik in der bildenden Kunst XI E. Klangfiguren von C HLADNI XXI F. Klassendiagramme XXIII G. Literaturverzeichnis XXV H. Abbildungsverzeichnis XXXI I. Tabellenverzeichnis iv XXXV Inhaltsverzeichnis J. Medienverzeichnis XXXVII K. Ehrenwörtliche Erklärung XXXIX v 1. Einklang Musik. Das Parfüm des Hörens. D. A CKERMANN in [Ack91] Zur Einstimmung in den Themenbereich sei ein kurzer Ausschnitt eines Interviews mit S EMYON B YCHKOV, Chefdirigent des Westdeutscher Rundfunk (WDR) Sinfonieorchesters, vorgestellt, welcher einleitend einige prägnante Fragen des audiovisuellen Bereichs thematisiert. Im Anschluss daran werden Motivation, Zielsetzung und Gliederung der vorliegenden Arbeit dargelegt. B YCHKOV führte am 1. Januar 2006, anlässlich des 50. Geburtstagsjahres des WDR, G USTAV M AHLERS Auferstehungssinfonie in einem multimedialen Ereignis auf, dem Projekt Vision Mahler. Während das Orchester spielte, schwebten auf einer 54 Meter langen 180-Grad-Leinwand farbige Kunstformen von J OHANNES D EUTSCH entlang (vgl. [Wor07]). WDR Herr Bychkov, braucht Musik überhaupt Bilder? S. Bychkov Nein, eigentlich braucht Musik keine Bilder. Musik kann aber Bilder erzeugen. Musik ist eine abstrakte Kunstform, die in uns Hörern oft Assoziationen und Visionen weckt. Einige davon können sehr konkret sein, andere eher abstrakt. Es ist darum leicht nachzuvollziehen, dass Musik einen Künstler inspiriert, Bilder zu schaffen. Und genau das macht Johannes Deutsch. WDR Worin liegt der Reiz, die visuelle Kunstform mit der musikalischen zu verbinden? S. Bychkov Es ist nicht der Versuch, die Sinfonie von Mahler zu verbessern. Diese Musik muss nicht mehr verbessert werden, sie ist großartig, so wie sie ist. Es ist eher unser Wunsch zu sehen, was passiert, wenn zwei Kunstformen in einer Synthese zusammenkommen. Das ist übrigens gar nicht so ungewöhnlich: Viele Komponisten haben mit bestimmten Tonarten bestimmte Farben verbunden. In diesem Sinne ist das, was wir machen, nicht neu. [...] Die Computertechnologie macht es möglich, Musik mit dreidimensionalen abstrakten Bildern zu visualisieren. Die Zuschauer bekommen während der Aufführung drei Interpretationen gleichzeitig. Das eine 1 1. Einklang ist die pure musikalische Interpretation der zweiten Sinfonie von Mahler. Die zweite ist die Interpretation eines Künstlers, der inspiriert ist von Mahlers Musik und diese in abstrakte Malerei übersetzt. Und die dritte Interpretation ist die Interpretation der Technologie, die dann die Bilder von Johannes Deutsch im Moment der musikalischen Interpretation umwandelt. Wenn zum Beispiel das Tempo langsam ist, dann nehmen die visuellen Objekte eine andere Form an, als wenn das Tempo plötzlich schneller wird. Diese Sensibilität der Technologie war in der Vergangenheit nie möglich.[...] WDR Der Medienkünstler Johannes Deutsch sagt, durch die Visualisierung werde die Musik begreifbarer, emotionaler. Kann der Zuhörer Mahler mit Bildern wirklich besser verstehen? S. Bychkov Das wissen wir erst, wenn die Aufführung beendet ist. Wir haben es nie zuvor ausprobiert. Die wichtigste Frage ist: Kann unser Nervensystem gleichzeitig musikalische und visuelle Information aufnehmen, ohne den wichtigsten Aspekt - und das ist die Musik von Mahler - zu verlieren? Sind wir dazu in der Lage? Können wir mit unseren Augen hören und mit unseren Ohren sehen? Das Gespräch führte S ILKE W ORTEL. 1.1. Motivation Bildende Kunst und Musik besitzen die Fähigkeit, sowohl Informationen, als auch Stimmungen und Emotionen zu transportieren. Musik, als das Parfüm des Hörens, strahlt darüber hinaus seit jeher eine besonders starke Faszination auf den Menschen aus. Die musikalische Ausdruckskraft in geradezu allumfassender Wirkung vermag es, diverse Gemütszustände auszulösen und das Leben bis in alltäglichste Situationen hinein zu begleiten und zu bereichern. Auch im Bereich der Informationstechnologie haben Klänge inzwischen Einzug gehalten und tönen in verschiedensten Formen in die Welt hinaus. Leider wird dabei allzu oft die Angemessenheit außer Acht gelassen, so dass das klangliche Spiel vielerorts mehr störend als bereichernd wirkt. Oftmals fehlen die Relationen zwischen Anwendung und Klang gänzlich, so dass eine akustische Unterstützung seitens des Nutzers in Konsequenz gänzlich abgelehnt wird. Doch sind es nicht genau Klänge und Musik, die es (alleinig) vermögen, interaktive Medien dem Nutzer vertrauter zu machen, ihn innerlich zu berühren und zu bereichern? Bilder könnten durch adäquate Klänge informell und 2 1.2. Zielsetzung emotional verstärkt werden und in Fusion könnte es dem Bildlichen und Klanglichen gelingen, dem Menschen zu einem ganzheitlichen Sinneseindruck zu verhelfen. Im Bereich der Kunst existieren seit Längerem Bestrebungen, die bildende mit der musikalischen Kunst in einer Art Gesamtkunstwerk zu vereinen. Doch beschränken sich diese Überlegungen meistens auf den Einfluss von Musik in der bildenden Kunst und die Darstellung von Musik über bildende Kunst: die Visualisierung von Musik. Es stellt sich nun die Frage, inwiefern bildende Kunst auch über Musik ausdrückbar ist? Können womöglich vorhandene bildliche Strukturen in Musik (in Form einer musikalisierten Visualisierung) fassbar gemacht werden? Ist es möglich, die visuelle Wahrnehmung im Umgang mit interaktiven Medien, durch eine geeignete Umsetzung in akustische Strukturen, zu entlasten? Vermag es Musik den Menschen im Umgang mit digitalen Medien zu unterstützen, zu bereichern und womöglich neue Anwendungsbereiche zu schaffen? 1.2. Zielsetzung Gegenstand dieser Arbeit sind die wechselseitigen Beziehungen der visuellen und akustischen Abbildungen. Auf der Basis theoretischer Betrachtungen zu den Grundlagen der Klang- und Musikwahrnehmung und den im Laufe der geschichtlichen Entwicklung entstandenen Techniken und Verfahren des Themengebiets werden (durch Ableitung aus und Kombination von vorhandenen Arbeiten) Überlegungen und Versuche einer Systematisierung von Musik und einige daraus resultierende mögliche Abbildungen vom Bildlichen in das Musikalische vorgestellt. Ziel ist es, Gestaltern eine grundlegende Basis zur Seite zu stellen, welche die Wahl angemessener und verständlicher musikalischer Mittel im Bereich interaktiver Interfaces erleichtert. Der Schwerpunkt liegt dabei in Untersuchungen zu Abbildungen grafischer auf akustische Eigenschaften. 1.3. Gliederung Nachdem in diesem Kapitel die Motivation und Zielsetzung der vorliegenden Arbeit dargelegt wurde, klärt Kapitel 2 zunächst die Grundlagen der akustischen Wahrnehmung, der Ausbreitung von Schall und den damit zusammenhängenden Wahrnehmungseffekten. An dieser Stelle wird außerdem in Kürze auf die Grundlagen der Musiktheorie, der 3 1. Einklang Bedeutung der so genannten Affektenlehre und auf das Phänomen der Synästhesie eingegangen. Daran anschließend ist in Kapitel 3 ein Einblick in die im Laufe der geschichtlichen Entwicklung wechselnde Rolle von bildender Kunst und Musik zu finden. Epochenweise werden Schritt für Schritt bedeutende Bestrebungen und Entwicklungen vorgestellt, welche Wissenschaftler, Philosophen oder Künstler jener Zeit beschäftigten. Die zahlreichen seit der Renaissance entstandenen audio-visuellen Modelle werden zusätzlich in Kategorien unterteilt, welche die Art und Weise der Beziehung zwischen Bildlichem und Musikalischem beschreibt: Klang und Farbe, Musik in Bildern, Klang und Form sowie Klang durch Aktion. Abschließend werden einige zeitgenössische künstlerische Projekte beispielgebend für die zunehmende Fusion der Stile vorgestellt. Kapitel 4 sucht aus diesen Betrachtungen eine Essenz als Grundlage für musikalisch umgesetzte Abbildungen zu ziehen. Nachdem zunächst ein Einblick in das Modell des Interaktionsbildes gegeben wird, konzentrieren sich die weiteren Untersuchungen darauf, Musik und die sie bestimmenden Attribute herauszuarbeiten und in geeigneter Form zu systematisieren. Beispielhaft werden denkbare Abbildungen vom Bildlichen ins Musikalische vorgestellt und Einsatzbereiche aufgezeigt. Kapitel 5 stellt daran anschließend zwei prototypische Umsetzungen vor, welche einige der in Kapitel 4 diskutierten Gedanken verarbeiten und den Nutzer, auf abstrakter Ebene und in spielerischer Art und Weise, mit dem Bereich der tonalisierten Visualisierung vertraut machen. Abschließend liefert Kapitel 6 eine Zusammenfassung der Überlegungen mit kritischer Betrachtung und ausblickenden Gedanken. 4 2. Audition - Begriffe und Definitionen Nehmen wir die Musik. Sie ist am wenigsten mit der Wirklichkeit verbunden. Vielmehr, zwar verbunden aber ohne Idee. Mechanisch. Durch den bloßen Klang. Ohne Assoziation. Trotzdem dringt die Musik durch irgendein Wunder bis in die Seele. Was gerät ins Schwingen in uns als Antwort auf die zur Harmonie gebrachten Geräusche? Verwandelt sie für uns in eine Quelle erhabenen Genusses? Verbindet und erschüttert uns? aus A NDREJ TARKOWSKIJs Stalker Das vorangehende Zitat beschreibt die Faszination von Musik, der die Menschen seit Jahrtausenden unterliegen. Elementar betrachtet sind Töne, Klänge oder Geräusche vom Ohr wahrgenommene Schwingungen, welche als akustische Konsequenzen kinetischer Ereignisse entstehen. Dabei bestimmt die Beschaffenheit der aufeinander treffenden Elemente den Klang. Generell kann man die uns umgebenden Klänge in folgende Kategorien einordnen: die überwiegend Geräusche erzeugenden Naturereignisse (Plätschern eines Baches, Klirren von Eis oder Rauschen von Blättern), mechanische Ereignisse (Rattern eines Motors), sowie das Töne erzeugende Spiel auf Musikinstrumenten oder Gesang. Die elektronische Klangsynthese bildet eine Sonderform, da hier die Töne über elektrische Impulse, nicht aber durch das Aufeinandertreffen zweier „Elemente“ gebildet werden. Dennoch wird auch diese Art von Klängen, abgesehen von der internen Repräsentation elektronischer Musik in Form von Programmcode, nur hörbar, indem die Membranen der Lautsprecher in Schwingung versetzt werden, was der oben genannten Definition wiederum entspräche: ein Ton als pulsierende Luft, die die Organe in unseren Ohren stimuliert [Ack91, S.264]. In dem folgenden Kapitel werden zunächst die physikalischen und physiologischen Eigenschaften von Schall und der menschlichen Wahrnehmung betrachtet, bevor anschließend einige (theoretische) Grundlagen von Musik geklärt werden, die im weiteren Verlauf der 5 2. Audition - Begriffe und Definitionen Arbeit hilfreich sein werden. Dies schließt sowohl eine kurze Einführung in die Musiktheorie, als auch einige Erläuterungen zur Wirkung von Musik und zu dem Bereich der Synästhesie ein. 2.1. Die auditive Wahrnehmung des Menschen 2.1.1. Physiologische Grundlagen Die Wahrnehmung von Schallsignalen ist auf die Schwingung von Objekten und deren Einwirkung auf ihre Umwelt, wie zum Beispiel Luft oder Wasser, zurückzuführen. Schallwellen erzeugen in der Luft ein Muster aus Hoch- und Tiefdruckregionen, welche über die Luftmoleküle weitergegeben werden (vgl. [Gol97, S.315 ff]) und über die Parameter Frequenz und Amplitude bestimmt sind. Wenn die Schallwellen das menschliche Ohr erreichen, passieren sie zunächst die Ohrmuschel und den äußeren Gehörgang, welche zu dem äußeren Ohr zählen (Abb. 2.1). Den Abschluss dieses Bereichs bildet das Trommelfell, welches durch die auftreffenden Schallwellen in Schwingung versetzt wird und diese an die Gehörknöchel (Hammer → Amboß → Steigbügel) im Mittelohr überträgt (Abb. 2.1). Der Steigbügel leitet die Schwingung durch Druck an die, das ovale Fenster abdeckende, Membran weiter, welche somit die Flüssigkeit in der Cochlea des Innenohres (Abb. 2.1) in Schwingung versetzt. Die Haarzellen des in der Cochlea befindlichen cortischen Organs sind schließlich für die Ausschüttung des Neurotransmitters zuständig, welcher die Entladungen in die Fasern des Hörnervs auslöst (vgl. [Gol97, S.320 ff]). Abb. 2.1.: Aufbau des menschlichen Ohres [Gol97] 6 2.1. Die auditive Wahrnehmung des Menschen Die physikalische Beschaffenheit von Schallsignalen bewirkt unterschiedliche Merkmale in deren Wahrnehmung. So wird beispielsweise die wahrgenommene Tonhöhe eines Schallsignals durch dessen Frequenz bestimmt: je höher die Frequenz, desto höher der Ton. Für den Menschen sind nur Schwingungen im Bereich von 16 Hz bis 20.000 Hz hörbar. Die Lautstärke wiederum wird über die Amplitude des Schalldrucks beschrieben: bei zunehmender Amplitude steigt auch die wahrgenommene Lautstärke und umgekehrt. (a) Hörschwellkurve und Hörfläche [Gol97] (b) Kurven gleicher Lautstärke [Rec85] Abb. 2.2.: Zusammenhang von Schalldruckpegel, Frequenz und Lautstärke Ein weiterer Aspekt, der das Hören beeinflusst, ist die so genannte Hörschwellkurve, welche die Beziehung zwischen Empfindlichkeit der Wahrnehmung und Frequenz des Schallsignals ausdrückt. Schallsignale, deren Schalldruckpegel unterhalb der Hörschwellkurve liegen, werden vom Menschen nicht gehört. Dabei ist festzustellen, dass tiefe und ganz hohe Frequenzen einen höheren Schalldruckpegel benötigen, um gerade gehört zu werden, als die im mittleren Bereich befindlichen Frequenzen (Abb. 2.2(a)). Der oberhalb der Hörschwellkurve liegende Bereich wird als Hörfläche bezeichnet und wird nach oben durch die Fühlschwelle begrenzt (Abb. 2.2(a)). Oberhalb dieser Grenze wird die Schallwahrnehmung als schmerzhaft empfunden (vgl. [Gol97, S.352ff] und [Rec85, S.124ff]). Auch die Lautstärkenwahrnehmung kann mit dem Schalldruckpegel in Verbindung gebracht werden, wobei hier unterschieden werden muss zwischen dem physikalischen Maß der Reizstärke (Schallstärke) und der, tatsächlich durch die menschlichen Sinne wahrgenommenen, Empfindungsstärke (Lautstärke). Da die Empfindlichkeit des menschlichen Ohres, über den gesamten Frequenzbereich betrachtet, variiert (vgl. [Rec85, S.124ff]), ist die Lautstärkenwahrnehmung stets abhängig von der jeweiligen Frequenz. Abbildung 2.2 verdeutlicht diesen Sachverhalt, indem zum einen in Abbildung 2.2(a) die Hör- und Schmerzschwelle 7 2. Audition - Begriffe und Definitionen bezeichnet werden (SPL steht für Schalldruckpegel) und zum anderen die Kurven gleich empfundener Lautstärke verzeichnet sind (siehe auch Abbildung 2.2(b)). Bei Frequenzen über 4000 Hz gilt beispielsweise: je höher der Schalldruckpegel, desto größer die Lautstärke. 2.1.2. Ausbreitung und Wahrnehmungseigenschaften von Schallsignalen Über die Auswertung der Schallsignalunterschiede von rechtem und linken Ohr, welche durch die eintreffenden Schallwellen verschieden stimuliert werden, ist es dem Menschen möglich, zu lokalisieren, aus welcher Richtung das Schallsignal kommt. Dieser Effekt wird als binaurales Abb. 2.3.: Interaurale Zeitdifferenz [Gol97] Hören bezeichnet und setzt sich aus zwei grundlegenden Eigenschaften zusammen: der interauralen Zeitdifferenz und der interauralen Pegeldifferenz (vgl. [Gol97, S.335 ff]). Die interaurale Zeitdifferenz beschreibt die unterschiedliche Laufzeiten der Schallwellen, die das Ohr erreichen. So haben die Schallwellen der in Abbildung 2.3 als B bezeichneten Schallquelle einen längeren Weg zum linken Ohr zurückzulegen, als zum rechten und treffen somit dort auch später ein. Bestimmte Neuronen sprechen auf die interaurale Zeitdifferenz an und signalisieren über eine Art Zeitcode, aus welcher Richtung der Schall kommt. Die interaurale Abb. 2.4.: Ausbreitung tieffrequenten Schalls [Gol97] Pegeldifferenz wiederum beschreibt die Intensität, mit der die Schallwellen an den Ohren eintreffen. Die in Abbildung 2.3 von der Schallquelle B kommenden Schallwellen werden durch den Kopf reflektiert und treffen somit am linken Ohr in verminderter Intensität ein. Der Kopf wirft eine Art Schallschatten. Dieser Effekt wird besonders bei hochfrequenten Tönen deutlich, da diese im Verhältnis zum Kopf eine kurze Wellenlänge haben und reflektiert werden (Abb. 2.4). Tieferfrequente Töne (unter 1000 Hz) haben dementsprechend zur Kopfgröße eine lange Wellenlänge Abb. 2.5.: Ausbreitung hochfrequenten Schalls [Gol97] und werden kaum beeinflusst (Abb. 2.5). Dies hat zur Folge, dass dem Menschen die Ortung eines tieferfrequenten Tones schwer oder gar nicht möglich ist. Bei bewegten Schallquellen bewirken die Ausbreitungseigenschaften von Schall, dass ein und das gleiche Schallsignal in unterschiedlichen Höhen wahrgenommen wird, was auch als Dopplereffekt bekannt ist. Durch die Bewegung breitet sich der Schall in der direkten Umgebung der Schallquelle nicht mehr gleichmäßig in alle Richtungen aus, sondern wird gegen die Fahrtrichtung verschoben (Abbildung 2.6), was eine Veränderung der Wellenlänge zur Folge hat. Somit sind die vor der Schallquelle befindlichen Schallwellen höherfrequent, als die 8 2.1. Die auditive Wahrnehmung des Menschen dahinterliegenden und werden demnach auch höher wahrgenommen, wie es typischerweise beim Vorbeirauschen eines Krankenwagens oder hupenden Autos (siehe Hörbeispiel 1) nachvollziehbar ist. Je weiter der Hörer von der bewegten Schallquelle entfernt ist, desto weniger drastisch empfindet er die Frequenzverschiebung. Analoges geschieht bei der Bewegung des Empfängers relativ zur Schallquelle. Die Wahrnehmung eines Schallsignals wird außerdem stark durch die Umgebung und Objekte bestimmt, die es auf dem Weg zum Ohr beeinflussen. Dabei ist die Stärke von Reflexionen stets abhängig von der Oberflächenbeschaffenheit der Gegenstände, an denen der Schall reflektiert wird. So wird die Ortung einer Schallquelle außerdem durch den Präzedenzeffekt beeinflusst, welcher zwei verschiedene Arten von Abb. 2.6.: Ausbreitung der Schallwellen bei bewegter Schallquelle Schall unterscheidet: den Primärschall und den reflektierten Schall. Während der reflektierte Schall auf seinem Weg zum Ohr an Gegenständen in der Umgebung reflektiert wird, erreicht der Primärschall das Ohr auf direktem Wege und trifft somit früher und direkt aus der Richtung der Schallquelle ein. Die Ortung der menschlichen Wahrnehmung bezieht sich immer auf den zuerst auftreffenden Schall, so dass ein durch Reflexion aus einer anderen Richtung kommendes Schallsignal keine Verwirrung stiften kann. Ein weiterer durch die Umgebung hervorgerufener Effekt der Wahrnehmung ist die Nachhallzeit, welche die Menge des reflektierten Schalls eines Raumes beschreibt (vgl. [Gol97, S.363ff]). Klänge kurzer Nachhallzeiten klingen klanglos und trocken, da ein Großteil des Schalls vom Raum absorbiert wird. Überlagern sich die Schallwellen jedoch bei zu vielen Reflexionen (lange Nachhallzeit), wirkt die Musik breiig und verwaschen. Eine optimale Nachhallzeit für einen Konzertsaal liegt bei 1,5 - 2 Sekunden. Der Klang eines Tones wird jedoch nicht nur durch die Nachhallzeit, sondern auch durch dessen Klangfarbe geprägt. So können Töne der gleichen Tonhöhe und Lautstärke völlig verschieden klingen, werden sie von unterschiedlichen Musikinstrumenten dargeboten. Ein Grund dafür liegt in der relativen Stärke der harmonischen Oberschwingungen eines Tones, die je nach Instrument verschieden sind. So weist beispielsweise die Gitarre in hohen Frequenzen mehr Obertöne auf als ein Fagott oder ein Altsaxophon (vgl. [Gol97, S.361ff]). Doch auch der Ein- und Ausschwingvorgang trägt entscheidend zur Qualität der Klangfarbe bei. Generell kann beispielsweise festgehalten werden, dass sich tiefe Obertöne schneller aufbauen und eine längere Ausschwingzeit aufzeigen. In der Phase zwischen Ein- und Ausschwingen des Tons bleibt die harmonische Struktur relativ konstant (vgl. [Gol97, S.363]). 9 Hörbsp. 1.: Dopplereffekt 2. Audition - Begriffe und Definitionen 2.1.3. Effekte der menschlichen Wahrnehmung Obwohl sich das auditive und visuelle System der menschlichen Wahrnehmung sowohl in Struktur als auch Arbeitsweise stark unterscheiden, finden sich in der Art der Reizaufnahme viele Ähnlichkeiten (siehe auch Tabelle 2.1). Über die Umwelt nimmt der Mensch komplexe sich oftmals überlagernde Schallsignale wahr. Deren Gesamtheit wird, ähnlich zur bildlichen Welt, als akustische Szene bezeichnet (vgl. [Gol97]). Eine typische akustische Szene eines Nachmittags im Freien wäre beispielsweise das Aufeinandertreffen von Vogelgezwitscher, Gesprächen zwischen Personen, Radiomusik, Autohupen, Wasserplätschern und Kindergeschrei. Über die sogenannte auditive Lautsphärenanalyse wird dieses komplexe Schallsignal in bedeutungshaltige Schallereignisse zerlegt, so dass der Mensch die einzelnen Geräusche oder Töne klar voneinander trennen und dem Geschehnis in der Umwelt zuordnen kann. Dies entspricht der getrennten Wahrnehmung einzelner Objekte in visuellen Szenen. Durch die Fähigkeit, gezielt auditive Reize aufzunehmen, wird der Mensch darin unterstützt, beispielsweise die Stimme eines Bekannten aus einer komplexen akustischen Szene herauszufiltern. Die auditive Differenzierung äußert sich außerdem in der spezialisierten Wahrnehmung von Unterschieden, wie zum Beispiel schnell-langsam, kurz-lang, laut-leise und hoch-tief. Visuelle und auditive Wahrnehmung scheinen in ständiger Wechselwirkung zueinander zu stehen. So sucht die menschliche Wahrnehmung beständig danach, zu wahrgenommenen Geräuschen oder Klängen bildliche Entsprechungen zu finden. Außerdem können bestimmte Attribute sowohl visuelle, als auch akustische Qualitäten beschreiben, wie zum Beispiel Helligkeit. Einen weiteren Schritt macht W OLFGANG K ÖHLER, mit Abb. 2.7.: Figuren von KÖHLERs phonetischem Experiment seinem um 1927 vorgestellten phonetischen Experiment (vgl. [Köh29]), in welchem er Probanden befragt, welche der beiden Grafiken in Abbildung 2.7 das Wort maluma und welche das Wort takete verkörpern. Die überwiegende Mehrheit verknüpfte die zackige Form mit dem Wort takete und die runde Form mit dem Wort maluma. Dies verdeutlicht, dass auch der Klang eines Wortes in gewisser Weise andere Wahrnehmungsebenen beeinflusst und ihm über die menschliche Wahrnehmung bestimmte Qualitäten, wie Form oder Oberflächenbeschaffenheit eines visuellen Objektes, zugeordnet werden. Obwohl diese Korrespondenz in modernen Sprachen weitestgehend verloren ging, kann die Herkunft vieler Wörter auf die Oberflächenform oder Oberflächenbeschaffenheit des zu beschreibenden Elementes zurückgeführt werden (vgl. [Köh29, S.242]). 10 2.1. Die auditive Wahrnehmung des Menschen Hören Sehen Reizaufnahme Umwandlung von Druckschwankungen aus der Luft in elektrophysiologische Signale Umwandlung elektromagnetischer Strahlung in elektrophysiologische Signale spezifische Empfindlichkeit (auf bestimmte Umweltaspekte antwortende Neuronen) auf bestimmte sehr schmale Frequenzbereiche ansprechende Haarzellen in Cochlea und Hörnervenfasern auf Bewegungsrichtungen ansprechende richtungsempfindliche Neuronen, auf bestimmte Ausschnitte des sichtbaren Lichtspektrums reagierende drei verschiedene Zapfenarten (rot, grün, blau) Konvergenz (Weiterleitung vieler Signale auf ein Neuron) Weiterleitung des Signals von vielen empfindlichen Haarzellen an eine Hörnervenfaser → Fähigkeit der Schallsignalwahrnehmung sehr geringer Intensitäten und Tonhöhen Weiterleitung des Signals von vielen Stäbchen an eine Bipolarzelle → hohe Empfindlichkeit des dunkeladaptierenden visuellen Systems Spezialisierung auf bestimmte Reize auf bestimmte Geräusche ansprechende Zellen (zum Beispiel das Klirren einer Schüssel), Glissando-Detektoren, Spezialisierung auf Sprachewahrnehmung Spezialisierung auf die Wahrnehmung von Gesichtern Tabelle 2.1.: Vergleich der auditiven und visuellen Wahrnehmung Während für Gruppierungen visueller Reizmuster die Gestaltgesetze hinlänglich bekannt sind, lassen sich einige dieser Prinzipien, wie im Folgenden zu sehen sein wird, interessanterweise auch auf die auditive Wahrnehmung übertragen (vgl. [Gol97, S.372ff]). Prinzip der Ähnlichkeit „Töne, die einander ähnlich sind, werden meist als zusammengehörig wahrgenommen.“ Dabei spielt die Tonhöhe eine entscheidende Rolle, denn je stärker die Ähnlichkeit der Tonhöhe zweier oder mehrere Töne ist, desto wahrscheinlicher werden sie als zusammengehörig empfunden. So bauen sich beispielsweise auch Melodien meist auf kleinen Tonhö- Hörbsp. 2.: J.S. B ACH: Suite in d-Moll, BWV 1009, Prélude, Ausschnitt henunterschieden auf. Komponisten des Barock machten sich in diesem Zusammenhang das Phänomen der Melodietrennung zu nutze, indem sie Melodien aus kurz aufeinander treffenden hohen und tiefen Tönen komponierten, welche bei schnellem Spielen als zwei getrennte Melodien erscheinen. Hörbeispiel 2 zeigt dies an einem Werk B ACHs, während Hörbeispiel 3 den Ausschnitt eines zeitgenössischen Musikstückes mit dem Effekt der Melodietrennung präsentiert. Die zugehörigen Noten sind in Anhang A zu finden. Ein ähnliches Phänomen wird durch die Tonleitern-Illusion, entdeckt durch die Psychologin D IANA D EUTSCH, 11 Hörbsp. 3.: Y.T IERSEN: Comptine d’été n◦ 3, Ausschnitt 2. Audition - Begriffe und Definitionen beschrieben: bei einem Experiment werden Probanden ohrenweise abwechselnd Töne einer aufsteigenden und einer absteigenden Melodie vorgespielt. Die Tonleitern-Illusion ergibt sich daraus, dass die Probanden zusammengehörige Töne auf einem Ohr gruppieren. So nimmt zum Beispiel das rechte Ohr die Melodie der höheren Töne und das linke die der tieferen Töne wahr. Das Gehirn reagiert auf diese Weise, da es in der Umwelt dem Normalfall entspricht, ähnliche Schallsignale derselben Schallquelle zuzuordnen. Das Prinzip der Ähnlichkeit hilft dem Menschen also im Allgemeinen richtig wahrzunehmen, woher Schallsignale kommen und seine Umwelt in diesem Sinne effizient zu interpretieren (vgl. [Gol97, S.372]). Prinzip der Nähe „Töne müssen rasch aufeinander folgen, um gemeinsam wahrgenommen zu werden.“ Dies kann zum Beispiel an dem Effekt der Melodietrennung verdeutlicht werden, da die Melodie trotz Tonhöhenähnlichkeit nicht als getrennt wahrgenommen wird, wenn ihre Töne zeitlich zu weit auseinander liegen (vgl. [Gol97, S.374]). Prinzip des guten Melodieverlaufs Wird ein Ton abgehackt in jeweils durch Stille getrennten Intervallen gespielt, so nehmen Menschen sowohl den Ton, als auch die Stille wahr. Sobald die Stillephasen allerdings durch ein Rauschsignal gefüllt werden, wird der Ton kontinuierlich wahrgenommen. Bei diesem Prinzip spielen vorangehende Erfahrungen und die daraus resultierenden Erwartungen eine wichtige Rolle. Das Gedächtnisschema für Melodien bezeichnet dabei den Effekt, dass man beispielsweise beim Hören zweier gleichzeitig abgespielter unbekannter Melodien lediglich eine Tonwirrwarr empfindet, sobald die Melodien aber bekannt sind, in der Lage ist, diese voneinander getrennt wahrzunehmen. Das Gedächtnisschema entspricht hier der vertrauten Melodie. Wenn nicht bekannt ist, dass sich hinter einer Tonfolge eine Melodie verbirgt, kann jedoch nicht auf das Gedächtnisschema zugegriffen werden (vgl. [Gol97, S.375]). Auditive Täuschungen Abb. 2.8.: M.C.Eschers Treppauf und treppab Neben den soeben genannten Phänomenen, findet man auch beim Hören interessante Illusionen analog zu optischen Sinnestäuschungen. So entdeckte der Psychologe R OGER S HEPARD beispielsweise, ähnlich der von M.C. E SCHER gezeichneten endlosen Treppe Treppauf und treppab (Abbildung 2.8), das Phänomen einer scheinbar endlos an- oder absteigende Tonfolge (vgl. [BLC96]). Erzeugt wird diese Illusion durch das gleichzei- 12 2.1. Die auditive Wahrnehmung des Menschen tige Abspielen mehrerer Töne, die die gleiche Note oktavweise versetzt spielen: Ton1 = C1, Ton2 = C2, Ton3 = C3, Ton4 = C4, Ton5 = C5, Ton6 = C6. Jeder Tonn durchläuft die gesamte Tonleiter (zum Beispiel C1, D1, E1, F1, G1, A1, H1) und beginnt dann wieder am Anfang (C1), so dass beispielsweise Ton2 die Tonleiter von Ton1 fortsetzt und Ton3 die von Ton4 etc. Das menschliche Ohr kann keinen Hauptton herausfiltern und empfindet somit eine scheinbar endlos auf- oder absteigende Melodie. Während der von S HEPARD beschriebene Effekt durch diskrete Tonfolgen geprägt ist Hörbsp. 4.: Shepard Tonleiter [ASA07] (siehe Hörbeispiel 4), erzeugte J EAN -C LAUDE R ISSET eine kontinuierliche Variante (siehe Hörbeispiel 5). Da auch diese auf dem zuvor beschriebenen Effekt beruht, wird dieser oft auch als Shepard-Risset Tonfolge bezeichnet. Hörbsp. 5.: Risset Tonfolge [ASA07] Rauhigkeit eines Tones Die Psychoakustik beschäftigt sich mit den Zusammenhängen zwischen physikalischen Schallreizen, wie zum Beispiel Schallintensität, Frequenz und Spektrum, und den durch sie hervorgerufenen Hörempfindungen, wie zum Beispiel Tonhöhe, Lautstärke oder Klangfarbe (vgl. [Höl06]). Wenngleich Details den Rahmen dieser Arbeit übersteigen würden, soll an dieser Stelle kurz der psychoakustische Begriff der Rauhigkeit eines Tones vorgestellt werden. Die Rauhigkeit beschreibt eine Art Grad der Gleichmäßigkeit in der Empfindung eines Tones. Je rauer ein Ton, desto ungleichmäßiger und unschöner wird er empfunden. Die physikalischen Grundlagen dieser Erscheinung liegen in dem Aufeinandertreffen mehrerer Schwingungen, die je nach Frequenzunterschied beispielsweise Interferenzen (gleiche Frequenz), Schwebungen (leicht unterschiedliche Frequenz) oder Kombinationstöne (große Frequenzunterschiede) hervorrufen. Haben die verschiedenen Schwingungen nur leicht unterschiedliche Frequenzen (Unterschied von 0,1 Hz bis 16 Hz), ist es dem menschlichen Ohr nicht möglich, die Schwingungen getrennt wahrzunehmen. Es empfindet dann einerseits einen Höheneindruck, der zwischen den beiden Frequenzen liegt und außerdem ein An- und Abschwellen der Lautstärke (vgl. [Höl06]). Dies wird als Schwebung bezeichnet. Die Anzahl der Schwebungen eines Tones pro Sekunde wird (beispielsweise beim Stimmen eines Klaviers) auch als Maß der Tonhöhenbestimmung genutzt. Sobald der Frequenzunterschied 16 Hz übersteigt, wird der Ton schließlich als rau und unangenehm empfunden, bis er bei weiter steigendem Frequenzunterschied als Kombinationston wahrgenommen wird. In Hörbeispiel 6 (aus [ZF99, FFK07]) wird die Abhängigkeit der Rauhigkeit von der Modulationsfrequenz demonstriert. Für einen 1 kHz-Ton mit einem Schallpe- 13 Hörbsp. 6.: Rauhigkeit eines Tones 2. Audition - Begriffe und Definitionen gel von 70 dB wird die Modulationsfrequenz bei einem Modulationgrad m = 1 in sechs Schritten von 10 Hz nach 20, 50, 100, 200, 400 Hz gesteigert. Während die Rauhigkeit zunächst zunimmt, werden schließlich getrennte Töne wahrgenommen. 2.2. Der Ton macht die Musik - Einführung in die Musiktheorie Musik ist die Kunst, Töne in bestimmter Gesetzmäßigkeit hinsichtlich Rhythmus, Melodie und Harmonie zu einer Gruppe von Klängen (und zu einer stilistisch eigenständigen Komposition) zu ordnen [Dud03]. Töne sind gekennzeichnet durch die Parameter Tonhöhe, Dauer, Lautstärke (oder auch Intensität) und Klangfarbe. Die Tonhöhe, welche sich aus der Frequenz des Tones ergibt, setzt sich zusammen aus den Parametern Ton (zum Beispiel C, D, E, F, G, A, H) und Register (zum Beispiel C1, C2 etc.). Während Geräusche vorwiegend als Rhythmus wahrgenommen werden, weist die Aneinanderreihung von Tönen Melodien auf, die die eben genannten Parameter um die Eigenschaften Tempo, Dynamik, Harmonie und auch Rhythmus erweitern. Ein musikalisches Werk wird maßgeblich bestimmt durch die Spannung zwischen den Noten (vgl. [Coo59, S.34ff]), welche über drei Dimensionen definiert werden kann: Tonhöhe (tonale Spannungen und Intervallspannungen), Zeit (Rhythmus und Dauer) und Lautstärke. Der musikalische Ausdruck wird außerdem unterstützt durch die Klangfarbe und Klangbeschaffenheit. Hörbsp. 7.: L ISZT: Au Bord d’une Source, Ausschnitt Harmonien werden je nach Kulturkreis sehr unterschiedlich empfunden. Dies zeigt sich auch in der Abfolge der Ganz- und Halbtonschritte einer Tonleiter. Die ältesten Tonleitern sind die der Pentatonik, welche sich aus fünf Tönen im Abstand von Ganztonschritten und kleinen Terzen zusammensetzen (Tabelle B.1 in Anhang B). Die schwarzen Tasten einer Klaviatur stellen beispielsweise eine natürlich-pentatonische Tonleiter dar. Fünftonleitern sind besonders in Asien bis heute vorherrschend Hörbsp. 8.: Ich geh mit meiner Laterne und finden sich in unseren Breiten als Musik des Vorschulalters häufig in Kinderliedern wieder. Ein Beispiel eines Musikstückes in Pentatonik ist F RANZ L ISZTs Au Bord d’une Source (siehe Hörbeispiel 7) oder das bekannte Kinderlied Ich geh mit meiner Laterne (siehe Hörbeispiel 8). Die europäische Musik wurde bis zum 18. Jahrhundert stark durch die modalen Tonleitern (besonders die dorische Skala) geprägt, die auch als Kirchentonarten bekannt und den heutigen Dur- und Molltonleitern sehr ähnlich sind. Sie entstanden in der griechischen Antike und gehören zu 14 2.2. Der Ton macht die Musik - Einführung in die Musiktheorie den diatonischen Tonleitern, welche sich aus Halb- und Ganztonschritten zusammensetzen (vergleichbar einer Klaviatur) und jeweils einem Tongeschlecht (zum Beispiel Dur, Moll oder Phrygisch etc.) und einer Tonart (zum Beispiel b-Moll) zugeordnet sind. Der Begriff der Heptatonik drückt das gleiche aus und verdeutlicht dabei zusätzlich, dass die jeweiligen Tonleitern aus sieben verschiedenen Tönen im Abstand von zwei kleinen und fünf großen Sekunden bestehen. Zu den modalen Tonleitern zählen die lydische, die ionische (entspricht der Dur-Tonleiter), die mixolydische, die dorische, die äolische (entspricht der natürlichen Moll-Tonleiter), die phrygische und die lokrische Tonleiter (siehe Tabelle B.3 in Anhang B) (vgl. [Hof07]). Ab dem 18.Jahrhundert wurde die europäische Musik immer stärker durch die Dur- und Moll-Tonarten (Tabelle B.2 in Anhang B) der Diatonik beeinflusst. Das System der Dur- und Moll-Tonleitern wird durch den Quintenzirkel (Abbildung 2.9(a)) beschrieben, welcher auf einen Kreis abgebildet die Verwandtschaftsbeziehungen der einzelnen Tonarten darstellt. Dabei gleichen sich zwei auf dem Quintenzirkel benachbarte (quintverwandte) Tonleitern immer in sechs Tönen (Beispiel: C-Dur mit c,d,e,f,g,a,h und G-Dur mit c,d,e,fis,g,a,h). Je weiter die Tonleitern auseinander liegen, desto weniger verwandt sind sie miteinander. Das Modell des Quintenzirkels beruht auf der wohltemperierten Stimmung B ACHs, welche die, für Instrumente mit diskreter Tonerzeugung (zum Beispiel Klavier Hörbsp. 9.: B EETHOVEN: Für Elise, Ausschnitt oder Gitarre) unpraktikable, pythagoräische Teilung verändert. Dies führt im unteren Teil des Kreises zu den so genannten enharmonischen Verwechslungen. So klingt beispielsweise Fis-Dur mit sechs # genauso wie Ges-Dur mit sechs b, da gemäß wohltemperierter Stimmung folgendes gilt: fis=ges, cis=des, gis=as, etc. Nach dem phythagoräischem System, der reinen Stimmung nach Quinten, entspricht dies allerdings unterschiedlichen Tönen. Als Hörbeispiel einer diatonischen Komposition ist nebenstehend L UDWIG VAN B EETHOVENs Bagatelle a-moll WoO 59 (Hörbeispiel 9), auch bekannt als Für Elise, zu finden. Hörbsp. 10.: S CHÖNBERG: Klavierstücke Opus 11 Nr.1, Ausschnitt Ein Gegenpol der Diatonik ist die chromatische Tonleiter, welche, entsprechend einer Klaviatur, mit einer Folge von zwölf Halbtönen völlig neue Harmonien beschreibt. Als Sonderform der Chromatik entwickelte sich die so genannte Zwölftonmusik, welche zu Beginn des 20. Jahrhunderts besonders durch A RNOLD S CHÖNBERG und seine Schüler verbreitet wurde (siehe Hörbeispiel 10 und Hörbeispiel 11). Deren Gesetzmäßigkeiten sahen nicht nur ein Vorkommen aller zwölf Töne auf engstem Raum innerhalb eines Musikstücks vor, sondern führten auch zu einer Gleichberechtigung aller zwölf Töne. 15 Hörbsp. 11.: S CHÖNBERG: Klavierstücke Opus 11 Nr.3, Ausschnitt 2. Audition - Begriffe und Definitionen Darüber hinaus haben sich durch die Musik bestimmter Volksgruppen ganz eigene Tonleitern etabliert, wie zum Beispiel die der Klezmermusik oder der Zigeunermusik. Vom Kulturkreis abhängig ist auch die Tonvielfalt der Skalen: im Gegensatz zu der in zwölf Halbtöne unterteilten Oktave des europäischen Kulturkreises, existieren im arabischen Raum 24 Vierteltöne innerhalb einer Oktave. (a) Der Quintenzirkel (b) Ähnlichkeitsfolge der Tonigkeiten [Mic05] Abb. 2.9.: Musiktheoretische Modelle Ein interessantes Phänomen zeigt sich in Abbildung 2.9(b), in welcher der Zusammenhang zwischen Tonigkeit und Tonhöhe zu sehen ist. Es wird deutlich, dass zwei gleiche oktavversetzter Töne, trotz unterschiedlicher Tonhöhen, eine gewisse Ähnlichkeit (c-igkeit, d-igkeit) aufweisen (vgl. [Mic05, S.21]). Die in Abbildung 2.9(b) dargestellte Tonspirale bildet die chromatische Tonigkeitsfolge (in Halbtonstufen) ab, wobei die einander ähnelnden Töne (oktavversetzt) in gleicher Farbe erscheinen. Die Wahrnehmung der Tonigkeit tritt bei sehr hohen und sehr tiefen Frequenzen hinter der Helligkeit zurück. Abschließend soll an dieser Stelle kurz auf die Eigenschaft der Konsonanz und Dissonanz eingegangen werden, welche ein sehr bestimmendes Merkmal von Musik ist. Musikalische Intervalle werden als konsonant bezeichnet, wenn sie wohlklingend beziehungsweise zusammenklingend erscheinen und im Gegensatz dazu als dissonant, wenn sie als spannungsvoll beziehungsweise auseinander klingend wahrgenommen werden. Gemäß der Proportionstheorie des P YTHAGORAS klängen zwei Töne um so konsonanter, je einfacher deren Schwingungsverhältnis ist. Eine große Septime mit einem Schwingungsverhältnis von 8:15 ist demnach weniger konsonant (sondern dissonant), als eine Oktave mit 1:2 oder einer Quinte mit 2:3. Die Klangverwandtschaftstheorie nach 16 2.3. Affektenlehre - die Wirkung von Musik H ELMHOLTZ versucht die Empfindung von Konsonanz und Dissonanz über den Tonaufbau zu klären. Sie besagt, dass zwei Töne konsonant klingen, wenn ein oder mehrere ihrer Obertöne zusammenfallen [Mic05, S.21]. Nähere Ausführungen dazu, sowie weitere Theorien bezüglich der Kon- und Dissonanz zweier Töne sind in [Mic05] zu finden. 2.3. Affektenlehre - die Wirkung von Musik Musik und Klang gehören zu den stärksten Kommunikationsmitteln und haben die Fähigkeit, Stimmungen, Emotionen, Gefühle auszulösen und Erinnerungen zu wecken. Musik vermag es, Gefühle zu beschreiben, die in Worten nicht ausdrückbar sind. Manche sagen gar, Musik sei neben dem Schweigen die reinste Form der nonverbalen Kommunikation. Dies wird inzwischen gezielt in Filmen, Werbung und Vermarktungsstra- Videobsp. 1.: Werbevideo, FX tegien eingesetzt. Die Audio Consulting Group [Dir07] stellte bei einer ihrer Studien beispielsweise fest, dass Menschen Lichtstimmungen und Schnitte eines Werbefilmes abhängig von der Musik ganz unterschiedlich empfinden und den Marken somit sehr differenzierte Sympathien entgegen bringen. Anhand der Videobeispiele 1, 2 und 3 [Dir07] ist dieser Effekt nachzuvollziehen. Videobsp. 2.: Werbevideo, Hard Bereits in der Antike verwies P LATON auf die Ausdrucksstärke von Musik und kategorisierte in seinem Werk Der Staat Tonleitern nach deren emotionalen Wirkungen. Demnach steht die dorische und die phrygische Tonleiter (Abschnitt 2.2) für Tapferkeit und Männlichkeit, während die lydische eher als weich und schlaff empfunden wird. In der Musik der westlichen Welt werden häufig der gegensätzlichen Wirkungen der Dur- und Molltonarten genutzt, um Stimmungen zu erzeugen. Dabei verkörpern Dur-Tonarten Freude, Vertrauen, Liebe, Gelassenheit und Triumph, während Moll-Tonarten vorwiegend Schmerz, Angst, Hass, Unruhe und Hoffnungslosigkeit vermitteln (vgl. [Coo59, S.50ff]). Und tatsächlich wirken Stücke in Dur eher fröhlich und leicht, wohingegen Moll-Stimmungen eher traurig und wehmütig scheinen. Konsonanzen werden im Allgemeinen mit Ruhe und Zufriedenheit gleichgesetzt, wohingegen Dissonanzen für Ekel, Verdruss und Schmerz stehen (vgl. [Gra04]). Doch auch andere tonpsychologische Merkmale, wie beispielsweise die Dichte, das Volumen und das Gewicht von Tönen, welche besonders bei sehr hohen und tiefen Frequenzen hervortreten, beeinflussen den Eindruck von Musik. So gelten tiefe Töne als groß, voluminös und bauchig, als schwer, plump und behäbig, als porös, stumpf und weich [Mic05, S.21], während hohe Töne als klein, schmal und schlank, als ätherisch, leicht 17 Videobsp. 3.: Werbevideo, Soft 2. Audition - Begriffe und Definitionen und wendig, als spitz, fest und kantig[Mic05, S.21] gelten. Die Affektenlehre bezieht sich aber auch auf Taktart und Rhythmus. Abgesehen von der emotionalen Wirkung kann Musik auch körperliche Auswirkungen auf den Menschen haben. Diese sind allerdings von Mensch zu Mensch individuell ausgeprägt. Herzschlag, Atmung, Blutkreislauf, Muskelspannung, Hirnpotentiale und chemischer Blutumsatz können durch Musik beeinflusst werden. Angeblich gäben Kühe bei Einspielung von klassischer Musik mehr Milch und das Hören der Musikstücke M OZARTs solle bestimmte Gehirnareale derart aktivieren, dass temporal eine Steigerung der Konzentrationsfähigkeit zu verzeichnen sei (siehe auch [Gem02]). In der Hamburger Metro erhofft man sich durch das Einspielen klassischer Musik eine Senkung des Aggressionspotentials. Doch auch nicht mehr hörbare Frequenzen können das Empfinden des Menschen beeinflussen, wie beispielsweise die so genannte Angstfrequenz, welche ein Gefühl von Unwohlsein und Schrecken vermitteln soll und vermehrt auch in der Filmindustrie zum Einsatz kommt, um die Wirkung entsprechender Szenen zu intensivieren. Gemäß Prof. Dr. M ICHAEL H EINEMANN (Hochschule für Musik Carl Maria von Weber Dresden) werden beim Hören von Musik die Nervenbahnen genauso angeregt, als ob man ein solches Gefühl empfände. Der Körper reagiert also beispielsweise beim Hören von trauriger Musik so, als durchlebe er ein trauriges Erlebnis. Umgekehrt kann sie auch anregend, belebend und beruhigend wirken und kann somit in der Therapie mit beispielsweise Kindern, Behinderten oder psychosomatisch erkrankten Patienten sehr hilfreich sein (vgl. [Ack91, S.270]). Bereits in der Bibel findet Musik in heilender Wirkung Erwähnung: Sooft nun der böse Geist von Gott über Saul kam, nahm David die Harfe und spielte darauf mit seiner Hand. So wurde es Saul leichter, und es ward besser mit ihm, und der böse Geist wich von ihm. [Bib, 1. Samuel, 16, 22] 2.4. Synästhesie Der Begriff Synästhesie stammt aus dem griechischen (syn: zusammen, aisthesis: Wahrnehmung) und beschreibt die Verschmelzung mehrerer Sinne, wie zum Beispiel Hören und Sehen oder Tasten und Schmecken. So können Synästheten beispielsweise Farben hören, Klänge sehen (siehe Abbildung 2.10) oder Formen schmecken. Für viele Synästheten haben auch Buchstaben oder Zahlen eine bestimmte Farbe. Nur ein Bruchteil 18 2.4. Synästhesie der Menschen verfügt über diese Fähigkeit, wobei selbst unter diesen kein einheitliches Muster erkennbar scheint, dem die verschmelzenden Empfindungen folgen. In Experimenten konnte jedoch festgestellt werden, dass zumindest der Faktor der Helligkeit ausschlaggebend für die jeweilige Wahrnehmung zu sein scheint: so rufen helle Konsonanten, wie „i“ oder „e“, im Allgemeinen helle Farbempfindungen und dunkle Konsonanten, wie „o“ oder „u“, immer dunklere Farbempfindungen hervor (vgl. [vC99]). Da diesen Effekt allerdings fast jeder Mensch nachvollziehen kann, liegt die Vermutung nahe, dass diese Erkenntnis auch auf das sinnliche Brückenprinzip der intermodalen Analogien (vgl. [Lin01]) zurückzuführen sein könnte. Dieses beruht darauf, dass die Sinnesorgane neben Informationen auch emotionale Qualitäten vermitteln und findet sich verstärkt bei Faktoren wie Helligkeit, Intensität, Rauhigkeit oder Dichte wieder. Der Unterschied bei synästhetischen Empfindungen ist jedoch, dass diese unbewusst, passiv und kontextunabhängig auftreten. Trotzdem die Erforschung des synästhetischen Phänomens noch nicht viele Ergebnisse bringen konnte, vermuten Wissenschaftler, dass die Verschmelzung mit der Lage der einzelnen Verarbeitungsareale im Gehirn zusammenhängt, die sich gegenseitig erregen (vgl. [RH03]). K ANDINSKY lieferte diesbezüglich eine sehr bildliche Erklärung. Er verglich die menschlichen Nerven mit den Saiten eines Klaviers: wird ein Ton eines von zwei nebeneinander stehenden Klavieren angeschlagen, gerät auch die jeweilige Saite des anderen Klaviers in Schwingung (vgl. [vC99]). Das Phänomen der Synästhesie ist im Zusammenhang mit dieser Arbeit erwähnenswert, da die synästhetische Empfindung dem entspricht, was viele Denker und Künstler im Laufe der Jahre (zum Beispiel in den FarbTon-Modellen Abschnitt 3.2.1) versucht haben, in ihren Werken umzusetzen. Besonders gegen Ende des 19. Jahrhunderts, nachdem WAGNER den Begriff des Gesamtkunstwerkes geprägt hatte (Abschnitt 3.2.1), blühten die Bemühungen wieder neu auf, visuelle, auditive und andere sinnliche Elemente miteinander zu verbinden. Auch in der Malerei zeigen sich Versuche, neben der zweiten und dritten Dimension auch die zeitliche Komponente abzubilden. So schaffte beispielsweise M ONDRIAN in seinen Bildern (zum Beispiel Composition with Gray Lines oder Broadway Boogie Woogie (siehe Abbildung 3.11(a))) durch visuelle Raster eine Art von Bewegungswahrnehmung (siehe auch Abschnitt 3.2.2, S. 38), was man als Synästhesie aus visuellen Bildern und musikalischen Rhythmen bezeichnen könnte (vgl. [vC99]). Die Neuerungen der digitale Verarbeitung von Bild und Ton treiben die Bestrebungen fortwährend voran. Aus den Ergeb- 19 Abb. 2.10.: Farb-TonAbbildung S CRIABINs 2. Audition - Begriffe und Definitionen nissen wird sichtbar werden, dass eine Verbindung aus Bildlichem und Musikalischem durchaus möglich ist. Es bleibt jedoch offen, inwieweit Menschen ohne synästhetische Empfindungen einen ähnlichen Eindruck (gegebenenfalls durch Erlernen) wahrnehmen können. 20 3. Musik und bildende Kunst Geschichte der Musikvisualisierung Im ersten Frühlingsmonat steht die Sonne im Zeichen Ying Schi. Zur Zeit der Morgendämmerung kumuliert das Sternbild We. Seine Tage sind Gia und J. Sein göttlicher Herrscher ist Tai Hau (der grosse Leuchtende). Sein Schutzgott ist Gou Mang (der Säer). Seine Tier sind die Schuppentiere. Seine Note ist Güo (Terzton der Fünftonskala). Seine Tonart ist Tai Tsu. Seine Zahl ist acht. Sein Geschmack ist sauer. Sein Geruch ist muffig. Man opfert den Türgeistern. Unter den Opfergaben steht die Milz voran. L Ü B U W E, [Wehr] zitiert aus [Pfr54, S.25] In der Beschreibung der Verbindung jeglicher Wahrnehmungen des einleitenden Zitates aus dem alten China, scheint die Einheit aus Hörbarem und Sichtbarem selbstverständlich. Bilder und Töne wurden seit Anbeginn der menschlichen Kultur erzeugt und seit Jahrhunderten strebt der Mensch eine Verschmelzung der Sinneseindrücke zu einem synästhetischen Erlebnis, einem Gesamtkunstwerk, an. Im folgenden Abschnitt wird die Entwicklung der Synthese zwischen Musik und Farbe, Bildern, Form und Licht untersucht, von der Frühzeit bis zur heutigen Kultur. Besonders in der Frühzeit wurde der Musik eine stärkere Bedeutung zugeordnet, wobei Bilder und Geschehnisse der Welt als aus der Musik hervorgegangen betrachtet wurden. Ab dem 17. Jahrhundert wurde die Verschmelzung der inzwischen zu Künsten etablierten musikalischen und bildenden Bereiche schließlich bewusst betrachtet. Zahlreiche Experimente entstanden, welche durch die Verbreitung von Ton- und Filmtechnik und elektronischen Medien im 20. Jahrhundert zu vielfältigen Ausprägungen moderner Kunst führten. Doch neben der Kunst vollzog sich Ende diesen Jahrhunderts auch eine starke Beeinflussung im Bereich der Informatik, indem neue Anwendungsbereiche das Wissen aus Musik und Kunst vereinen, um dem Nutzer sowohl unterstützend, als auch unterhaltend den Umgang mit der Informationstechnologie zu erleichtern. 21 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung 3.1. Frühzeit bis Mittelalter Während die Verbindung von Hörbarem und Sichtbarem bereits in den Mythen der Urvölker eine entscheidende Rolle spielte, setzen sich die bewussten Bemühungen einer Verschmelzung der visuellen und akustischen Sinne über die Jahre fort. In den folgenden Abschnitten werden visuell-musikalische Einflüsse von der Frühzeit bis ins Mittelalter vorgestellt. 3.1.1. Frühzeit Von den zahlreichen in [Zip85] präsentierten Schöpfungsmythen verschiedener Urvölker, soll hier vor Allem die Schöpfungsmythe der nordamerikanischen Atsina-Indianer Erwähnung finden, bei der Gott folgendes sprach: ’Ich werde dreimal singen und dreimal rufen.’ Dann sang und rief er dreimal und stieß die Erde... Das Wasser kam hervor... und über die ganze Erde hin war Wasser. [...] Gott lässt durch seinen Gesang jedesmal eines der Tiere, die vorerst noch tot sind, lebendig werden... Ein bißchen Erde in seiner Hand, begann er zu singen, dreimal, und dann rief er dreimal. Dann ließ er die Erde langsam ins Wasser fallen, ... Land genug für ihn, darauf zu sitzen. [Zip85] Musik steht hier als etwas Magisches und Unerklärbares, was wunderbare, bewegende Kräfte besitzt und in Form eines schöpferischen Urklanges die Welt erschaffen hat. Die akustische Schwingung als Urform aller Bewegung. Auch in der altindischen Mythologie steht die tonliche Harmonie am Anfang der sinnlichen Manifestation. Die stoffliche Welt jedoch soll sich erst beim allmählichen „Verklingen“ des Urtons materialisiert haben und wurde dabei entsprechend klangarm (vgl. [Pas04, S.44]). Dennoch besitzt nach brahmanischer Überlieferung jede Materie immer noch diese verborgen-verstummte akustische Qualität, die sich in Form von durch Anschlagen oder Luftbewegung hervorgerufenen Geräuschen und Tönen zeigt. Diese Überlieferungen bilden den Ursprung des später durch die Pythagoreer geprägten Begriffs der Sphärenmusik. Der Schöpfergott Prajapati beispielsweise wird als Hymnus beschrieben: sein Körper bestand aus drei mystischen Silben, aus deren Klangopfer Himmel und Erde hervorgegangen sind [Zip85, S.11] und die ersten Menschen waren leuchtende und klingende Wesen. Bereits hier wird also eine Licht-Ton-Beziehung beschrieben (vgl. [Kla07]). 22 3.1. Frühzeit bis Mittelalter Auch in der ägyptischen Schöpfungsmythologie spielen Licht und Musik eine entscheidende Rolle: die Entstehung der Welt wird auf den Lichtschrei der singenden Sonne und das gewaltige Lachen des Gottes Thot, auch als Gott der Musik bezeichnet, zurückgeführt. In der altchinesischen Kosmologie, unter anderem überliefert in der ältesten Aufzeichnung altchinesischer Musiktheorie: Frühling und Herbst des Lü Bu We (um 250 v.Chr.), ist schließlich festgehalten, wie die irdische Musik aus der himmlischen hervorging: Zur Zeit der großen Heiligen, als höchste Vernunft auf Erden herrschte, war der Atem von Himmel und Erde in Einklang und erzeugte die Winde. Immer wenn die Sonne an einen bestimmten Punkt kam, so gab der Mond dem Wind einen Klang und auf diese Weise wurden die zwölf Tonarten erzeugt. [Wehr] zitiert aus [Zip85, S.16] und [Pfr54, S.25] Ein interessanter Begriff, der ebenfalls aus dem chinesischen Raum der Frühgeschichte stammt, ist der des Ohrenlichts. Auf den ersten Blick könnte dies als eine frühe Form der Musikvisualisierung verstanden werden. Genauer handelt es sich hierbei jedoch um die Kunst, Steinen bizarre Töne und Klänge zu entlocken1 . Das Ohr steht dabei als Symbol für das Hören und das Licht für die Erleuchtung (vgl. [Fes07]). Im weitesten Sinne kann somit also auch die Verschmelzung zweier Sinne, wie beispielsweise Hören und Sehen oder Fühlen, verstanden werden. Die Harmonie jener klanglich orientierten Welt wurde durch die Sonnenund Sternengötter versinnbildlicht und auch die Gestirne selbst wurden als Gottheiten verehrt. Die Bewegungen der Sterne und deren Deutung rückten somit immer stärker in den Mittelpunkt des Interesses, bis sich daraus schließlich, vorwiegend in China und Babylon, eine Verknüpfung von mythisch-symbolischen Zahlen und der Ordnung der Töne ergab (vgl. [Zip85, S.18]). Die Zahl Sieben beispielsweise spielt sowohl in der Mythologie als Anzahl der bis dahin entdeckten sieben Planeten, als auch in der Musiktheorie als Grundstruktur der Siebentonleiter eine bedeutende Rolle. In [Zip85] und [Pfr54] sind diesbezüglich detailliertere Ausführungen zu finden. Die Vervollständigung des Synthesegedankens von Zahl und Musik vollbrachten letztendlich die Pythagoreer der griechischrömischen Antike. Abbildung 3.1 zeigt die chinesische Tonleiter (pentatonisch), bei welcher den einzelnen Tönen eine entsprechende kosmologischen Bedeutungen zugeordnet ist. Der Grundton (Kung) steht dabei stets für das Ganze und die Folgetöne für das Einzelne (vgl. [Mic05, S.168]). 1 in der Literatur auch als Musik der Steine bezeichnet 23 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung Abb. 3.1.: Chinesische Tonleiter mit kosmologischen Bedeutungen der Töne [Mic05, S.168] Die Verbindung zwischen optischer und akustischer Wahrnehmungen bestand also seit altersher, wobei sich diese besonders in der indischen und chinesischen Kultur auch auf Jahreszeiten, Himmelsrichtungen und Schutzgötter erstreckte, was bereits durch das einleitende Zitat dieses Kapitels deutlich wurde. 3.1.2. Griechisch-Römische Antike Schritt für Schritt entwickelt sich Musik vom magisch Unerklärbaren zu einem Element, welches bewusst eingesetzt wird (unter anderem zur Unterhaltung) und dessen Struktur immer mehr an Bedeutung gewinnt. In der griechischen Antike verstand man unter dem Begriff Musiké - als Synthese aus Klang, Wort und Bewegung [...] - neben dem Ästhetisch-Schönen zugleich die Harmonie schaffende mathematische Ordnung [Zip85, S.28]. Während die bildenden Künste lediglich als handwerkliche Tätigkeiten angesehen wurden, zählte Musik zu den sieben freien Künsten, den artes liberales (vgl. [Joh07]). Durch die Pythagoreer (um 500 v.Chr.), die sich vorwiegend mit den vier zahlbezogenen Wissenschaften Arithmetik, Geometrie, Harmonik und Astronomie beschäftigten, wurde in das bisher stark mythisch orientierte Denken die rational-begriffliche Ebene eingeführt. Auf Basis der von den Pythagoreern als göttlich verehrten drei Mächte - die Trias: (Sternen-)Himmel, (musikalische) Harmonie und Zahl - gelang P YTHAGORAS (um 570 - 510 v.Chr.) die Erklärung der Tonlehre über mathematische Gesetzmäßigkeiten (vgl. [Joh07]). Er erkannte, dass sich die musikalischen Intervalle durch Zahlen darstellen lassen (vgl. [Zip85, S.23]). So ergeben sich aus den Längenverhältnissen einer Saite beispielsweise folgende Proportionen: Oktave 1:2, Quinte 2:3 und Quarte 3:4 (vgl. [Mic05, S.88ff]). Diese Erkenntnis bestimmt bis heute die Musiktheorie. Die (diatonische) Tonleiter kann außerdem innerhalb einer Oktave in sieben Noten (zum Beispiel C-D-E-F-G-A-H) unterteilt werden, welche sich in gleicher Reihenfolge im Oktavabstand höher oder tiefer wiederholen 24 3.1. Frühzeit bis Mittelalter (siehe Kapitel 2.2). Interessanterweise entsprächen (vgl. [Zip85]) die sieben Tonabstände darüber hinaus den Abständen der sieben Planetenbahnen. Dieser gemeinsame kosmischen Nenner aus Musik, Astronomie und Mathematik kommt in seiner deutlichsten Ausprägung in der Sphärenmusik2 zum tragen, welche zum Symbol der pythagoreischen Weltanschauung wurde. Gemäß dieser Philosophie klingt das gesamte Weltall, wobei die Töne allerdings zu tief sind, um vom Menschen wahrgenommen werden zu können. Musik wurde zum Scharnier zwischen Mikro- und Makrokosmos erklärt. P LATON (427 - 347 v.Chr.) erkannte schließlich einen besonderen Zusammenhang zwischen Auge und Ton und bringt die Musik mit den bildenden Künsten in Verbindung. Bereits in der antiken Philosophie wurde der Begriff der Synästhesie (Abschnitt 2.4) eingeführt, welcher später häufig als Grundlage der Experimente mit Klang und Farbe diente (Abschnitt 3.2). Doch auch bei Platon wird der Musik noch eine wesentlich stärkere Rolle zugeordnet, die Musik als Unterstützung zur Erkenntnis des Schönen. Folgendes Zitat verdeutlicht dies. Die Erziehung durch Musik ist darum die vorzüglichste, weil der Rhythmus und die Harmonie am meisten in das Innerste der Seele dringt und am stärksten sie erfasst und Anstand bringt und anständig macht, wenn jemand darin richtig erzogen wird, - wo nicht, das Gegenteil. Und weil hinwiederum der, welcher hierin erzogen ist, wie es sein soll, das Übersehene und von der Kunst oder der Natur nicht schön Ausgeführte am schärfsten wahrnimmt und mit gerechtem Widerwillen vor diesem das Schöne lobt und mit Freuden es in seine Seele aufnimmt und daran sich nährt und schön und gut wird, ... P LATON, [Pla40] zitiert aus [Pfr54, S.36] Kurz darauf entwickelte sein Schüler A RISTOTELES (384 - 322 v.Chr.) in Anlehnung an die pythagoreischen und platonischen Lehren ein Harmonieprinzip, welches auf Zahlen beruhend und gekoppelt an seine subjektive Wahrnehmung eine Siebenteilung der Farben, Töne und Geschmäcker beschreibt (vgl. [Kla07]). Dieses gilt als erstes seiner Art und fand später häufig Verwendung als Grundlage für die ab der Renaissance entstandenen Modelle der Farb- und Tonintervallzuordnungen (Abschnitt 3.2.1). 2 auch als Klang der Gestirne bezeichnet 25 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung 3.1.3. Mittelalter Der abendländische Ursprung eines Zusammenspiels von Musik und bildender Kunst ist in der christlichen Liturgie zu finden. Die Schaufrömmigkeit des Mittelalters verlangte nach einer alle menschlichen Sinne ansprechenden Inszenierung, gleichsam einem religiösen Gesamtkunstwerk (vgl. [Joh07]). Das Altarbild als bildliche Kulisse im Zusammenspiel mit der musikalischen Gestaltung. Geistliche Spiele, wie zum Beispiel die österlichen Passionsspiele, suchten nach neuen sowohl musikalischen als auch bildlichen Kompositionen (vgl. [Joh07]). Auch finden sich in der Zeit des Mittelalters verschiedene Überlieferungen einzelner Mönche oder Kirchengelehrter, welche sich zu der pythagoreischen Lehre und der allumfassenden Kraft von Rhythmus und Harmonie bekennen. Allerdings geschieht dies im Gegensatz zur Antike nicht vor einem kosmologischen Hintergrund, sondern stets in Bezug zu Gott. Musik verkörpert außerdem, wie bereits in der Bibel geschrieben, die heilende, helfende Kraft, die in Form von Psalmengesängen bis hin zu Minnesängen verarbeitet wurde. Bedeutende Fortschritte bezüglich einer unmittelbaren Verbindung verschiedener Sinne und Musik sind allerdings nicht erkennbar bis der italienische Musiktheoretiker F RANCHINO G AFFURIO um 1492 das in Griechenland entstandene modale Tonsystem (Abschnitt 2.2) mit farblichen Entsprechungen in Europa wiedereinführte (vgl. [Day07]). Sein System sah folgende Zuordnungen vor: eine dorische Stimmung repräsentiert eine kristalline Farbe, phrygische Harmonien eine orange, lydische Tonleitern eine rote und mixolydische Stimmungen werden durch eine undefinierte gemischte Farbe beschrieben. Auf welcher Grundlage diese Zuordnungen entstanden konnte allerdings nicht geklärt werden. Am Ende der Epoche griff ATHANASIUS K IRCHER den Gedanken der Sphärenmusik neu auf und unternahm den Versuch einer Systematisierung des musikalischen Denkens. Musik als Abbild des Himmels und die Orgel als himmlisches Instrument. In seinem musiktheoretischen Werk Musurgia Universalis beschäftigt er sich außerdem mit der Affektenlehre (siehe auch Abschnitt 2.3), der Wirkung von Musik und deren physiologischem Hintergrund. Eine seiner ebenfalls darin festgehaltenen Entwicklungen ist die Kompositionsmaschine: in einer Zeit, in der das Verlangen nach einer allgemeinen Verständigung besonders groß war (es existierten noch keine Grammatiken und einheitliche Sprachen) beschreibt K IRCHER die Musik als Universalsprache. Seinen Ausführungen nach lässt sich mit Hilfe der Kompositionsmaschine jeder Text und jede Sprache vertonen und schafft somit eine einheitliche Verständigungsform. Völkerverständigung 26 3.2. Renaissance und Neuzeit wird gefördert und Kriege (zu dieser Zeit besonders Konfessionskriege) können verhindert werden - der Einsatz reicht bis zur Staatenführung und verknüpft Musik somit mit allen Geschehnissen. 3.2. Renaissance und Neuzeit Künstler der Renaissance, vornehmlich L EON B ATTISTA A LBERTI und L EONARDO DA V INCI, fordern schließlich die Gleichsetzung der bil- denden Künste mit den artes liberales (Abschnitt 3.1.2). Als Basis der Forderung diente die Entdeckung der Zentralperspektive, welche auch die bildende Kunst eng mit der Mathematik verband. L EONARDO beschäftigt sich in seinem Werk Il Paragone eingehend mit der Beziehung zwischen Malerei und Musik und meint sogar, dass die Malerei die Musik überragt, weil sie nicht sofort nach der Erschaffung wieder vergeht wie die unglückselige Musik, sondern, im Gegenteil, am Leben bleibt. Er verdeutlich dabei den wesentlichen Unterschied der beiden Künste: die bildenden Künste sind bestimmt durch den Raum, die Musik jedoch durch die Zeit und ist in diesem Sinne vergänglicher. Mit der Renaissance blühten auch die Bemühungen auf, Übereinstimmungssysteme zwischen Farben und Musik zu finden. Da sich die Bemühungen aber auch auf andere Bereiche erstrecken und sich die Gesamtheit in einer derartigen Fülle darstellt, soll der geschichtliche Abriss im Folgenden der Übersichtlichkeit halber in einzelne Bereiche unterteilt werden. 3.2.1. Klang und Farbe Seit der Antike sind Menschen versucht, ein Naturgesetz der Verwandtschaft von Farben und Tönen zu finden. Philosophisch betrachtet könnte man den Grund darin sehen, dass die menschliche Wahrnehmung den einzigen Ort darstellt, an dem Licht und Schall in eine wechselseitige Beziehung treten, in eine Synästhesie von Bild und Ton [Dan06]. Bis heute wurde jedoch keine eindeutige Zuordnung gefunden, die über eine subjektive Wahrnehmung (beispielsweise warmer und kalter Klangfarben) hinaus geht. Eine Erklärung dafür liegt unter anderem in der bereits durch H ELMHOLTZ herausgestellten Tatsache, dass Töne ihren Charakter durch das Verhältnis zu anderen Tönen erhalten, während für Farben die absolute Größe ihrer Schwingungsdauer wichtiger sei, als ihr Verhältnis zu anderen Farben. So würde eine Melodie [im Gegensatz zum Bild] ihren wesentlichen Charakter behalten, wenn sie eine Terz höher transponiert würde 27 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung [Kla07]. Tatsächlich besteht physiologisch kaum eine Analogie zwischen der Ton- und der Farbempfindung: In der Gegend des Gelb und Grün [bezogen auf das Farbspektrum] sind die Farbübergänge außerordentlich schnell, an den Enden des Spectrums außerordentlich langsam. Dort sind sämtliche Übergangsstufen zwischen Gelb und Grün in die Breite eines halben Tones zusammengedrängt, hier befinden sich Intervalle von der Größe einer kleinen oder großen Terz, in denen das Auge gar keine Veränderung des Farbtons wahrnimmt [Kla07]. Alle im Folgenden vorgestellten Modelle beruhen auf subjektiven Eindrücken, wobei bei einigen Vertretern durchaus synästhetische Empfindungen einfließen. In Anlehnung an das bereits durch A RISTOTELES vorgestellte Modell entwickelten ATHANASIUS K IRCHER (um 1646), M ARTIN C UREAU LA DE C HAMBRE (um 1650) und I SAAC N EWTON (um 1700) ihre eigenen Farb-Ton-Modelle (vgl. [Day07, Kla07]). Die genauen Zuordnungen sind im Anhang C zu finden. Bei einer aufmerksamen Betrachtung dieser Modelle fällt auf, dass die Zuordnungen nicht vollständig übereinstimmen. Besonders das Modell Newtons zeigt starke Abweichungen. Dies resultiert im Wesentlichen daraus, dass die Modelle von K IRCHER und DE LA C HAMBRE weitestgehend auf traditionellem Symbolismus und den Überlegungen des A RISTOTELES beruhen. Ob hierbei physiologisch begründete synästhetische Empfindungen einfließen ist nicht ausreichend belegt, ist vermutlich aber eher unwahrscheinlich. Das Newtonsche Modell jedoch geht von einem weit wissenschaftlicheren Standpunkt aus: Newton verarbeitet dabei seine auf Experimenten beruhende Erkenntnis, dass einerseits das sichtbare Lichtspektrum in sieben Farben zerlegbar ist und diese Spektralfarben außerdem den gleichen Proportionsverhältnissen entsprechen wie die Intervalle einer Tonleiter. Später streitet Newton jedoch eine wahre Verbindung zwischen Farben und Tönen ab. Sein Modell beschreibe lediglich Analogien. Trotz der Diskussionen um die Authentizität von Farb-Ton-Zuordnungen, gab es fortwährend Bemühungen, diese Verschmelzung herzustellen. Ein beständiger Verfechter der Farb-Ton-Verbindung war der französische Jesuitenpater und Mathematiker L OUIS -B ERTRAND C ASTEL. Inspiriert von den Arbeiten K IRCHNERS setzte er sich als Erster über die theoretischen Betrachtungen hinweg und entwickelte, auf seinem eigenen Ton-Farb-Modell aufbauend, die erste technische Umsetzung einer Farb-Ton-Fusion: 1742 stellte er sein Licht-Cembalo vor, das Clavecin Oculaire. Dieses bestand aus einem Cembalo, über welchem sich ein großer mit 60 kleinen farbigen Fenstern bestückter Rahmen befand. An jedem Fenster war ein kleinen Vorhang befestigt, welcher über ein 28 3.2. Renaissance und Neuzeit Hebelsystem mit den einzelnen Tasten verbunden war. Bei Tastendruck wurde der jeweilige Vorhang gehoben, so dass das Licht der dahinter stehenden Kerze durch die farbigen Scheiben fiel und die farbliche Entsprechung des Tones den Zuschauer erreichte (vgl. [Mor97, Lev00]). Der Erfindung C ASTELS folgten eine Reihe von Entwicklungen audiovisueller Instrumente, darunter auch zahlreiche Farbklaviere, deren grundlegender Aufbau sich nur unwesentlich von ihrem „Urmodell“ unterschieden. (a) Pyrophone (b) B ISHOPs color-organ (c) R IMINGTON vor seiner color-organ Abb. 3.2.: Farborgeln des 19.Jahrhunderts Auf einem anderen Klangerzeugungsmechanismus beruhte das, 1869 von F REDERIK K ASTNER entwickelte, Pyrophone (Abbildung 3.2(a)), welches durch farbige Gasflammen zugleich Licht und Töne erzeugte. Es bestand aus 37 unterschiedlich langen Glasröhren, ähnlich einer Orgel, und einer dreioktavigen Tastatur. Aufbauend auf dem physikalischen Effekt der singenden Flammen befand sich in jeder Röhre ein Kreis kleiner Gasbrenner deren Flammen sich, durch Vergrößern oder Verringern, verbanden und wieder trennten (vgl. [Lev00]). Das Anschlagen einer Taste bewirkte das Trennen der Flammen der jeweiligen Röhre und erzeugte somit sowohl den Klang, als auch Farben. Die Entdeckung der Elektrizität eröffnete neue Möglichkeiten. Dies machte sich auch B AINBRIDGE B ISHOP in Amerika zu Nutze und entwickelte 1877 sein color-organ (Abbildung 3.2(b)), eine elektrisch betriebene Farborgel, deren Aufbau im Wesentlichen dem des Clavecin Oculaire entsprach. Allerdings wurde hier statt Kerzen elektrisches Licht genutzt, so dass das Problem der Hitze und des schlechten Geruchs umgangen werden konnte (vgl. [Mor97]). B ISHOP selbst beschrieb sein Werk in [Bis93] als ... a large ground glass about five feet in diameter, framed 29 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung like a picture, and set in the upper part of the instrument. On this the colors were shown. The instrument had little windows glazed with different-colored glass, each window with a shutter, and so arranged that by pressing the keys of the organ the shutter was thrown back, letting in a colored light. [...] Chords were shown properly, the lower bass spreading over the whole as a ground or foil for the other colors or chords of color, and all furnishing beautiful and harmonious effects in combination with the music. Wenig später, im Jahr 1893, begann auch A LEXANDER WALLACE R IMINGTON in England mit dem Bau seines Color-Organs (Abbildung 3.2(c)), dessen entscheidende Neuerung verschieden einstellbare farbige Lampen darstellten, welche unterschiedliche Abstufungen in Farbton, Helligkeit und Sättigung ermöglichten. R IMINGTON ließ sein Modell erstmals patentieren. Mit seinen Modellen wurden um 1895 erste Konzerte gegeben, welche sich sowohl in Europa, als auch in den Vereinigten Staaten starker Beliebtheit erfreuten (vgl. [Day07]). Ein Problem stellte allerdings der Mangel existierender Werke dar, welche das Mitwirken einer Farborgel explizit vorsahen. Die 1911 von A LEXANDER S CRIABIN komponierte sinfonische Dichtung Prométhée, le poéme du feu war das erste Werk, welches in der Partitur spezielle Anweisungen für den Einsatz einer Farborgel enthielt. Bei der Uraufführung dieses mit synästhetischen Motiven durchsetzten Werkes 1915 in New York wurde das Licht über R IMINGTONs FarborgelModell auf eine Leinwand oberhalb des Orchesters geworfen. Auch S CRIABIN entwickelte auf Basis seiner eigenen Synästhesieerlebnisse eine Farb-Ton-Zuordnung (Anhang C) und strebte in seinen Werken das Zusammenwachsen aller fünf Sinne zu einer Einheit an (vgl. [FG06]). Die (synästhetischen) Experimente aus Musik, Farbe und Form nehmen über die Jahrhundertwende stärker zu. Bereits 1850 fordert R ICHARD WAGNER das Erstreben eines Gesamtkunstwerkes als einzige Form der weiteren Entwicklung von Malerei, Tanz, Musik und Dichtung (vgl. [Dan06]). Dieser Gedanke kommt nicht nur in dem von ihm eigens für seine Vision erschaffenen Gebäude, dem Festspielhaus Bayreuth, zum Ausdruck, sondern ist auch in seinen Opern stark nachvollziehbar. In diesen verarbeitet er sein Streben nach einer perfekten Vereinigung aus Musik, Text, dramatischer Handlung und Bühneninszenierung. Weitere Impulse liefern der Fortschritt in Elektrik und Optik, die Erfindung des Films, die Entwicklung der modernen Wahrnehmungspsychologie und der Einzug der Abstraktion in die bildenden Künste (vgl. [Lev00, S.23]). Es entstanden eine Reihe von Erfindungen, von denen im Folgenden einige der bedeutendsten Erwähnung finden werden. Eine detaillierte Zeittafel ist in [Lev00, Appendix A] zu finden. 30 3.2. Renaissance und Neuzeit Die wichtigsten Vertreter der amerikanischen Szene sind T HOMAS W ILFRED, M ARY H ALLOCK G REENEWALT und C HARLES D OCKUM. Obwohl der in Dänemark geborene T HOMAS W ILFRED anfangs von der Existenz einer absoluten Abbildung zwischen Ton und Farbe überzeugt war, widerlegte er diese These nach eingehenden Studien der Arbeiten seiner Vorgänger. Er wandte sich nunmehr der Kunst des puren Lichtes zu, bei welcher Farbe und Ton keine oder nur eine nebenläufige Rolle spielen sollten. Das von ihm 1919 entwickelte Clavilux gehört somit eigentlich nicht mit in den Bereich der Musik-Farb-Experimente, soll aber aufgrund seiner Ähnlichkeit zu anderen Farborgeln dennoch genannt werden. Die Farben des Clavilux entstanden durch bemalte ineinander überblendende Scheiben (Abbildung 3.3), welche durch die, auf der Tastatur befindlichen, fünf Reihen koppelbarer Tasten und Hebel gesteuert wurden. Sechs Reflektoren und einige Hilfsreflektoren sorgten für die nötige Helligkeit (vgl. [Lev00, S.23ff]) der Projektionen, welche von W ILFRED als Lumia bezeichnet wurden (Abbildung 3.4). Neben den großen Vorführsystemen, unter anderem für die ab 1922 öffentlich stattfindenden Clavilux-Konzerte, entwickelte W ILFRED aber auch eine Reihe so genannter Lumia-Boxen, welche Fernsehern ähnlich für den Heimgebrauch nutzbar waren (Abbildung 3.5(a)) und bis zu Monaten spielen konnten ohne Bilder zu wiederholen (vgl. [Mor97]). Einige seiner Werke sind im Internet unter [Col07a] als Animation oder Standfoto zu finden. Abb. 3.4.: Standbilder einer Clavilux Vorführung: Study in Depth, Opus 152, 1959 im Hirshhorn Museum, Washington, D.C. [Mal07] Im Gegensatz zu W ILFRED soll M ARY H ALLOCK G REENEWALT synästhetische Fähigkeiten besessen haben. Die studierte Pianistin suchte mit der Entwicklung ihrer Farborgel, der Sarabet (Abbildung 3.5(b)), die Atmosphäre eines Konzertsaales für besonders gefühlvolle Musik, wie beispielsweise der von Chopin, zu beeinflussen. Um gleichmäßige Lichtübergänge schaffen zu können, entwarf sie den Rheostat, einen stufenlos einstellbaren elektrischen Widerstand, und den liquid mercury switch, den Quecksilberschalter, welche später von vielen anderen Künstlern adaptiert wurden (vgl. [Mor97]). 31 Abb. 3.3.: Scheiben einer ClaviluxProjektion 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung (a) W ILFRED vor (b) G REENE einem Home-WALT mit Clavilux Sarabet [Lev00] [Mor97] (c) D OCKUM mit seinem MobilColor Projector [Mor97] (d) B ARANOFF -R OSSINÉs Piano Optophonique [Gro07] Abb. 3.5.: Audio-Visuelle Instrumente des 20.Jahrhunderts Wie W ILFRED unterstützt durch ein Forschungsstipendium des Guggenheim Museums, entwickelte der Kalifornier C HARLES D OCKUM ab den späten 30iger Jahren verschiedene Farborgeln. Seine bedeutendste Entwicklung ist der MobilColor, ein großes Projektionssystem (Abbildung 3.5(c)), welches bewegte Muster und farbige Formen erzeugen konnte. Er unterschied dabei drei Arten von Bildern: geometrische Formen, vibrierende Punktmuster und weiche sinnliche Pfade und Linien (vgl. [Mor97]). Der Vorführer arbeitete mit vorgefertigten Bildern, welche durch Rotation, Translation und unterschiedliche Färbung verändert wurden. Die weichen und dann wieder harten Kanten der Bilder entstanden durch Defokussieren und Fokussieren (vgl. [Lev00]). Ein erheblicher Nachteil gegenüber dem automatisch laufenden Clavilux war allerdings, dass zur Vorführung eines MobilColor drei Personen nötig waren. Dennoch überzeugten die Projektionen durch ihre erstaunliche Lichtintensität und den komplexen übereinander gelagerten Bildern (Abbildung 3.6) with a „living“ glow more „real“ than any imagery projected through cinema [Mor97]. Abb. 3.6.: Projektionen des MobilColor Projector [Lev00] Beeinflusst durch Farblichtinstrumente und beseelt von dem Wunsch, die musikalischen Elemente (Klangintensität, Klanghöhe, Rhythmus und Bewegung) zu isolieren, um sie ähnlichen, existierenden Elementen im Licht zuzuführen [vM94, S.214] entwirft der ukrainische Künstler W LADIMIR B ARANOFF -R OSSINÉ um 1916 das Piano optophonique (Abbildung 3.5(d)). 32 3.2. Renaissance und Neuzeit Obwohl es sich hierbei (vgl. Clavilux) um eine reine Lichtprojektion handelt, ist es aufgrund seiner Form- und Farbvariationen in dem hiesigen Kontext nennenswert. Im Inneren des Instruments befanden sich die so genannten optophonischen Scheiben, verschiedene mit Farben und Formen bemalte Glasscheiben (Abbildung 3.7(a)), welche sich bei Tastendruck, ähnlich dem Clavilux, von Motoren angetrieben drehten. Das projizierende Licht wurde darüber hinaus je nach Tastenanschlag durch zusätzliche optische Elemente wie Prismen, Linsen und Spiegel geleitet, so dass sich auf der vor dem Instrument befindlichen Leinwand vielfältige, kaleidoskopartige Projektionen (Abbildung 3.7(b)) ergaben (vgl. [vM94, Lev00]). (a) Ausschnitt einer bemalten optophonischen Scheibe (b) kaleidoskopartige statische Projektionen Abb. 3.7.: Piano Optophonique Der gegen Ende des 19.Jahrhunderts von T HOMAS A LVA E DISON entwickelte Phonograph ermöglicht es erstmals, Klang aufzuzeichnen und wiederzugeben. Er führt schließlich über die Entwicklung des Kinetoscopes, für die Wiedergabe von Bildern, kurz darauf zum Kinematographen, der ersten Filmkamera (vgl. [Dan06]). Obwohl diese Erfindungen zunächst die Trennung von Bild und Ton förderten (Grammophon und Stummfilm), beflügeln diese dennoch die Möglichkeiten vor a. der abstrakten Kunst, welche zu dieser Zeit in Europa, besonders in Deutschland, großen Einfluss hatte. So beschäftigte sich beispielsweise A LEXANDER L ÁSZLÓ, ungarischer Musiker und Komponist, neben theoretischen Arbeiten auch mit Kompositionen zum Thema Farblichtmusik. In diesem Rahmen entstanden unter anderem die 11 Préludes Opus 10 (1. ultramarine, 2. yellow, 3. violet etc.) (vgl. [Day07, Mor97]). Seine Kompositionen wurden größtenteils auf seiner eigens konzipierten Farborgel mit farbigen Scheinwerfern und Diaprojektionen vorgeführt. Um gefilmte abstrakte Bilder in seine Vorführungen mit aufnehmen zu können, engagierte er den durch WALTHER R UTTMANN3 maßgeblich beeinflussten O SKAR F ISCHINGER. 3 Pionier des abstrakten Films, der gemeinsam mit seinen damaligen Kollegen nach neuen Formen im Ausdruck des Films suchte 33 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung Abb. 3.8.: Lumigraph während einer Vorführung [Lev00] Später beschäftigte sich F ISCHINGER, inzwischen als großer abstrakter Animator bekannt, auch mit Farborgelinstrumenten und entwickelte um 1940 den Lumigraph, welcher ihn befähigte, Licht zu jedweder Musik zu spielen (vgl. [Mor97]) und der sich durch eine gänzlich neue Methode hervorhob. Der Lumigraph bestand zum Einen aus einem drei mal drei Fuß großen, mit einer Latexfolie überzogenem, Holzrahmen, welcher als (Film-) Leinwand diente. In einem an der Seite befestigten Holzkasten rotierten außerdem mit farbigem Gel bestrichene Glasstreifen (eine Farbe pro Glasstreifen), welche auf der Hinterseite des Kastens manuell bewegt wurden und somit parallel verschiedene Farben erzeugten (vgl. [Fis07a]). Durch eine kleine Öffnung an der Vorderseite des Kastens gelangte das durch die Glasstreifen gefärbte Licht der Neonröhren auf die Gummileinwand, wobei die Lichtschichten sowohl parallel, als auch direkt auf die Leinwand projiziert wurden (vgl. [Sni03]). Die charakteristischen farbigen Übergänge entstanden, indem sich eine Person hinter der Leinwand verschieden stark mit unterschiedlichen Körperteilen gegen die Leinwand drückte und somit die einzelnen farbigen Lichtschichten durchbrach (Abbildung 3.8). Eine schematische Darstellung des Lumigraph ist in Anhang C zu finden. Jede Geste des Spielers, ob fein oder energisch, bewirkte eine visuelle Veränderung, so dass die Musik augenblicklich Gestalt und Farbe annahm (vgl. [Fis07a]). Das Lichtspiel selbst ist hier allerdings keine direkte Reaktion auf die Musik, sondern wird durch die Bewegungen des Spielers erzeugt. Die Musik dient als Begleitung und zur Inspiration des Spielers. In der Öffentlichkeit wurde der Lumigraph nur selten aufgeführt, wurde aber unter anderem in dem 1964 erschienenen science-fiction Film The Time Travelers als „love machine“ eingesetzt [Mor97]. Auch F ISCHINGER hoffte, wie schon C ASTEL und W ILFRED vor ihm, dass Lumigraphen als Alltagsgegenstände Einzug in die Haushalte nehmen würden. Zwar ist dies nie geschehen, man kann den Lumigraph aber noch heute im Deutschen Filmmuseum in Frankfurt besichtigen. 34 3.2. Renaissance und Neuzeit 3.2.2. Musik in Bildern Die nahe liegendste Form der Darstellung von Musik in Bildern oder Zeichen ist die der musikalischen Notation, wie sie seit Jahrhunderten besteht, den Partituren. Neben der üblichen linearen Zeilennotation existieren ganz eigene Ausprägungen. Bei der so genannten Augenmusik, wie sie häufig zwischen 1400 und 1650 praktiziert wurde, wird die Ästhetik einer solchen visuellen Vermittlung musikalischer Strukturen besonders gut deutlich (vgl. [FG06, War00]). Das Interessante an dieser Notationsform ist, dass der Künstler nicht nur die rein musikalische, sondern auch eine symbolische Notation ableiten kann. Bekannte Beispiele für Augenmusiken dieser Zeit sind T ELEMANNs Gulliver Suite und B AUDE C ORDIERS Belle, Bonne, Sage, in welchem die Stimmen des dreistimmigen Rondos in Herzform angeordnet sind (Abbildung 3.9(a)). Der Komponist D IETER S CHNEBEL greift diesen Gedanken im 20. Jahrhundert mit seinem Leseund Bilderbuch Mo-No: Musik zum Lesen wieder auf und versucht, mit Hilfe der Bilder, Musik im Kopf des Lesers entstehen zu lassen, so dass er im Lesen allein seiend - mono - zum Ausführenden von Musik wird, für sich selbst Musik macht (vgl. Klappentext von [Sch69]). Eine Abbildung aus seinem Buch ist in Abbildung 3.9(b) dargestellt. (a) C ORDIER: Partitur zu Belle, Bonne, Sage, um 1400 (b) Aus D IETER S CHNEBELs Mo-No: Musik zum Lesen (c) J OHN C AGE: Fontana Mix Abb. 3.9.: Augenmusik, (a) aus [FG06], (b) und (c) aus [Med06] Das Aufbrechen der bildenden Kunst zur Abstraktion führte auch zu neuen Konzepten musikalischer Interpretation, welche in Grundzügen denen der Augenmusik ähneln. Künstler wie beispielsweise E DGAR VARESE sprechen von einer räumlichen Musik, bei welcher sich Klänge als bewegliche Tonkörper im Raum entfalten. Sie träumen von spatialer Musik, wie sie ansatzweise bereits bei H EINRICH S CHÜTZ (17. Jahrhundert) durch räumlich verteilte Musiker oder später bei S TOCKHAUSEN über die räumliche Verteilung von Tonquellen und in der Elektronik umgesetzt wurde (vgl. [vM94]). Aus der Notwendigkeit heraus, die 35 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung Klangphänomene, Klangeffekte und Klangerzeuger der neuen Musik in eine in den Raum greifende adäquatere Zeichensprache zu überführen, gelangte die musikalische Notation in der Musikalischen Grafik zu einer bildhaften Eigenständigkeit (vgl. [vM94]). Vereinzelte Komponisten, wie J OHN C AGE und E ARLE B ROWN, begannen, grafische Partituren zu erstellen (Abbildung 3.9(c)). Die Partitur zu J OHN C AGEs Fontana Mix besteht aus 20 Seiten geschwungener Linien mit zufällig darüber verteilten Punkten. Die genaue Tonhöhe, Tondauer, Lautstärke und Klangfarbe wurde anhand von, zu den grafischen Vorlagen definierten, Regeln bestimmt (vgl. [FG06]). Deutlich wird, dass sich die Musiker mit linearen Formen und einer schwarz-weißen Darstellung begnügen, da für sie die Verdeutlichung von musikalischen Strukturen und Verknüpfungen, Tonhöhenverläufe, Artikulation und instrumentale Differenzierung im Vordergrund stehen (vgl. [vM94]). In Anhang D sind weitere Beispiele grafischer Musik zu finden. (a) B ILINSKY: Graphische Umsetzung eines Choralvorspiels (b) K LEE: Bildnerische Darstellung der Anfangstakte aus B ACHs Adagio der sechsten Sonate für Violine und Cembalo, G-Dur (c) K LEE: 3D Darstellung eines Melodieverlaufs Abb. 3.10.: Verhältnis zwischen musikalischer und bildnerischer Form B ORIS B ILINSKY soll einer der ersten Maler gewesen sein, die versucht haben, ein Transponierungssystem von Musik in Farben und Formen zu finden. Die Graphische Umsetzung des Choralvorspiels ’Herzlich tut mich verlangen’ von Bach, BWV 727, ist in Abbildung 3.10(a) zu sehen. Auch Bauhaus-Maler wie PAUL K LEE beschäftigten sich mit der Beziehung zwischen musikalischer und bildnerischer Form und suchten nach eigenen Transkriptionsformen. In [Gro07, vM94] werden zwei Ansätze K LEEs vorgestellt: während die eine Umsetzung stark an moderne Sequenzer-Programme erinnert (Abbildung 3.10(b)), welche Tonhöhen in Form eines Koordinatensystems mit der Zeitachse verbinden, repräsentiert die 3D-Variante sehr gut die dynamische Bewegung einer Melodie (Abbildung 3.10(c)) und spiegelt das musikalische Geschehen auf eine besondere Weise wieder (vgl. [Gro07, vM94]). H ENRIK N EUGEBOREN erstellt aus seiner diagrammartigen Transkription (Abbildung D.11 36 3.2. Renaissance und Neuzeit im Anhang) einiger Takte aus B ACHs vierstimmiger Fuge No.1 des Wohltemperierten Klaviers (in Es-Moll) gar eine dreidimensionale Plastik (Abbildung D.17 im Anhang). Während die Einbeziehung bildnerischer Mittel in der Musik, abgesehen von der Augenmusik, erst um 1950 begann, waren Maler schon frühzeitig bestrebt, wie Musiker zu arbeiten und blieben von den Einflüssen durch Klänge und Musik nicht unberührt. Sowohl das akustische Umfeld, als auch der Klang von Pinsel, Gravournadel oder Meißel inspirierten die Künstler. In ganz offensichtlicher Form äußert sich dies in den immer wieder auf Bildern verschiedenster Künstler abgebildeten Musikinstrumenten (zum Beispiel G EORGES B RAQUE, PABLO P ICASSO). Eine Auswahl an beispielhaften Werken ist in Anhang D und D zu finden. G EORGES VANTONGERLOO schreibt 1924 in L’Art et son Avenir, dass die Neue Gestaltung [...] ausgeglichene Beziehungen der Farben [Malerei], der Volumen [Skulptur], der Töne [Musik] wünscht, um zu einer ästhetischen Einheit zu gelangen und erinnert damit an die Visionen WAGNERs. WAS SILY K ANDINSKY beispielsweise verarbeitet musikalische Erlebnisse in seinen abstrakten Farbmustern und drückt darüber Klangeindrücke und zeitliche Proportionen aus (vgl. [FG06]). Die Aufführung eines von A RNOLD S CHÖNBERGs Konzerten 1911, bereits geprägt durch den Beginn seiner atonalen Schaffensperiode, gaben K ANDINSKY und anderen Künstlern der Neuen Künstlervereinigung (unter anderem F RANZ M ARC) einen entscheidenden Impuls zur Abstraktion. K ANDINSKYs Gemälde Impression 3 (Abbildung D.1 im Anhang) entstand unter diesem Eindruck (vgl. [Joh07]). Interessant wird die Betrachtung seiner Bilder und Werke mit dem Wissen, dass auch K ANDINSKY die von ihm empfundenen Zuordnungen zwischen Instrumenten und Farbe in einem Farb-Instrument-Modell (Anhang C) festgehalten hat. Darüber, ob er Synästhet war, ist sich die Literatur nicht einig. (a) M ONDRIAN: Broadway Boogie Woogie, 1942/43 (b) W EDER: Orchestersuite 3 in D-Dur von J.S.Bach, 1980-81 (c) D USCHEK: Bach, Sonate 1 in G-Moll, 1977 Abb. 3.11.: Rhythmus in Bildern 37 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung Andere abstrakte Künstler wie P IET M ONDRIAN (Abbildung 3.11(a)), J AKOB W EDER (Abbildung 3.11(b)), K ARL D USCHEK (Abbildung 3.11(c)) und H ANS R ICHTER versuchten in ihren Bildern verstärkt auch den Rhythmus von Musik widerzuspiegeln. Das Raster aus wiederkehrenden kleinen Formen, ähnlich einem Grundschlag, und akzentuierenden größeren Formen in M ONDRIANs Bildern vermitteln den Eindruck tänzerisch-rhythmischer Bewegungen. J.J. S WEENEY beschreibt seinen Eindruck der Bilder folgendermaßen: Das Auge wird von einer Gruppe von Farbtönen in unterschiedlicher Schnelligkeit zur anderen geführt. Gleichzeitig und kontrastierend mit dem endlosen Wechsel in den kleineren Motiven herrscht die konstante Wiederholung des Rechten-Winkel-Themas vor, das wie ein gleichbleibender Baß-Anschlag durch ein Gesprenkel rasender Arpeggios und graziöser Klarinettentöne hindurchdröhnt [vM94, S.403]. 3.2.3. Klang und Form Eine der ersten bekannten Überlieferungen der so genannten Tonschreibekunst, welche versucht, Töne auf Formen abzubilden, findet sich 1787 (vgl. [Lev03]). E RNST F LORENS F RIEDRICH C HLADNI experimentierte mit auf Glasscheiben verteiltem Quarzstaub, welcher ganz eigene Formen bildet (Abbildung 3.12), wenn ein Violinbogen die Glasplatte in Schwingungen versetzt. Er fand heraus, dass die jeweiligen Klangfiguren bestimmten Tönen entsprechen (Abbildung E.1 in Appendix E) und katalogisierte diese in seinem Werk Die Akustik von 1802. Das faszinierende Abb. 3.12.: Klangfiguren aus Quarzstaub dieser Technik ist, dass die Formen tatsächlich, aufgrund physikalischer Gesetze, aus den Tönen selbst entstehen. Inspiriert von Arbeiten K LEEs, wie zum Beispiel der Fuge in Rot (Abbildung D.2 im Anhang), entwickelte der am Bauhaus tätige L UDWIG H IRSCHFELD -M ACK mehrere Farb-Form-Lichtspiele. So entstand 1921/22 in Zusammenarbeit mit K URT S CHWERDTFEGER das Farbenlicht-Spiel (Abbildung 3.13(b)), welches Musikelemente mit dem Spiel, den Mischungen und Überlagerungen der Farben und Formen verband [vM94, S.216]. Das Spiel umfasste rhythmisch bewegte gelbe, blaue, rote und grüne Lichtfelder, welche in verschiedenen Helligkeitsstufen und Formen auf einer transparenten Leinwand künstlerisch geplant orchestral dargeboten wurden. Der Aufführung der Lichtspiele dienten spezielle Partituren, welche der Musik die jeweiligen Farben und Formen zuordneten (Abbildung 3.13(a)). 38 3.2. Renaissance und Neuzeit (a) Auszug der Partitur von H IRSCHFELD -M ACKs ’Dreiteiliger Farbensonatine’ (b) Projektionsaufnahme Farb-Licht-Spiel Abb. 3.13.: Farbenlicht-Spiel Die Herausbildung des abstrakten Films im 20. Jahrhundert erschloss in Form der bewegten Abstraktion eine ganz neue Welt von Bildern. Der daraus entstandenen Bewegung des Absoluten Films gehörten unter anderem WALTER R UTTMANN, O SKAR F ISCHINGER, V IKING E GGELING und H ANS R ICHTER an. Schließlich unterstützte die Entwicklung des Tonfilms als Synthese aus Klang und Bild das Interesse, die Äquivalenz zwischen Form und Musik eingehender zu untersuchen. Als repräsentatives Beispiel gilt der von O SKAR F ISCHINGER vorgestellte Film Radio Dynamics (Abbildung 3.14). Als F ISCHINGER im Laufe seiner Arbeit die Ähnlichkeit der abstrakten Formen seiner Filme und denjenigen der Tonspur bewusst wird, beginnt er mit dem, nach dem optoelektrischen Prinzip arbeitenden, Lichtton zu experimentieren (vgl. [Gro98]). Eines der Resultate ist der Film Klingende Ornamente, welcher dem Betrachter genau diejenigen Formverläufe vorführt, die gleichzeitig auf der Tonspur den Klang erzeugen (Abbildung 3.15). Er fand heraus, dass flache und glatte Figuren weiche und weit weg klingende Töne ergeben, mittelgroße Dreiecksformen eine normale Lautstärke und spitz zulaufende Formen mit tiefen Einschnitten den lautesten Klang erzeugen (vgl. [Fis07b]). Ein ähnliches Beispiel ist L ÁSZLÓ M OHOLY-N AGYs Film Tönendes ABC. Obwohl diese Form der Bild-Klang-Relation technisch nicht eindeutig ist, da ganz unterschiedliche Filmsequenzen den gleichen akustischen Eindruck erzeugen können4 , bilden sie dennoch eine Art technischer Synästhesie (vgl. [Kla07]). Im Gegensatz zu F ISCHINGER, welcher seine Bildsequenzen mit Hilfe des Tonfilms hörbar machte, arbeitet R UDOLF P FENNINGER nach dem umgekehrten Prinzip. Mit Hilfe eines Oszilloskops studierte er die durch bestimmte Töne erzeugten graphischen Formen und fand über die 4 die Photozelle registriert zwar Veränderungen der Lichtintensität, nicht aber bestimmte Muster 39 Abb. 3.14.: Standbild aus F ISCHINGERs Radio Dynamics 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung Abb. 3.15.: Photoplatten von F ISCHINGERs Klingende Ornamente Jahre eine eindeutige graphische Entsprechung für jeden Ton. Er war somit in der Lage, mit Hilfe seiner Tönenden Handschriften, vorhandene Melodien zu visualisieren (vgl. [Lev03]). Ähnlich dazu entwickelte der Abb. 3.16.: M C L AREN: Abbildung eines Tones über Index-Card und Schablone Kanadier N ORMAN M C L AREN eine Methode, verschiedene Klänge über Schablonen zu erzeugen. Dazu entwickelte und katalogisierte er zunächst so genannte Index-Cards, deren in bestimmten Abständen aufgemalte Streifen die Töne der jeweiligen chromatischen Tonleiter darstellten. In Abbildung 3.16 ist am unteren Rand der Index-Card die Beschriftung der Tonstufen in Solmisationsform (do-re-mi-fa-so-la-si-do steht für C-D-E-F-G-A-H-C) zu erkennen. Um unterschiedliche Klangfarben (anschwellend oder abschwellend) zu erhalten, maskierte er die jeweiligen Töne der Index-Card mit einer in spezieller Form geschnittenen Schablone (Abbildung 3.17). In dieser Weise wurde Ton für Ton auf die Abb. 3.17.: M C L AREN: Schablonen optische Tonspur des Filmes fotografiert (vgl. [Lev00]). Die Besonderheit dieser auf dem Prinzip der optischen Tonspur beruhenden Techniken ist, dass sie die Klänge nicht nur repräsentieren, sondern diese auch direkt generieren. Ebenfalls in den Bereich der Synthese aus Klang und Form fallen die zahlreichen Arbeiten mit Oszilloskopen ab den 50er Jahren. Auch hier wird der Ton direkt, in Wellenform auf dem Bildschirm, abgebildet. Vertreter dieser Richtung sind M ARY E LLEN B UTE, N ORMAN M C L AREN und Videobsp. 4.: L.LYE, Colour Flight, 1937 die W HITNEY Brüder. Zahlreiche Film- und Installationskünstler spielen mit Formen, Farben, Bewegung und Bild und stellen diesen Geräusche und Töne gegenüber. L EN LYEs abstrakte Filme erinnern stark an moderne Musikvideos, wobei LYE die Musik lediglich als Untermalung der im Vordergrund stehenden Bilder nutzt (siehe Videobeispiel 4 und 5). Als einer der bekanntesten Videokünstler sei N AM J UNE PAIK genannt, dessen Videobsp. 5.: L.LYE, Particles in Space, 1966 Werke sich zum Großteil sehr experimentell mit der Fernseh- und Videotechnik auseinandersetzten, wobei Video und Sound derart eng verbunden sind, dass die Anwesenheit des einen ohne das andere kaum vorstellbar scheint. Da dies aber nur noch bedingt in den Bereich der Musikvisualisierung fällt, werden dessen Werke hier nicht näher betrachtet. 40 3.2. Renaissance und Neuzeit Im Laufe dieser Jahre erfreuen sich audiovisuelle Experimente zunehmender Beliebtheit, so dass konzertbegleitende bombastische Lichtshows zu einem Muss für jeden Pop-Star werden (bis in die heutige Zeit hinein). KünstlerInnen wie zum Beispiel L AURIE A NDERSON nutzen vielfältige audiovisuelle Elemente als Versinnbildlichung ihrer Musik. Musikvideos werden nahezu zur eigenständigen Kunstform und Videojockeys (VJs) arbeiten mit Diskjockeys (DJs) Hand in Hand, um Kompositionen aus Musik und Bildern zu schaffen. 3.2.4. Klang durch Aktion Klang durch Aktion beschreibt den Einsatz von Klang und Musik als Feedback für getätigte Aktionen. Bei der Interaktion mit der Umwelt und besonders im Einsatz mechanischer Geräte ist der Mensch seit jeher an eine direkte akustische Rückmeldung durchgeführter Aktionen gewöhnt. Man läuft durch den Wald und die Stöckchen knacken. Ein Motor läuft, sobald man das Rattern vernimmt. Diese Geräusche fehlen in der digitalen Informationsverarbeitung und beschreiben somit einen der Gründe für den immer noch für viele Menschen ungewohnten Umgang damit. Wurde der Button nun betätigt oder noch nicht? Wieso startet ein Programm, das eigentlich nicht ausgewählt wurde? Die steigende Komplexität graphischer Benutzeroberflächen verlangt von dem Nutzer, neben der Erfüllung seiner eigentlichen Arbeitsaufgabe, zusätzliche Aufmerksamkeit bei der Nutzung der Werkzeuge. Um den Umgang zu erleichtern reichen graphische Lösungen oft nicht aus, da diese neben der zusätzlichen visuellen Belastung außerdem weiteren Raum auf dem Bildschirm benötigen. Warum also nicht die Eigenschaft des Menschen ausnutzen, Aufgaben im Zusammenspiel verschiedener Sinne zu absolvieren und somit gleichermaßen der Urgewohnheit des akustischen Feedbacks gerecht werden? Die Vorteile eines unterstützenden Einsatzes von Sound in diesem Bereich sind, dass Sound die visuelle Aufmerksamkeit des Nutzers nicht stört, omnidirektional wahrgenommen wird und sehr effektiv auf Veränderungen aufmerksam machen kann, während der Nutzer seiner Aufgabe nachgeht. Die genutzten Sounds werden in Form so genannter Earcons eingesetzt: abstrakte strukturierte nicht-sprachliche Klangnachrichten, welche außerdem den Vorteil der Sprachunabhängigkeit besitzen. Problematisch ist allerdings die unter bestimmten Bedingungen einsetzende Geräuschbelästigung. Der Einsatz von Klängen sollte also gut durchdacht sein (siehe auch Guidelines zum Einsatz von Ear- 41 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung cons [BWE95]). Im Folgenden werden einige Beispiele des unterstützenden Einsatzes durch Earcons vorgestellt. Audio Unterstützung für Buttons Buttons einer Benutzeroberfläche am Bildschirm sind einer der grundlegendsten Bestandteile einer Mensch-Computer-Schnittstelle. Eine der Hauptfehlerquellen bei der Nutzung solcher Buttons ist der Eindruck des Nutzers, der Button sei gedrückt worden, obwohl dies nicht der Fall ist. Dies geschieht beispielsweise wenn der Nutzer den Button verlässt, bevor die Maustaste losgelassen wurde. Diese Probleme treten immer dann auf, wenn der Nutzer, sich auf eine Aufgabe konzentrierend, nicht auf den Button schaut, um die Auswahl zu überprüfen. B REWSTER ET AL . [BWED95] empfehlen den Einsatz zwei verschiedener Sounds, um adäquates Feedback zur Unterscheidung eines erfolgreichen oder fehlgeschlagenen Buttonklicks bereitzustellen: einen, um das highlighting des Buttons zu untermalen, sobald der Nutzer mit dem Mauszeiger über den Button fährt, und einen weiteren Klang, um das erfolgreiche Klicken zu indizieren. Audio Unterstützung für Menüs Ähnlich den Buttons tritt auch bei Menüs das Auswahlproblem auf: zum einen kann es zu einer Fehlauswahl kommen, indem ein anderer darüber oder darunter liegender Eintrag getroffen wird (item slips) oder aber es wird gar kein Element ausgewählt (menu slip). Zur Unterstützung schlagen B REWSTER ET AL . [BC97] vor, drei Earcons zu verwenden. Eines um das Ausklappen eines Menüs zu signalisieren: sobald und solange wie der Mauszeiger über den Menüpunkt fährt, erklingt der Sound. Dabei wird für jeden Menüpunkt eine eigene Instrumentfamilie gewählt. Um die einzelnen Menüeinträge unterscheiden zu können, wird eine Kombination zweier Earcons (in unterschiedlichen Tonlagen) empfohlen: für gerade und ungerade Menüeinträge. Der Sound erklingt, sobald der Mauszeiger länger als eine halbe Sekunde über dem Menüeintrag verharrt. Das dritte Earcon steht schließlich für die getroffene Auswahl. Falls ein Trennstrich getroffen wurde ertönt kein Sound, so dass der Nutzer erkennt, ob ein Eintrag ausgewählt wurde oder nicht. Audio Unterstützung für Tool-Paletten Tool-Paletten (Abbildung 3.18) sind ein üblicher Bestandteil der meisten Grafikprogramme, mittels welcher dem Nutzer eine Auswahl an Bearbeitungswerkzeugen zur Verfügung gestellt wird. Die Benutzung der einzelnen Tools ist allerdings oft unterschiedlich angelegt: bei manchen Pro- 42 3.2. Renaissance und Neuzeit grammen fällt die Auswahl nach der Benutzung eines Tools zur Standardeinstellung, meistens dem Auswahltool, zurück, bei anderen wiederum bleibt das ausgewählte Tool aktiv bis der Nutzer die Auswahl ändert. Wenn sich der Nutzer nicht bewusst ist, welches Tool gerade ausgewählt ist, können diese verschiedenen Nutzungsmethoden zu Usabilityproblemen führen. Dies geschieht vor allem, sobald sich der Nutzer voll und ganz auf seine Arbeitsaufgabe konzentriert. Ein Lösungsvorschlag wäre die Repräsentation der einzelnen Tools durch verschiedene Earcons. Da das Hauptproblem jedoch im Wechsel von einem Tool zu einem anderen liegt, schlagen B REWSTER ET AL . [BC05] vor, lediglich den Toolwechsel durch Sound zu untermalen. Audio Unterstützung für blinde Nutzer Der Einsatz nicht-sprachlicher Sounds im Interfacedesign kann besonders auch blinde Nutzer unterstützen, sich besser zurecht zu finden. Zwar kann durch Screenreader der textliche Inhalt zugänglich gemacht werden, durch Soundunterstützung kann darüber hinaus aber auch ein besserer Eindruck des Aufbaus und des Geschehens verdeutlicht werden. So kann beispielsweise das Scrollen mit Scrollbalken über die in Abschnitt 2.1.3 vorgestellten Shepard-Risset Tonfolgen akustisch repräsentiert werden (vgl. [BLC96]). (a) Kreis (b) Rechteck (c) Horizontale Linie Abb. 3.19.: Musikalische Objektrepräsentation [AR98] A LTY und R IGAS zeigen in [AR98] ein Verfahren, mittels dessen sowohl einzelne Objekte, als auch ganze Szenen von Objekten über Klang erfahrbar gemacht werden. Jedem Objekt wird eine bestimmte Art Klang zugeordnet (Abbildungen 3.19(a), 3.19(b) und 3.19(c)). Um die gesamte Szene zu erfassen, werden drei verschiedene Arten musikalischer Scans verwendet: Top-Down Scanning (stufenweises Abtasten der Szene von oben nach unten in Leserichtung), Centre Scanning (Abtasten in größer werdenden Kreisen von der Mitte beginnend) und Ascending Scanning (Abtasten der Objekte im Raum nach steigender Größe). Wenn darüber hinaus ein Bezug zum Kontext hergestellt werden kann, der Nutzer also ungefähr weiß, ob es sich zum Beispiel um eine Straßenszene oder Buchstaben han- 43 Abb. 3.18.: Toolpalette eines Grafikprogramms 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung delt, wurden in den durchgeführten Experimenten (vgl. [AR98]) erstaunlich hohe Erkennungsraten erreicht. Während die bisher vorgestellten Earcons vorwiegend aus einfachen Tonfolgen bestehen, stellen H ANKINSON und E DWARDS (vgl. [HE99]) eine musikalisch komplexere Anwendung vor. Die Erstellung der jeweiligen Earcons unterliegt dabei einer Art musikalischer Grammatik, welche sich unter anderem aus den Elementen Note, Akkord, Rhythmus, Tonhöhe und Melodie zusammensetzen kann und sich (in dem vorgestellten Fall) an den Regeln der westlichen Tonharmonie orientiert. Dabei wird besonders die Wechselwirkung der musikalischen Konsonanz und Dissonanz ausgenutzt. Ziel ist es, eine musikalische Rückmeldung bezogen auf bestimmte Objekte und darauf auszuführende Aktionen zu geben, wobei nicht alle Aktionen auf jedes Objekt ausführbar sind. Die Ausführbarkeit der jeweiligen Aktion wird über einen wohlklingenden (Ausführung möglich) oder dissonanten (Ausführung nicht möglich) Akkord repräsentiert. Auf Grundlage der in Abbildung 3.20(a) beispielhaft dargestellten Kombinationsregeln von Objekten und Aktionen, werden Akkorde einander so zugeordnet, dass eine mögliche Aktion auf ein Objekt einen wohlklingenden Akkord und eine nicht mögliche Aktion einen dissonanten Akkord hervorrufen (Abbildung 3.20(b)). Um darüber hinaus nicht nur die Möglichkeit einer Aktion, sondern auch die Art der jeweiligen Aktion hörbar zu machen, schlagen die Autoren den Einsatz von kurzen, prägnanten auf den jeweiligen Akkorden beruhenden Melodien vor (Abbildung 3.20(c)). (a) Objekt-Aktion Kombinationen (b) beispielhafte Objekt-Aktion Akkorde (c) mögliche Earcon Melodien für Objekte und Aktionen Abb. 3.20.: Earcons auf Basis musikalischer Grammatiken [HE99] Diese Art des Musikeinsatzes unterstützt die besondere Eigenschaft von Musik, selbst sehr feine Unterschiede zu verdeutlichen. Dies ist auch darauf zurückzuführen, dass das Gehör des Nutzer auf Feinheiten empfindlicher reagiert, als es oftmals visuell der Fall ist. Viele Nutzer würden beispielsweise eher Unstimmigkeiten einer Klangharmonie, als einer Farbharmonie wahrnehmen. 44 3.2. Renaissance und Neuzeit 3.2.5. Klang zeitgenössischer Arbeiten - Fusion der Stile The world of abstract expression pioneered in twentieth century art by Schoenberg in music and Kandinsky and others in painting can now be given concrete expression thanks to the interactive media made possible by computer technology Masaki Fujihata in [FFW07] 3.2.5.1. Messa di Voce (G. L EVIN, 2003) Messa di Voce (italienisch, „die Stimme setzen“) ist eine audiovisuelle Performance und Installation für Stimme und interaktive Medien, welche in Zusammenarbeit von G OLAN L EVIN und Z ACHARY L IEBERMAN entstand. Jede stimmliche Nuance der Stimmakrobaten (J OAN L A B AR BARA und J AAP B LONK), ob Geräusche, Sprache oder Gesang, wird über eine spezielle Software in korrespondierende, ausdrucksstarke Grafiken umgesetzt. Diese virtuellen Objekte dienen jedoch nicht nur als Abbild der Stimme, sondern sind auch Instrument der Interaktion: durch körperliche Manipulationen können die Künstler den Klang der erzeugten Grafiken wieder abspielen. Messa di Voce verbindet phonetische Klangkunst mit virtuellen Objekten über Echtzeitberechnung interaktiver Systeme und versucht in zwölf aufeinander folgenden kurzen Akten (Vignetten) die Bandbreite symbolischer, taktiler und audiovisueller Aspekte darzustellen. Diese werden im Folgenden kurz beschrieben (vgl. [LL03]). Brightness-Balance (Helligkeit-Balance) präsentiert die fundamentalen Elemente des Messa di Voce Systems: Licht und Atem. Das Atmen des einen Stimmkünstlers erzeugt die auf die Leinwand projizierten Beleuchtungen und Animationen, während der Atem des anderen Stimmkünstlers die Elemente rotieren lässt. Clouds (Wolken) bildet aus Luft-, Wind- und Atemgeräuschen animierte Wolken (siehe Abbildung 3.23(a)), deren Struktur sich aus der Klangfarbe des die Wolke erzeugenden Geräuschs ergibt: helle Geräusche bewirken unruhige Wolkenstrukturen (siehe Abbildung 3.22), während dunk- Abb. 3.21.: „hhhhhh“ Wolke (Clouds) lere Klänge weichere Wolken (siehe Abbildung 3.21) ergeben. Bodystamp (Körperabdruck) stempelt die Körperumrisse der Künstler als helle Schatten auf die Leinwand: sobald ein Stimmkünstler zu sprechen oder singen beginnt, wird sowohl der Ton, als auch die bewegte Silhouette des Künstlers aufgezeichnet und später synchron in periodischen Zyklen wieder abgespielt (siehe Abbildung 3.23(b)). 45 Abb. 3.22.: „ssssss“ Wolke (Clouds) 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung (a) Clouds (b) Bodystamp (c) Ripple Abb. 3.23.: Ausschnitte aus Messa di Voce Bounce erzeugt, durch ein eigentümliches Wangenschlackerge- räusch hervorgerufene, aufsteigende Blasen (siehe Abbildung 3.26(a)), welche am oberen Rand aneinander drändelnd eine instabile Wolke bilden. Die Wolke zerfällt, sobald sich der Stimmkünstler der Leinwand zuwendet und Blase um Blase fällt zu Boden (siehe Abbildung 3.26(b)), wobei beim Aufeinandertreffen der Blasen mit dem Künstler oder dem Boden das die Blase erzeugende Geräusch widerklingt. Ripple (Wellen) Abb. 3.24.: Wellenerzeugung pro Ton (Ripple) wandelt die Leinwand zur Wasseroberfläche, welche durch Schnatter- und Schnalzgeräusche - jeder Ton ergibt eine Welle (siehe Abbildung 3.24) - bewegt wird. Simultane Bewegungen und Töne eines Künstlers bewirken Verwirbelungen (siehe Abbildung 3.23(c)). Insect Nature Show (Insekten) stellt eine Art Tierdokumentation dar, bei welcher der Erzähler in abstrakter Sprache die Eigenschaften eines Wesens, verkörpert durch den anderen Stimmkünstler, erläutert, und damit ein filigranes Liniengebilde erzeugt (links in Abbildung 3.26(c)). Das Tier selbst besteht aus dem grob gezeichneten Umriss der interaktiv projizierten Silhouette des Künstlers (siehe Abbildung 3.25), welche Abb. 3.25.: Umriss (Insect Natur Show) sich je nach Tonhöhe und Klangfarbe der Geräusche ändert. Spezielle Zischlaute bewirken einen dampfartig aufsteigenden Blasenstrom (siehe Abbildung 3.26(c)). (a) Bounce (b) Bounce (c) Insect Nature Show Abb. 3.26.: Ausschnitte aus Messa di Voce 46 3.2. Renaissance und Neuzeit (a) Fluid (b) Stripes Abb. 3.27.: Ausschnitte aus Messa di Voce Fluid (Flüssigkeit) bildet durch weiche tuschelnde und zischende Laute leuchtend-rauchartige Strömungen (siehe Abbildung 3.27(a)), deren Richtung über Körperbewegungen beeinflusst werden kann. Die Vokalart des erzeugenden Lautes bestimmt die Farbe der Strömungen: zum Beispiel ergeben helle Vokale, wie „ee“, grünliche und gelbe Farbtöne. Rothko erstellt zu den aufsteigenden Melodien des Stimmkünstlers R O THKO s Bildern ähnliche farbige Säulen (siehe Abbildung 3.29(a)), deren Färbung und Position durch die Klangfarbe und Tonhöhe der die Säule erschaffenden Melodie und durch die Position des Künstlers beim Singen bestimmt wird. Die Melodien werden in Echtzeit aufgenommen und im Loop (kontinuierliche Wiederholung) abgespielt. Stripe (Streifen) bewirkt die Darstellung schmaler, je nach Tonhöhe und Klangfarbe, verschiedenfarbiger Streifen (siehe Abbildung 3.27(b)), welche das von puren Tönen und feinen Dissonanzen bestimmte Duett der beiden Stimmakkrobaten auf eine besondere Weise visualisieren. Pitchpaint (Malen nach Tonhöhen) erzeugt aus dem Gesang der Künstler abstrakte Gemälde (siehe Abbildung 3.29(b)), deren Liniendicke durch die Lautstärke bestimmt wird. Absteigende Tonfolgen bilden im Uhrzeigersinn drehende Linien, aufsteigende Tonfolgen gegen den Uhrzeigersinn drehende Linien (siehe Abbildung 3.28) und Tonfolgen auf gleicher Höhe repräsentieren gerade Linien. Eine Oktave bildet einen Halbkreis. Die Linien beginnen an der Position des Künstlers und verblassen über die Zeit. Geschlossene Flächen werden, je nach Art des vorherrschenden Vokals, mit einer bestimmten Farbe gefüllt. „Ssch!“-Geräusche löschen das Bild. Zum Abschluss der Performance stellen sich die Akteure und Schöpfer von Messa di Voce selbst vor, wobei die ausgesprochenen Namen als Wortblase auf der Leinwand erscheinen (siehe Abbildung 3.29(c)). 47 Abb. 3.28.: Richtung je nach Tonabfolge 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung (a) Rothko (b) Pitchpaint (c) Credits Abb. 3.29.: Ausschnitte aus Messa di Voce 3.2.5.2. The Shape of a Song (M. WATTENBERG) Eine strukturbasierte Art der Musikvisualisierung erstellt die Software zu The Shape of a Song, welche die Struktur der in Midi-Form vorliegenden musikalischen Werke analysiert und darauf aufbauend Diagramme halbtransparenter Bögen erstellt, die Aufschluss über die Tiefenstruktur der Komposition geben. Dabei werden jeweils zwei sich gleichende Passagen des Musikstücks als ein Bogen verbindend dargestellt. In Abbildung 3.30(a) ist das Analyseergebnis des einfach-strukturierten Stückes Mary Had a Little Lamb abgebildet, wobei anhand der Partitur die Korrespondenz zwischen Noten und Bögen nachvollziehbar ist. Komplexere Kompositionen ergeben dementsprechend kompliziertere Diagramme (Abbildung 3.30(b)). [Wat06] (a) Mary Had a Little Lamb (b) B EETHOVEN: Sonata Pathetique, Adagio Abb. 3.30.: Musikanalyse mittels The Shape of a Song The Shape of a Song macht sich die Eigenschaft von Midi-Dateien zu nutze, neben Beschreibungen der Noten auch Spuren der einzelnen Instrumente oder Stimmen zu beinhalten. Diese Daten werden durch die Software separat untersucht und ergeben letztendlich ein repräsentatives Bild der musikalischen Struktur des Stückes, da auch die besonders den einzelnen Stimmen eigenen Wiederholungen erkannt werden. Auf den Internetseiten von The Shape of a Song [Wat06] ist eine große Auswahl an Beispielstücken zu finden. 48 3.2. Renaissance und Neuzeit 3.2.5.3. AVES - AudioVisual Environment Suite (G. L EVIN, 2000) Die AudioVisual Environment Suite von G OLAN L EVIN ist ein Tool für audiovisuelle Performances und beinhaltet fünf verschiedene Systeme. Beeinflusst durch die Bildsprache abstrakter Gemälde und Animationen befähigt AVES den Nutzer, abstrakte Klänge, Bilder und Animationen zu schaffen und miteinander zu verbinden. Jedes der Teilsysteme wird auf seine Weise durch die Gesten des Nutzers in Echtzeit gesteuert und stellt somit ein experimentelles, flexibles und leicht zu erlernendes interaktives Interface dar (vgl. [Lev00]). (a) Aurora (b) Floo (c) Yellowtail (d) Loom Abb. 3.31.: Teilsysteme der AudioVisual Environment Suite (AVES) beschreibt eine schimmernde nebelartige Wolkenstruktur Aurora aus Klang und Farbe (siehe Abbildung 3.31(a)), welche sich durch die Bewegungen des Nutzers entfaltet, auflöst oder verschwindet. Floo formt rankenartige Gebilde (siehe Abbildung 3.31(b)), welche sich nutzergesteuert ausbreiten und verschlingen. Das Wachsen der Ranken ist begleitet von Shepard-Risset artigen synthetischen Tonfolgen. wiederholt die durch den Nutzer in Form und Bewe- Yellowtail gung spezifizierten Striche (Abbildung 3.31(c)) und erzeugt über ein inverses Spektogramm korrespondierende Klänge. Warbo befähigt den Nutzer, animierte Kompositionen leuchtender Blobs zu erschaffen. Loom wiederholt die vom Nutzer gezeichneten Figuren (siehe Ab- bildung 3.31(d)) untermalt mit Klang und schafft somit ein rhythmisches Bild-Klang-Erlebnis. 3.2.5.4. Small Fish (M. F UJIHATA , K. F URUKAWA , W. M UENCH, 2000) Die hinter Small Fish stehende Idee ist es, einen Raum zu schaffen, in welchem die Bedeutung grafischer Elemente wie Punkte, Linien und Farben mit der Bedeutung tonaler Elemente wie Tonhöhe und Klangfarbe interagiert. Musik über grafische Elemente erfahren, ohne ständig bewusst zu übertragen. Small Fish ist eine spielerische Installation, bei welcher 49 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung sich kleine projizierte Fische über die am Boden befindliche ProjektionsVideobsp. 15.: Smallfish, ARS Electronica Linz fläche bewegen. Beim Zusammenstoß mit darauf verstreuten grafischen Objekten erzeugen sie bestimmte Töne. Die verschieden geformten projizierten Grafiken reagieren auf reale, je nach Installation zum Beispiel aus Schaumstoff (siehe sowohl Abbildungen 3.32(c) und 3.32(d) als auch Videobeispiel 16) oder Plastik (siehe sowohl Abbildungen 3.32(a) und 3.32(b) als auch Videobeispiel 15) bestehenden, Objekte, die vom Nutzer bewegt werden können, um den Tonfluss zu beeinflussen. Je nach Form Videobsp. 16.: Smallfish, ICC Tokyo des Objektes entstehen unterschiedliche Klänge (vgl. [FFW07]). (a) ARS Electronica Center Linz, 2000 (b) AEC Linz Detail (c) ICC Tokyo, 2000 (d) C3 Budapest, 2001 Abb. 3.32.: verschiedene Installationen des Small Fish 3.2.5.5. Arbeiten von TOSHIO I WAI Medienkünstler T OSHIO I WAI ist seit mehreren Jahren im Bereich audiovisueller Programme und Installationen tätig. So entstanden beispielsweise in Zusammenarbeit mit unterschiedlichen Firmen eine Reihe von Computerspielen und audiovisuellen Musikinstrumenten. Einige seiner Arbeiten werden im folgenden exemplarisch vorgestellt. Music Insects (1992) Das für Nintendo und das San Francisco Exploratorium entwickelte Computerspiel, stellt eine Mischung aus Zeichen- und Soundprogramm dar. Mit Hilfe der Eingabesteuerung platziert der Nutzer aus einer Palette verschiedenfarbige Pixelpunkte oder ganze Linien auf dem Bildschirm, welche, sobald eines der sich auf dem Bildschirm bewegenden Insekten diese berührt, einen Klang und eine Art Lichtblitz auslösen. Über die Punkte kann auch die Laufrichtung der Insekten kontrolliert werden (vgl. [Iwa07b, Lev00]). Toshio selbst bezeichnet sein Programm als a sort of tool for visual music performance (Abbildung 3.33(a)). Tenori-On (2006) Dieses noch in Entwicklung befindliche digitale Musikinstrument entstand in Zusammenarbeit mit YAMAHA. Es besteht aus 16x16, in einen Aluminiumrahmen gefassten, LED Knöpfen Abbildung 3.33(b)), welche 50 3.3. Zusammenfassung und Fazit es via Fingerdruck ermöglichen, intuitiv visuelle Musik zu komponieren. Mit Hilfe der zusätzlich am Rahmen befestigten Knöpfe können Licht und Klang geändert werden. Die Rückseite des Tenori-on besteht aus ebenfalls 16x16 LED Lampen, welche das Licht der Vorderseitenknöpfe kopieren und somit bei Bühnenpräsentationen ein beeindruckendes Lichtspiel erzeugen. Deutlich wird hier I WAIs Anliegen, die Schönheit von Licht und Klängen in einem greifbaren Interface zu vereinen (vgl. [Iwa07a]). Das Videobeispiel (siehe Überschrift) zeigt eine Vorführung des Tenori-On durch T. I WAI selbst. Piano - as an image media (1995) Diese multimediale Installation besteht aus zwei Projektionsflächen, welche an der Tastatur eines elektromechanischen Flügels zusammenkommen. Über die Eingabesteuerung (in Abbildung 3.33(c) jeweils auf der linken Seite) werden auf der ersten Projektionsfläche punktartig leuchtende Daten-Events in Richtung Tastatur geschickt (vgl. [Gro07]), welche auftreffend das Anschlagen der jeweiligen Tasten auslösen und als Lichtblitze oder farbige Formen auf der zweiten Projektionsfläche nach oben verschwinden. Ein Eindruck dessen bietet das Videobeispiel (siehe Überschrift). Als Variation dieser Installation lässt T OSHIO I WAI die Formen und Lichtblitze durch einen live spielenden Pianisten erzeugen. In einer diese Variante weiterführenden Variation bewirken dessen Lichtblitze wiederum das Anschlagen der Tasten eines weiteren, in diesem Fall elektromechanischen, Flügels, so dass eine Art Fugenkonzert in Zusammenspiel von Mensch und Technik entsteht. (a) Music Insects (b) TOSHIO I WAI mit Interface seinem Tenori-On (c) Installation Piano - as an image media Abb. 3.33.: Arbeiten von TOSHIO I WAI 3.3. Zusammenfassung und Fazit Der geschichtliche Abriss verdeutlicht, dass die Verbindung von Klang und Bild seit jeher eine große Bedeutung für den Menschen besitzt, wobei der Ursprung in den, in Abschnitt 3.1.1 angesprochenen, Schöp- 51 3. Musik und bildende Kunst - Geschichte der Musikvisualisierung fungsmythen der Frühzeit liegt. Nachdem sich im Laufe der Zeit der Mantel des Magisch-Unerklärbaren lüftet und Raum lässt für bewussten Einsatz, gewinnen auch strukturelle Untersuchungen, zunächst vor allem des Klanglichen, stärker an Bedeutung. Dies wird in den mathematisch-musikalischen Theorien des P YTHAGORAS deutlich, der damit den Grundstein der Musiktheorie schuf (Abschnitt 3.1.2). In den darauf folgenden Abschnitten wurden die, besonders mit Beginn der Renaissance, aufblühenden zahlreichen Bemühungen beschrieben, eine Synthese aus Klang und Bild zu finden. Dabei wurde gemäß der unterschiedlichen Ausprägungen unterschieden in Klang und Farbe, Klang und Form und Musik in Bildern. Abschnitt 3.2.4 beschäftigte sich schließlich mit den im Bereich der digitalen Informationsverarbeitung angesiedelten Bemühungen, Bild mit Klang zu verbinden. Diesbezüglich wurden Beispiele aufgeführt, die zum einen die Nutzung erleichtern und zum anderen beispielsweise blinden Nutzern den Zugang überhaupt erst ermöglichen. Abschließend wurden in Abschnitt 3.2.5 Arbeiten zeitgenössischer Künstler vorgestellt, welche in beeindruckender Art und Weise klangbildliche Zusammenspiele in einer Fusion der verschiedensten Stile präsentieren und dabei viele der im Laufe der Geschichte entstandenen Ideen verarbeiten. 52 4. Die Möglichkeit eines musikalischen Interaktionsbildes Die Essenz aus den im vorherigen Abschnitt vorgestellten Arbeiten soll nun einfließen in neue Überlegungen, die sich mit der Möglichkeit und Art und Weise einer Repräsentation grafischer Objekte durch Klänge (und in der Weiterführung Musik) beschäftigen. Dabei steht die Frage im Vordergrund, wie die Erfahrungen der „historischen Arbeiten“ und das Wissen über Musik genutzt werden können, um Visualisierungen hörbar zu machen. Die Auslegung von Klängen wird hierbei vorwiegend tonal geprägt sein. Geräusche werden bei den Überlegungen weitestgehend außer Acht gelassen, wenngleich diese gegenüber Tönen den entscheidenden Vorteil bergen, neben der auditiven Information stets auch Hinweise über deren Quelle zu vermitteln. Dieses Arbeitsfeld wird jedoch durch einen anderen Forschungsbereich beschritten. Während im Folgenden also zunächst das Vokabular und Modell des (bildnerischen) Interaktionsbildes vorgestellt wird, sind die Überlegungen im Anschluss daran auf die Abbildungsbeziehungen von Visualisierungen und Musik in der Interaktion gerichtet. Welche Eigenschaften bietet Musik? Suggerieren bestimmte Klänge bestimmte bildnerische Eigenschaften oder umgekehrt? Es wird außerdem auf die zu beachtenden Aspekte einer Integration akustischer Ereignisse in Interfaces und deren Vorteile eingegangen. Zusammengefasst stellen die Überlegungen einen Ansatz dar, eine Interaktionsbild ähnliche Systematisierung für den Einsatz klanglicher Elemente zu finden. 4.1. Das Interaktionsbild Die Schnittstelle zwischen Nutzer und interaktiver virtueller bildhafter Gestaltung beschreibt G ROH [Gro05] in Form des Interaktionsbildes (Abbildung 4.1), welches im Folgenden kurz erläutert werden soll. Die Komplexität der Interaktion wird im Interaktionsbild, wie in Abbildung 4.1 dargestellt, auf vier syntaktische Felder heruntergebrochen: Gestalt, Raum, Bewegung und Dauer. Gestalt und Bewegung beschreiben dabei die Ant- 53 4. Die Möglichkeit eines musikalischen Interaktionsbildes wort gebende quantitative Dimension, innerhalb welcher das Konkrete, Messbare, individuell Erfahrbare und Echte zu finden ist, wobei der Betrachter stets als Maßstab und Bezugspunkt herangezogen werden kann. Dem gegenüber steht die Fragen aufwerfende, durch Raum und Dauer beschriebene, qualitative Dimension, welche das Unanschauliche und Metaphorische umfasst. In deren Pluralität der räumlichen und zeitlichen Bezugspunkte (Multiperspektivität) verliert der Betrachter an Bedeutung. Die syntaktischen Felder sind außerdem durch eine weitere Zuordnung gekennzeichnet: während Gestalt und Raum statische Konstrukte (zum Beispiel Gegenstände, Orte, Situationen und Knoten) beschreiben, finden sich in Dauer und Bewegung dynamische Verhältnisse (zum Beispiel Relationen, Übergänge und Transformationen) wieder (vgl. [Gro05, S.104]). Konkretisierend wird jedem der vier syntaktischen Felder eine im Gestaltungsprozess übliche und gebräuchliche Vergegenständlichung [Gro05, S.104] wie folgt zugeordnet: Gestalt - Körper, Raum - Sphäre, Bewegung - Fahrt, Dauer - Schnitt. Abb. 4.1.: Übersicht über die das Interaktionsbild beeinflussenden Elemente [Gro05] Wie in Abbildung 4.1 zu sehen ist, werden außerdem so genannte Übergangssyntagmen definiert, welche zum einen die Zwischenform aus Gestalt und Raum, Blatt, und zum anderen den Übergang zwischen Dauer und Bewegung, Blättern, beschreiben. In zwei weiteren Stufen einer semantisch-funktionalen Konkretion, welche zunächst auf die Funktionalität interaktiver und prozessualer Systeme verweist und diese schließlich präzisiert, werden die in Tabelle 4.1 dargestellten Zuordnungen vorgenommen. 54 4.1. Das Interaktionsbild Syntagmen 1. Stufe 2. Stufe Raum [Sphäre] Offenheit Suchen Gestalt [Körper] Endlichkeit Wählen Bewegung [Fahrt] Gegenwärtigkeit Handeln Dauer [Schnitt] Unabhängigkeit Ordnen Tabelle 4.1.: Zuordnungen der semantisch-funktionalen Konkretion [Gro05, S.154] G ROH schafft außerdem eine Verbindung zwischen den einzelnen Syntagmen und den verschiedene Arten von Interfaces (Abbildung 4.1). Er unterscheidet dabei unmittelbare Interfaces, simulierende Interfaces und mittelbare Interfaces (vgl. [Gro05, S.133ff]). Bei unmittelbaren Interfaces wird die Realität durch das Interface in ihrer konkreten Gestalt abgebildet, so dass der Nutzer glaubt, die Realität direkt vor sich zu haben (Rechner verschwindet) und diese in Echtzeit erfährt und beeinflusst. Mittelbare Interfaces verdecken die Realität vor dem Nutzer, welcher die Realität nunmehr ausschließlich über das durch das Interface bereitgestellte Abbild erfahren und beeinflussen kann. Die Wirklichkeit ist somit sowohl zeitlich, als auch räumlich vom Nutzer entkoppelt. Die Mischform zwischen diesen beiden Gegenpolen bilden die simulierenden Interfaces, bei denen die Realität ähnlich den unmittelbaren Interfaces direkt erfahrbar ist, während das Interface eine kommentierende Rolle einnimmt. Das Interface stellt ein Abbild der Realität dar, welches allerdings im Gegensatz zu mittelbaren Interfaces noch direkt erfahr- und beeinflussbar ist. Während bisher die das Interaktionsbild bestimmenden Elemente in ihrer Systematisierung vorgestellt wurden, setzt sich das Interaktionsbild selbst letztendlich zusammen aus dem Datenbild und dem Navigationsbild (vgl. [Gro05, S.169ff]). Dabei steht das Datenbild für die mittels Computergrafik visualisierte Datenstruktur und das Navigationsbild zeigt die Möglichkeiten des Nutzers, mit diesem zu interagieren und dient gleichzeitig als Interpretationshilfe. G ROH beschreibt darauf aufbauend zwei Arten der Interaktion: die datenbildkonforme und die navigationsbildkonforme Interaktion. In der datenbildkonformen Interaktion wird nicht verändernd in das Datenbild eingegriffen, sondern zum Beispiel mittels detailbezogener Vergrößerung, durch Sprünge in der Beobachtungsperspektive (Draufsicht, Vorderansicht etc.) oder über, das Verständnis für die Datenlandschaft unterstützende, Hilfsmittel (zum 55 4. Die Möglichkeit eines musikalischen Interaktionsbildes Beispiel Lineale) interagiert. Die navigationsbildkonforme Interaktion hingegen sucht die optimierte Erkundung [Gro05, S.177] und Interpretation des Datenbildes und fordert in diesem Sinn dessen Veränderung. Eine solche Veränderung kann sich dynamisch oder statisch einerseits als Objektänderung oder aber als Strukturänderung (bzgl. des Objektortes also) äußern. Ausführliche Beschreibungen zum Interaktionsbild und dessen bestimmende Elemente und Interaktionen sind in [Gro05] zu finden. 4.2. Der musikalische Charakter 4.2.1. Untersuchungen zur Musik Es stellt sich nun die Frage, inwiefern eine Systematisierung, ähnlich der soeben vorgestellten, auch für den Einsatz von Musik in der Interaktion gefunden werden kann, um den Gestalter bei der Auswahl des Musikeinsatzes zu unterstützen? Ein musikalisches Interaktionsbild sozusagen. Um sich der Problematik schrittweise zu nähern, soll zunächst geklärt werden, was den musikalischen Charakter ausmacht. Was ist Musik? Abb. 4.2.: Modell der Spannungen in der Musik, angelehnt an C OOKE [Coo59] Aus der Sicht eines Komponisten beschreibt A RNOLD S CHÖNBERG Musik als eine Kunst, die sich in der Zeit abspielt. Aber die Vorstellung des Kunstwerks beim Komponisten ist davon unabhängig, die Zeit wird als Raum gesehen. Beim Niederschreiben wird der Raum in die Zeit umgeklappt [vM94, S.328]. Elementarer betrachtet kann Musik, wie in Abschnitt 2.2 (S. 14) bereits erwähnt, als die Spannung zwischen den Tönen verstanden werden (vgl. [Coo59, S.34ff]), welche durch bestimmte Charakteristika beeinflusst werden: die Tonhöhe, die Zeit und die Lautstärke (Abbildung 4.2). Diese Faktoren werden wiederum durch weitere Elemente bestimmt. So entsteht die Spannung der Tonhöhe zum einen durch tonale Spannungen (ein hoher Ton ist in der Regel spannungsvoller als ein tiefer) und zum anderen durch Intervallspannungen (eine Septime wird als spanungsvoller emp- 56 4.2. Der musikalische Charakter funden als beispielsweise eine Quarte). Eine zeitliche Spannung kann einerseits durch den Rhythmus (Spannung zwischen einem starken und einem schwachem (Zweier) oder einem starken zwei schwachen (Dreier) Schlägen) und außerdem durch die Dauer der Töne entstehen, wobei hier Faktoren wie Tempo (schnell vs. langsam), Bewegung (gleichmäßig vs. ruckartig) und Phrasierung (Staccato versus Legato) zum Tragen kommen. Lautstärke kann Spannungen durch das Wechselspiel aus leisen (Piano, Pianissimo) und lauten (Forte, Fortissimo) Passagen erzeugen. Abb. 4.3.: Schematischer Aufbau von Musik In der Weiterführung dieses Gedankens kann festgestellt werden, dass Musik modular aufgebaut ist und die musikalische Komplexität mit steigender Abstraktionsstufe wächst. Die einzeln betrachteten musikalischen Elemente formen, ineinander geschachtelt, schließlich eine Melodie, die im Zusammenspiel mit anderen Stimmen, Instrumenten oder Musikern das Musikstück bildet. Dies ist in Abbildung 4.3 schematisch dargestellt. Die in kleinen eckigen Kästchen befindlichen Elemente sind als (kleinste) Eigenschaften der jeweiligen, diese umgebenden, abgerundeten Kästen zu betrachten, welche musikalische Einheiten darstellen. Als musikalische Einheiten sollen im Folgenden jene elementaren Komponenten von Musik verstanden werden, die nicht nur Eigenschaft, sondern eigenständig musikalisch existent und hörbar sind. In Kombination mit weiteren Eigenschaften können musikalische Einheiten (zum Beispiel Ton oder Akkord) neue musikalische Einheiten bilden (zum Beispiel Melodie). Jede musikalische Einheit kann auch Eigenschaft der musikalischen Einheit höherer Stufe sein. Ein Ton wird durch die Eigenschaften Klangfarbe, Tonhöhe, Lautstärke, Rauhigkeit (siehe Abschnitt 2.1.3, S. 13) und Nachhall bestimmt. Die Eigenschaft Nachhall steht hier vorrangig für den durch ein Instrument selbst hervorgerufenen Nachhall. So kann beispielsweise beim Klavier über eine der Pedalen direkt ein Nachhall 57 4. Die Möglichkeit eines musikalischen Interaktionsbildes der Töne erzeugt werden. Die zum Beispiel durch die Umgebung beeinflusste Art von Nachhall, so dass Töne beispielsweise in einer Kirche viel stärker nachhallen, als in einem mit Stoff bespannten Raum, wird hier vorerst außer Acht gelassen, da dies nicht als musikeigenes Attribut betrachtet wird. Aufbauend auf der musikalischen Einheit Ton und deren Eigenschaften setzt sich ein Akkord aus einer bestimmten Anzahl an Tönen und den Tonabständen zwischen diesen zusammen. Auch wenn sich Musik genau genommen stets über die Zeit definiert, soll an dieser Stelle eine Unterscheidung vorgenommen werden: zwar breitet sich der Klang von Ton und Akkord über die Zeit aus, dennoch werden diese als abgeschlossene Einheiten gesehen, welche in sich zu einem bestimmten Zeitpunkt betrachteten werden. Die zeitlichen Kriterien erlangen erst in nächster Stufe gestaltende Bedeutung, bei der Beschreibung einer Melodie. Zu den Zeit gestaltenden Kriterien zählen vor allem Rhythmus, Metrum und Tempo. Da die Abgrenzung dieser Begrifflichkeiten nicht eindeutig ist und selbst in der Literatur differiert, soll die Bedeutung, wie sie in dieser Arbeit verwendet werden wird, kurz erläutert werden. Der Grundschlag als regelmäßiger Puls bildet die Grundlage des Metrums und wird durch den Takt als metrische Ordnungsgröße gruppiert. Der Takt ist gekennzeichnet durch die Beziehungen einer Zeiteinheit (des Taktganzen) zu ihren gleichzeitig mit ihr einsetzenden Teilwerten (Zählzeiten) [MH83, S.53]. Das Metrum selbst stellt durch Akzente eine Art Betonungsmuster der zugrunde liegenden Struktur dar. So kann beispielsweise ein 4/4-Takt auf der Eins und Drei oder aber auf der Zwei und Vier betont werden. Die Grundlage des Rhythmus sind die unterschiedlichen Tondauerwerte, welche in den Beziehungen zueinander (kürzer als, länger als, gleichlang) den Charakter des Rhythmus bestimmen (siehe auch [MH83, S.20ff]). Die Wechselwirkung des Metrums und des Rhythmus entsteht durch die zeitliche Gestaltung, innerhalb welcher das Metrum bereits bestimmte rhythmische Gruppierungen impliziert. Das Metrum kann auch als Grundlage des Rhythmus betrachtet werden, was in Abbildung 4.3 durch die gestrichelte Erweiterung des Rhythmus gekennzeichnet ist, welche das Metrum mit einfasst. Das Zeitmaß wird demnach durch das Metrum gesetzt, während der Rhythmus die Zeit gestaltet. Das Tempo wiederum bestimmt die Abfolgegeschwindigkeit der musikalischen Einheiten und beeinflusst somit den Grundschlag des Metrums. Ausführliche Definitionen und interessante Diskussionen zu den zeitlichen Kriterien von Musik sind unter Anderem in [MH83] zu finden. Weitere zeitlich bedingte Eigenschaften einer Melodie sind die Bewegung und die Phra- 58 4.2. Der musikalische Charakter sierung, die unter anderem bereits in Abbildung 4.2 Erwähnung fanden und maßgeblich durch den Rhythmus beeinflusst werden. Eine Melodie ist also geprägt durch die über einen Zeitraum hinweg betrachtete Aneinanderreihung von Tönen oder Akkorden und wird durch zeitliche (zum Beispiel Rhythmus und Metrum) und harmonische Eigenschaften (gestaltend) bereichert. In die harmonischen Kriterien fließen neben den musiktheoretischen Gesetzmäßigkeiten (siehe Abschnitt 2.2, S. 14) auch kulturelle und gesellschaftliche Regeln ein, die das Harmonieempfinden prägen können. Diese sollen hier allerdings nur am Rande betrachtet werden, da sie die Musik einerseits nur bedingt beeinflussen und Interfaces im Idealfall losgelöst vom Kulturkreis funktionieren sollten. Das musikalische Zusammenspiel, das Musikstück, entsteht schließlich aus Melodien und der hier benannten „Raum“-Komponente, welche die vertikale und horizontale Ausdehnung beschreiben soll. Sie steht für die Aneinanderreihung mehrerer Melodien in zeitlicher Abfolge (horizontal) und für das zeitliche Zusammenspiel mehrerer Stimmen und Instrumente (vertikal). 4.2.2. Ansätze einer Kategorisierung Während Abbildung 4.3 den Versuch zeigt, Musik in ihre Einzelmodule zu zerlegen, um derart heruntergebrochen Eigenschaften zu identifizieren, welche musikbestimmend sind, wird im Folgenden untersucht, inwieweit diese Eigenschaften für den (unterstützenden) Einsatz in der Interaktion denkbar wären. Zunächst werden einige beispielhafte interaktionsrelevante Ereignisse zusammengetragen und untersucht, welche Eigenschaften von Musik in dem jeweiligen Fall hilfreich wären. Hier kommen die in Abbildung 4.3 herausgearbeiteten Eigenschaften zum Tragen. Tabelle 4.2 bildet das Ergebnis der Überlegung ab, wobei die eingeklammert markierten Abbildungen nur unter Vorbehalt eingesetzt werden sollten. Es zeigt sich, dass beispielsweise für die Darstellung von Kontrasten alle Eigenschaften einsetzbar sind, während sich für die exakte Darstellung von Unterschieden (wie zum Beispiel Größe oder Höhe) lediglich die Tonhöhe und eventuell auch die Lautstärke oder Tondauer eignen. Dabei ist zu berücksichtigen, dass die menschliche Wahrnehmung selbst bezüglich der letzten beiden nicht differenziert genug erscheint. Für Größendarstellungen wiederum bieten sich Lautstärkenunterschiede hervorragend an, wie unter anderem in Abschnitt 4.3 noch zu sehen sein 59 Rauhigkeit Nachhall Rhythmus Tondauer Metrum Tempo x x x x x x x x exakte Unterschiede x (x) Größe Harmonie Klangfarbe x Phrasierung Lautstärke Kontraste Bewegung Tonhöhe 4. Die Möglichkeit eines musikalischen Interaktionsbildes x x x x x (x) x Emotionen (x) Akzente x x Bewegung x (x) Zoom (x) x Geschwindigkeit (x) Richtung oben/unten x Richtung rechts/links (x) x x x (x) (x) (x) (x) x (x) x Tabelle 4.2.: Zuordnung musikalischer Eigenschaften zu interaktionsbestimmenden Ereignissen wird. Dies kann wahrscheinlich auch auf die Entfernungswahrnehmung des Menschen zurückgeführt werden, da entfernte Objekte leiser klingen und auch kleiner erscheinen, als analoge Objekte, die sich näher am Betrachter befinden. Die Eigenschaft Metrum scheint für die dargestellten Ereignisse nicht sonderlich geeignet. Es darf allerdings nicht außer Acht gelassen werden, dass das Metrum den Rhythmus maßgeblich beeinflusst und sozusagen dessen Grundlage schafft. Vorstellbar wäre außerdem, die Eigenschaft Metrum einzusetzen, um Raster oder auch Muster zu verkörpern. Etwas verwirrend mögen die Zuordnungen besonders im unteren Bereich der Tabelle 4.2 wirken, da hier nicht nur die tatsächliche Eigenschaft, sondern auch wahrnehmungsbedingte Effekte berücksichtigt wurden. So kann Geschwindigkeit beispielsweise tatsächlich durch schnelle Rhythmen und kurze in schnellem Tempo aufeinander folgende Töne verdeutlicht werden. Die Geschwindigkeitswahrnehmung kann aber auch durch eine dem Dopplereffekt (siehe Abschnitt 2.1.2, S. 8) nachempfundene Tonhöhenänderung unterstützt werden: je schneller die Tonhöhenänderung erfolgt, desto höher die Geschwindigkeit. Des Weiteren scheint der Einsatz von Tonhöhen für Richtungsangaben nach oben und unten selbstverständlich, während die horizontale Richtungsweisung nur bedingt auf diesem Wege ausgedrückt werden kann. Mit entsprechenden Abbildungsregeln kann dennoch, wie in Abschnitt 4.3 noch diskutiert werden wird, über die Tonhöhe eine 60 4.2. Der musikalische Charakter horizontale Richtung verdeutlicht werden (siehe auch Abschnitt 3.2.5.1, S. 45). Für eine Zoombewegung wäre ein gleitender Wechsel von leise in lauter (fern und näher) angebracht und am ehesten unserer Umwelt nachempfunden, wobei ein Wechsel der Tonhöhe ebenfalls denkbar, wenn auch weniger intuitiv, wäre. Versucht man nun, die musikalischen Attribute der quantitativen oder der qualitativen Dimension zuzuordnen, um so auf bestimmte Gestaltungsregeln zu stoßen, wird schnell deutlich, dass dies bei den (meisten) gegebenen Attributen nicht ohne weiteres klar abgrenzbar ist. Quantität steht dabei für die messbaren, objektiven Eigenschaften, welche in Bezug auf Musik keinen Einfluss auf den Ausdruck haben, während Qualität die fühlbaren, subjektiven Eigenschaften repräsentiert, die es ermöglichen, Ausdruck (beschwingt, freudig, schleppend, schwer, traurig etc.) zu vermitteln. Das Bedeutende an Musik ist ihr Ausdruck, der es vermag den Menschen innerlich zu berühren, sei es positiv oder negativ. An dieser Stelle soll angesetzt werden, um die gefundenen musikalischen Attribute zunächst in ihrer Fähigkeit, Ausdruck zu vermitteln zu kategorisieren. Dabei wird, wie in Tabelle 4.3 zu sehen, in Attribute unterschieden, die einen großen, einen geringen oder aber gar keinen Einfluss auf die musikalische Ausdruckskraft haben. Großer Einfluss Geringer Einfluss Kein Einfluss Harmonie Klangfarbe Tonhöhe Rhythmus Nachhall Tondauer Tempo Rauhigkeit Metrum Lautstärke Phrasierung Bewegung Tabelle 4.3.: Einfluss musikalischer Attribute auf die Ausdruckskraft Wie zu erwarten, hat ein Großteil der Attribute einen hohen Anteil an der Ausdruckskraft eines Musikstückes. Es wird ebenfalls deutlich, dass Attribute wie zum Beispiel Rhythmus oder Tempo, die intuitiv aufgrund der sie bestimmenden Dauern eher als quantitative Eigenschaft identifiziert worden wären, einen hohen Einfluss auf den Ausdruck haben können und somit eigentlich eher qualitativ betrachtet werden sollten. Doch genau hier liegt die Ambiguität dieser Art von Unterteilung: Quantitäten bergen stets auch qualitative Aspekte in sich und sollten somit abhängig von der Fragestellung zugeordnet werden. Es muss also 61 4. Die Möglichkeit eines musikalischen Interaktionsbildes gewichtet werden, welche der Wirkungen, die eine Eigenschaft erzielen kann, am prägendsten für diese ist. Rhythmus beispielsweise kann einerseits durch dessen quantitativ bestimmbare Tondauern (auch beeinflusst durch Takt, Metrum) als zählbares Medium betrachtet werden, hat aber auch entscheidenden Einfluss auf den Ausdruckscharakter (beschwingt, kraftvoll, schleppend, schwer) eines Musikstückes. Ein geschulter Hörer nimmt zwar durchaus die verschiedenen Tondauern wahr, das prägende ist aber das Ganze, der durch den Rhythmus vermittelte Ausdruck. Tabelle 4.4.: Zuordnung musikalischer Attribute nach Quantität und Qualität Tabelle 4.4 zeigt den Versuch, die Attribute als Quantitäten und Qualitäten zu ordnen, wobei durch die fließenden Übergänge der oben angesprochene Aspekt verdeutlicht werden soll. Nicht alle Attribute werden demnach ausschließlich einer Seite zugeordnet, sondern können, mehr oder weniger stark, sowohl quantitativ als auch qualitativ betrachtet werden. Dabei wird unter anderem auch der Eigenschaft des Rhythmus Rechnung getragen, welcher trotz der ihn bestimmenden quantitativen Tondauern in der Musik vorwiegend qualitativ wirkt. Ebenso werden auch die Eigenschaften Lautstärke und Tempo eingestuft, die trotz ihrer quantitativ bestimmbaren Werte, subjektiven Einfluss auf die Ausdruckskraft eines Musikstückes haben können. Während Tondauer, Metrum und Tonhöhe eindeutig der quantitativen Dimension zugewiesen wurden, vertreten Bewegung, Phrasierung und Harmonie gänzlich das Qualitative. Die Harmoniegebung wirkt sich entscheidend auf die Gemütsfärbung eines Stückes aus (Abschnitt 2.3, S. 17). Eine weitere Unterteilung, welche, den Interaktionsgedanken unterstützend, getroffen werden sollte, ist die in statische und dynamische Eigenschaften, wie sie in Tabelle 4.2 bereits teilweise ablesbar ist. Hierbei soll noch einmal festgehalten werden, dass nicht nur ein einzelner Ton, son- 62 4.2. Der musikalische Charakter dern das musikalisch Ganze im Verlauf der Zeit betrachtet wird. Diese Feststellung ist wichtig, da die in Abbildung 4.3 dargestellten Eigenschaften anders verteilt werden müssten, würde nur ein einzelner Ton, losgelöst vom musikalischen Gesamtkontext, betrachtet. Dies betrifft vor allem die Tondauer, welche durch den veränderten zeitlichen Standpunkt bereits dem Ton zugeordnet werden würde. Bestimmte Attribute wiederum, wie zum Beispiel Rhythmus, kämen überhaupt nicht zum Tragen. Musik, welche sich über die Zeit definiert, scheint auf den ersten Blick stets dynamisch, obwohl diese durchaus Attribute enthält, die eher statischen Charakter besitzen. Dennoch fällt das eindeutige Zuordnen auch bei dieser Art der Einteilung schwer. Es bleibt beispielsweise fraglich, inwiefern Eigenschaften wie Harmonie oder Phrasierung überhaupt einer solchen Unterscheidung unterzogen werden sollten. Außerdem gilt es zwischen der tatsächlichen statischen oder dynamischen Qualität und dem statischen oder dynamischen Eindruck zu unterscheiden, welcher durch entsprechende Ausdrucksmöglichkeiten der jeweiligen Eigenschaften vermittelt werden kann. Abb. 4.4.: Zuordnung musikalischer Attribute nach Statik und Dynamik Abbildung 4.4 zeigt den Versuch einer solchen Einordnung, wobei die statischen, etwas dynamischen und dynamischen Eigenschaften ihrer Fähigkeit zugeordnet werden, dynamischen, unter Umständen möglichen dynamischen oder statischen Eindruck zu vermitteln. Die beiden Extreme bilden dabei der Rhythmus, welcher zeitlich von Bewegung, Spannung und Energie geprägt fließend dynamisch vorantreibt, und die rein statisch zugeordnete Klangfarbe und Rauhigkeit. Die eigentlich als dynamisch betrachtete Tondauer vermag es hingegen, losgelöst vom struk- 63 4. Die Möglichkeit eines musikalischen Interaktionsbildes turgebenden Rhythmus und Metrum, kaum, dynamischen Eindruck zu vermitteln. Im Gegensatz dazu steht die Lautstärke, welche zwar an sich betrachtet eher statisch erscheint, im zeitlichen Verlauf jedoch äußerst dynamisch wirkt. Die Wirkung von Lautstärkenunterschieden im Kontext eines musikalischen Werkes, wird in der Fachsprache bezeichnenderweise auch als Dynamik betitelt. Im Mittelfeld finden sich schließlich die Eigenschaften Tempo, Phrasierung, Bewegung und Harmonie wieder, die also leicht dynamischen Charakter besitzen und diesen auch vermitteln. 4.3. Grafonie - Grafisch-musikalische Abbildungen Nachdem vorangehend Versuche einer Kategorisierung musikalischer Eigenschaften vorgestellt wurden, sollen diese nun durch beispielhafte Abbildungen unterstützt werden. Dabei sollen Erkenntnisse des Kapitels 3 mit den vorangehenden Überlegungen zum Charakter von Musik (Abschnitt 4.2) verbunden werden. Wie könnte eine Abbildung graphischer auf musikalische Eigenschaften aussehen bzw. klingen? Im Folgenden werden einige solcher Möglichkeiten aufgegriffen und diskutiert. Ton und Farbe Wie in Abschnitt 3.2.1 bereits beschrieben, entstanden im Laufe der Geschichte eine Reihe von Farbmodellen, welche bestimmten Tönen spezielle Farben zuordnen. Abbildung 4.5 zeigt eine Auswahl davon. Weitere Farb-Ton-Modelle sind in Anhang C zu finden. Die Genauigkeit der in Abbildung 4.5 unterhalb der Trennlinie dargestellten Modelle ist fraglich, da die Farben hier bestimmten Intervallen zugeordnet wurden (siehe Anhang C) und diese nicht hundertprozentig auf die Tonleiter übertragbar sind. Dennoch kann die Darstellung als Richtwert gesehen werden. In der Übersicht wird die Vielfalt der unterschiedlich zugeordneten Farben deutlich, was die These unterstützt, dass es keine eindeutige Zuordnung von Farben auf Töne gibt (siehe auch Abschnitt 3.2.1, S. 27). Dennoch lassen sich, bis auf einige Ausnahmen, bestimmte Tendenzen in den Farbbereichen erkennen: so finden sich am Anfang der Tonleiter zumeist rote und orangene Farbtöne, im mittleren Bereich gelb und grün und am Ende eher blaue und violette Nuancen. Nahe liegender scheint die Abbildung von Farbhelligkeiten auf Tonhöhen, wie es beispielsweise bei den meisten Werken S TRÜBINs nachvollzogen werden kann (zum Beispiel Abbildung D.5 in Anhang D). Dabei ordnet er jedem der 12 Halbtöne eine bestimmte Farbe bei, um die jeweilige Helligkeit zu erzielen. Helle Farben stehen für helle, höhere Töne, während dunkle Farben dunklere, 64 4.3. Grafonie - Grafisch-musikalische Abbildungen tiefe Töne ergeben. Trotzdem in der Geschichte keine eindeutige Zuordnung gefunden werden kann, ist die Verbindung von Tonhöhen und Farben eine sehr einfache und relativ intuitive (weil wenig komplexe) Form der Abbildung, auch wenn die Zuordnungen zuvor erlernt werden müssen. Abb. 4.5.: Auswahl einiger Farb-Ton-Zuordnungen Selbst die Wortverwandtschaft von Farbharmonie und (Musik-) Harmonie lässt Gemeinsamkeiten vermuten. So wies F RANCHINO G AFFURIO, wie bereits in Kapitel 3.1.3 (S. 26) erwähnt, den modalen Tonleitern einzelne Farben zu. Auch die visuellen Darstellungen in Farbkreis1 und Quintenzirkel (siehe Abschnitt 2.2, S. 15) scheinen Parallelen aufzuweisen und suggerieren die Möglichkeit des Übereinanderlegens der beiden Modelle, wie es in Abbildung 4.6(c) versuchsweise dargestellt wird. Sowohl einander ähnelnde Farben, als auch quintverwandte Tonleitern sind auf den Kreisen nebeneinander angeordnet. Je weiter diese auseinander liegen, desto weniger Ähnlichkeit weisen sie auf. Eine Art Komplementärbeziehung wie sie bei sich gegenüberliegenden Farben eines Farbkreises zu finden sind, kann allerdings nicht auf das Quintenzirkelmodell übertragen werden. Auch unterliegen die so entstehenden Farb-Tonleiter-Zuordnungen keinerlei Gesetzmäßigkeit. Womöglich würde höchstens ein Synästhet eine derartige Verwandtschaft wirklich empfinden können. Dennoch ist es vorstellbar, durch nichtlineare Abbildungen Ähnlichkeiten in den Harmonien zu vergleichen. Dabei soll nicht eine einzelne Farbe einen bestimmten Ton repräsentieren, sondern es wird ein Farbklang aus beispielsweise drei Farben einem musikalischen Dreiklang gleichgesetzt. Harmonische „Gleichklänge“ zwischen Farben zu identifizieren fällt vielen Menschen wesentlich schwerer, als Dissonanzen zu hören. Ein 1 Als eines der gängigsten Modelle wurde der Farbkreis nach I TTEN gewählt. Es bleibt weiteren Untersuchungen vorbehalten, ob andere Modelle für diese Überlegung ebenso geeignet wären. 65 4. Die Möglichkeit eines musikalischen Interaktionsbildes (a) Farbkreis nach I TTEN (b) Quintenzirkel (c) Kombination aus Farbkreis und Quintenzirkel Abb. 4.6.: Ähnlichkeiten der Harmoniemodelle von Farbe und Musik musikalischer Dur-Dreiklang setzt sich stets aus einer großen und einer kleinen Terz zusammen. Erklänge nun statt einer der Terzen beispielsweise eine Quarte, wäre dies sofort hörbar. Variationsmöglichkeiten bieten außerdem der Moll-Dreiklang (kleine Terz und große Terz), der verminderte Dreiklang (zwei kleine Terzen) und der übermäßige Dreiklang (zwei große Terzen). In welcher Weise eine solche Wechselwirkung umgesetzt würde, ist abhängig von den jeweiligen Abbildungsregeln. Denkbar wäre zusätzlich, die Farbgebung der Farbklänge durch Durund Moll-Stimmungen zu beeinflussen: helle, blumige Farbtöne vertreten Dur-Stimmungen und dunkle, blaue Farbtöne ergeben Moll. Klang und Textur In Betrachtung der phonetischen Experimente K ÖHLERs (Abschnitt 2.1.3, S. 10), welche den Hang des Menschen verdeutlichen, eckigen Formen Hörbsp. 12.: Ton rau eher scharf klingende Worte (zum Beispiel „takete“) und weichen, runden Formen eher weich klingende Worte (zum Beispiel „maluma“) zuzuordnen, stellt sich die Frage, ob auch Klängen eine bestimmte Objektbeschaffenheit (zum Beispiel Oberfläche oder Form) zugeordnet werden kann oder diese in bestimmter Weise suggerieren. Ist es möglich, aufgrund eines bestimmten Klanges auf eine entsprechende Objektbe- Hörbsp. 13.: Ton ruhig schaffenheit oder Objektform zu schließen und umgekehrt? In Abschnitt 2.1.3 (S. 13) wird beispielsweise die Rauhigkeit von Tönen angesprochen, welche gut zur Repräsentation der Oberflächenstruktur von Objekten oder auch des Musters der Oberfläche geeignet ist. Das nebenstehende Hörbeispiel 12 könnte somit beispielsweise Abbildung 4.7(a) oder auch Abbildung 4.7(c) beschreiben. Die Abbildungen 4.7(b) und 4.7(d) wiederum würden dem Hörbeispiel 13 zugeordnet. Betrachtet man die Abbildung der Oberflächenstruktur oder des Musters nicht nur auf einen Ton, sondern auf Musik gerichtet, können ganz 66 4.3. Grafonie - Grafisch-musikalische Abbildungen verschiedene Attribute zur Beschreibung herangezogen werden. Diese können entweder allein oder in Kombination mit anderen Attributen eingesetzt werden, um die Textur zu beschreiben. Ein wichtiges Attribut ist die Tondauer. Sie beeinflusst unter anderem das Merkmal der Bewegung einer Melodie, die einerseits gleich bleibend oder auch unstetig verlaufen kann, genau wie die Oberflächenstruktur oder das Muster eines Objektes. Aber auch die Phrasierung kann einen großen Einfluss auf die Ausstrahlung einer Melodie haben. Staccato-Phrasen wirken abgehackt, hart und ungleichmäßig. Während Legato-Passagen große Bögen spannen und eher für Ruhe sorgen. Durch starke Tonhöhenunterschiede können jedoch auch Legato-Phrasen Unruhe vermitteln. Tonhöhenunterschiede sind ein sehr wichtiges Mittel, um Ruhe oder Unruhe zu erzeugen und eignen sich daher besonders gut im Zusammenhang mit der Repräsentation von Objektoberflächen. Dabei wirken große Kontraste aufwühlend, hektisch und uneben, während nur mäßige Tonhöhenunterschiede eher Ausgeglichenheit, Ebenheit und Ruhe ausstrahlen. Auch der Rhythmus kann entscheidend für die Texturbeschreibung eingesetzt werden, was besonders gut bei Mustern vorstellbar ist, da diese ebenfalls rhythmisch wiederkehren. So beschreiben beispielsweise ungerade Rhythmen (5er, 7er, 9er) viel unruhigere, rastlosere Flächen, als gerade Rhythmen (2er, 4er). Auf M ONDRIANs Bilder verweisend, welche ein Gefühl von Rhythmus und Bewegung vermitteln (Abschnitt 3.2.2, S. 38), kann festgestellt werden, dass der Rhythmus von Texturen auch auf Musik übertragbar ist. Je nach Kulturkreis kann auch Harmoniereinheit oder -unreinheit eingesetzt werden, um Oberflächen zu bezeichnen. Ein weiteres Attribut, was in Kombination zum Beispiel den Effekt von Tonhöhenunterschieden und Tondauer verstärken kann, ist die Lautstärke. Allein stehend ist diese allerdings kaum in der Lage, Aussagen über Eben- oder Unebenheiten zu vermitteln. (a) raue Oberfläche (b) glatte Oberfläche (Marmor) (c) unruhiges Muster (d) ruhiges Muster Abb. 4.7.: Rauhigkeit von Tönen in Objektoberflächen 67 4. Die Möglichkeit eines musikalischen Interaktionsbildes Beispielgebend sei auf die nebenstehenden Hörbeispiele verwiesen, welche Ausschnitte eines ruhigen (Hörbeispiel 15) und eines unruhigen Hörbsp. 14.: S TOCKHAUSEN: Mantra, Ausschnitt Musikstückes (Hörbeispiel 14) vorstellen. Der Ausschnitt aus K. S TOCK HAUSEN s Mantra Takt 121-131 (Hörbeispiel 14) zeichnet sich aus durch eine ungleichmäßige Melodiebewegung. Abgehackte, spitze und von starken Tonhöhenunterschieden durchsetzte Passagen ungewöhnlicher Harmoniesätze assoziieren Unruhe, unebene Flächen und rastlose Muster. Als Gegensatz dazu steht S. B ARBERs Adagio für Streicher Opus 11 (Hörbeispiel 15), das geprägt ist von einem starken Legato-Bogen, wel- Hörbsp. 15.: B ARBER: Adagio für Streicher Opus 11, Ausschnitt cher die langsam steigende Melodieführung in gleichmäßiger Bewegung trägt und dadurch einen sehr ausgeglichenen, reinen und beruhigenden Eindruck vermittelt. Klang und Form Wie in Abschnitt 3.2.3 durch einige vorgestellte Künstler (zum Beispiel O. F ISCHINGER) bereits angedeutet wurde, ist es ebenfalls vorstellbar, bestimmte Arten von Klängen mit bestimmten Formen zu assoziieren. Es scheint eine gewisse Kontinuität darin zu bestehen, scharfe, abgehackte Klänge mit eckigen Formen und runde, durchgehende Klänge mit runden Formen in Verbindung zu bringen. So dass das ruhige Hörbeispiel spontan beispielsweise mit einer lang gestreckten, runden Blasenform in Verbindung gebracht werden könnte, während das unruhige Hörbeispiel eine kantige, zackige Stachelform als Assoziation hervorruft. Im folgenden Abschnitt wird zu sehen sein, dass auch die Abb. 4.8.: Halbkreis aus fünf aufsteigenden Tönen Lautstärke als Mittel zur Objektformbeschreibung eingesetzt werden kann (Abbildung 4.10). Bei horizontal verlaufenden Objekten ist auch der Einsatz von Tonhöhe vorstellbar, indem hohe Töne hohe Objektteile und tiefere Töne entsprechend flachere Objektteile beschreiben. Die Art und Weise der Tondarbietung entscheidet schließlich über die Gleichmäßigkeit. So beschreiben kurz angespielte Töne mit Pausen dazwischen (staccato-ähnlich) balkenartige Formen beispielsweise eines Diagramms. Verbundene Töne ließen wiederum eine kontinuierliche Form entstehen, ähnlich der oberen Hälfte der in Abbildung 4.10 dargestellten Figur. Die in Abschnitt 3.2.5.1 vorgestellte Performance Messa di Voce verwendet im Pitchpaint-Teil (S. 47) ebenfalls eine Kodierung über die Tonhöhe Abb. 4.9.: Viereck aus erweitertem Dreiklang und deren Verlauf, so dass über die Zeit eine Komposition abstrakter Formen entsteht. Aufsteigende Tonfolgen könnten somit beispielsweise in Uhrzeigersinn drehende Linien und absteigende Tonfolgen entgegengesetzt drehende Linien (Abbildung 3.28) repräsentieren, während 68 4.3. Grafonie - Grafisch-musikalische Abbildungen gleich bleibende Tonfolgen in geraden Linien resultieren. Wenn nun jeder Ton eine Richtungsänderung um 45◦ in die jeweilige Richtung bewirkt, zeichnen zum Beispiel drei aufeinander folgende Töne einen Viertelkreis, acht aufeinander folgende Töne (Oktave) einen Kreis und ein um eine Terz erweiterter Dreiklang (Vierklang) ein Viereck. Dies kann in Abbildung 4.8 und 4.9 nachvollzogen werden. Nahe liegend ist auch die Abbildung der Formgröße über die Tonlänge (und Lautstärke), wie beispielsweise in K ANDINSKYs Studie der Klangpunkte (Abbildung D.12 in Anhang D) nachvollziehbar ist. R. S TRÜBIN bildete in seinem Werk Musikbild (Abbildung D.5 in Anhang D) die Tondauer auf die Dicke der dargestellten Formen ab. Doch auch die Form selbst kann, mit einer gewissen Vorerfahrung über die darzustellenden Objekte, durch die Tondauer beschrieben werden, wie es beispielsweise in Abbildung 3.19 (S. 43) des Abschnitts 3.2.4 kurz vorgestellt wurde. Hier entscheidet die Tonlänge und die Art und Weise der aufeinander gespielten Töne über die Darstellung. Während eine Linie durch einen durchgehenden Ton bezeichnet wird, repräsentieren vier aufeinander abgespielte Töne ein Viereck. Die Abspiellänge eines Tones entscheidet dabei über die Länge der jeweiligen Seite. Ein Kreis wird beschrieben durch zwei Töne: ein kurzer, der den Weg vom Ausgangspunkt zum Kreisrand bezeichnet, und ein durchgehend langer, welcher die Kreisbahn abfährt. Trotzdem keinerlei Richtungsangaben vermittelt werden, ist auch diese Art der Formrepräsentation relativ leicht verständlich, insofern klar ist, dass es sich um einfache geometrische Objekte handelt. Die Eindeutigkeit, Verständlichkeit und damit Wiedererkennbarkeit der auf diese Weise entstehenden Klang-Form-Abbildungen hängt aber wahrscheinlich in jedem Fall vom Grad der Erfahrung und des Lernens ab. Der Vorteil einer melodiehaften Darstellung beispielsweise eines Balkendiagramms (durch Tonhöhenunterschiede) ist die schnellere, unkomplizierte Wahrnehmensweise. Im Vergleich zweier Balkendiagramme wäre sofort klar, ohne auf Zahlen oder Details achten zu müssen, dass sich diese, sobald die Melodien differieren, unterscheiden, da musikalisch selbst feine Unterschiede schnell wahrgenommen werden. Lautstärke und Größe Eine der nahe liegendsten Abbildungen ist jene, Größe auf (Laut-)Stärke abzubilden (siehe auch K ANDINSKYs Klangpunkte, Abbildung D.12 in Anhang D). Etwas sehr Großes ist sehr stark. Somit können große 69 4. Die Möglichkeit eines musikalischen Interaktionsbildes Objekte durch eine hohe Lautstärke und kleinere Objekte dementsprechend leiser repräsentiert werden. Im Pitchpaint-Teil von Messa di Voce Hörbsp. 16.: Lautstärkenunterschiede (Abschnitt 3.2.5.1, S. 47) wird beispielsweise die Liniendicke über die Lautstärke bestimmt. Doch nicht nur die Objektgröße oder Objektdicke an sich, sondern auch die Objektform könnte durch Lautstärkenunterschiede visualisiert werden, so dass laute Passagen groß und dick erscheinen und leise Passagen dementsprechend schmaler. Abrupte Lautstärkeänderungen resultieren in scharfen Kanten und langsam an- oder abschwellende Lautstärkeunterschiede bezeichnen mehr oder Abb. 4.10.: Form zum Hörbeispiel weniger sanfte Rundungen. So weckt das Hörbeispiel 16 beispielsweise das Bild einer wie in Abbildung 4.10 dargestellten Form. Betrachtet man das Hörbeispiel im normalisierten Frequenzbild (Abbildung 4.11) wird genau solch eine Figur sichtbar, was an die Experimente O. F ISCHINGERs und N. M C L ARENs (Abschnitt 3.2.3) erinnert. Eine Einschränkung in der Wahrnehmung der Lautstärkenunterschiede liegt allerdings in der schwierigen Differenzierung feiner Unterschiede. Abb. 4.11.: Form als Frequenzbild Klang und Bewegung Inwiefern ist es möglich, über Klang Bewegungen oder Richtungen anzuzeigen oder zu signalisieren? Tonhöhen scheinen ideal geeignet für Angaben bezüglich der vertikalen Ebene: hohe Töne oben, tiefe Töne unten. Ein Glissando von tiefen zu hohen Tönen beschreibt aufstrebende, wachsende Formen, während Abwärtsbewegungen durch Glissandi von hohen zu tiefen Tönen verdeutlicht werden. Ähnlich der auditiven Beschreibung einer Form kann die Schnelligkeit und Abruptheit des Tonhöhenwechsels Auskunft über die Art und Weise der Auf- und Abwärtsbewegung geben. Die kontinuierlichen, scheinbar stetig aufoder abwärtsgerichteten Tonfolgen der Shepard-Risset-Tonleitern, wie sie in Abschnitt 2.1.3 (S. 13) beschrieben wurden, eignen sich gut, um gleichmäßige Bewegungen der Vertikalen zu repräsentieren. Dieser Effekt kann, wie in Abschnitt 3.2.4 (S. 43) kurz erwähnt, beispielsweise für die auditive Darstellung der Scrollbalkenbewegung genutzt werden, um blinden oder sehbehinderten Menschen den Umgang und das Verständnis interaktiver Interfaces zu erleichtern. Auch die bereits beschriebenen Abbildungen bestimmter Tonfolgen auf Formen, wie jene in Abbildung 4.8 und 4.9, kann für die Repräsentation von Bewegung eingesetzt werden. Bei fortlaufenden Bewegungen, wie es zum Beispiel im Pitchpaint-Teil von Messa di Voce (Abschnitt 3.2.5.1) der Fall ist, kann sich das Objekt, in diesem Fall die Linie, durch die Töne und den damit verbundenen Richtungsänderungen frei über die Fläche 70 4.3. Grafonie - Grafisch-musikalische Abbildungen bewegen, wobei eine Ausrichtung in alle Richtungen der Ebene möglich ist: nach oben, unten, rechts und links. Eine Abbildung der Richtung, wie sie in Messa di Voce (Abschnitt 3.2.5.1) gewählt wurde, scheint auf den ersten Blick nicht sehr intuitiv, da man absteigende Tonfolgen eher mit absteigenden Linien assoziiert, als mit rechtsdrehenden Bewegungen. Dennoch ist eine derartige Abbildung sinnvoll, weil man somit in beide Richtungen agieren kann (nach rechts und links) statt lediglich rechtsgerichtete Auf- und Abwärtsbewegungen zu beschreiben. Für die Repräsentation horizontaler Bewegungen bietet sich in jedem Fall der Einsatz der Stereokanäle an. Der Nutzer kann somit tatsächlich einen Ortswechsel der Töne von rechts nach links wahrnehmen oder umgekehrt (siehe Abschnitt 2.1.2, S. 8), vorausgesetzt er befindet sich zwischen Abb. 4.12.: Unterschiede in Objektanzahl den beiden Lautsprechern. Mit Hilfe von Surround-Soundsystemen lässt sich der Wahrnehmungseffekt sogar auf die Ausrichtungen vorn und hinten erweitern. Ist ein Stereoeinsatz nicht möglich, könnte eine Bewegung in der Horizontalen auch durch, dem Dopplereffekt (Abschnitt 2.1.2, S. 8) nachempfundene, Tonhöhenänderungen hervorgerufen werden. Eine Lokalisierung des Tonsignals nach rechts oder links ist somit allerdings Hörbsp. 17.: Ein Ton versus drei Töne nicht mehr möglich. Ferne und Nähe könnte außerdem durch Unterschiede in der Lautstärke umgesetzt werden, da von dem Schall weit entfernterer Schallquellen üblicherweise auch weniger wahrnehmbar ist. Wenig Lautstärke stünde also für entfernte Objekte und stärkere Lautstärke für entsprechend näher liegende. Klang und Verteilung Mit dem Zusammenhang aus Klang und (räumlicher) Verteilung ist hier weniger die Richtungslage der Verteilung, sondern vielmehr deren Ausgewogenheit oder Unausgewogenheit gemeint. Dabei können musikalische Attribute ähnlich denen der zuvor beschriebenen Abbildungen von Klang auf Textur (siehe Abschnitt 4.3, S. 66) eingesetzt werden. Während die Mengenverhältnisse beispielsweise durch die Abb. 4.13.: Unterschiede in Anordnung Anzahl der dargebotenen Töne umsetzbar ist (siehe Abbildung 4.12 und Hörbeispiel 17), kann deren Stimmigkeit oder Unstimmigkeit, beziehungsweise deren Ausgewogenheit oder Unausgewogenheit beispielsweise bezüglich der Anordnung, zusätzlich über Konsonanzen und Dissonanzen zwischen den Tönen verdeutlicht werden (siehe Abbildung 4.13 und Hörbeispiel 18). Auch Rhythmus ist als Attribut von Ausgewogenheit vorstellbar, indem verschiedene Rhythmen (gleichmäßig gegen wechselnd) einander gegenübergestellt werden. 71 Hörbsp. 18.: Konsonanz versus Dissonanz 4. Die Möglichkeit eines musikalischen Interaktionsbildes 4.4. Funktionen des Klangeinsatzes Es mag sich die Frage stellen, in welchem Kontext die bisher in diesem Kapitel präsentierten Überlegungen anwendbar sind. In welcher Funktion ist der Einsatz von Klängen und Musik sinnvoll? Für den Einsatz akustischer Informationen können grob drei Grundfunktionen unterschieden werden: der Einsatz als Warnfunktion, zum Feedback oder Earcandy. Tabelle 4.5 zeigt eine Übersicht dieser Funktionen und ihrer Eigenschaften, wobei Form hier die für die Anwendung geeignete musikalische Einheit (siehe Abschnitt 4.2) meint. Warnfunktion Feedback Earcandy Rolle: notwendig unterstützend bereichernd Form: Ton, Akkord, u.U. auch Musikstücke zur Emotionalisierung (vermitteln von Gefahr) Ton, Akkord, Melodie Melodie, Musikstück prägnante Earcons Earcons (auch komplexerer Form) Hintergrundmusik einer Website Beispiel: Tabelle 4.5.: Funktionen des Einsatzes von Klang und Musik Die Feedbackfunktion beschreibt eine Art musikalische Rückmeldung, welche dem Nutzer den interaktiven Umgang erleichtern soll. Darunter sind beispielsweise Bestätigungen durchgeführter Aktionen (erfolgreich beziehungsweise fehlgeschlagen), Fortschrittsanzeigen oder auch Hilfestellungen zu verstehen. Momentan geschieht dies überwiegend durch klangliche Nachahmung ähnlicher real-existenter Vorgänge, in Form synthetisch erzeugter Geräusche (vgl. Papierknüllgeräusch beim Lösch-Befehl). Unterstützend für den Arbeitsfluss sind auditive Feedbackinformationen auch für erfahrene, vorwiegend über Short-Cuts agierende, Nutzer, denen somit eine sofortige Rückmeldung der erfolgten Aktion geliefert werden kann, ohne die visuelle Aufmerksamkeit zu beeinträchtigen. Geeignete klangliche Formen solcher Rückmeldungen durch Musikalisierung des Bildlichen können unter Anderem aus den im vorigen Abschnitt beschriebenen Abbildungen entwickelt werden. Abschnitt 3.2.4 stellte außerdem bereits einige Applikationen unter Anwendung von Earcons vor. Die geeignetsten musikalischen Einheiten für den Einsatz als Feedback sind Ton, Akkord oder Melodie, umgesetzt beispielsweise in Form von Earcons. Die Warnfunktion stellt, genau genommen, eine Spezialisierung des Feedbacks mit erhöhter Priorität dar, da sie den Nutzer vor Fehlern in der Interaktion bewahren soll. 72 4.4. Funktionen des Klangeinsatzes Eine Aktion mit unwiederuflichen Konsequenzen (zum Beispiel löschen) sollte demnach entsprechend warnend unterlegt sein. Sinnvollerweise werden bei Warnfunktionen die natürlichen Reaktionsmuster des Menschen eingesetzt, um angemessene Reaktionen auf das Signal zu erhalten. Entsprechende Warnfarben wären beispielsweise rot oder gelb. Musikalisch gilt es in der Regel, kurze, prägnante oder gar schrille Klänge zu wählen, die sich möglichst vom übrigen Kontext abheben und den Nutzer aufrütteln. Man denke an die Warnpfiffe unter Murmeltieren, die Sirene eines Martinhorns oder das, zu früheren Zeiten vorwiegend vor Gefahrensituationen warnende, Geläut eines Kirchturms. Als geeignete musikalische Einheiten bilden sich hierbei Ton und Akkord heraus. Unter Umständen bietet sich auch der Einsatz musikalischer Phrasen an, um mittels Emotionalisierung den Eindruck von Gefahr zu unterstreichen (siehe Hörbeispiel 19) und somit die Tragweite der bevorstehenden Aktion zu verdeutlichen. Der Einsatz von Klängen zur Warnung ist eine omnipräsente Möglichkeit, den Nutzer zu jeder Zeit zu erreichen (hardwareseitige Audiounterstützung vorausgesetzt). Ohren können nicht „geschlossen“ werden und versetzen den hörenden Menschen somit stets in einen Zustand der auralen Aufmerksamkeit, wenngleich dies die Gefahr der Geräuschbelästigung in sich birgt. Bereichernd in der Funktion eines so genannten Earcandy, macht sich die Musik ihre typischen Stärken zu nutze, Emotionen und Ausdruck zu übermitteln. So können Situation musikalisch in weitaus eindrucksvollerem und prägnanterem Ausdruck vermittelt werden, als dies oftmals in Bildern möglich ist. Einem neutral betrachteten Ereignis kann Musik mit entsprechendem Ausdruck ganz unterschiedliche Emotionsfärbungen verleihen. Dies ist beispielsweise in faszinierender Form an der Wirkung von Stummfilmen durch deren Begleitmusik nachvollziehbar. Musik kann einerseits Gefahr (in diesem Sinne unter Umständen auch als Warnfunktion einsetzbar), Hörbsp. 19.: Streicher aus H ITCHCOCKs Film Psycho, Ausschnitt Schrecken (siehe Hörbeispiel 19), Schmerz und Trauer vermitteln oder im Gegensatz dazu Ruhe und Ausgeglichenheit oder Freude und Euphorie (siehe Hörbeispiel 20) ausstrahlen. Dennoch sollte Musik auch im Einsatz als Earcandy mit Bedacht gewählt werden, um einerseits den Sachverhalt angemessen zu unterstützen, und andererseits eine Reizüberflutung zu vermeiden. Die typischerweise zu verwendenden musikalischen Einheiten sind Melodie und Musikstück. Entscheidend bei der Gestaltung eines auditiven Interfaces ist die Frage nach dem, was erreicht werden soll: wird (lediglich) eine intuitivere Unterstützung der Abläufe durch Musik, das Erlangen von Aufmerksamkeit 73 Hörbsp. 20.: B EETHOVEN: Schlusschor der 9. Sinfonie (d-moll Opus 125, Presto-Allegro assai), Ode an die Freude, Ausschnitt 4. Die Möglichkeit eines musikalischen Interaktionsbildes oder gar eine komplett auditive Darstellung angestrebt? Die Wirkung der jeweiligen Klänge sollte stets dem Sachverhalt angepasst sein, um den effektiven Einsatz zu gewährleisten. Die Kluft (Abstand) zwischen Klang und Interface sollte für eine angemessene Wirkung nie zu groß werden, um zu verhindern, dass der Nutzer keine Relation mehr zwischen den klanglichen Signalen und den Interaktionen herstellen kann. 4.5. Zusammenfassung und Fazit In diesem Kapitel wurden Versuche gezeigt, Informationen akustisch zu übermittelt. Der Schwerpunkt lag dabei zunächst auf der Frage, inwieweit sich grafische Eigenschaften auditiv darstellen lassen. Dabei bildeten die Bestrebungen und Erkenntnisse der in Kapitel 3 vorgestellten Arbeiten die Grundlage. Im Folgenden wird in einem kurzen Fazit die Essenz dieser Überlegungen gezogen. ↑ ↑ ↑ auditives Leitsystem (Auto) Navigationssystem mit Bildschirm Stadtplan Telefon Bildtelefon Fotoapparat Radio Fernseher, Kino Screenreader Musikbearbeitungssoftware EDV (Textbearbeitung) Musik Tanz Malerei PC ↑ Zeitung Tabelle 4.6.: Einordnung in visuelle und akustische Interfaces Tabelle 4.6 zeigt die Unterteilung einiger Anwendungen bezüglich der zum Tragen kommenden üblichen visuellen und akustischen Ausprägung. Die Arbeit am Rechner (PC) ist immer noch stark visuell geprägt, obwohl eine Entlastung des visuellen Sinns durch Anwendung akustischer Informationen durchaus sinnvoll wäre. In Abschnitt 4.4 wurden drei denkbaren Einsatzbereiche (Warnfunktion, Feedback, Earcandy) vorgestellt. Wie genau letztendlich eine Umsetzung entsprechend der drei Bereiche aussieht, bleibt dem Gestalter überlassen. Die Grundlagen dazu wurden in Abschnitt 4.2.2 geliefert, wo aufbauend auf einer detaillierten Definition und Kategorisierung von Musik die entscheidenden musikalischen Attribute herausgearbeitet wurden. Auf unterster Abstraktionsstufe wurden anschließend in Abschnitt 4.3 mögliche Um- 74 4.5. Zusammenfassung und Fazit setzungen grafischer Eigenschaften mit Hilfe der zuvor erarbeiteten musikalischen Attribute vorgestellt. Tabelle 4.7 fasst die vorgestellten Abbildungen in einer Übersicht zusammen. Dabei wird deutlich, dass einige musikalische Attribute geeigneter scheinen als andere, wobei dies stets kontextabhängig betrachtet werden sollte (siehe auch Tabelle 4.2). Wie bereits in Kapitel 3 zu sehen war, strahlen Abbildungen von Farbe auf Ton eine starke Faszination aus, obwohl keine tatsächliche eindeutige Abbildungsregel gefunden werden kann. Andere auf den ersten Blick weniger reizvolle Abbildungen hingegen, wie die von Formen auf Klänge, sind zwar weniger üblich, können aber eine äußerst effektive Wirkung erzielen (Abschnitt 4.3 (S. 68), sowie Experimente K ÖHLERs x x Verteilung Form x Bewegung Textur x Größe Helligkeit Tonhöhe (-nunterschiede) Farbe (S. 10), P FENNINGERs und F ISCHINGERs (Abschnitt 3.2.3)). x Rauhigkeit x Tondauer x x x Lautstärke (x) x x Bewegung x Phrasierung x Rhythmus x x Harmoniereinheit x x Stereo x x Tabelle 4.7.: Übersicht möglicher grafisch-musikalischer Abbildungen Geräusche wurden bei den Überlegungen gänzlich außer Acht gelassen, da sonst ein zu breites Spektrum hätte untersucht werden müssen. Dennoch sind Geräusche ein ausschlaggebender Punkt, warum es derart sinnvoll erscheint, auditiv stärker zu arbeiten und den visuellen Sinn zu entlasten. In der realen Welt wird fast jede Aktion von einem akustischen Feedback begleitet (zum Beispiel Motor starten, Kartoffeln schneiden, Tür zuschlagen), so dass der Mensch (unbewusst) seit Jahrhunderten darauf geschult ist, solche Signale (parallel verarbeitend) wahrzunehmen. Die Gefahr bei akustisch unterstützten Anwendungen ist jedoch die Überreizung durch Geräuschbelästigung. Dies gilt es durch behutsam und angemessen ausgewählte Klänge zu verhindern. 75 4. Die Möglichkeit eines musikalischen Interaktionsbildes Der Titel des Kapitels lässt die Möglichkeit eines musikalischen Interaktionsbildes vermuten. Erste Kategorisierungen und Verallgemeinerungen konnten vorgestellt werden, wobei für eine komplette Interaktionsbild ähnliche Systematisierung weitere Untersuchungen unter Berücksichtigung der vorgestellten Erkenntnisse notwendig sind. 76 5. Singende klingende Formen 5.1. Einleitung Die in dem folgenden Kapitel vorgestellten prototypischen Anwendung verdeutlichen auf abstrakte Weise einige der in Kapitel 4 diskutierten Abbildungsmöglichkeiten. Dabei werden musikalische Eigenschaften mit grafischen Elementen verknüpft und diese spielerisch erfahrbar gemacht. Während die Anwendung Klangkörper in komponierender Art und Weise farbige geometrische Objekte zu musikalisieren versucht und somit eine Mischform aus visualisierten Tönen und tonalisierten Abbildungen repräsentiert, stellt die Anwendung Audiskop eine Oberfläche zur Verfügung, innerhalb welcher nicht sichtbare grafische Abbildungen über Klänge ertastet werden können. Dabei kommen verschiedene Repräsentationsformen zum Einsatz. 5.2. Klangkörper - Visuell Komponieren In Anlehnung an die neue Kunstauffassung der abstrakten Künstler, Maler und Musiker, wird in diesem Abschnitt ein Versuch vorgestellt, welcher auf spielerischer Ebene interaktiv (im Umgang mit dem Computer) eine Fusion aus Musik, Farben und geometrischen Formen präsentiert. Formen im Raum „verkörpern“ Klänge und Farben werden als Töne wahrgenommen. Eine Verschmelzung aus Hören und Sehen, ähnlich den Empfindungen von Synästhetikern. Klangkörper soll als eine Art visuelle Komponiermaschine verstanden werden, bei welcher durch Komposition unterschiedlicher Formen und Farben „bunte“ Klangteppiche unterschiedlicher Tonhöhen und Rhythmen entstehen. Das Abbild der Formen erinnert an die Auffassung E DGAR VARESEs von spatialer Musik und an die grafischen Partituren J OHN C AGEs oder S TOCKHAUSENs (siehe Kapitel 3.2.2). Bezogen auf die in Abschnitt 4.3 vorgestellten Überlegungen zu einer Verbindung von Klang und Form, werden den einzelnen geometrischen Figuren in der Anwendung Klangkörper unterschiedliche Klangarten zugeordnet: das Rechteck verkörpert einen eckigen, weniger gleichmäßigen 77 5. Singende klingende Formen Klang, während der Kreis gleichmäßig und rund klingt. Der jeweilige Ton wird hörbar, sobald die Formen auf die Bühne gezogen und ihnen ein Farbton zugeordnet wurde. Die Farb-Ton-Auswahl, welche auf den in Abschnitt 3.2.1 und 4.3 vorgestellten Arbeiten basiert, ermöglicht es, den Klängen unterschiedliche Tonhöhen zuzuordnen. Dazu wird zunächst eines der Farb-Ton-Modelle ausgewählt und anschließend die Farbe per Drag and Drop der Klangform zugeordnet. Je nach Farbwahl erklingen harmonische oder disharmonische Klangspiele. Abbildung 5.1 zeigt die visuelle Darstellung eines C-Dur Dreiklangs in Klangkörper, welcher nach dem Farb-Ton-Modell S CRIABINs (siehe Abbildung 5.1(a)) und R IMING TON s (siehe Abbildung 5.1(b)) abgebildet wird. Die beiden Abbildungen klingen also harmonisch gleich, obwohl sie ganz unterschiedliche Formen darstellen. (a) Farbmodell S CRIABIN (b) Farbmodell R IMINGTON Abb. 5.1.: Klangkörper - Dreiklang dargestellt in verschiedenen Farbmodellen Für das Komponieren werden verschiedene Transformationen bereitgestellt. So kann die Größe der Formen durch Skalieren (STRG + linke Maustaste) reguliert werden und beeinflusst, in Anlehnung an Abschnitt 4.3, die Lautstärke der einzelnen Klänge. Je größer die Form, desto lauter der Klang und umgekehrt. Die bereits auf der Bühne befindlichen Klangformen können außerdem dupliziert (SHIFT + linke Maustaste) oder entfernt (ENTF + linke Maustaste) werden. Über die Aufnahmefunktionalität können eigens von dem Nutzer komponierte audio-visuelle Samples erstellt werden, die anschließend als vorgefertigte Abläufe weitere Kompositionen bereichern können. Dabei geschieht eine Vermischung der Paradigmen: während zuvor tonalisierte Abbildungen präsentiert werden, wandeln sich diese durch das Abspielen fertiger 78 5.3. Audiskop - Bilder blind über Klang erschließen Abläufe zu visualisierten Klängen. Vorstellbar wäre, die bisher nur prototypisch ausgeprägte Anwendung durch weitere Komponenten zu erweitern. Dabei sollte der Nutzer beispielsweise den Tonhöhen seine eigenen Farbempfindungen oder auch den Formen seine eigens aufgenommenen Sounds zuordnen können. Darüber hinaus impliziert die momentane Umsetzung keinerlei Ortsabhängigkeit der Objekteposition auf der Bühne. Denkbar wäre es jedoch, bestimmte sensitive Bereiche zu schaffen, innerhalb derer die Formen zusätzlichen Veränderungen unterworfen würden. So könnte den einzelnen Tönen beispielsweise je nach Position ein unterschiedliches Instrument (Klangfarbe) zugeordnet werden. Um die Positionen festzulegen, könnte der Aufbau eines klassischen Sinfonieorchesters auf die Bühne projiziert werden. Einen anderen Ansatz stellt die Umsetzung des Modells der Stiftwalzen-Spieluhren dar. Bei diesen entstehen Melodien, indem Metallblättchen (Stimmzungen) über eine mit Stiften bespickte Walze gleiten und jeweils beim Passieren der einzelnen Stifte einen Ton wiedergeben. Für die hier dargestellte Anwendung könnte dieses Modell auf eine weitere Rhythmusebene übertragen werden: in periodischen Abständen scannt ein Rhythmusstreifen die Bühne von rechts nach links ab und akzentuiert die Klänge der passierten Formen. Ein weiterer Ansatzpunkt einer Erweiterung wäre eine gegenseitige Beeinflussung der Formen auf der Bühne, so dass sich bei Änderungen der einen Form auch gewisse Zustandsänderung der in unmittelbarer Nähe befindlichen anderen Formen ergeben. 5.3. Audiskop - Bilder blind über Klang erschließen Ähnlich der Wahrnehmungserfahrung blinder Menschen soll in der Anwendung Audiskop dargestellt werden, wie visuelle Welten blind durch Klänge erschlossen werden können. In dem vorgestellten Prototyp können auf diese Weise nicht sichtbare, hinter einer weißen Wand (Bühne auf Bildschirm) verborgene, abstrakte Formen auf verschiedenen Wegen erfühlt werden. Dabei wird nach unterschiedlichen Erschließungsmustern vorgegangen, welche an im vorigen Kapitel vorgestellten grafisch-musikalischen Abbildungen angelehnt sind. In der vorgestellten Version kann der Nutzer zwischen drei zu ertastenden (Strich-) Figuren auswählen (A, B oder C). Während er mit der Maus über die Bühne auf dem Bildschirm fährt, erklingen bestimmte Tonsignale, welche die Nähe der Form repräsentieren. Mit gedrückter rechter Maustaste gewinnt der Mauszeiger die Funktion eines Zeichenstiftes hinzu. Ziel ist es, eine 79 5. Singende klingende Formen Form, die sich hinter dem Weiß der Bühne verbirgt, auditiv zu erkennen und diese nachzuzeichnen. Der Zeichenerfolg kann jederzeit über den Prüfen-Button ermittelt werden. Dann erscheint die zu erkennende Form auf der Bühne und kann mit der selbst gezeichneten Figur verglichen werden. Mit Hilfe des Neues Glück-Button können die gezeichneten Linien wieder gelöscht werden. Im Folgenden wird kurz auf die vier Erschließungsmuster eingegangen. Lautstärkenunterschiede Bei der Erschließung durch Lautstärkenunterschiede kommt die in Kapitel 4.3 (S. 71) kurz angesprochene Wahrnehmungserfahrung zum Ausdruck, dass entfernt liegende Objekte (bei gleicher Schallstärke) in der Regel leiser klingen, als Objekte, die sich näher am Betrachter befinden. Übertragen auf das Erfühlen der Form bedeutet dies, dass man sich umso weiter von dem Objekt (der Linie) entfernt befindet je leiser der Klang ist. Schwillt die Lautstärke langsam an (stufenweise realisiert), ist dies ein Zeichen der Annäherung an die Linie. Nachdem der Höhepunkt (größte Lautstärke) erreicht wurde und die Lautstärke wieder abnimmt, bedeutet dies ein Entfernen von der Figur. Ertönt überhaupt kein Klang mehr, so befindet sich die Maus gänzlich außerhalb des sensitiven Bereichs. Es gilt also, entlang ds Bereichs der größten Lautstärke zu zeichnen, um die Figur korrekt zu ertasten. Es hat sich allerdings herausgestellt, dass Lautstärkenunterschiede nicht exakt genug wahrgenommen werden, um zufriedenstellende Ergebnisse zu liefern. Tonhöhenunterschiede Das Prinzip des Ertastens durch Tonhöhenunterschiede entspricht im Wesentlichen dem der Lautstärkenunterschiede. Zwar trifft hier die Entfernungsmetapher nicht zu, doch lassen sich Tonhöhenunterschiede bedeutend exakter wahrnehmen als Lautstärkenunterschiede. Hier gilt: je höher der Ton, desto näher befindet man sich an der Linie. Sobald die Linie überschritten ist, nimmt die Tonhöhe wieder ab. Im Vergleich zum Ertasten durch Lautstärkenunterschiede können sehr genaue Ergebnisse erzielt werden. Fokussierung durch Konzentration auf einen bestimmten Klang Das Ertasten durch Fokussierung versucht ein Phänomen des menschlichen Hörens nachzuempfinden, welches Ansatzweise bereits in Kapitel 2.1.3 beschrieben wurde. Trotz einer sehr lauten und schallsignalreichen Umgebung ist das menschliche Gehör in der Lage, auf bestimmte (ver- 80 5.3. Audiskop - Bilder blind über Klang erschließen traute) Klänge zu fokussieren und diese getrennt von dem Umgebungsklangchaos wahrzunehmen. In der Literatur wird dies teilweise auch als Cocktail-Party Effekt betitelt. In der Anwendung Audiskop ertönt der Umgebungsklang in einem Wirrwarr verschiedenster Geräusche, welche an eine laue Sommernacht erinnern (Grillenzirpen, Frösche etc.). Je näher der Mauszeiger der verborgenen Figur jedoch kommt, desto mehr kristallisiert sich ein bestimmter Klang heraus, während die Umgebungsgeräusche zunehmend leiser werden. Sobald nur noch dieser einzelne Klang wahrgenommen wird, befindet sich der Mauszeiger direkt auf der Linie der Strichfigur. Fokussierung durch Stille Die Fokussierung durch Stille stellt eine vereinfachte Variante der zuvor beschriebenen Art und Weise der Fokussierung dar. In dieser Variante kristallisiert sich kein einzelner Klang mehr heraus, sondern nimmt der Umgebungsklang so lange ab, bis nur noch Stille wahrzunehmen ist. Es wird auf die Stille fokussiert. Obwohl diese Variante dem Ertasten durch Lautstärkenunterschiede sehr ähnlich ist, zeigen sich bessere Ergebnisse. Dies ist durch die einfachere Wahrnehmung des Unterschiedes zwischen leisem Umgebungsklang und Stille (direkt auf Linie), im Gegensatz zu lauterem und ganz lautem Ton (direkt auf Linie) zu erklären. In Abbildung 5.2 sind exemplarisch die Ergebnisse eines Nutzertests vorgestellt, welche den Erfolg des Ertastens abbilden. Der Nutzer wurde kurz mit dem System vertraut gemacht und daraufhin angewiesen, die verborgene Form akustisch zu erfühlen. Um ein verfälschtes Ergebnis durch zuvor vermutete Formen zu verhindern, wurde der Nutzer in dem Glauben gelassen, jedes Mal eine andere verborgene Form zu erfühlen. Während Abbildung 5.2(a) die zu ertastende Figur zeigt, bilden Abbildung 5.2(b), Abbildung 5.2(c) und Abbildung 5.2(d) die erzielten Ergebnisse des Nutzers ab. Dabei entsprechen die roten Linien der zu ertastenden Figur und die grauen den Zeichnungen des Nutzers. Wie vorangehend bereits angedeutet, wird deutlich, dass das auditive Erfühlen durch Lautstärkenunterschiede keine gute Repräsentationsform darbietet. Es sind deutliche Abweichungen der ursprünglichen Figur zu erkennen (siehe Abbildung 5.2(b)). In dem dargestellten beispielhaften Nutzertest scheint die auditive Repräsentation der Figur durch Fokussierung auf Stille das beste Ergebnis zu erzielen (siehe Abbildung 5.2(d)). 81 5. Singende klingende Formen (a) Form (b) Ergebnis Lautstärkenunterschiede (c) Ergebnis Tonhöhenunterschiede (d) Ergebnis Fokussierung durch Stille Abb. 5.2.: Audiskop - Nutzertest 82 5.4. Technische Umsetzung Während in der hier vorgestellten prototypischen Version des Audiskops die Erschließung einzelner auf der Bühne befindlicher Strichfiguren umgesetzt ist, sollte es ausblickend möglich sein, komplexere Szenen grafischer Elemente akustisch erfahren zu können. Auf die in diesem Prototyp vorgestellte Art und Weise wäre das Ertasten mehrer verteilter Figuren allerdings relativ mühsam, da in den Zwischenräumen zwischen zwei Figuren nicht klar wäre, welche Nähe der Fühler signalisiert (recht, links, oben oder unten) oder ob man sich womöglich innerhalb einer Figur befindet. Für das Abbilden komplexerer Szenen scheint es demnach sinnvoller, die einzelnen Figuren ganzheitlich darzustellen, so dass diese je nach Form, Größe und Farbe (ähnlich den Klangkörpern aus Kapitel 5.2) einen anderen Klang hervorrufen. Auf diese Weise ließe sich das Gesamtbild einer komplexeren Szene (beispielsweise ein abstraktes Bild) leichter akustisch erfassen. 5.4. Technische Umsetzung Die Anwendungen Klangkörper und Audiskop wurden mit Hilfe des Authoringtools Macromedia Flash Professional 8 erstellt, wobei die Programmierung objektorientiert mit der Flash eigenen Programmiersprache ActionScript umgesetzt wurde. Der SEPY ActionScript Editor (Version 1.0.6.78) diente dem Editieren des Codes. Bei der Umsetzung wurde nach dem Model-View-Controler Konzept vorgegangen, wobei eine Trennung der Anwendungslogik von der grafischen Repräsentation angestrebt wird. Während die Elemente der grafischen Oberfläche über das Integrated Development Environment (IDE) von Flash erzeugt wurden, ist die Steuerung dieser Elemente in den ausgelagerten ActionScript-Klassen angesiedelt. Die jeweiligen Klassendiagramme der Applikationen sind in Anhang F zu finden. Die kompletten Quelldateien sind auf der beigefügten CD hinterlegt. Besonders problematisch bei der Umsetzung war die Behandlung von Sounds in Flash, welche den ursprünglichen Vorstellungen leider nicht gerecht werden konnte. Die relativ unflexible Integration und Behandlung verschiedener Sounds verhindern eine vielseitige Nutzung. Darüber hinaus muss mit Performanceeinbußen gerechnet werden. Für weitere Projekte sollte eventuell eine Orientierung auf Processing (Beta) [FR07] in Betracht gezogen werden. 83 5. Singende klingende Formen 5.5. Fazit Die an dieser Stelle vorgestellten Applikationen verdeutlichen in prototypischer Weise die Potentiale von Klängen und Musik, wobei besonders bei Klangkörper die musikalische Komponente hervortritt. Im Sinne eines grafischen Komponierens erzeugen die auf eine Bühne gezogenen geometrischen Figuren, je nach Form und Farbe, schwebende Klangteppiche bis hin zu rhythmisch unruhigen Sequenzen in harmonischen oder disharmonischen Stimmungen. Durch die Möglichkeit des Aufnehmens eigener Samples wird das Komponieren zu einer Mischung aus tonalisierter Visualisierung (eigenes Spiel) und visualisierter Musik (Samples). In Audiskop geht es weniger um das Erstellen von Musik, als viel mehr um das blinde Erfahren visueller Welten durch klangliche Signale. Der Sensor geht dabei nach unterschiedlichen Strategien bezüglich der Abbildung der Formenumrisse auf Klang vor. So können die Umrisse der verborgenen Form durch Lautstärkenunterschiede, durch Tonhöhenunterschiede oder durch Fokussierung auf einen bestimmten Klang oder Stille erfühlt werden. Selbst in der Einfachheit der vorgestellten Prototypen werden einige der in Kapitel 4 untersuchten Abbildungen verdeutlicht und in einer Weise umgesetzt, die den spielerischen Gedanken des Nutzers herausfordert und in interaktiver Form klangliche Welten erfahren lässt. 84 6. Ausklang Auf den folgenden Seiten werden die vorangehend vorgestellten Arbeiten und Erkenntnisse zunächst in einer kurzen Zusammenfassung zusammengetragen und anschließend in einer kritischen Betrachtung diskutiert. Den Abschluss der Arbeit bildet das Fazit mit ausblickenden Gedanken. 6.1. Zusammenfassung Die vorliegende Arbeit präsentierte eine Zusammenstellung des vielseitigen Schaffens in audio-visuellen Verschmelzungsbereichen und Impressionen von deren Anwendungsmöglichkeiten. Die zahlreichen im Laufe der Geschichte entstandenen Experimente und Apparaturen wurden in Kapitel 3 in Form eines geschichtlichen Abrisses vorgestellt und grob gruppiert. Dabei bildeten sich die Bereiche Klang und Farbe, Klang und Form, der übergreifende Bereich des Klangs in Bildern, sowie der stark durch die Informationstechnologie geprägte Bereich des Klangs durch Aktion heraus. In den anschließend vorgestellten ausgewählten Arbeiten zeitgenössischen Wirkens wurde deutlich, dass hier eine Fusion der zuvor einzeln betrachteten Bereiche zu finden ist. Die Essenz dieser vorgestellten Arbeiten diente der Inspiration zu grundlegenderen Betrachtungen bezüglich der Abhängigkeiten visueller und auditiver Elemente. Dabei wurde der bereits vielfach betrachtete Weg vom Musikalischen auf das Grafische, welcher beispielsweise für die grafischen Gebilde der weit verbreiteten Musikvisualisierer bekannter Audioprogramme genutzt wird, weitestgehend außer Acht gelassen. Vielmehr streben die hier vorliegenden Untersuchungen nach Abbildungsmöglichkeiten grafischer Eigenschaften auf musikalische Eigenschaften. Eine grundlegende Basis stellten dabei die in Kapitel 2 aufgeführten Grundlagen der Psychoakustik und der Musiktheorie dar. Es wurde versucht, den Begriff Musik und dessen Charakter grundlegend zu klären, um darauf aufbauend die einzelnen musikalischen Eigenschaften herauszuarbeiten, welche zur Abbildung grafischer Eigenschaften und deren Funktion in interaktiven Interfaces hilfreich sein 85 6. Ausklang können. Die musikalischen Eigenschaften wurden dabei jeweils bezüglich ihrer Anwendbarkeit in den Bereichen Ton und Farbe, Klang und Textur, Klang und Form, Lautstärke und Form, Klang und Bewegung, sowie Klang und Verteilung untersucht. Die entsprechenden Ergebnisse sind in Kapitel 4 zu finden. Um die Effekte solcher Abbildungen zu verdeutlichen, wurden in Kapitel 5 schließlich zwei Prototypen vorgestellt, die die Fähigkeiten von Klang als Repräsentant grafischer Elemente zeigen. Die prototypisch umgesetzte Anwendung Klangkörper dient dabei dem Komponieren mittels einfacher geometrischer Formen, in Verbindung mit bestimmten Klangarten und Farben. Durch die Möglichkeit des Speicherns und Wiederabspielens eigens erstellter grafischer Klangsamples kann eine Brücke zwischen den ursprünglichen tonalisierten Abbildungen zu visualisierten Klängen geschlagen werden. Der vorgestellte Prototyp Audiskop wiederum beschreibt das blinde Erfahren grafischer Objekte mit Hilfe von Klängen. Dabei wurden verschiedene Repräsentationsformen der grafisch-akustischen Abhängigkeit aufgezeigt und bewertet. 6.2. Kritische Betrachtung Ein Gesichtspunkt, der während den in dieser Arbeit vorliegenden Untersuchungen immer wieder anklingt, dennoch aber weitestgehend außer Betracht gelassen wurde, ist die Frage nach der tatsächlichen Fähigkeit von Musik, als Kommunikationsmittel zu agieren. Zwar steht Musik als Sinnbild dafür, Stimmungen und Emotionen zu kommunizieren, doch bleibt es nach wie vor fraglich, ob musikalische Formen tatsächlich in der Lage sind, auch „trockene“ Fakten und Sachverhalte zu vermitteln. Die große Stärke von auditiven und musikalischen Formen liegt in der Fähigkeit des Menschen, innerhalb dieser außerordentlich gut unterscheiden zu können und verschiedene Ausprägungen gleichzeitig wahrzunehmen. So erkennt der aufmerksame Hörer eines Musikstückes problemlos die gleichzeitig auftretenden musikalischen Elemente wie Tonhöhe, Lautstärke, Klangfarbe und Tondauer. Darüber hinaus kann er bestimmen, aus welcher Richtung der Klang kommt. Dem Nutzer könnten also neben der visuellen Information mindestens vier zusätzliche Attribute unterstützend dargeboten werden, um in interaktiven Welten zu agieren. Die Fähigkeit der menschlichen Wahrnehmung, komplexe Schallsignale durch die auditive Lautsphärenanalyse (siehe Kapitel 2.1.3) selbst in sehr schallsignalreichen Umgebungen korrekt und differenziert zu interpretieren ermöglicht es dem Nutzer, aus den gleichzeitig dargebotenen 86 6.2. Kritische Betrachtung Informationen, die für ihn bedeutungshaltigen Informationen herauszufiltern. Der Einsatz musikalischer Elemente zur Darstellung großer Datenmengen ist ebenfalls vorstellbar, da somit gewissermaßen auf einen „auditiven Blick“ der Gesamtzustand „überschaut“ werden kann, was visuell oftmals erst nach genaueren (zeitaufwändigen) Betrachtungen möglich ist. Dennoch bergen all diese Vorteile auch Gefahren. Geräuschbelästigung ist für die menschlichen Sinne im Allgemeinen unerträglicher, als die Belastung durch visuelle Überreizung, da sich die auralen Sinne der Belastung nicht ohne Weiteres entziehen können, wie es beispielsweise durch das Schließen der Augen möglich ist. Aus diesem Grund lehnt eine Vielzahl der Nutzer von vornherein den Einsatz auditiver Elemente ab. In Konsequenz bleiben die Potentiale der auditiven Informationsaufnahme vielfach ungenutzt, obwohl sich deren Wahrnehmungsqualität und -fähigkeit von der visuellen nicht oder nur kaum unterscheiden. Der Mensch ist stärker an die visuelle Informationsaufnahme gewöhnt und inzwischen zweifellos geschulter im Umgang damit, während die auditive Wahrnehmung gewissermaßen verkümmert. Doch selbst diese Vernachlässigung birgt Potentiale, da Musik und Klang somit noch als effektive Trenner zwischen der alltäglichen Welt und Informationen genutzt werden können. Als Beispiel seien die einleitenden Jingles der Straßenbahn- oder Busansagen zu sehen, welche ohne das vorherige Ding-Dong womöglich gar nicht wahrgenommen würden. Auf die beständige Frage der Kritiker, in welcher Gewichtung der Einsatz von Klängen und Musik eher Belastung als Entlastung darstellt, wird an dieser Stelle in zweierlei Hinsicht geantwortet. Zum einen sollte der visuelle Informationskanal, sofern möglich, nicht gänzlich ausgeschalten werden, um eine erneute komplette Abschottung durch Konzentration auf eine rein auditive Informationsvermittlung zu verhindern. Eine Synthese auditiver und visueller Vermittlung scheint demnach ideal. Andererseits ist nicht unbedingt gesichert, dass kombinierte Wege stets bessere Ergebnisse zeigen. Hier kann durch Missinterpretation der beiden aufeinander treffenden Informationskanäle eine erhöhte Fehlerzahl auftreten. Es wird also deutlich, wie wichtig die angemessene Gestaltung der entsprechenden Informationsvermittlung ist. Die in dieser Arbeit vorgestellten Untersuchungen stellen eine Übersicht möglichst intuitiver Abbildungen dar, welche ausgehend von den bisher vorwiegend grafisch umgesetzten Eigenschaften interaktiver Interfaces eine musikalische Realisierung vorschlagen. Der Fokus lag dabei auf der Erarbeitung konkreter geeigneter Abbildungen, wobei die jeweiligen Ein- 87 6. Ausklang satzbereiche vorerst außer Acht gelassen wurden. Einige dieser Umsetzungen verlangen allerdings nach einer gewissen musikalischen Vorbildung, so dass musikalisch weniger geschulten Nutzern ein Nachteil bezüglich der Verarbeitung und des Verständnisses der akustisch kodierten Informationen entstünde. In der Literatur wird aus diesem Grund oftmals ein bevorzugter Einsatz sprachlicher Klänge oder Umgebungsgeräusche vorgeschlagen, da somit eine gleichberechtigte Wahrnehmung gesichert scheint. Einige der im musikalischen Kontext vorgestellten Attribute können tatsächlich auch auf Sprache übertragen werden. So findet sich beispielsweise die Tonhöhe in der Intonation einer Sprache wieder, deren Anwendung besonders in asiatischen Sprachen sehr verbreitet ist. Die Dauer ist durch die Sprechgeschwindigkeit ausdrückbar und auch Rhythmus kann durch verschiedene Betonungen und Akzentuierung herausgearbeitet werden. Selbst die Klangfarbe kann von Stimme und Stimmung abhängig variieren. Auch bei Umgebungsklängen oder -geräuschen können entsprechende Analogien gefunden werden. Geräusche haben außerdem die Eigenschaft, gleichzeitig Informationen über deren Herkunft zu vermitteln. Zusätzlich wird die Eignung von Geräuschen durch die natürliche Erfahrung eines stetigen akustischen Feedbacks und den damit einhergehenden Assoziationen unterstützt. Allerdings vermögen Sprache oder Geräusche nicht in annäherndem Maße wie musikalische Klänge, einen gefühlsbetonten und stimmungsabhängigen Eindruck zu vermitteln. Da dies aber auch nicht in jedem Kontext notwendig beziehungsweise wünschenswert ist, sollten auch diese Formen der akustischen Informationsvermittlung bei weiteren Untersuchungen einbezogen werden. Eine weitere Limitierung des Einsatzes musikalischer Elemente, die allerdings auch im visuellen Bereich auftritt, steht in engem Zusammenhang mit der magischen Sieben. Dieses Phänomen tritt bei allen menschlichen Sinnen auf und beschreibt eine Art Grenze der Verarbeitungskapazität. So kann sich das visuelle Gedächtnis in kurzer Zeit beispielsweise nur maximal sieben (plusminus zwei) Abbildungen einprägen. Der Geruchssinn vermag es nicht, mehr als sieben (plusminus zwei) verschiedene Gerüche hintereinander zu unterscheiden. Bezogen auf Musik bedeutet dies, dass die auditive Informationsverarbeitung nicht in der Lage ist, mehr als sieben (plusminus zwei) Reize gleichzeitig aufzunehmen beziehungsweise zu unterscheiden. Dies betrifft zum Beispiel die Informationsdarstellung in Akkorden, bei welcher die Anzahl von sieben (plusminus zwei) den Akkord bestimmenden Tönen nicht überschritten werden sollte, um eine Unterscheidung noch zu ermöglichen. Wie auch in der visuellen Gestaltung sollte generell auf einen sparsamen Umgang der musikalischen Mit- 88 6.3. Fazit und Ausblick tel geachtet werden. Auch hier gilt der Grundsatz, dass eine gute Gestaltung genau dann am prägnantesten ist, wenn keines der Elemente mehr weggelassen werden kann. Die in dieser Arbeit präsentierten Recherchen geben einen Einblick in die Vielzahl der im audio-visuellen Bereich entstandenen Arbeiten und deuten somit gleichzeitig die schwierige Aufgabe an, innerhalb dieser Weitläufigkeit und Interdisziplinarität geeignete Schwerpunkte zu setzen. Oftmals steht der Anspruch auf Vollständigkeit dem Anspruch auf Gründlichkeit gegenüber. In der vorliegenden Arbeit wurden die Untersuchungen in Form einer horizontalen Vorgehensweise angelegt, welche ganzheitlich eine solide Basis für weiterführende (vertikale) Untersuchungen liefert. 6.3. Fazit und Ausblick Abschließend betrachtet bietet der reichhaltige Bereich der audio-visuellen Bestrebungen eine Vielzahl an Einsatzmöglichkeiten auf dem Gebiet der informationsverarbeitenden Anwendungen. Besonders zur Unterstützung der Informationsvisualisierung scheinen Klänge und Musik geeignet zu sein, Arbeitsabläufe effektiver und auch angenehmer zu gestalten. Mögliche Einsatzbereiche liegen dabei beispielsweise in den Gebieten der Medizin, Geographie, Demographie und Börse bis hin zu Serverüberwachungen in der Informatik. Die tonalisierten Abbildungen können dem Nutzer helfen, sich innerhalb der großen Datenmengen zu orientieren und diese schneller zu erfassen. Dies wird besonders durch die Fähigkeit der gleichzeitigen Wahrnehmung verschiedener musikalischer Elemente (und der mit diesen verknüpften Parameter) unterstützt. Musikalische Melodien als Repräsentanten von Datenflüssen haben darüber hinaus den Vorteil, in Form von Umgebungsmusik angenehm unauffällig zu sein und dennoch Daten beziehungsweise Informationen zu vermitteln. Die musikalische Überwachung von Datenflüssen ist beispielsweise auf unterschiedliche Instrumente abbildbar und vermittelt je nach Melodieführung und Tonhöhe bestimmte Aktivitäten. Weitere Potentiale liegen in dem Bereich der Accessibility. So könnte die durch einen Screenreader textlich vorgetragene Beschreibung von Bildern (oder auch Texten) mittels Klängen und Melodien begleitet werden, welche die Stimmung des Bildes wiedergeben. Den sehbehinderten Nutzer würden somit neben dem rein bildlichen Informationsgehalt auch Eindrücke der bildlichen Ausstrahlung erreichen. Der geeignete Einsatz von Klängen kann außerdem einen erheblichen Einfluss auf die Joy of Use einer Anwen- 89 6. Ausklang dung haben und in diesem Sinne die Nutzerzufriedenheit erhöhen. Doch nicht nur als Earcandy, sondern auch als unterschwellige Warnfunktion in Form von Melodien, welche die Gewichtung beziehungsweise Konsequenzen bestimmter Aktionen musikalisch wiedergeben, ist der Einsatz akustischer Formen vorstellbar. Einfaches Navigieren und Explorieren einer Benutzeroberfläche würde somit ambient durch seichte Musik untermalt, während folgenschwere Aktionen, wie beispielsweise die einer Löschen-Funktionalität, ein dramatisches Anschwellen der Melodie bewirken. Es ist denkbar, dass derartige Umsetzungen den Zugang zu Informationstechnologie, besonders für wenig damit vertraute Nutzer, erleichtern. Während der Bereich der Informationstechnologie bisher weitestgehend durch den Einsatz visuell geprägter Anwendungen dominiert wird, zeigen zukunftsorientierte Bestrebungen, wie beispielsweise die der ubiquitären Anwendungen, wie bedeutsam ein Aufholen im Bereich der auditiven Informationsvermittlung ist. Notwendigerweise müssen fundierte Grundlagen zum Einsatz akustischer Elemente geschaffen werden, um darauf aufbauend, den Anforderungen moderner Nutzer gerecht zu werden. Ubiquitäres Design ermöglicht dem Nutzer einen alle Sinne umfassenden Umgang mit Informationstechnologie. Dies meint jedoch nicht unbedingt die Informationsaufnahme über alle Sinne zur gleichen Zeit, sondern vielmehr das Schaffen fließender Übergänge zwischen der Verarbeitung über die verschiedenen Sinne. Dabei sei sowohl an den Bereich spielerischer Anwendungen, als auch an die Arbeitsabläufe der Businessprozesse verwiesen, bei welchen die einzelnen Kommunikationsstrukturen immer stärker ineinander greifen. Um derartige interperzeptuale Arbeitsabläufe möglichst barrierefrei gestalten zu können, müssen die jeweiligen Schnittstellen in gleichberechtigter Ausprägung (allumfassend) zur Verfügung gestellt werden. Ausblickend sollte der moderne Nutzer in der Lage sein, je nach Situation und Vorlieben, den für ihn geeignetsten Informationskanal (beispielsweise für Feedback oder Steuerung) selbst zu wählen. So muss nicht länger der Nutzer seine Arbeitsweise an die vorhandene informationstechnologische Infrastruktur anpassen, sondern passt die Anwendung an seine jeweilige Arbeitssituation an. Während beispielsweise eine akustische Steuerung (eventuell auch haptisch) des Navigationssystems beim Fahren eines Autos der visuellen Steuerung vorzuziehen ist, mögen einige Nutzer ein Umschalten auf visuelle Ein- und Ausgaben während der Rast bevorzugen. Die Ausrüstung informationstechnologischer Anwendung in allumfassender Art und Weise birgt den entscheidenden Vorteil der 90 6.3. Fazit und Ausblick Wahlmöglichkeit des Nutzers. Einer Überlastung aufgrund einseitig genutzter Informationskanäle kann somit vorgebeugt werden. Die in dieser Arbeit präsentierten Untersuchungen bezüglich grafischer und musikalischer Eigenschaften, stellen grundlegende Ansätze und Anregungen zur Verfügung, Klänge und musikalische Formen in geeigneter Weise in interaktive Interfaces einzubeziehen. Die konkrete Umsetzung bleibt dabei dem Gestalter überlassen. Die durch die zahlreichen historischen Arbeiten deutlich gewordene Interdisziplinarität des Bereiches weist in gleicher Weise auf den Forschungsbedarf in den einzelnen Gebieten hinsichtlich des akustischen Interaktionsdesigns hin. So sind für weiterführende Erkenntnisse intensivere Untersuchungen in den Bereichen der (Wahrnehmungs-) Psychologie, Musik und des Bildnerischen notwendig. Empirische Untersuchungen bezüglich der Angemessenheit und Nutzbarkeit sollten die Forschungsergebnisse zusätzlich stützen. 91 Anhang A. Wahrnehmungseffekte Noten eines Stückes mit Melodietrennungseffekt Abb. A.1.: Auszug aus YANN T IERSENs Comptine d’été n◦ 3 III B. Musiktheorie Pentatonik Durpentatonik Mollpentatonik Tabelle B.1.: Fünftonleitern Heptatonik D-Dur Moll (natürlich) Moll (harmonisch) Moll (melodisch) Tabelle B.2.: Dur- und Moll-Tonleitern V B. Musiktheorie Lydisch Ionisch = Dur Mixolydisch Dorisch Äolisch = natürl. Moll Phrygisch Lokrisch Tabelle B.3.: Modale Tonleitern VI C. Ton und Farbe Modelle K IRCHNERs und DE LA C HAMBREs A. K IRCHER M. C. DE LA C HAMBRE Oktave grün Doppeloktave schwarz Septime blau-violet Duodezime violett große Sexte feuerrot Undezime blau kleine Sexte rot-violett Oktave grün erweiterte Quinte dunkelbraun Quinte rot Quinte golden Quarte gelb verminderte Quinte blau Grundton weiss Quarte braun-gelb große Terz helles rot kleine Terz golden große Sekunde schwarz großer Ganzton schwarz kleine Sekunde weiss kleiner Ganzton grau Tabelle C.1.: Farb-Tonintervall-Modelle nach A.K IRCHER und M.C. C HAMBRE [Day07] DE LA VII C. Ton und Farbe Übersicht verschiedener Farb-Ton-Modelle Abb. C.1.: Übersicht über Farbtonleitern, angelehnt an [Col07b] VIII Instrument-Farb-Modell nach W. Kandinsky Farbe Instrument gelb Trompete, Klang der Fanfare himmelblau Flöte blau tiefe Töne der Orgel dunkelblau Cello tiefdunkelblau Bass grün Mitteltöne der Violine weiss kurzzeitige Pause schwarz abschließende Pause grau Klangloch hellrot Fanfare, Tuba/ Horn dunkelrot Trommelwirbel, Tuba/ Horn kaltes rot Mittel- und Tieftöne des Cello helles kaltes rot andere Töne der Violine orange Mittelglocken der Kirche, starke Altstimme, Bratsche violett Englisch-Horn, Dudelsack tiefpurpur tiefe Töne der Holzbläser, Fagott Tabelle C.2.: Instrument-Farb-Modell nach K ANDINSKY [Day07] IX C. Ton und Farbe schematische Darstellung des Lumigraph Abb. C.2.: Ausschnitt einer schematische Zeichnung des Lumigraphs, 1955 von F ISCHINGER erstellt X D. Musik in der bildenden Kunst malerische Musik Abb. D.1.: WASSILY K ANDINSKY: Impression 3, 1911 Abb. D.2.: PAUL K LEE: Fuge in Rot, 1921 XI D. Musik in der bildenden Kunst Abb. D.3.: M IKALOJUS KONSTANTINAS C IURLIONIS: Präludium und Fuge, 1907 Abb. D.4.: J OHANNES I TTEN: Blaugrüner Klang, 1917 XII Abb. D.5.: R OBERT S TRÜBIN: Robert Schumann, e-moll - Symphonie, Opus 13, Nr. IX, 1958 XIII D. Musik in der bildenden Kunst Musik in der Malerei Abb. D.6.: G USTAV K LIMT: Die Musik, 1895 Abb. D.7.: PABLO P ICASSO: Violine „Jolie Eva“, 1912 XIV Abb. D.8.: G EORGE M EYER -M ARTON: Orchester, 1957 Abb. D.9.: M AN R AY: Bewunderung des Orchestrions für den Kinematographen, 1919 XV D. Musik in der bildenden Kunst Grafische (visuelle) Musik Abb. D.10.: G. RÜHM: Blatt aus Zyklus Duo, 1983 Ähnlich wie visuelle poesie ausschließlich zum sehen bestimmt ist, soll auch visuelle musik mit den augen wahrgenommen werden und nur im »inneren ohr« - synoptisch - vage akustische vorstellungen wecken. die vorgegebenen notenlinien suggerieren dabei - dem zeichenvorgang konform - einen zeitlichen verlauf, eine »leserichtung« (was nicht ausschließen soll, das blatt auch als ganzes auf sich wirken zu lassen) und lenken die assoziationen beim betrachten der zeichnung in musikalische bereiche. G. R ÜHM, [vM94, S.311] Hörbsp. 34.: B ACH: Wohltemperiertes Klavier No.1, Es-Moll Abb. D.11.: H ENRIK N EUGEBOREN: Grafische Darstellung der vierstimmigen Fuge No.1 aus dem Wohltemperierten Klavier von J.S. Bach (in EsMoll) (siehe Hörbeispiel 34), später plastisch umgesetzt (Abbildung D.17) XVI Abb. D.12.: WASSILY K ANDINSKY: Klangpunkte aus „Von Punkt, Linie zu Fläche“, 1926 Abb. D.13.: K. S TOCKHAUSEN: Elektronische Studien, Studie II, 1956 Abb. D.14.: G YÖRGY L IGETI: Artikulation, 1970 XVII D. Musik in der bildenden Kunst Grafische Partituren Hörbsp. 35.: X ENAKIS: Oresteia, Les Eunémides, Ausschnitt Abb. D.15.: I ANNIS X ENAKIS: Auszug der Partitur zu Oresteia, 1965/66 (siehe Hörbeispiel 35) XVIII Abb. D.16.: E ARLE B ROWN: Ausschnitt der Partitur zu Synergy, 1952 XIX D. Musik in der bildenden Kunst Plastische Musik Abb. D.17.: H ENRIK N EUGEBOREN: B ACH Monument aus Edelstahl im Park des Krankenhauses der Stadt Leverkusen nach einem Modell von 1928, in Anlehnung an die Diagrammartige Darstellung (Abbildung D.11) XX E. Klangfiguren von C HLADNI Abb. E.1.: Klangfiguren erzeugt auf einer quadratischen Platte, katalogisiert von C HLADNI XXI F. Klassendiagramme Abb. F.1.: Klassendiagramm Klangkörper XXIII F. Klassendiagramme Abb. F.2.: Klassendiagramm Audiskop (Arbeitsname: Erfühler ) XXIV G. Literaturverzeichnis [Ack91] D. Ackerman. Die schöne Macht der Sinne. Kindler Verlag, Berlin, 1991. [AR98] J.L. Alty and D.I. Rigas. Communicating graphical information to blind users using music: the role of context. In CHI ’98: Proceedings of the SIGCHI conference on Human factors in computing systems, pages 574–581, New York, NY, USA, 1998. ACM Press/Addison-Wesley Publishing Co. [ASA07] Acoustical Society of America. http://asa.aip.org/sound.html, Februar 2007. [BC97] S.A. Brewster and M.G. Crease. Making menus musical. In Proceedings of IFIP Interact’97, pages 389–396, Sydney, Australia, 1997. Chapman & Hall. [BC05] S.A. Brewster and V.C. Catherine. The Design and Evaluation of a Sonically Enhanced Tool Palette. ACM Transition on Applied Perception, 2(4):455 – 461, Oktober 2005. [Bib] Die Bibel. Evangelische Haupt-Bibelgesellschaft, Berlin und Altenburg. [Bis93] B. Bishop. A Souvenir of the Color Organ, with some suggestions in regard to the soul of the rainbow and the harmony of light. 1893. [BLC96] M. Beaudouin-Lafon and S. Conversy. Auditory illusions for audio feedback. In CHI ’96: Conference companion on Human factors in computing systems, pages 299–300, New York, NY, USA, 1996. ACM Press. [BWE95] S.A. Brewster, P.C. Wright, and A.D.N. Edwards. Experimentally derived guidelines for the creation of earcons. In Adjunct Proceedings of BCS HCI’95, pages 155–159, Huddersfield, UK, 1995. XXV G. Literaturverzeichnis [BWED95] S.A. Brewster, P.C. Wright, A.D.N. Edwards, and A.J. Dix. The Sonic Enhancement of graphical buttons. In K. Nordby, P. Helmersen, D. Gilmore, and S. Arnesen, editors, Proceedings of Interact’95, pages 43–48, Lillehammer, Norway, 1995. Chapman & Hall. [Col07a] E. Epstein Collection. Light Art Lumia. http://www.lumiawilfred.org, Februar 2007. [Col07b] F. Collopy. Rhythmic Light. http://www.rhythmiclight.com, Februar 2007. [Coo59] D. Cooke. The Language of Music. Oxfrod University Press, London, 1959. [Dan06] D. Daniels. Sound & Vision in Avantgarde & Mainstream. http://www.medienkunstnetz.de/themen/bild-tonrelationen/ sound_vision, September 2006. [Day07] S.A. Day. A Brief History of Synaesthesia and Music. http://www.thereminvox.com/article/articleview/33/1/5, Februar 2007. [Dir07] P. Langeslag (Managing Director). Audio Consulting Group. http://ac-g.de, Februar 2007. [Dud03] Duden. DUDEN. Deutsches Universalwörterbuch. Augsburger Buch und Verlagshaus, Augsburg, 2003. [Fes07] K. Fessmann. Klangbewegungen im Stein - Ideale Resonanzen. http://www.ev-akademie-tutzing.de/doku/aktuell/ upload/KlangWerkstatt.htm, Februar 2007. [FFK07] Prof. H. Fastl, M. Fruhmann, and S. Kerber. Hörbeispiele Acoustic Demonstrations. http://www.mmk.ei.tum.de/ t̃al/demos, Februar 2007. [FFW07] M. Fujihata, K. Furukawa, and W.Muench. Smallfish. http://hosting.zkm.de/wmuench/small_fish, Februar 2007. [FG06] G. Föllmer and J. Gerlach. Audiovisionen. Musik als intermediale Kunstform. http://www.medienkunstnetz.de/ themen/bild-ton-relationen/audiovisionen, September 2006. [Fis07a] E. Fischinger. Writing Light. http://www.centerforvisualmusic.org/WritingLight.htm, Februar 2007. XXVI G. Literaturverzeichnis [Fis07b] O. Fischinger. Sounding Ornaments. http://www.oskarfischinger.org/Sounding.htm, Februar 2007. [FR07] B. Fry and C. Reas. Processing (Beta). http://processing.org, Februar 2007. [Gem02] H. Gembris. Wirkung von Musik - Musikpsychologische Forschungsergebnisse. In G. Hofmann, editor, Mensch und Musik. Wißner Verlag, 2002. [Gol97] E.B. Goldstein. Wahrnehmungspsychologie: eine Einführung. Spektrum Akademischer Verlag GmbH, Heidelberg, Berlin, Oxford, 1997. [Gra04] T. Grasse. Wirkungen von Musik. Master’s thesis, Staatliche Hochschule für Musik, Trossingen, 2004. [Gro98] R. Grossmann. Farbklavier, Oszilliskop, Sequenzer. In Intermedialität - Theorie und Praxis eines interdisziplinären Forschungsgebietes, pages 108 – 119, Berlin, 1998. Helbig, Jörg. [Gro05] R. Groh. Das Interaktions-Bild. TUDpress, 2005. [Gro07] R. Grossmann. Monitor - Intermedium zwischen Ton, Bild und Programm. http://kulturinformatik.uni- lueneburg.de/grossmann/monitor/monitor.htm, Februar 2007. [HE99] J.C.K. Hankinson and A.D.N. Edwards. Designing earcons with musical grammars. SIGCAPH Comput. Phys. Handicap., (65):16–20, 1999. [Hof07] H. Hofmann. Terra Musica - Online Musikschule. http://www.musikurlaub.com/online-gitarrenschule/ musiktheorie/tonleitern/tonleitern.html, Februar 2007. [Höl06] R. Höldrich. Skriptum Bereich Akustik. http://iem.at/lehre/skripten/skriptum.pdf, Dezember 2006. [Iwa07a] T. Iwai. Tenori-On. http://www.global.yamaha.com/design/tenori-on, Februar 2007. XXVII G. Literaturverzeichnis [Iwa07b] T. Iwai. Work of Toshio Iwai. http://ns05.iamas.ac.jp/ĩwai/ iwai_main.html, Februar 2007. [Joh07] B. John. Das klingende Bild - über das Verhältnis von Kunst und Musik. Ein kunsthistorischer Rückblick. http://www.medienkunstnetz.de/themen/bild-tonrelationen/ das_klingende_bild, Februar 2007. [Kla07] T. Klages. Techno Talk - Dialoge zwischen den Medien. http://www.audio.uni-lueneburg.de/webseiten/ tectalk/tec1.htm, Februar 2007. [Köh29] W. Köhler. Gestalt Psychology. Horace Liveright, Inc., New York, 1929. [Lev00] G. Levin. Painterly Interfaces for Audiovisual Performance. Master’s thesis, Massachusetts Institute of Technology, September 2000. [Lev03] T.Y. Levin. Tones from out of nowhere: Rudolph Pfenninger and the Archaeology of synthetic sound. Grey Room, 12, 2003. [Lin01] S. Lindner. SINN:SINN. http://www.sinnich.de/theorie.pdf, 2001. [LL03] G. Levin and Z. Lieberman. Messa di Voce. http://tmema.org/messa/messa.html, Februar 2007, 2003. [Mal07] V. Mallory. Visual Music - Hirshhorn Museum and Sculpture Garden. http://hirshhorn.si.edu/visualmusic/organs.html, Februar 2007. [Med06] Medien-Kunst-Netz. http://www.medienkunstnetz.de, August 2006. [MH83] K. Mehner and M. Hager. Rhythmus und Metrum in der Musik. Deutscher Verlag für Musik, Leipzig, 1983. [Mic05] U. Michels. dtv-Atlas Musik. Deutscher Taschenbuch Verlag, München, 2005. [Mor97] W. Moritz. The Dream of Color Music, And Machines That Made it Possible. Animation World Magazine, Issue 2.1, April 1997. [Pas04] K.S. Pascha. Gefrorene Musik. PhD thesis, Technischen Universität Berlin, Fakultät Architektur, 2004. XXVIII G. Literaturverzeichnis [Pfr54] H. Pfrogner. Musik. Geschichte ihrer Deutung. Verlag Karl Alber, Freiburg/ München, 1954. [Pla40] Platon. Sämtliche Werke, volume Bd.II, S.102-103. Berlin, 1940. [Rec85] A. Recknagel. Physik - Schwingungen und Wellen. Verlag Technik, Berlin, 1985. [RH03] V.S. Ramachandran and E.M. Hubbard. Blauer Dienstag, duftende Fünf. Gehirn und Geist, pages 58–65, Mai 2003. [Sch69] D. Schnebel. Mo-No: Musik zum Lesen. Köln, 1969. [Sni03] S. Snibbe. Body, Screen and Shadow. San Francisco Media Arts Council (SMAC), 2003. [vC99] C. van Campen. Artistic and Psychological Experiments with Synesthesia. Leonardo, 32(1):9–14, 1999. [vM94] K. v. Maur, editor. Vom Klang der Bilder: Die Musik in der Kunst des 20. Jahrhunderts. Prestel-Verlag, München, 1994. [War00] D. Warner. Installations. http://helios.hampshire.edu/d̃cwMB, Februar 2007, 2000. [Wat06] M. Wattenberg. The Shape of a Song. http://www.turbulence.org/Works/song, Februar 2007, 2006. [Wehr] Lü Bu We. Frühling und Herbst, volume V, Kapitel 2. 237 v.Chr. [Wor07] S. Wortel. Mit den Ohren sehen, mit den Augen hören. http://www.wdr.de, Februar 2007. [ZF99] E. Zwicker and H. Fastl. Psychoacoustics - Facts and Models. Springer-Verlag, 1999. [Zip85] F. Zipp. Vom Urklang zur Weltharmonie. Merseburg Berlin GmbH, Kassel, 1985. XXIX H. Abbildungsverzeichnis 2.1. Aufbau des menschlichen Ohres . . . . . . . . . . . . . . . 6 2.2. Schalldruckpegel, Frequenz und Lautstärke . . . . . . . . . 7 2.3. Interaurale Zeitdifferenz [Gol97] . . . . . . . . . . . . . . . . . 8 2.4. Ausbreitung tieffrequenten Schalls [Gol97] . . . . . . . . . . . 8 2.5. Ausbreitung hochfrequenten Schalls [Gol97] . . . . . . . . . . . 8 2.6. Ausbreitung der Schallwellen bei bewegter Schallquelle . . . . 9 2.7. Figuren von K ÖHLERs phonetischem Experiment . . . . . . . . 10 2.8. M.C.Eschers Treppauf und treppab . . . . . . . . . . . . . . . . . 12 2.9. Musiktheoretische Modelle . . . . . . . . . . . . . . . . . . 16 2.10. Farb-Ton-Abbildung S CRIABINs . . . . . . . . . . . . . . . . . 19 3.1. Chinesische Tonleiter . . . . . . . . . . . . . . . . . . . . . . 24 3.2. Farborgeln des 19.Jahrhunderts . . . . . . . . . . . . . . . . 29 3.3. Scheiben einer Clavilux-Projektion . . . . . . . . . . . . . . . . 31 3.4. Standbilder einer Clavilux Vorführung . . . . . . . . . . . . 31 3.5. Audio-Visuelle Instrumente des 20. Jahrhunderts . . . . . . 32 3.6. Projektionen des MobilColor Projector . . . . . . . . . . . . . 32 3.7. Piano Optophonique . . . . . . . . . . . . . . . . . . . . . . 33 3.8. Lumigraph während einer Vorführung . . . . . . . . . . . . 34 3.9. Augenmusik . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.10. Verhältnis zwischen musikalischer und bildnerischer Form 36 3.11. Rhythmus in Bildern . . . . . . . . . . . . . . . . . . . . . . 37 3.12. Klangfiguren aus Quarzstaub . . . . . . . . . . . . . . . . . . . 38 3.13. Farbenlicht-Spiel . . . . . . . . . . . . . . . . . . . . . . . . 39 3.14. Standbild aus F ISCHINGERs Radio Dynamics . . . . . . . . . . . 39 3.15. Photoplatten von F ISCHINGERs Klingende Ornamente . . . . 40 3.16. M C L AREN: Abbildung eines Tones über Index-Card und Scha. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.17. M C L AREN: Schablonen . . . . . . . . . . . . . . . . . . . . . . 40 3.18. Toolpalette eines Grafikprogramms . . . . . . . . . . . . . . . 43 3.19. Musikalische Objektrepräsentation . . . . . . . . . . . . . . 43 3.20. musikalischer Grammatiken . . . . . . . . . . . . . . . . . . 44 3.21. „hhhhhh“ Wolke (Clouds) . . . . . . . . . . . . . . . . . . . . 45 blone XXXI H. Abbildungsverzeichnis 3.22. „ssssss“ Wolke (Clouds) . . . . . . . . . . . . . . . . . . . . . 45 3.23. Messa di Voce 1 . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.24. Wellenerzeugung pro Ton (Ripple) . . . . . . . . . . . . . . . . 46 3.25. Umriss (Insect Natur Show) . . . . . . . . . . . . . . . . . . . 46 3.26. Messa di Voce 2 . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.27. Messa di Voce 3 . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.28. Richtung je nach Tonabfolge . . . . . . . . . . . . . . . . . . . 47 3.29. Messa di Voce 4 . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.30. Musikanalyse mittels The Shape of a Song . . . . . . . . . . . 48 3.31. Teilsysteme der AVES . . . . . . . . . . . . . . . . . . . . . . 49 3.32. verschiedene Installationen des Small Fish . . . . . . . . . 50 3.33. Arbeiten von T OSHIO I WAI . . . . . . . . . . . . . . . . . . 51 4.1. Übersicht der das Interaktionsbild beeinflussenden Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.2. Modell der Spannungen in der Musik . . . . . . . . . . . . 56 4.3. Schematischer Aufbau von Musik . . . . . . . . . . . . . . 57 4.4. Zuordnung musikalischer Attribute nach Statik und Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.5. Auswahl einiger Farb-Ton-Zuordnungen . . . . . . . . . . 65 4.6. Ähnlichkeiten der Harmoniemodelle von Farbe und Musik 66 4.7. Rauhigkeit von Tönen in Objektoberflächen . . . . . . . . . 67 4.8. Halbkreis aus fünf aufsteigenden Tönen . . . . . . . . . . . . . 68 4.9. Viereck aus erweitertem Dreiklang . . . . . . . . . . . . . . . . 68 4.10. Form zum Hörbeispiel . . . . . . . . . . . . . . . . . . . . . . 70 4.11. Form als Frequenzbild . . . . . . . . . . . . . . . . . . . . . . 70 4.12. Unterschiede in Objektanzahl . . . . . . . . . . . . . . . . . . 71 4.13. Unterschiede in Anordnung . . . . . . . . . . . . . . . . . . . 71 5.1. Klangkörper - Dreiklang . . . . . . . . . . . . . . . . . . . . . 78 5.2. Audiskop - Nutzertest . . . . . . . . . . . . . . . . . . . . . . 82 A.1. Auszug aus YANN T IERSENs Comptine d’été n◦ 3 . . . . . . . III C.1. Übersicht über Farbtonleitern . . . . . . . . . . . . . . . . . VIII C.2. Ausschnitt einer schematische Zeichnung des Lumigraphs . X D.1. K ANDINSKY: Impression 3 . . . . . . . . . . . . . . . . . . . XI D.2. K LEE: Fuge in Rot . . . . . . . . . . . . . . . . . . . . . . . . XI D.3. C IURLIONIS: Präludium und Fuge . . . . . . . . . . . . . . . XII D.4. I TTEN: Blaugrüner Klang . . . . . . . . . . . . . . . . . . . . XII D.5. S TRÜBIN: Robert Schumann . . . . . . . . . . . . . . . . . . . XIII XXXII H. Abbildungsverzeichnis D.6. K LIMT: Die Musik . . . . . . . . . . . . . . . . . . . . . . . . XIV D.7. P ICASSO: Violine „Jolie Eva“ . . . . . . . . . . . . . . . . . . XIV D.8. M EYER -M ARTON: Orchester . . . . . . . . . . . . . . . . . . XV D.9. R AY: Bewunderung des Orchestrions für den Kinematographen XV D.10.R ÜHM: Zyklus Duo . . . . . . . . . . . . . . . . . . . . . . . XVI D.11.H ENRIK N EUGEBOREN: B ACH, Es-Moll-Fuge . . . . . . . . XVI D.12.K ANDINSKY: Klangpunkte . . . . . . . . . . . . . . . . . . . XVII D.13.S TOCKHAUSEN: Studie II . . . . . . . . . . . . . . . . . . . . XVII D.14.L IGETI: Artikulation . . . . . . . . . . . . . . . . . . . . . . . XVII D.15.X ENAKIS: Partitur zu Oresteia . . . . . . . . . . . . . . . . . XVIII D.16.B ROWN: Partitur zu Synergy . . . . . . . . . . . . . . . . . . XIX D.17.H ENRIK N EUGEBOREN: B ACH Monument . . . . . . . . . . XX E.1. Klangfiguren von C HLADNI . . . . . . . . . . . . . . . . . . XXI F.1. Klassendiagramm Klangkörper . . . . . . . . . . . . . . . . . XXIII F.2. Klassendiagramm Audiskop . . . . . . . . . . . . . . . . . . XXIV XXXIII I. Tabellenverzeichnis 2.1. Vergleich der auditiven und visuellen Wahrnehmung . . . 11 4.1. Zuordnungen der semantisch-funktionalen Konkretion . . 55 4.2. Zuordnung musikalischer Eigenschaften zu interaktionsbestimmenden Ereignissen . . . . . . . . . . . . . . . . . . . 60 4.3. Einfluss musikalischer Attribute auf die Ausdruckskraft . 61 4.4. Zuordnung musikalischer Attribute nach Quantität und Qualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.5. Funktionen des Einsatzes von Klang und Musik . . . . . . 72 4.6. Einordnung in visuelle und akustische Interfaces . . . . . . 74 4.7. Übersicht möglicher grafisch-musikalischer Abbildungen . 75 B.1. Fünftonleitern . . . . . . . . . . . . . . . . . . . . . . . . . . V B.2. Dur- und Moll-Tonleitern . . . . . . . . . . . . . . . . . . . V B.3. Modale Tonleitern . . . . . . . . . . . . . . . . . . . . . . . . VI C.1. Farb-Tonintervall-Modelle nach A.K IRCHER und M.C. DE C HAMBRE . . . . . . . . . . . . . . . . . . . . . . . . . . VII C.2. Instrument-Farb-Modell nach K ANDINSKY . . . . . . . . . IX LA XXXV J. Medienverzeichnis Hörbeispiel 1.: Dopplereffekt . . . . . . . . . . . . . . . . . . . . 9 Hörbeispiel 2.: J.S. B ACH: Suite in d-Moll, BWV 1009, Prélude, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hörbeispiel 3.: Y.T IERSEN: Comptine d’été n◦ 3, 11 Ausschnitt . . . . 11 Hörbeispiel 4.: Shepard Tonleiter [ASA07] . . . . . . . . . . . . . 13 Hörbeispiel 5.: Risset Tonfolge [ASA07] . . . . . . . . . . . . . . 13 Hörbeispiel 6.: Rauhigkeit eines Tones . . . . . . . . . . . . . . . 13 Hörbeispiel 7.: L ISZT: Au Bord d’une Source, Ausschnitt . . . . . 14 Hörbeispiel 8.: Ich geh mit meiner Laterne . . . . . . . . . . . . . 14 Hörbeispiel 9.: B EETHOVEN: Für Elise, Ausschnitt . . . . . . . . . 15 Hörbeispiel 10.: S CHÖNBERG: Klavierstücke Opus 11 Nr.1, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Hörbeispiel 11.: S CHÖNBERG: Klavierstücke Opus 11 Nr.3, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Videobeispiel 1.: Werbevideo, FX . . . . . . . . . . . . . . . . . . 17 Videobeispiel 2.: Werbevideo, Hard . . . . . . . . . . . . . . . . . 17 Videobeispiel 3.: Werbevideo, Soft . . . . . . . . . . . . . . . . . 17 Videobeispiel 4.: L.LYE, Colour Flight, 1937 . . . . . . . . . . . . . 40 Videobeispiel 5.: L.LYE, Particles in Space, 1966 . . . . . . . . . . 40 Videobeispiel 6.: Messa di Voce - Bounce . . . . . . . . . . . . . . 46 Videobeispiel 7.: Messa di Voce - Ripple . . . . . . . . . . . . . . 46 Videobeispiel 8.: Messa di Voce - Insect Nature Show . . . . . . 46 Videobeispiel 9.: Messa di Voce - Fluid . . . . . . . . . . . . . . . 47 Videobeispiel 10.: Messa di Voce - Pitchpaint . . . . . . . . . . . 47 Videobeispiel 11.: AVES - Aurora . . . . . . . . . . . . . . . . . . 49 Videobeispiel 12.: AVES - Floo . . . . . . . . . . . . . . . . . . . . 49 Videobeispiel 13.: AVES - Yellowtail . . . . . . . . . . . . . . . . 49 Videobeispiel 14.: AVES - Loom . . . . . . . . . . . . . . . . . . . 49 Videobeispiel 15.: Smallfish, ARS Electronica Linz . . . . . . . . 50 Videobeispiel 16.: Smallfish, ICC Tokyo . . . . . . . . . . . . . . 50 Videobeispiel 17.: T OSHIO I WAI - Tenori-On . . . . . . . . . . . . 50 Videobeispiel 18.: T OSHIO I WAI - Piano Performance . . . . . . . 51 XXXVII J. Medienverzeichnis Hörbeispiel 12.: Ton rau . . . . . . . . . . . . . . . . . . . . . . . 66 Hörbeispiel 13.: Ton ruhig . . . . . . . . . . . . . . . . . . . . . . 66 Hörbeispiel 14.: S TOCKHAUSEN: Mantra, Ausschnitt . . . . . . . 68 Hörbeispiel 15.: B ARBER: Adagio für Streicher Opus 11, Ausschnitt 68 Hörbeispiel 16.: Lautstärken-unterschiede . . . . . . . . . . . . . 70 Hörbeispiel 17.: Ein Ton versus drei Töne . . . . . . . . . . . . . 71 Hörbeispiel 18.: Konsonanz versus Dissonanz . . . . . . . . . . . 71 Hörbeispiel 19.: Streicher aus H ITCHCOCKs Film Psycho, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Hörbeispiel 20.: B EETHOVEN: Schlusschor der 9. Sinfonie (dmoll Opus 125, Presto-Allegro assai), Ode an die Freude, Ausschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Hörbeispiel 21.: Pentatonik - Dur . . . . . . . . . . . . . . . . . . V Hörbeispiel 22.: Pentatonik - Moll . . . . . . . . . . . . . . . . . . V Hörbeispiel 23.: Heptatonik - D-Dur . . . . . . . . . . . . . . . . V Hörbeispiel 24.: Heptatonik - Moll natürlich . . . . . . . . . . . . V Hörbeispiel 25.: Heptatonik - Moll harmonisch . . . . . . . . . . V Hörbeispiel 26.: Heptatonik - Moll melodisch . . . . . . . . . . . V Hörbeispiel 27.: Modi - lydisch . . . . . . . . . . . . . . . . . . . VI Hörbeispiel 28.: Modi - ionisch . . . . . . . . . . . . . . . . . . . VI Hörbeispiel 29.: Modi - mixolydisch . . . . . . . . . . . . . . . . VI Hörbeispiel 30.: Modi - dorisch . . . . . . . . . . . . . . . . . . . VI Hörbeispiel 31.: Modi - äolisch . . . . . . . . . . . . . . . . . . . . VI Hörbeispiel 32.: Modi - phrygisch . . . . . . . . . . . . . . . . . . VI Hörbeispiel 33.: Modi - lokrisch . . . . . . . . . . . . . . . . . . . VI Hörbeispiel 34.: B ACH: Wohltemperiertes Klavier No.1, Es-Moll . . XVI Hörbeispiel 35.: X ENAKIS: Oresteia, Les Eunémides, Ausschnitt . . XVIII XXXVIII K. Ehrenwörtliche Erklärung Hiermit erkläre ich, die vorliegende Diplomarbeit selbständig und ausschließlich unter Verwendung der aufgeführten Literaturangaben und sonstigen Informationsquellen angefertigt zu haben. Kristine Weißbarth Dresden, den 27.02.2007 XXXIX