Ruhe im Orchester! Elektronische Spielfilmmusik im Populärkino des 21. Jahrhunderts. Masterthesis zur Erlangung des akademischen Grades „Master of Arts in Arts and Design“ Verfasser Martin Sachsenhofer Vorgelegt am FH-Studiengang MultiMediaArt, Fachhochschule Salzburg Begutachtet durch: Martin Löcker (Inhaltlicher Gutachter 1) Gianni Stiletto (Inhaltlicher Gutachter 2) Salzburg, März 2012 I Danksagung Hiermit möchte ich mich bei den zentralen Personen bedanken, die mich während meines Studiums und während des Enstehungsprozesses dieser Masterthesis tatkräftig unterstützt haben: Edeltraud & Günther Sachsenhofer Bernd Radler, Cornelia Sachsenhofer, Julia Weithaler Martin Löcker, Gianni Stiletto II Eidesstaatliche Erklärung Hiermit versichere ich, Martin Sachsenhofer, geboren am 10.10.1987 in Linz, dass ich die Grundsätze wissenschaftlichen Arbeitens nach bestem Wissen und Gewissen eingehalten habe und die vorliegende Masterthesis von mir selbstständig verfasst wurde. Zur Erstellung wurden von mir keine anderen als die angegebenen Quellen und Hilfsmittel verwendet. Ich versichere, dass ich die Masterthesis weder im In- noch Ausland bisher in irgendeiner Form als Prüfungsarbeit vorgelegt habe und dass diese Arbeit mit der den Begutachtern vorgelegten Arbeit übereinstimmt. Salzburg, am 26. März 2012 Martin Sachsenhofer Matrikelnummer: 0910627032 III Faktische Zusammenfassung Vor- und Zuname Institution Martin Sachsenhofer FH Salzburg Studiengang MultiMediaArt Titel der Masterthesis Ruhe im Orchester! Begutachter (1) Martin Löcker Begutachter (2) Gianni Stiletto Schlagwörter Filmmusik elektronische Musik Komposition IV Inhaltliche Zusammenfassung Das symphonische Kinoorchester tritt bereits seit Beginn des Films als maßgebliches ästhetisches Moment auf. Die Entwicklung aktueller, populärer Musik ist jedoch seit den Anfängen des Films in einem heute sehr ausgereiften und diversifizierten Stadium angekommen, das sich weiterhin entfaltet. Der Einsatz von Musik, abseits der klassischen Kinosymphonik, die sich einer romantischen Orchesterpalette bedient, gibt der Tonebene die Möglichkeit sich fern der ausgetrampelten Wege zu komponieren und alte Klischees zu durchbrechen. Weswegen der Titel „Ruhe im Orchester!“ auf den Einsatz anderer musikalischer Mittel im Film hindeutet. Im Fokus dieser Arbeit steht deshalb die elektronische Musik im Einsatz als non-diegetische Filmmusik. Ziele, Möglichkeiten und Funktionen elektronischer Filmmusik begutachtet der Autor anhand ihrer historischen Entwicklung. In weiterer Folge werden die filmmusikalischen Charakteristiken, die sich aus der Synthese von Bild und Ton ergeben, betrachtet und ihre spezifischen Voraussetzungen für den Einsatz elektronischer Musik im Film durchleuchtet. Insbesondere analysiert der Autor die einzelnen musikdramaturgischen Gestaltungselemente (Melodie, Harmonik, Rhythmus, …) symphonischer Filmmusik und stellt sie in Relation zur elektronischen. Des Weiteren werden die Voraussetzungen für einen Komponisten bzw. eine Komponistin untersucht Filmmusik zu komponieren und ob diese ohne klassische Kompositionsausbildung erfüllt werden können. Ziel der Arbeit ist es, die Unterschiede im Kompositionsprozess und Einsatz von elektronischer und symphonischer Kinomusik aufzuzeigen und die unterschiedlichen Möglichkeiten darzustellen. V Abstract The symphonic movie orchestra constitutes a major aesthetic force since the beginning of film. Modern and popular music underwent a rather significant evolution and diversification though since the early stages of film and presents itself now as a rather elaborated, but still evolving aesthetical style. The usage of music aloof of traditional symphonic scores provides opportunities far off the beaten track and besides old stereotypes. The title “Ruhe im Orchester!” (Silence in the orchestra!) already suggests the implementation of different musical styles other than the traditional symphonic sound. This thesis‘ focus is therefore on the unique ways of using electronic sounds in non-diegetic movie scores. Goals, opportunities and functioning of electronic movie scores are initially analysed by means of their historical developments. In succession filmmusic‘s characteristics, which originate in the synthesis of sound and vision, are being examined on their specifics for electronic movies. Especially the distinct musical qualities (melody, harmony, rhythm, …) of electronic music will be surveyed and put in relation to symphonic music. Furthermore the requirements for being a movie score composer will be examined and looked at whether classical composing education is compulsory. The objective of this thesis is to specify the differences for the writing process and the usage of electronic and symphonic movie scores and to show the emerging prospects. VI Inhaltsverzeichnis 1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1. Forschungsinteresse. . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.1. Orchestrale Filmmusik . . . . . . . . . . . . . . . . . . . . 2 1.1.2. Nicht-orchestrale und elektronische Filmmusik . . . . . . . . . 3 1.1.3. Vergleich Academy Awards for Best Original Score 1993 - 2012 . 3 1.2. Forschungsfrage . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3. Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4. Forschungsrelevante Hinweise . . . . . . . . . . . . . . . . . . . 6 1.4.1. Verbindung zum Werk . . . . . . . . . . . . . . . . . . . . 6 1.4.1.1. Spielart. . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.1.2. Kleines Püppchen Teddybär . . . . . . . . . . . . . . . 7 1.4.1.3. Neben meinem Bruder. . . . . . . . . . . . . . . . . . 8 1.4.1.4. MIIO. . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.2. Lesetechnische Hinweise . . . . . . . . . . . . . . . . . . . 8 1.4.3. Verwendete Methoden. . . . . . . . . . . . . . . . . . . . 9 2 Filmmusik: Introduktion und Begriffe. . . . . . . . . . . . . . . . . . . . . 10 2.1. Bildton und Fremdton. . . . . . . . . . . . . . . . . . . . . . 11 2.2. Diegetische und Nicht-Diegetische Filmmusik. . . . . . . . . . . 12 2.3. Allgemein Filmmusik. . . . . . . . . . . . . . . . . . . . . . 13 2.4. Film ist Massenkunst. . . . . . . . . . . . . . . . . . . . . . 15 2.5. Wirkung von Filmmusik . . . . . . . . . . . . . . . . . . . . . 16 3 Entwicklung von Filmmusik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.1. Allgemeine Filmmusikentwicklung im Tonfilm. . . . . . . . . . . 19 3.2. Elektronische Filmmusik. . . . . . . . . . . . . . . . . . . . . 21 3.3. Kritik und Einsatzbereiche der elektronischen Filmmusik . . . . . . 26 3.4. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 30 4 Die Komposition. Ein Prozess. . . . . . . . . . . . . . . . . . . . . . . . . . . 31 VII 4.1. Stil einer Filmmusikkomposition. . . . . . . . . . . . . . . . . 32 4.2. Filmische Kompositionsarten. . . . . . . . . . . . . . . . . . . 34 4.2.1. Deskriptive Technik . . . . . . . . . . . . . . . . . . . . . 34 4.2.2. Mood Technik. . . . . . . . . . . . . . . . . . . . . . . 36 4.2.3. Motiv Technik. . . . . . . . . . . . . . . . . . . . . . . 36 4.2.4. Baukastentechnik . . . . . . . . . . . . . . . . . . . . . . 37 4.3. Anforderungen an den Komponisten bzw. die Komponistin . . . . . 37 4.4. Bezug Regie und Musikkomposition . . . . . . . . . . . . . . . 39 4.5. Persönliche Handschrift. . . . . . . . . . . . . . . . . . . . . 40 4.6. Arbeitsweise. . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.7. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 44 5 Filmmusikalische Charakteristiken. . . . . . . . . . . . . . . . . . . . . . . 46 5.1. Ohr vs. Auge. . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.2. Bild vs. Ton . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.3. Geräusch vs. Musik. . . . . . . . . . . . . . . . . . . . . . . 53 5.4. Filmmusik als funktionale Musik. . . . . . . . . . . . . . . . . 56 5.4.1. Filmmusik ist keine autonome Musik . . . . . . . . . . . . . 56 5.4.2. Ziele und Funktionen. . . . . . . . . . . . . . . . . . . . 58 5.4.3. Kritik an der populären Filmmusik. . . . . . . . . . . . . . 61 5.5. Klischees. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5.6. Musikdramaturgische Gestaltungselemente. . . . . . . . . . . . 68 5.6.1. Melodie und Motiv. . . . . . . . . . . . . . . . . . . . . 69 5.6.2. Musikalische Struktur und Form. . . . . . . . . . . . . . . 71 5.6.3. Harmonik . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.6.4. Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.6.5. Rhythmus. . . . . . . . . . . . . . . . . . . . . . . . . 78 5.6.6. Tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.6.7. Sound. . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.6.8. Instrumentation . . . . . . . . . . . . . . . . . . . . . . 86 5.6.8.1. Historische Entwicklung der Orchesterinstrumentation. . . 86 5.6.8.2. Filmmusikalisch historische Instrumentation. . . . . . . 86 VIII 5.6.8.3. Elektronische Instrumentierung. . . . . . . . . . . . . 88 5.6.9. Stille. . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.7. Timing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.8. Synchronität von Bild und Musik . . . . . . . . . . . . . . . . 92 5.9. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 94 6 Conclusio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 IX Abkürzungsverzeichnis Abb. Abbildung Aufl. Auflage bzw. beziehungsweise d.h. das heißt et al. und andere f und folgende Seite ff und folgende Seiten Hg. Herausgeber IDM Intelligent Dance Music o. J. ohne Jahresangabe o. A. ohne Autoren- bzw. Autorinnenangabe PC Personal Computer S. Seite TV Television vgl. vergleiche vlt. vielleicht vs. versus z.B. zum Beispiel zit. n. zitiert nach X Einleitung 1 Einleitung 1 Einleitung 1.1. Forschungsinteresse „Entrückt [...] in eine ganz und gar künstliche Sozialsituation, hermetisch abgedichtet gegen die Außenwelt und eingetaucht in die suggestible Atmosphäre nur graduell verschiedenen Dämmerlichts, ist der Kino- wie der Konzertbesucher gleichermaßen disponiert, sich von der Flut bewegter und bewegender Bilder oder Klänge forttragen zu lassen in eine Welt des Zaubers, die erst im Nachhinein Struktur gewinnt [...]“ (Emons 1980, S. 35) Zentrales Interesse dieser Thesis ist das Phänomen Filmmusik, im Besonderen dabei eine Tendenz im Populärkino des letzten Jahrzehnts in Richtung nichtorchestraler Musik im Film. Eine nähere Betrachtung ergibt nämlich, dass nicht nur rein orchestrale Filmmusik verwendet wird, sondern vor allem nicht-orchestrale Begleitung im Hollywoodfilm eine größere Präsenz erhält. Zu Beginn sollte kurz geklärt werden, was der Unterschied zwischen den beiden bereits erwähnten Arten von Filmmusik ist. 1.1.1. Orchestrale Filmmusik Orchestrale Filmmusik ist, wie der Name schon verrät, auf ein vollbesetztes Orchester ausgerichtet. Die klassische Symphonieorchesterbesetzung mit Holzbläsern, Blechbläsern, Schlaginstrumenten, Zupfinstrumenten, Streichern und zusätzlichen Instrumenten, wie Klavier oder Saxophon, spielt hier die größte Rolle. Diese Art von Filmmusik gibt es seit die audiovisuelle Kombination eingegangen wurde. Mit der Entwicklung geeigneter Aufnahme- und Abnahmeverfahren begann sich die Filmmusik weiterzuentwickeln. Über die Aneignung der Modalität von Jazz und der Atonalität der seriellen Musik wurde die Art eine Filmmusik zu schreiben immer freier. Immer häufger wurden verschiedene Instrumente experimentell eingesetzt. Durch Komponisten wie Alfred Newman, John Williams oder Bernhard Herrmann wurden fixe Bezugspunkte geschaffen, die wiederum vielfach musikalisch zitiert wurden. 2 Einleitung 1.1.2. Nicht-orchestrale und elektronische Filmmusik In den letzten Jahren zeichnet sich allerdings die Tendenz ab, auch nichtorchestraler Filmmusik, mehr Präsenz zu schenken und diese nicht nur in Genrenischen, wie zum Beispiel Italowestern oder Sciencefiction Filmen, einzusetzen. Nicht-orchestrale Filmmusik inkludiert alle Arten von Filmmusik abseits eines traditionellen Sinfonieorchesters. Vor allem minimalistisch besetzte, experimentelle, elektronische, ethnische, popmusikalische und kompilierte Soundtracks sind hier nennenswert. „There are people who do incredible orchestral stuff, but it‘s so done already. Directors and audiences become a little numb to that kind of scoring. Sometimes with less, you can achieve so much more.“ - Gustavo Santaolalla (vgl. Chrisafulli 2006) Besonders experimentelle und rein elektronische Sounds werden dem eher experimentellen Arthouse Kino oder dem Science Fiction Genre zugeordnet. Hier hat nicht nur der visuelle Teil Platz für Experimente, auch der auditive Part wird oft von ungewohnten Klängen getragen. Diese Genreeinschränkung wird jedoch immer wieder aufgebrochen. 1.1.3. Vergleich Academy Awards for Best Original Score 1993 2012 Vergleicht man als Beispiel die vergebenen Academy Awards for Best Original Score in den Jahren 1993 bis 2002 mit denen von 2003 bis 2012, kann ein großer Präsenzaufschwung der nicht-orchestralen Musik festgestellt werden. (vgl. Awards and Shows o.J.; WhoWonWhen o.J.) Wobei anzumerken ist, dass die Academy Awards nicht als objektive, qualitative Auszeichnung gesehen werden können. Die Vergabe der Oscars ist, laut William Friedkin, die größte Reklameaktion die eine Industrie je für sich selbst erfunden hat. (vgl. Bytesmaster 2010; Cahill 2011) Viele marktpolitische und marktstrategische Entscheidungen stehen im Hintergrund der Vergabe durch 3 Einleitung die Jury der American Academy of Motion Picture Arts and Sciences. (vgl. Levy 2003, S. 323f) Trotz alledem zeigen die Oscars grundlegende vor allem ökonomische Tendenzen des aktuellen Spielfilms auf und gaben damit den Initalimpuls diese Arbeit zu verfassen. In den Jahren 1993 bis 2002 wurden 14 Oscars für die Filmmusikkategorie vergeben. (Inkludiert wurde auch die kurze Aufsplitterung von 1995 bis 1998 in Dramatic Score und Musical or Comedy Score.) Von diesen 14 Oscargewinnerfilmen waren beinahe alle zu einem Großteil orchestral begleitet. In der Kategorie Dramatic Score konnte nur ein Film, nämlich König der Löwen (1994), Popeinflüsse durch die Beteiligung von Elton John verbuchen. Bei den Awards for Best Original Score: Musical or Comedy Score wies nur der Film The Full Monty (1997) einen rein popmusikalischen Soundtrack auf, der Rest wurde klassisch oder mit ethnischen Einflüssen (Crouching Tiger, Hidden Dragon (2000)) orchestriert. (vgl. Awards and Shows o.J.; WhoWonWhen o.J.) Im Vergleich dazu wurden in den Jahren 2003 bis 2012 nur fünf der zehn Oscars an klassisch orchestrale Filmmusiken vergeben. Frida (2002) und Babel (2006) sind beide sehr stark von ethnischer Musik geprägt, passend zur dargestellten Szenerie. Brokeback Mountain (2005) beschränkt sich bei der Filmmusik auf das Country und Folkgenre, stark geprägt durch die Verwendung einer Steelguitar. Slumdog Millionaire (2008) besteht aus einer Mixtur aus traditioneller indischer Musik und moderner ethnischer Popmusik (Worldmusic). The Social Network (2010) wird von elektronisch rockiger Musik begleitet. (vgl. Awards and Shows o.J.; WhoWonWhen o.J.) Aus diesem Vergleich kann man also das Resultat ziehen, dass nicht-orchestrale Musik im populären Interesse in den Vordergrund drängt und das klassische Sinfonieorchester nach einer jahrzehntelangen Dominanz etwas zurücktritt. 1.2. Forschungsfrage Wo liegen die Unterschiede beim Einsatz elektronischer Filmmusik im Vergleich zur symphonischen? Kann nicht-orchestrale Musik eine ähnlich intensive audiovisuelle Verbindung eingehen wie ein traditioneller Orchesterscore? Ein typi- 4 Einleitung scher Kinofilm hat über einhundert so genannte Cues, also in der Filmdramaturgie und -zeit fixierte Einsätze, die der Komponist synchron zum Bild bearbeiten muss. Ist diese akribische Zuordnung und das Hinspielen auf diese Punkte mit elektronischer Musik möglich? Eine typische elektronische Beatmusik lebt von einem durchgehenden Rhythmus, ein Orchester kann frei und lebendig atmen und spielen. Kleine dynamische Änderungen oder Pausen sind deshalb einfacher möglich. Verhindern Einschränkungen wie diese eine perfekte Union von Musik und Film bei der Verwendung von rhythmusbasierter Musik? Experimentelle Musik oder freie ethnische Musik haben diese Einschränkungen meist nicht, liegt darin ausreichend Potential das Spektrum typischer Kompositionen dauerhaft zu ergänzen? Liegt die Zukunft in einer Mischform aus klassischer und „untypischer“ Orchestrierung? Aus diesen Thesen und Fragestellungen ergibt sich folgende zentrale Forschungsfrage: Welche Unterschiede treten beim Einsatz elektronischer Spielfilmmusik im Populärkino des 21. Jh. im Vergleich mit dem Einsatz symphonischer Musik auf ? Aus dieser Kernfrage ergeben sich weitere Folgefragen: • Inwieweit kann elektronische Musik die dramaturgischen und funktionalen Anforderungen an Spielfilmmusik abdecken? • Bezug nehmend auf die Tendenz Rock und Popmusiker mit der Komposition elektronischer Spielfilmmusik zu beauftragen, können diese den Anforderungen an die Filmmusikkomposition gerecht werden? • Sind die musikdramaturgischen Gestaltungselemente elektronischer Musik anders gestaltet als in der symphonischen? 1.3. Aufbau der Arbeit Um diese aufgestellten Forschungsfragen beantworten zu können, präsentiert der Autor in Kapitel 2 eine allgemeine Einführung zum Thema Filmmusik, Bildton bzw. Fremdton, diegetische und nicht-diegetische Filmmusik. In Kapitel 3 wird die 5 Einleitung fortlaufende historische Entwicklung der Filmmusik von der ersten symphonischen bis zu aktuellen elektronischen Filmmusiken aufgeführt und analysiert. Kapitel 4 beschäftigt sich darauffolgend mit der Persönlichkeit des Komponisten bzw. der Komponistin selbst, den Voraussetzungen und den Fähigkeiten die in der Filmmusik benötigt werden. Kapitel 5 nimmt den Hauptteil der Arbeit ein und analysiert die verschiedenen filmmusikalischen Charakteristiken von symphonischer und elektronischer Filmmusik. Dies erfolgt zuerst über generelle Eckpunkte der Wahrnehmungen und in der Betrachtung von Filmmusik als funktionale Musik. In weiterer Folge werden die einzelnen musikdramaturgischen Gestaltungselemente auf ihre Unterschiede im Vergleich von elektronischer und symphonischer Filmmusik analysiert und die Möglichkeiten der Stille erörtert. Zum Abschluss wird in Kapitel 6 über die aufgelisteten Beobachtungen resümiert und kritisch über die gefunden Erfahrungen reflektiert. 1.4. Forschungsrelevante Hinweise 1.4.1. Verbindung zum Werk Das Hauptwerk des Autors entstand in einer Gruppenarbeit und trug den Namen Spielart, dessen Endergebnis eine Ausstellung zum Thema Kommunikation & Stille Post war, vgl. Kapitel 1.4.1.1. Ausgehend von der Vorliebe zum Bewegtbild hat der Autor im Verlauf des Masterstudiums an drei Filmprojekten als Nebenprojekt mitgewirkt und zu diesen Filmen auch die Filmmusik komponiert. Bezugnehmend auf diese drei Nebenprojekte ist die Thematik und Problemstellung dieser Arbeit entstanden. Der praktische Bezugspunkt dieser Thesis ist deshalb nicht das einzelne Hauptprojekt Spielart, sondern liegt in den Beteiligungen an folgenden drei Werken begründet: • Kleines Püppchen Teddybär (vgl. Kapitel 1.4.1.2) • Neben meinem Bruder (vgl. Kapitel 1.4.1.3) • MIIO (My Identity is Open) (vgl. Kapitel 1.4.1.4) 6 Einleitung Diese drei Werke forderten jeweils einen spezifischen Einsatz von Filmmusik und eine differenzierte Stilistik. Die Unterschiede im Einsatz möchte ich im Folgenden aufgreifen und als praktisches Werk dieser Arbeit thematisieren. 1.4.1.1. Spielart Das Projekt Spielart lehnte sich in der Ausführung an das Kinderspiel Stille Post an. Interdisziplinär Medienschaffende spielten, ohne erklärende oder begleitende Worte, Stille Post untereinander mit Hilfe von medialen Werken. Der erste startete mit einem klar definierten Begriff, den er in ein Werk verarbeitete und dieses ohne Kommentar und Bekanntgabe des Begriffs an den nächstfolgenden in der Spielrunde weitergab, und so weiter. Das 33 Werke umfassende Ergebnis, der drei unabhängig voneinander erfolgten Spielrunden, wurde zum Schluss des Spiels in einer Ausstellung präsentiert, in der die jeweiligen Codierungen und Decodierungen der Botschaften sichtbar gemacht wurden. Ziel dieser Auseinandersetzung des Projekts mit den Themen Kommunikation und Rezeption war die Auslösung eines Reflexionsvorgangs der Ausstellungsbesucher über Fehlinterpretationen und Fehlkommunikation. Die Rolle des Autors war in der Konzeption, Kuration und Ausführung des Projekts und der Erstellung dreier audiovisueller Werke innerhalb der Spielketten begründet. 1.4.1.2. Kleines Püppchen Teddybär Dieser Kurzfilm beschäftigt sich mit der pädophilen Neigung seines Hauptcharakters und seinem inneren Kampf, nicht dieser Neigung nachzugeben. Ein weiteres Hauptthema ist die, für die Beeinträchtigung der Opfer, nicht eintretende Verjährung von pädophilen Übergriffen. Die komponierte Filmmusik tritt nur als Intro und Outro auf, einzig an einer Stelle im Film wird das titelgebende Lied von Kindern im Film gesungen, was der Hauptcharakter danach aufgreift und die Filmmusik darauffolgend noch einmal kurz reflektiert. Die eingesetzte Stilistik der Musik ist sehr kindlich wirkend und begründet sich in den Hauptelementen Flöte und Gitarre. 7 Einleitung 1.4.1.3. Neben meinem Bruder In diesem Spielfilm werden zwei Zwillinge vom Jugendalter bis zum Erwachsen sein portraitiert. Besonders an diesen beiden ist jedoch, dass sie von ihrem Vater als eine Identität aufgezogen wurden und sich so nur ein Leben teilen. Diese Fassade bricht am Schluss, als einer der beiden stirbt und der andere plötzlich ein vollständiges Leben ausfüllen muss. Der Einsatz der Filmmusik ist sehr klassisch angelegt, es soll emotional geführt werden, mit Einsätzen von Klavierakkorden und tiefen Streichertönen. Des Weiteren befindet sich jedoch eine atypischere Szene im Film, in der die Diagnose im Krankenhaus (40:33-42:44) stattfindet. Hier wird gänzlich auf andere auditive Ebenen verzichtet und nur die Bildmontage und die Filmmusik bestehend aus Klaviersolo und sanfte Streicherbegleitung präsentiert. 1.4.1.4. MIIO MIIO ist eine Mischform aus Dokumentation und szenischen Anteilen. In den Interviews des dokumentarischen Bereichs werden die Risiken umfassender Datensammlung und gläserner Menschen aufgezeigt und diskutiert. Der szenische Anteil beschäftigt sich mit dem fiktiven Handheldgerät MIIO, welches jegliche verfügbare Daten über einen Menschen sinnvoll verknüpfen kann. Der Hauptcharakter wird in seine anfängliche Glorifizierung des Tools verstrickt, da ihn das System plötzlich als Gefahr für andere interpretiert. Die Filmmusik tritt hier vor allem in den szenischen Zwischenteilen auf. Die Ästhetik ist im retrofuturistischen Bereich á la Blade Runner angelegt. Die Musik wird eher sphärisch eingesetzt und untermalt oft flächig die Zeitraffersequenzen zwischen den Szenen. 1.4.2. Lesetechnische Hinweise Um Doppeldeutigkeiten zu vermeiden, sind die in der Arbeit aufgeführten Filme mit der Erscheinungsjahreszahl in Klammer gekennzeichnet. 8 Einleitung Besprochene Szenen eines Films werden zusätzlich mit der Angabe des Startund Endzeitpunktes genannt. Das Format ist hierbei wie folgt: Anfangszeit: (Stunde:)Minute:Sekunde - Endzeit: (Stunde:)Minute:Sekunde 1.4.3. Verwendete Methoden Bei der vorliegenden Arbeit handelt es sich um eine Literaturarbeit. Daraus folgend bilden die im Quellenverzeichnis auffindbaren Texte und Filme die Ausgangsbasis. Die Interpretation, Diskussion und Relation dieser Quellen ergibt in ihrer kritischen und reflexiven Betrachtung den Kern dieser Arbeit. 9 Filmmusik: Introduktion und Begriffe 2 Filmmusik: Introduktion und Begriffe 10 Filmmusik: Introduktion und Begriffe 2.1. Bildton und Fremdton Sprache als direkte Rede Bildton „Original“ - Geräusche (effects) Musik im Bild (source music) Musik als Begleitmusik (non-diegetic music) Fremdton Geräusche ohne visuellen Rückhalt (sounddesign) Sprache als Kommentar Abb. 1: Akustische Ereignisse im Film. Aufteilung Bildton und Fremdton. (vgl. Bullerjahn 2001, S. 20) Akustische Ereignisse im Film lassen sich nach dem in Abb. 1 ersichtlichen Schema zwischen Bildton und Fremdton aufteilen. Wobei zu beachten ist, dass die Grenzen zwischen den Ebenen fließend sind und Elemente auch gleichzeitig 11 Filmmusik: Introduktion und Begriffe mehrere Aufgaben erfüllen können. Original-Geräusche können auch von Musik im Bild kommen, wenn zum Beispiel während der Bild- und Tonaufnahme ein im Bild sichtbares Radio eingeschalten wurde. Musik im Bild kann gleichzeitig auch die Funktionen diegetischer Musik erfüllen und diegetische Musik kann auch nur aus Geräuschen ohne visuellen Rückhalt bestehen. Die umgekehrte Verknüpfung der Funktionen ist wiederum ebenso möglich. (vgl. Bullerjahn 2001, S. 20) 2.2. Diegetische und Nicht-Diegetische Filmmusik Filmmusik lässt sich allgemein in zwei Teile aufspalten. Einerseits in die diegetische Musik oder Musik im Bildton bzw. On, andererseits in die nicht-diegetische bzw. extradiegetische Musik oder Musik im Fremdton bzw. Off. (vgl. Brown 1994, S. 61; Bullerjahn 2001, 19f; Schneider 1990, S. 19) Diegetische Musik ist Musik, deren Schallquelle im Bild selbst vorkommt, also z.B. ein Radio, das einen Song spielt, im Film sichtbar ist und bzw. oder für die Rezipienten und Rezipientinnen als von dieser Quelle aus ertönend erkenntlich ist. Nicht-diegetisch ist die Musik, die im umgangssprachlichen Gebrauch und auch in dieser Arbeit als Filmmusik bezeichnet wird. Musik, die nur die Rezipienten bzw. Rezipientinnen, aber nicht die Akteure und Akteurinnen im Film wahrnehmen, also dramaturgisch zur Diegese hinzugefügt wird. (vgl. Flückiger 2002, S. 38; Brown 1994, S. 61; Bullerjahn 2001, S. 19f) Wie auch schon in Kapitel 2.1 beschrieben, können die Grenzen zwischen diegetischer und nicht-diegetischer Musik verschwimmen und übertreten werden. So zum Beispiel im Film Hanna (2011), wo ein Teil der Melodie von einigen Charakteren immer wieder pfeifend aufgegriffen wird. Es stellt sich hier vor allem die Frage, woher die Musik kommt. Ist es ein Ereignis, das niemandem bekannt ist, weder den Darstellern bzw. Darstellerinnen noch den Rezipienten bzw. Rezipientinnen, oder kennt und erwartet das Publikum das Ereignis bereits. (vgl. Baumann 2009, S. 29f) Die Unterscheidung zwischen extradiegetischer und diegetischer Musik kann jedoch übergangen werden, wenn die Musik beide Zwecke erfüllt, also von den Charakteren im Film wahrnehmbar ist, jedoch auch dramaturgische Funktionen erfüllt werden. (vgl. Brown 1994, S. 61 & 247) 12 Filmmusik: Introduktion und Begriffe 2.3. Allgemein Filmmusik Laut Lissa (1965, 381) behaupten Filmtheoretiker und Filmtheoretikerinnen oft, Musik im Film „höre“ man nicht, man bemerke nur das Fehlen von Musik, wenn sie verschwindet. Das Auditive steht nämlich nicht im Zentrum der bewussten Aufnahmefähigkeit während eines Filmes. Doch gerade in diesem peripherem Bewusstsein, liegt die Wirkungskraft von Filmmusik. „Nicht ohne Grund werden ihr [Filmmusik] immer wichtigere Aufgaben von den Filmschaffenden übertragen.“ (Lissa 1965, S. 381) Mit der Erfindung des Tonfilmes änderte sich die Beziehung zwischen Bild und Ton drastisch. Die auditive Komponente umfasste plötzlich alle hörbaren Elemente, arrangierte deren realistische Zuordnung zu den Bildern und übertraf damals dadurch weitgehend die vormals rein musikalische Live-Begleitung. Die Koppelung von Ton und Bild wurde, durch die nie zuvor dagewesene Synchronität, die im Stummfilm nicht erreicht werden konnte, grundlegend verändert und die Tonebene auf einen speziellen Bildablauf getrimmt. Spezielle Kompositionen für einen Film entstanden zwar bereits in der Stummfilmära, die zusammengeschlossene Funktionsweise des Tonfilms ermöglichte jedoch ein dramaturgisches und zeitliches Zusammenspiel, das sich wesentlich komplexer als beim Stummfilm erweist. Im weiteren Verlauf entwickelte sich das Verhältnis zwischen Ton und Bild von einer illustrativen, kontinuierlichen Hintergrundbeschallung zu einer repräsentativen, eigenständigen Schicht, die auch nicht gezeigte Elemente des Bildes darstellen konnte. Ein weiterer Verdienst des Erscheinens des Tonfilms ist auch die dramaturgische Entdeckung der Bedeutung von Stille, siehe Kapitel 5.6.9. Ausgehend von einer ausschließlichen Begleitungsrolle wurde also eine aktive Zusammenarbeit gegründet, die als Kombination ein eigenständiges Drittes ergab, das audiovisuelle Gesamtwerk, welches oft die eigentliche Botschaft mitträgt. Wie zum Beispiel im dramaturgischen Kontrapunkt von Musik und Ton. 13 Filmmusik: Introduktion und Begriffe „Die These des Visuellen und die Antithese des Auditiven führen auf dialektische Weise zur Synthese, zum Kommentar.“ (Lissa 1965, S. 106). Es wurde nach der völligen Synchronität zu Beginn auch wieder eine freiere Form gefunden, die den Schichten innerhalb der Dramaturgie abwechselnde Dominanz zuordnet. Während eine Schicht im Hintergrund liegt, führt die andere die Handlung weiter, oder auch beide Schichten zwei verschiedene Elemente der Handlung. (vgl. Lissa 1965, S. 102ff) Filmmusik lässt sich weder einer bestimmten musikalischen Gattung noch einem gewissen Stil zuordnen und „entzieht sich jedem Versuch einer sinnhaltigen Definition“. (Schneider 1990, S. 19) Jeder beliebige Klang kann zu Filmmusik werden, wenn er dramaturgisch eingesetzt wird. Filmmusik lässt sich jedoch in drei Kategorien bezüglich ihres Kompositionsprozesses aufteilen. Die eigentliche Filmmusik, also die speziell für einen Film komponierten Klänge. Die Archivmusik, welche also auf Vorrat komponiert wird und später zu einem passenden Bild hinzugefügt wird. Als drittes Element wird die so genannte „Nicht-Filmmusik“ angeführt und meint dabei präexistente Musik, die in kompilierter Weise im Film landet. (vgl. Schneider 1990, S. 19) Wie zum Beispiel der Einsatz von Musik von unter anderem György Li- geti, Richard Strauss und Johann Strauß im Film 2001: A Space Odyssey (1968). Besonders bekannt für den Einsatz kompilierter Soundtracks ist Quentin Tarantino, der sich einer eklektischen Musikauswahl in seinen Filmen (Reservoir Dogs (1992), Pulp Fiction (1994), Jackie Brown (1997), …) bedient. Was aber ist der eigentliche Zweck von Filmmusik und wodurch wird sie definiert? David Raksin schreibt dazu: „to help realize the meaning of a film“. (Prendergast 1992, S. 213) Auch Kalinak (2010, S. XIII & 4) definiert Filmmusik über ihre Charakteristik Emotionen auszudrücken und die Interpretation des Sinns eines Films zu lenken, Umgebungen zu etablieren und die Aufmerksamkeiten zu lenken, Handlungsmotive der Charaktere zu verdeutlichen und einen unzusammenhängenden Bilderfluss vereinen. Filmmusik hilft auch eine emotionale Bindung zu den dargestellten Charakteren und Handlungen aufzubauen. Durch diese emotionale Involvierung wird der Film direkter und echter empfunden und die Empathie mit den Charakteren gestärkt. 14 Filmmusik: Introduktion und Begriffe La Motte-Haber (1980, S. 190) schreibt, dass die Musik den Abbau von IchFunktionen fördere, also die Illusion der Kinorealität unterstütze. Strawinsky wiederum stellt die These auf, dass Filmmusik nur „bemaltes Papier“ ist. Eine musikalische Tapete, die sich diskret zu verhalten hat. (vgl. Thiel 1981, S. 15) Filmmusik ist zwar, wie auch Thiel (1981, S. 17) später schreibt, eine sich unterordnende Funktion im Gesamtfilm. Kalinak (2010, S. 18) vergleicht dies jedoch mit dem was Barthes in seinem Essay Rhetorik des Bildes (1967) unter Verankerung versteht. Die Musik verstärkt also eine der vom Bild ausgelösten Interpretationen. Gorbman sieht die Musik als großes Netz, welches um den schwebenden visuellen Sinn geworfen wird. (vgl. Kalinak 2010, S. 18) Rózsa sieht die primäre Funktion von Musik im Film darin, den psychologischen Sinn einer Szene zu komplettieren. (vgl. Brown 1994, S. 271) Über Filmmusik zu schreiben ist immer eine sehr schwierige Angelegenheit, wie auch Schneider (1990, S. 20) anmerkt. Oft wird die Betrachtung nur auf die rein musikalischen Aspekte beschränkt. Ausgehend von der rein musikalischen Perspektive werden jedoch die zentralen Charakteristika der Musik im Klangbild des Films und dem Verhältnis zur visuellen Schicht außen vor gelassen. Was zu keiner korrekten Aussage über die Qualität und Eigenheit der Filmmusik führen kann. Erst durch ein Miteinbeziehen der restlichen Schichten des Films ist eine Analyse möglich, siehe Kapitel 5.4. Die Gemeinsamkeiten des Films und der Musik sind bereits in der ähnlichen Terminologie begründet. Begrifflichkeiten wie Rhythmus, Tempo, Periodik, Steigerung, Polyphonie, Pause, Crescendo und Dichte werden in der Musiktheorie wie in der Filmtheorie verwendet. Stilmittel wie Auf- und Abblenden benutzen beide Formen. (vgl. Schneider 1990, S. 20) 2.4. Film ist Massenkunst Zu Beginn des Tonfilms wurde der Filmsound vor allem vom Sound der Symphonie Orchester und des Klaviers dominiert. In der autonomen Musik ebenfalls sehr präsent, entsprach der Kinobesuch auch einem kleinen Konzertsaalbesuch, wenn ein Filmorchester live zum Film spielte. Die technisch reproduzierte Begleitung im Tonfilm verliert dieses Live-Erlebnis, und damit auch das, was Walter Benjamin (1963, S. 17) als Aura bezeichnete. Es überrascht also nicht, dass Live- 15 Filmmusik: Introduktion und Begriffe Aufführungen zu Filmen auch jetzt noch immer wieder als einzigartiges Erlebnis durchgeführt wurden. (vgl. Brown 1994, S. 55 & 60) So führt zum Beispiel die Indierockband Naked Lunch die von ihnen komponierte Filmmusik für Universalove (2008) immer wieder live zum Film auf. (vgl. Sondermeyer 2010; ARGE Kultur Salzburg 2012) Die Struktur der klassischen Filmmusiksymphonien hat ihre Wurzeln klar in der Romantik. Das unbewusste und „rauschhafte“ dieser Epoche, harmoniert mit den Eigenheiten und Anforderungen der traditionellen Kinomusik. (vgl. Schneider 1997, S. 198) Die Zeit der gesellschaftlichen Elite und der so genannten Hochkultur, deren Werte Adorno und Eisler in ihrem 1947 erstmals erschienen Werk „Komposition für den Film“ noch politisch einforderten, ist spätestens seit den 90er Jahren vorbei. Theater, Oper und klassische Konzerte sind der Massenkunst gewichen, deren zentrales Medium der Film ist. (vgl. Kinsky-Weinfurter 2001, S. 13) Film ist vor allem in Form des Spielfilms ein sehr populäres Gut. Das zentrale, dominierende Element im Film ist fast immer der Mensch und das interessiert das Publikum immer am meisten. (vgl. Lissa 1965, S. 383) „Die meisten Kino- und Fernsehfilme richten sich an ein Massenpublikum“, schreibt Bullerjahn. (2001, S. 124) Was natürlich zur Folge hat, dass diese Filme verkaufsorientiert und kommerziell arbeiten. Alles im kommerziellen Unterhaltungsfilm ist darauf getrimmt, den Film in der Zielgruppe attraktiver zu machen. (vgl. Kreuzer 2001, S. 115) Die Filmmusik ist deshalb im populären Spielfilm ebenso eine Funktion der Verkaufsförderung und dieser unterstellt. 2.5. Wirkung von Filmmusik Musik steht im regulären Spielfilm immer im Dienste des Films. Nur im Musikvideo, Musikfilm oder bei künstlerischen Filmprojekten kann sie eine absolut dominierende Funktion erhalten. „Jeder Film fordert einen anderen Einsatz, andere Schwerpunkte, eine neue Auseinandersetzung.“ (Elias 2009, S. 54) 16 Filmmusik: Introduktion und Begriffe Die exakte Wirkung von Musik im Film ist schwierig zu beurteilen, weil Wirkungsforschung immer eine stark subjektive Einschätzung der untersuchten Probanden und Probandinnen erfordert. Eine absolute allgemeingültige Wirkung von Musik bzw. einzelnen musikalischen Bausteinen ist deshalb weitgehend undefiniert. Einzig klischeehafte Verbindungen, wie in Kapitel 5.5 näher ausgeführt wird, verfügen über eine relativ stabile Verknüpfung zwischen Musik und ausgelöster Emotion. Musik wird meist konsumiert, ohne sich deren Inhalt bewusst zu sein. Musikwissenschaftliche Wirkungsanalysen sind voll von Floskeln wie „-.. keine eindeutigen Erkenntnisse..“, „-möglicherweise könnte..“, „.. dürfen keineswegs als gesichert gelten..“ und so weiter, schreibt Hans P. Ströer (2009, S. 155). „Jedes Musikstück wirkt auf jeden Menschen anders. Und nicht nur das, auch ein Mensch empfindet nicht immer gleich, wenn er ein bestimmtes Musikstück mehrmals in verschiedenen Lebenssituationen höre.“ (Ströer, 2009, S. 155) Der Sinn der Filmmusik entfaltet sich jedoch immer in ihrer Funktion und nicht in ihren musikimmanenten Kriterien. (vgl. Kloppenburg, 2000, S. 24) Es ist auch zu berücksichtigen, dass jedes Filmgenre andere Bedingungen an ihre zugehörige Filmmusik stellt. Filmgenre-übergreifende Regeln zum Umgang mit Filmmusik sind nicht realisierbar, da immer ein Genre ein anderes hervorheben oder negativ bewerten ließe. (vgl. Kreuzer, 2001, S. 116) 17 Entwicklung von Filmmusik 3 Entwicklung von Filmmusik 18 Entwicklung von Filmmusik 3.1. Allgemeine Filmmusikentwicklung im Tonfilm Der laute störende Projektor, die Angst der Kinobesucher und Kinobesucherinnen im dunklen Saal. Es werden viele Gründe für das erste Einführen von Musik zum eigentlich nur bildhaften Medium angeführt. Aber Musik vermittelt vor allem die dritte Dimension, die den geisterhaft lautlosen Schatten auf der Leinwand Realität einhaucht. (vgl. Schneider 1990, S. 19) „Bewegung war schon immer mit akustischen Eindrücken verknüpft und vollzog sich nie in künstlicher Lautlosigkeit;“ (Schneider 1990, S. 19) Musik ersetzte also sämtliche Elemente, die bei der Aufnahme verloren gingen und bei der Präsentation fehlten: Luftdruck, Temperatur, Feuchtigkeit, Raumgefühl, Geruch, oder der Eindruck der lokalen tageszeitlichen Grundstimmung. Musik war vor allem ein atmosphärisches Element, das den Eindruck „realer Lebendigkeit“ im Film erzeugen sollte, die durch die stumme bildliche Präsentation nicht dargestellt werden konnte und die Präsentation vervollständigte. (vgl. Adorno/Eisler 1996, S.89f; Bullerjahn 2001, S. 157; Schneider 1990, S. 19f) Heute stellt Musik meist das dar, was Worte und Geräusche nicht können, ein Vergleich könnte also mit dem Chor in der griechischen Tragödie gezogen werden. (vgl. Russell/Young 2001, S. 10) Zu Beginn wurde bei Actionszenen Rossinis „Wilhelm-tell-Ouvertüre“ am Klavier nachgespielt, romantische Sequenzen wurden von Tschaikowskis „Symphonie Pathetique“ oder Wagners „Liebeslied“ aus Tristan und Isolde aufgeführt. Die erste originale Filmmusik wurde von Camille Saint-Saens verfasst, für die Verfilmung des Theaterstückes „L’Assassinat du Duc de Guise.“ Die Idee der Originalkomposition für einen Film setzt sich jedoch zu Beginn noch nicht durch, vor allem aus Kostengründen. Es wurden weiterhin bevorzugt die vergleichsweise finanziell günstigeren und einfacheren Notensammlungen zur musikalischen Begleitung genutzt. (vgl. Russell/Young 2001, S. 10) Erst mit der Etablierung des Tonfilms wurde die Elite der europäischen Komponisten und Komponistinnen nach Hollywood eingeflogen, um die ersten großen Filmmusiken zu komponieren. Auf diesem Weg wurde klassische Musik nach Amerika importiert, die zuvor im Allgemeinen kein hohes Ansehen genoss, 19 Entwicklung von Filmmusik da Amerika sich tendenziell von der traditionellen europäischen Hochkultur abgrenzte. Max Steiner wurde zum Paradebeispiel der klassischen Hollywoodmanier in der Anfangszeit. Mit seiner Musik für Symphony of Six Million zeigte er die Möglichkeiten einer speziellen dramaturgischen Begleitung auf. Die Musik zeigte eine derartige Wirkung, dass kurz darauf jedes Studio mit einer dezidierten Musikabteilung aufwartete. (vgl. Brown 1994, S. 111; Russell/Young 2001, S. 11) Mit Steiners Komposition für King Kong und die weiße Frau wurde der Grundstein für den typischen Hollywoodsound gelegt. Eine abgeschwächte Leitmotivgrundstruktur, vgl. Kapitel 4.2.3, gepaart mit wiedererkennbaren Melodien und einer an die Romantik des 19. Jahrhunderts angelehnte Klangpalette schuf eine Schablone für viele darauf folgende Hollywood Kompositionen, die bis heute noch großen Einfluss ausübt. (vgl. Russell/Young 2001, S. 11) Mit der Entdeckung des finanziell lukrativen Hitparadenpotentials von Soundtracks durch Filme wie Zwölf Uhr Mittags in den 1950er Jahren, fühlten sich einige der zuvor aus Europa eingewanderten Komponisten und Komponistinnen (Rósza, Herrmann, …) nicht mehr künstlerisch wertgeschätzt und suchten wieder Arbeit im weniger dem Kassenschlagerrausch verfallenem Europa. (vgl. Russell/Young 2001, S. 14f) In den 1960er Jahren erfolgte ein weiterer Wechsel der Komponisten- klasse. Alteingesessene Komponisten und Komponistinnen aus den Anfängen des Hollywoodsounds wurden zusehends ausgegliedert und neue junge Komponisten und Komponistinnen, die vor allem der Populärmusik entstammten, bekamen einen Spielraum. Der Orchestersound wurde verstärkt aufgebrochen und mit populären Beat- und Rock-Formationen erweitert. Da die reinen Orchestersounds an einem Stagnationspunkt angekommen waren und die polystilistischen Anforderungen nicht mehr erfüllen konnten. (vgl. Russell/Young 2001, S. 75f; Thiel 1981, S. 103) Vor allem im Musikfilm wird mit Filmen wie Love me Tender (1956) und Double Trouble (1967) mit Elvis Presley und A Hard Day‘s Night (1964) und Yellow Submarine (1968) mit The Beatles der Einfluss von Beatmusik auf den Film ersichtlich. Auch bei Musicalverfilmungen lässt sich eine Tendenz von klassischen Musikeinflüssen, zum Beispiel Merry Poppins (1964) und The Sound of Music (1965), hin zu Beatmusik beeinflussten Werken, zum Beispiel Jesus Christ Superstar (1973) und Hair (1979), erkennen. The Graduate (1967) wurde nicht zuletzt durch Simon 20 Entwicklung von Filmmusik und Garfunkel’s Songs ein beträchtlicher Hit. Ein weiteres Beispiel ist Jack Nitzsche, der mit Einer flog übers Kuckucksnest eine stilistisch vielfältige, mit der zu Hilfenahme von Singenden Sägen, Mundharmoniken, Hawaiigitarren, Marimbas und Flöten, und dramaturgisch wirksame Musik ablieferte. Nach dem Ausbruch in die experimentalen Gefilde erreichte John Williams mit seinen Musiken für Jaws und The Towering Inferno und spätestens mit Star Wars die Rückkehr der traditionellen Kinosymphonik, die sich auch bis heute noch immer in Variationen groß durchsetzt. (vgl. Thiel 1981, S. 196 & 198f) Ökonomische Faktoren beeinflussen ab diesem Zeitpunkt wieder vermehrt die Art der Filmmusik. Ob sie schablonenartig komponiert wird, oder neue innovative Kompositionen kreiert werden. Die fehlende Originalität in manchen Kinomusiken lässt sich deshalb nicht immer auf eine unzureichende Arbeit des Komponisten bzw. der Komponistin zurückführen, oft sind auch einfach nur die äußeren finanziellen Umstände ausschlaggebend. (vgl. Thiel 1981, S. 255) Wirtschaftliche und technische Entscheidungen lenken schon immer die Geschichte der Filmmusik. Seit der Begründung des Tonfilms werden entweder populäre Song-Untermalungen produziert, um die Soundtrackverkäufe auszunutzen, oder unterschwellige Musik verwendet, um die Wirkung des Films auf das Publikum zu steigern. (vgl. Kreuzer 2001, S. 8) Kommerzielle Hintergedanken stehen also in beiderlei Fällen als Entscheidungs- grundlage im Vordergrund, vgl. Kapitel 2.4. 3.2. Elektronische Filmmusik H. Matzke erkannte 1931 folgendes: „Der Zusammenprall von Musik und Technik in der Gegenwart muss überdies von besonderen ästhetischen Folgen begleitet sein.“ (Matzke 1931, zit. n. Thiel 1981, S. 21) Schneider (2009, 144f) schreibt dazu, dass Filmmusik eine direkte Funktion der technologischen Entwicklungen ist. Als Beispiel kann das 1960 entwickelte transportable Magnet-Tonband gesehen werden, das sofort die Dokumentarfilm-Ästhetik veränderte und den politischen Autorenfilm und die Nouvelle Vague begründete. Auch Thiel (1981, S. 20f) führt an, dass die technischen Umstände die Entwicklung von Musik schon immer sehr stark beeinflusst hatten, früher in Form der Architektonik der Kirchen und Auffüh- 21 Entwicklung von Filmmusik rungssäle und vor allem durch die verschiedenen Notations- und Reproduktionsverfahren, später in Form der Aufzeichnungs- und Wiedergabegeräte. Insbesondere in der zweiten Hälfte des 20. Jahrhunderts fanden sich in diesem Bereich enorme Weiterentwicklungen, von der Kassette zur CD bis hin zum MP3-Player. Bereits von Beginn an kann eine enge Wechselbeziehung zwischen Technik und Ästhetik wahrgenommen werden. Neue Klangideale waren oft die Folge einer neuen technologischen Entwicklung, die Technik war also nie eine rein neutrale Basis. Die Grundsteine zur elektronischen Musik wurden von Russolo in seinem Manifest L‘arte dei Rumori (Die Kunst des Lärms) 1913 gelegt. Er verwendete Lärmmaschinen und generell mechanisch, technische Laute zur Erzeugung von damals neuartiger Musik. Er inspirierte bereits 1913 mit seinen Werken einige Künstler in den späterfolgenden Genres der konkreten Musik und Glitch-Musik zu einer Weiterführung des Klangs ins Abstrakte. (vgl. Cox/Warner 2004, S. 10f; Kahn 1999, S. 57) Der Beginn der elektronischen Klangkunst war oft von Naturwissenschaftlern und Naturwissenschaftlerinnen, Akustikern und Akustikerinnen, Mathematikern und Mathematikerinnen, und Radiotechnikern und Radiotechnikerinnen geprägt, weniger von Künstlern und Künstlerinnen, und Musikern und Musikerinnen per se. (vgl. Thiel 1981, S. 24) Obwohl die auditiven Experimente oft nur einen mechanischen Formalismus aufweisen, sind sie trotzdem von großem Interesse für die Erstellung einer spezifischen filmischen Musik. (vgl. Thiel 1981, S. 24) Als zentrales Werk ist hier das von Le Corbusier kuratierte und Varèse komponierte Stück Poème Electroniqué hervorzuheben, das in Iannis Xenakis Phillips Pavillion bei der Weltausstellung 1958 Ton, Bild, Architektur und Licht zusammenführte. (vgl. Hoffer 2012, S. 278f) Erste Versuche die Klangpalette wesentlich mittels elektronisch generierter Klänge auszuweiten wurden von Werner Meyer-Eppler und Herbert Eimert 1949 im Studio für elektronische Musik des WDR in Köln getätigt. (vgl. Lissa 1965, S. 292) Zur selben Zeit wurde auch in Paris in einem ähnlichen Studio des RTF die konkrete Musik von Pierre Schaeffer und Pierre Henry entwickelt, die mittels existierendem Klangmaterial und Geräuschen collageartig „Musik“ zusammenfügten. (vgl. Kahn 1999, S. 138f) Diverse Experimente der Klangmodifizierung wurden durch- geführt. Die Möglichkeiten und Ausdruckscharakteristiken von Aufeinanderschichtungen, Beschleunigungen, Verlangsamungen und Reversierung der Aufnahmen 22 Entwicklung von Filmmusik wurden erforscht und genutzt. Die Präparierungen des Klangmaterials wurden mit folgenden Zielen durchgeführt: plastischeren Klang kreieren, größere Klangschärfe erreichen, Klangfarbe vernebeln, völlig neue Klangqualität erzielen, neue Raumqualität ermöglichen. (vgl. Lissa 1965, S. 152f & 292) Elektronische und konkrete Musik eignen sich laut Lissa (1965, S. 293) aus folgenden drei Gründen für die Verwendung im Film: Erstens benutzt Film schon seit Anbeginn Geräusche und Lauteffekte, die nicht nur realistische Darstellung, sondern auch Ausdrucksträger sind. Zweitens wird im Film schon länger mit präpariertem Klangmaterial gearbeitet, der naturalistische Ausdruck der traditionellen Klangfarben wurde also bereits mehrfach umgangen. Drittens sind die ersten Versuche mit der Aufnahmetechnik zu experimentieren, die in der konkreten und elektronischen Musik gemündet haben, gewissermaßen im Film gestartet. Da der Ausdruck elektronischer Musik völlig neuartig und fremd war, wurde diese auch in derartigen Situationen eingesetzt. Vor allem im Science-Fiction und Weltraumbereich ertönten sehr früh elektronische Klänge. (vgl. Lissa 1965, 296) Die ersten populären Anfänge elektronischer Filmmusik tätigte Rózsa mit dem prägnanten Einsatz eines Theremins bei Spellbound (1945) und The Lost Weekend (1945). Nach Rózsas Musik wurde das Theremin zum Sound der Stunde. Vor allem Science-Fiction- und Horrorfilme wurden vermehrt mit dem Theremin bespielt. (vgl. Kalinak 2010, 76, Ruschkowski 1998, S. 35) 1956 erstellte der japanische Komponist Akira Ifukube elektronische Klänge mittels eines Taperecorders für den Film Godzilla. Im selben Jahr wurde die erste pure elektronische Musik bei Forbidden Planet eingesetzt. Louis und Bebe Barron komponierten eine derart neuartige Musik für den Film, dass sie auch als „elektronische Tonalität“ bezeichnet wurde. (vgl. Kalinak 2010, S. 76; Russell/Young 2001, S. 13) Bei der Kompositionstechnik lässt sich eine enge Bindung zur konzertanten Musik von Karlheinz Stockhausen erkennen, der ebenfalls in die elektroakustische Richtung forschte. Die Verwendung der derartig modernen und auch künstlerisch neuen Musik war sehr beeinflussend, denn so konnte ein breites Publikum in die Entwicklungen der E-Musik eingeführt werden, ohne dass dieses zuvor einen Bezug dazu hatte. Filmmusik hat auch für viele die ersten Kontakte mit seriellen Kompositionsweisen dargestellt, wie zum Beispiel im Film Jenseits von Eden (1955). Die 23 Entwicklung von Filmmusik Klangsphären von György Ligeti wurden durch den Film 2001: A Space Odyssey bekannt gemacht. (vgl. Russell/Young 2001, S. 13) 1968 erbrachte Wendy Carlos mit Hilfe des Moog-Synthesizers dann den populär erfolgreichen Beweis, dass die Synthesizer nicht nur Klangeffekte herstellen können. „I tried to avoid gratuitous obsession with only dissonance. I tried to make music that was not ugly.“ - Wendy Carlos (Holmes 2002, S. 157) Mit der LP Switched-On Bach, einer Neuinterpretation von Bachkompositionen von Synthesizern gespielt, zeigte sie, dass die Moogs auch als vollständiges musikalisches Instrument im klassischen Sinne eingesetzt werden können. (vgl. Ruschkowski 1998, S. 112f) Im Jahr 1971 komponierte sie für Stanley Kubrick die Filmmusik für A Clockwork Orange in einem ähnlichen elektronisch klassischen Stil. Gewichtigen Einfluss auf den Verlauf der Popularität elektronischer Filmmusik hatte 1977 die Popgruppe Tangerine Dream. 1967 in Berlin gegründet, waren sie zehn Jahre später mit ihren Synthesizersongs in Europa, Amerika und Japan sehr bekannt. Die Musiken für die Filme Sorcerer (1977), Thief (1980), Vision Quest (1985) und The Man Inside (1989) wurden hauptsächlich minimalistisch komponiert. Einfache Ostinati im Bass, Klavier oder Synthesizer und stetig auffächernde Klangräume sind die Hauptelemente der entstandenen Scores. Subtilere Phasen bestehen zumeist nur aus in sich selbst oszillierenden Akkorden gespielt von Synthesizern. Auffällig ist jedoch, dass die Stücke oft sehr ähnlich zur autonomen Musik sind und den Bezug zum Film wenig punktuell, sondern eher atmosphärisch suchen. Allgemein entwickeln sich infolge des Gebrauchs von Synthesizern und Samplern mehr atmosphärische Scores als zuvor. Anstatt einer exakten Bildentsprechung zu folgen, werden langsam bewegte, subtile Musiken komponiert. (vgl. Kreuzer 2001, S. 107 & 110) Ab Giorgio Moroder’s Musik für den 1978 erschienen Film Midnight Express zeigt sich ein Umschwung zum vergrößerten Einsatz elektronischer Musik für Mainstreamfilme. (vgl. Prendergast 1992, S. 304) Eine der technisch avanciertesten und gleichzeitig auch erfolgreichsten elektronischen Filmmusiken ist die von Vangelis 24 Entwicklung von Filmmusik produzierte Musik für Blade Runner (1982). Vangelis, der schon mit Chariots of Fire (1981) einen großen Erfolg feiern konnte, zeigte abseits des autonomen Synthie-Pop ein Klangbild, das eine erfolgreiche Färbung des Films mit Hilfe der elektronischen Musik erzielte, die sich aus verschiedenen Synthesizern, verfremdeten Stimmen, Saxophonen und atmosphärischen Geräuschen zusammensetzte. (vgl. Kalinak 2010, S. 76; Kreuzer 2001, S. 108; Prendergast 1992, S. 305) Ausgehend von der Ent- wicklung des Sampling und Sequencing verändert sich die elektronische Musik weg vom reinen Klangexperiment zu einer einfach einsetzbaren digitalisierten Form. Insbesondere die Einführung des MIDI Standards 1983 stellte den entscheidenden Schritt für eine komfortable Handhabung, aber auch die Entlassung vieler Studiomusiker und Studiomusikerinnen, dar. (vgl. Kalinak 2010, S. 76; Kreuzer 2001, S. 107) Laut Brown (1994, S. 266) und Kalinak (2010, S. 76) ist es durch die Entwicklungen der elektronischen Musik auch wesentlich einfacher geworden Filmmusik ohne großes Training zu erstellen. So komponiert John Carpenter, der eigentlich kein Musiker ist, seine Filmmusiken selbst, wie zum Beispiel für das 1978 erschienene Halloween. Außerdem wird die Zusammenarbeit zwischen Regisseur bzw. Regisseurin und Komponist bzw. Komponistin durch das Sampling vereinfacht, da schon vor der Aufnahme mit dem großen Orchester, ein finaler Klang simuliert werden kann, der sozusagen ein akustisches Polaroid darstellt. (vgl. Kreuzer 2001, S. 109) Jerry Goldsmith benutzt elektronische Klänge und verknüpft diese mit dem klassischen Orchester. Elektronische Sounds werden eingesetzt, bei Klängen, die er mit naturalistischen Instrumenten nicht erzielen könnte. Er schreibt dazu, dass er seit fünfundzwanzig Jahren elektronische Klänge verwendet, er sie aber nie als Ersatz für das Orchester gesehen hat, sondern als zusätzlichen Teil des Sinfonieorchesters anerkennen will. (vgl. Karlin/Wright 2004, 370) Diese Mischproduktionen von Orchester und elektronischen Komponenten wird durch die verfeinerten Techniken des Sampling ermöglicht, die die Qualität der elektronisch simulierten Instrumente und die Intonationsmöglichkeiten auf ein mit akustischen Instrumenten vergleichbares Niveau bringen. Diese pseudoakustischen elektronischen Produktionen überleben heute vor allem im Fernsehen oder in Produktionen bei denen die finanziellen Mittel für originale Orchesteraufnahmen fehlen, jedoch eine symphonische Musik angestrebt wird. (vgl. Kreuzer 2001, 109) 25 Entwicklung von Filmmusik Hans Zimmer verwendet beispielsweise einen Stil, der zwar die symphonische Orchesterpalette benutzt, jedoch die Möglichkeiten der elektronischen Musik erkennt. Mit den elektronischen Instrumenten wird nicht versucht, das pseudoakustische nachzubilden, sondern ein neuer ästhetischer Weg begangen, der die elektronischen Elemente eigenständig einsetzt. Hans Zimmer, Danny Elfmann, Clint Mansell und Alan Silvestri beweisen alle diesen sorglosen Umgang mit dem akustischen und elektronischen Material. Alle vier haben ihre Wurzeln nicht im klassischen Bereich, sondern entstammen der Pop/Rock-Szene. Die orchestrale Komponente wurde meist auto-didaktisch dazugelernt und popmusikalische und klassische Idiome werden unbeschwert zusammengemischt. Die Sampling-Technologie löste sich von der pseudoakustischen Komponente durch die Vielzahl an möglichen Klangmodulationen ab, die weit über die Möglichkeiten von normalen Musikinstrumenten hinauszielten. Unnatürlich wirkende Spielweisen gesampelter Naturinstrumente erzeugen eine völlig eigene Charakteristik. So kann ein ChorKlang eines Sample-Programms einen völlig sterilen Akkordklang erzeugen, was die Assoziation eines artifiziell abstrahierten Menschlichen ermöglicht. Ein menschlicher Chor könnte nie derartig sauber Intonieren und eine ähnliche Qualität erzeugen. (vgl. Kreuzer 2001, 109f) 3.3. Kritik und Einsatzbereiche der elektronischen Filmmusik Im Vorwort zu Prendergasts Filmmusic a negleted Art bemängelt William Kraft (1992, S. XX) die Reduzierung auf das Elektronische, die Entlassung von talentierten Studiomusikern und Studiomusikerinnen und die Kürzung von Kosten durch die elektronischen Möglichkeiten, die jedoch für ihn auch automatisch den Verlust von Qualität bedeutet. „We have even witnessed the creation of a segment of the current generation of electronic composers, who are unable to notate music, let alone know what true composition and orchestration are about.“ (Kraft 1992, S. XX) 26 Entwicklung von Filmmusik Das Auftauchen technischer Innovationen bewirkt natürlich auch immer eine Aufteilung in zwei gespaltene Lager. Der Fortschrittsglaube steht gegen die Tradition. Laut Kreuzer (2001, S. 111) bewundern die einen die Erweiterung und die neuen Möglichkeiten, während die anderen den Verlust „echter“ musikalischer Ideen, „echter“ Kompositionsweisen und „echten“ Musizierens bemängeln. Wie auch schon bei der Einführung anderer technischer Fortschritte, lässt sich jedoch feststellen, dass zu Beginn der Entwicklung oft die Technik um der Technik willen eingesetzt wird. Grenzen werden ausgelotet und Möglichkeiten erkannt. Erst im zweiten Schritt wird daraus eine stimmige Ästhetik ausgelesen, die abseits technischer Spielereien die neuen Aspekte integriert. (vgl. Kreuzer 2001, S. 111) Auch Schneider (1997, S. 83f) spricht von der Gefahr eine „l’art pour l’art”-Ästhetik mit elektronischen Klängen zu generieren. Da real existierende Klänge immer einen festen psychologischen und gesellschaftlichen Bezug zur Wirklichkeit haben, während elektronische Klänge sehr schnell abstrakt und unwirklich klingen können. Der reduzierte Kostenfaktor hat natürlich einen entscheidenden Einfluss auf die Entwicklung und Verbreitung elektronischer Musik gespielt. Die Reproduktion akustischer Instrumente ermöglichte es den Komponisten und Komponistinnen ohne Orchesterkosten die gesamte Instrumentenpalette auszunutzen, allerdings bis heute noch mit qualitativen Einschränkungen. Ausschlaggebend für die Verbreitung war jedoch neben den monetären Vorteilen auch die Verwendung der elektronischen Elemente im Sound der populären Musik. Synthesizersounds dominierten, wie die E-Gitarre in den 1950ern und 60er Jahren, die Popmusik der 1980er und 90er. Der Einfluss daraus musste also auch auf die Filmmusik überschwappen. Laut David Kurtz ist vor allem zu bemerken, dass die junge Generation der 1990er Jahren die erste ist, die sich mit Musik, die auf elektronischem Wege manipuliert wurde, mehr identifiziere als mit live gespielter Musik. (vgl. Prendergast 1992, 301f) Der Einsatz von elektronischen Komponenten kann wie bereits erwähnt in pseudoakustische und wirklich originelle elektronische Instrumente eingeteilt werden. Die Replikation von akustischen Instrumenten ist laut David Kurtz eine Sackgasse. 27 Entwicklung von Filmmusik „If you want the sound of trombones, you’ll be far ahead of the game by hiring trombone players“. (vgl. Prendergast 1992, 304f) Auch Jens-Peter Osterdorf entsagt den billigen Synthesizerproduktionen, die im, vor allem Fernseh-, Film nur Nachbildung des Originals sein sollen, da hier laut ihm die Musik meist völlig nebensächlich ist und generell nicht auf die Qualität geachtet wird. (vgl. Schneider 1990, S. 255) Diese Generalisierung ist allerdings als negativ eingefärbte Übertreibung von Osterdorf anzusehen. Die Werke von John Carpenter haben gezeigt, dass auch mit geringen Mitteln eine funktionierende elektronische Filmmusik erstellt werden kann. Allerdings hat im Allgemeinen nur die Verwendung von Synthesizern, auf Grund ihrer Klangmöglichkeiten und nicht zur Nachbildung akustischer Instrumente, kreatives Potenzial und im Film auf Dauer musikalischen Sinn. (vgl. Prendergast 1992, S. 304f) Elektronische Klänge ermöglichen es die Limitationen natürlicher Instrumente zu umgehen, Zeitdehnungen und Modulationen können eine gewisse Irrealität ausdrücken, was vor allem Science-Fiction und spannungsorientierten Filmen zu Gute kommt. (vgl. Schneider 1997, S. 207) Kurtz beschreibt auch, dass bei elektronischer Musik generell mehr Zeit in der kreativen Phase verwendet werden kann und dadurch mehr Experimente durchgeführt werden können. Vor allem fallen finanzielle Entscheidungen bezüglich des Einsatzes mehrerer oder weniger Instrumente vollständig weg. Der Entscheidungsprozess ist dadurch kreativer ausgelegt, als finanziell orientiert. William Goldstein gesteht auch, dass für ihn elektronische Musik wesentlich persönlicher ist, als akustische, da er bei der elektronischen jeglichen Aspekt selbst kontrollieren kann und nach genau seinen Vorstellungen anpassen kann, während bei einer Orchesteraufnahme immer die Persönlichkeit des Orchesters mitgetragen wird. Auch das direkte Experimentieren mit Sound ermöglicht für ihn neue Wege, die rein mit Papier und Stift nicht erreichbar wären. Das Experimentieren verlangsamt jedoch auch die Arbeitsweise, wenn nicht zielgerichtet gearbeitet wird, da die Möglichkeiten endlos sind. (vgl. Prendergast 1992, S. 304ff) Auch Schneider (1997, S. 208f) schreibt, dass die Verwendung elektronischer Klangerzeuger, bei intensiver Auseinandersetzung, weder billiger noch schneller 28 Entwicklung von Filmmusik als die Nutzung akustischer Instrumente sein kann, wenn nicht einfach die vorprogrammierten Einstellungen benutzt werden. Die Bereitschaft sich näher mit der Klangprogrammierung auseinanderzusetzen ist jedoch bei vielen Filmkomponisten und Filmkomponistinnen unterschiedlich. Zur Produktion elektronischer Filmmusik werden von elaborierten Großstudios bis hin zu Standardkeyboards der Unterhaltungsindustrie eingesetzt. Viele Komponisten und Komponistinnen lassen die Programmierung ihrer Klänge auch von dezidierten Tonmeistern und Tonmeisterinnen oder Klangtüftlern und Klangtüftlerinnen ausarbeiten und geben lediglich die gewünschte Ästhetik vor. Wobei sich hier das Sprechen über Klang schwierig gestaltet. Kategorisierungen wie „string”-, „brass”-, „glass”-, „voiceähnlicher“, „metallic”- und „noise”-sound sind hier von Vorteil. Weitere Adjektive wären: Hell, dunkel, weich, hart, scharf, dicht, sphärisch, modulierend, verklingend, starr oder kratzig. Auch Beispiele bereits existierender Musiken werden gerne als Orientierung genutzt. Bei eher klangeffekthaftem Gebrauch elektronischer Musik lässt sich auch noch immer die aus 1931 stammende semantische Kategorisierung der BBC (1931, S. 194ff) anwenden. Die sechs Kategorien unterteilen sich in: 1. ein realistischer, bestätigender Effekt, 2. ein realistischer, evozierender Effekt, 3. ein symbolischer, evozierender Effekt, 4. ein konventionalisierter Effekt, 5. ein impressionistischer Effekt und 6. Musik als Effekt. Schneider deutet des Weiteren auf das Fehlen einer spezifischen Aura elektronischer Klänge hin, die bei akustischen Instrumenten schon allein durch das individuelle Spielen und dessen Einmaligkeit entsteht. Das künstliche Nachbilden dieser Aura des Unverwechselbaren und Einmaligen unterscheidet oft schnelle billige Imitate von qualitativ hochwertigeren Schöpfungen. (vgl. Schneider 1990, S. 256; Schneider 1997, S. 207) Auch für Jerry Gerber (Gerber/Prager o.J.) ist der wichtigste Schritt, nach der Komposition und dem Einprogrammieren in den Computer das Hinzufügen der verschiedenen Möglichkeiten des Ausdrucks, mit Hilfe verschiedener Eingabegeräte: zum Beispiel einem Blaswandler für Blasinstrumente, einen Schlagzeugcontroller zum Einspielen von perkussiven Elementen und so weiter. Dadurch kann der Ausdruck und das Einspielen realistischer anmuten und die persönliche Aura beim simulieren akustischer Instrumente verbessert werden. Auch Chion (1994, S. 116) be- 29 Entwicklung von Filmmusik schreibt den Effekt fehlerhafter Instrumente und Intonationen, die das Publikum einfacher als Präsenz in der gezeigten Umgebung aufnimmt. Diese individuelle Aura wird vor allem von Fehlern und menschlichen Schwächen definiert, meint Jürgen Knieper. Diese Schwächen vermisst Knieper in der elektronischen Musik. Jeder Ton kann exakt platziert und intoniert werden. Fehlt ein menschlicher Charakter vollkommen, kann dies, wie bereits in Kapitel 3.2 erwähnt, eine gewünschte Ästhetik sein, in den meisten Fällen ist es jedoch ein qualitativer Mangel und keine Stärke. (vgl. Schneider 1990, S. 26) 1 3.4. Zusammenfassung Die historische Entwicklung elektronischer Musik für den Film ist also sehr intuitiv geschehen. Elektronische und modifizierte Klangelemente fanden ihren Ursprung im Umfeld des Bewegtbildes, die Verbindung zum Film ist bereits im Ansatz enthalten. Mit der Verleihung der Oscars für Giorgio Moroders Musik für Midnight Express 1978 und Vangelis Musik zu Chariots of Fire im Jahr 1981 wurden auch erstmals die populäre Wertschätzung elektronischer Musik im Film bezeugt. (vgl. Academy of Motion Pictures Arts and Science, 2012a & 2012b) Die Beurteilung elektroni- scher Filmmusiken ist immer zweigeteilt, die einen beschränken sich auf die traditionelle, ihrer Meinung nach kompositorisch hochwertige Seite, die anderen erkennen die neuen Möglichkeiten und nutzen diese. Wird jedoch nur die Technik um der Technik Willen eingesetzt, wird auch das Ergebnis zwar vielleicht technisch schön sein, aber ohne wirkliche emotionale Funktionalität. Beim Einsatz elektronischer Musik ist vor allem zu beachten, die Aura oder Seele der Musik nicht zu verlieren. Eine technisch saubere Lösung ist oft nicht die zielführendste, wie auch Schneider (1990, S. 26; 1997 S. 207) mehrmals erwähnt, da die menschliche Imperfektion die indi- viduelle Aura mitbringen. 1 Die bewusste Hinweisung auf die technologischen Rahmenbedingungen einer digitalen Produktion wird seit den späten 1990ern im Musikgenre Glitch thematisiert. Die Ästhetisierung des digitalen und elektronischen Fehlers steht im Fokus des Musikgenres, welches oft einen sehr experimentellen und weniger musikalischen Charakter aufweist und damit wieder auf die eher technikorientierten Anfänge elektronischer Musik zurückweist. (vgl. Evens 121f) 30 Die Komposition. Ein Prozess 4 Die Komposition. Ein Prozess 31 Die Komposition. Ein Prozess „Musik ist die Kunst, durch Töne Empfindungen auszudrücken“, schreibt Heinrich Christoph Koch bereits 1802 in seinem Musikalischen Lexikon. (Koch 1802, zit. n. Thiel 1981, S. 89) Die Umsetzung dieses Grundsatzes ist eine der Pflichten ei- nes guten Filmmusikkomponisten bzw. einer guten Filmmusikkomponistin. Filmmusikkomposition ist im Vergleich zu Regie und Schauspiel, eine in der Öffentlichkeit eher weniger beachtete Teilkomponente. Dementsprechend sind auch die Komponisten und Komponistinnen und ihre Musik nicht die Ersten, die bei einer Rezension oder Analyse genannt werden. (vgl. Thiel 1981, S. 9 & 89) „Die Rolle des Komponisten ist eine dienende“, schreibt Bullerjahn (2001, S. 12). Den Wünschen des Regisseurs bzw. der Regisseurin gilt es zu entsprechen. Die Bilder sind meist schon vormontiert. Der Komponist bzw. die Komponistin fügt sich im Regelfall in die fertige Filmkomposition ein, ohne große Änderungen des Bildes beeinflussen zu können. (vgl. Bullerjahn 2001, S. 12f) Dem Autor stellt sich die Frage, in wie weit Musiker und Musikerinnen aus der elektronischen populären Musik die Aufgabenstellungen eines traditionellen Filmmusikkomponisten bzw. einer Filmmusikkomponistin erfüllen können und welche Anforderungen an diese gestellt werden. 4.1. Stil einer Filmmusikkomposition Bei der Filmmusik benötigt oft jeder Film einen anderen kompositorischen Zugang, der Komponist bzw. die Komponistin muss also einen Stilpluralismus beherrschen, um für jeden Film einen geeigneten individuellen Stil zu kreieren. (vgl. Lissa 1965, S. 298) So lange ein einheitlicher Gesamtstil für einen Film gefunden wird, wird die Musik als stimmig für diesen einzelnen Film angesehen. Dieser Stil muss konsequent den ganzen Film durchgesetzt werden, da ansonsten die Kontinuität des Films gestört wird und die Empfindung des Films als Einheit zerbricht. (vgl. Kreuzer 2001, S. 129) Das Aufrechterhalten eines einheitlichen Stils innerhalb eines Filmes ist durch die verschiedenen Aufgaben der Musik gegenüber dem Bild beeinträchtigt. Vor allem wenn im Film diegetische Musik auftritt, gestaltet es sich als schwierig Kontinuität mit der extradiegetischen Musik zu erhalten. Der Auftritt verschiedener geschichtlicher Epochen ist ebenfalls nur komplex zu meistern, hier 32 Die Komposition. Ein Prozess kann ein geteiltes Thema oder Leitmotiv über alle Stile hinweg zur zumindest inhaltlichen Vereinheitlichung verhelfen. Ähnlich dem Stilpluralismus der verschiedenen Genregattungen des Films selbst hat auch die Filmmusik kein einheitliches Stilbewusstsein. Obwohl seit einem Jahrhundert Tonfilme produziert werden, kann kein einziger Stil herausgebildet werden, wie es in der autonomen Musik der Fall ist. Der Stil hängt immer vom jeweiligen Inhalt der Handlung und der Erzählweise ab. Ein großer Teil der Filmmusik bedient sich neo-romantischer Klischees, vor allem beim Gebrauch des dazugehörigen Orchesterstandards. Diese Klischees werden jedoch mit einer Vielzahl von anderen Einflüssen vermischt. Beachtenswert ist hierbei, dass die Neuartigkeit und Modernität der verwendeten Stile keine Wertkriterien darstellen. Einzig die Verbindung zum Film ist das Qualitätsmerkmal. Vor allem ist zu beobachten: je enger die Bindung von Musik und Film, desto geringer die musikalische Autonomie und Eigenheit. (vgl. Lissa 1965, S. 299f) Die Spezifik des Ausdrucks der Musik im Film ist immer durch den visuellen Faktor eingeschränkt. Des Weiteren sind im Film meist wesentlich kürzere Abschnitte zu komponieren, als in der autonomen Musik. Es entsteht ein skizzenartiger und aphoristischer Charakter, welcher nicht weiter ausgeführt werden kann. Die Motive und Ausführungen sind dadurch natürlich beeinflusst und durch die fehlende Zeit zur weiteren Evolution in ihrer Komplexität oft eingeschränkt. Der dramaturgische Sinn wird jedoch, wie bereits beschrieben, nicht aus dem musikalischen Ablauf gewonnen, sondern aus der Beiordnung der restlichen Elemente zur Musik. (vgl. Lissa 1965, S. 365) Auf Grund der speziellen Funktionalität von Filmmusik lässt sie auch radikalere klangliche Mittel als populäre autonome Musik zu. Durch die Sinngebung im Bild kann die Musik völlig frei und ungewöhnlich arbeiten, obwohl das Publikum nur den Durchschnittshörer bzw. die Durchschnittshörerin repräsentiert, wird hier, anders als in der modernen Kunstmusik, die Musik trotzdem verstanden. Das Bild erklärt die Musik. Die Präsentation ganz neuartiger und fremder Töne im Film erweitert auch die Hörgewohnheit des Publikums und der Kontakt zu moderner Musik, die ähnliche Mittel nutzt, wird erleichtert. (vgl. Lissa 1965, S. 301) Wie zum Beispiel das Thema für die britische Serie Doctor Who, das von Delia Derbyshire 33 Die Komposition. Ein Prozess 1962 elektronisch umgesetzt wurde und das erste elektronische Thema einer Fernsehsendung wurde. (vgl. Wrench 2008) Neue fremdartige Töne wurden beim ersten Einsatz elektronischer Musik erlebt. Mittlerweile hat die Elektronik jedoch in den Mainstream Einzug gefunden und ist vor allem in der Popmusik nicht mehr weg zu denken. Der Erstkontakt fand aber, wie auch bei anderen neu erschienenen Musikkünsten im 20. Jahrhundert, für die meisten Rezipienten und Rezipientinnen im Kinobereich, z.B. bei Forbidden Planet (1956), statt. Die stilistische Varianz in der Filmmusik beschreibt sehr gut, dass im Prinzip jegliche Musik, wenn sie mit dem Bild kongruiert, als Filmmusik geeignet sein kann. Elektronische Musik ist in sich selbst bereits in einem großen Spektrum vorhanden, eine passende Zuordnung einer der ästhetischen Ausprägungen elektronischer Musik zu einem Film sollte deshalb immer möglich sein. 4.2. Filmische Kompositionsarten Die Komposition von zur Gesamtdramaturgie korrespondierender Musik lässt sich innerhalb der Entwicklungsgeschichte zu drei vorherrschenden Techniken bezüglich des Einsatzes der Musik gegenüber dem Bildgeschehen einteilen. Die deskriptive Technik schränkt sich auf ein möglichst getreues Darstellen des Bildinhalts ein. Bei der Mood-Technik wird versucht den emotionalen Gehalt einer Szene wiederzugeben. Als bewährte Kompositionstechnik ist die Motivtechnik (auch Leitmotivtechnik genannt) die dritte oft genutzte Technik zur musikalischen Begleitung. Zur Vervollständigung wird auch noch eine vierte Kompositionstechnik, die Bausteintechnik, aufgeführt, die allerdings in den meisten Fachliteraturen auf Grund der geringen Popularität keine gesonderte Erwähnung findet. (vgl. Kloppenburg 2000, S. 41) 4.2.1. Deskriptive Technik Sie wird auch Bildillustration, „underscoring“ oder „Mickey Mousing“ genannt. Bei der deskriptiven Kompositionstechnik wird versucht, mit akustischen Mitteln den bildlichen Inhalt (Bewegungselemente, Licht- und Raumwirkungen, 34 Die Komposition. Ein Prozess Schallereignisse der Bildaussage) möglichst synchron und eindeutig zu illustrieren. (vgl. Thiel 1981, S. 65) Schon zur Nickelodeonperiode2 (ca. 1900-1914) begleiteten neben den üblichen Kinopianisten und -pianistinnen auch Schlagzeugspieler und -spielerinnen den Film, um mit verschiedenen Schlagwerken Wind-, Donner-, und Regengeräusche oder Schüsse, Ohrfeigen, Pferdegetrappel und Eisenbahnrattern zu erzeugen. (vgl. Lek 1987, zit. n. Bullerjahn 2001, S. 77) Diese Synchronität von Musik und Bild lässt sich später auf die deskriptive Musik weiterführen. Walt Disney verwendete diese Art von Untermalung in seinen frühen Animationswerken, weshalb sich auch der Begriff Mickey Mousing eingeprägt hat. Aaron Coplan kritisiert die übermäßige direkte Verlinkung von Bild und Ton: „[Beim Mickey Mousing ...] wird, wo immer es nur ausführbar ist, alles verdeutlicht, was auf der Leinwand geschieht. Der Schauspieler kann seine Augenbrauen nicht hochziehen, ohne dass die ihm die Musik dabei hilft“ (Thiel 1981, S. 65f) Auch Miklós Rózsa äußert sich nicht begeistert von dieser Art einen Film zu vertonen: „I intensly dislike it. One of the reasons i did not want to come to hollywood was that i thought that was what you had to do there.“ (Brown 1994, S. 273) Die übertriebene Verdoppelung von Bild und Ton führt im Film meist zu einer ablehnenden Haltung des Publikums. (vgl. Bullerjahn 2001, S. 77) Heutzutage wird diese Form zu einem großen Teil nur mehr bei Animationsfilmen eingesetzt, wo die ohnehin fehlende Realität durch die Überzeichnung nicht gestört wird. (vgl. Thiel 1981, S. 66) 2 Nickelodeons, im Deutschen auch Ladenkino genannt, boten neben Theater, Gesangs- und Musikdarbietungen auch die ersten Bewegtbildaufführungen an und stellen die ersten Kleinkinos dar. (vgl. Prokop 1995, S. 38) 35 Die Komposition. Ein Prozess 4.2.2. Mood Technik Bei der so genannten Mood Technik wird nicht der Bildinhalt illustrierend dargestellt, sondern eine bestätigende Bildinterpretation und -einstimmung angestrebt. (vgl. Thiel 1981, S. 66) Es wird versucht den Filmszenen musikalische Stimmungen hinzuzufügen (vgl. Faulstich 2002, S. 139), „die thematisch mehr oder minder unabhängig sind.“ (Pauli 1978, S. 17) Als Begründer dieser Kompositionsweise wird Alfred Newman bezeichnet. Er orientierte sich mehr an der Kompilationstechnik, bekannt aus der Stummfilmzeit, als an der direkten Übersetzung der Filmebene in die musikalische. (vgl. Bullerjahn 2001, S. 83) Ein weiterer Komponist, der sich dieser Technik früh bediente ist Bernard Herrmann, zum Beispiel bei der Mordszene in Psycho. (vgl. Thiel 1981, S. 66) Bei der Mood-Technik wird die Befindlichkeit der Protagonisten und Protagonistinnen, und bzw. oder ein eher statischer Gefühlsausdruck vermittelt. (vgl. Bullerjahn 2001, S. 83) Die moderne Variation dieser Technik benutzt jedoch vor allem „hochgradig assoziativ besetzte musikalische Reizvokabel, die isoliert punktuell (ohne melodische oder kontrapunktische Bindung) eingesetzt und rezipiert werden“, kritisiert Thiel (1981, S. 66) den unüberlegten Musikeinsatz mancher Komponisten, der sich nur wiederholt rezipierter Klischees, vgl. Kapitel 5.5, bedient. 4.2.3. Motiv Technik Auch bekannt als Leitmotivtechnik, hat der „hollywoodsche“ Einsatz nur eine geringe Ähnlichkeit mit der eigentlichen Wagnerschen Idee eines Leitmotivs. Bei Wagner stellt das Leitmotiv noch ein symbolisches, mythisches Zusatzelement dar, das den tieferen Sinn der Gestalt repräsentieren soll. (vgl. Brown 1994, S. 99) Wagner war zwar nicht der erste, der diese Technik einsetzte, er perfektionierte sie jedoch und hob die kurzen Motivelemente durch ihren verwobenen, verflochtenen Einsatz zu Satzbildungselementen empor. (vgl. Bullerjahn 2001, S. 88) Im Film ist laut Eisler die Leitmotivfunktion nur mehr ein „musikalischer Kammerdiener, der seinen Herrn mit bedeutsamer Miene vorstellt, während den Prominenten ohnehin jeder kennt.“ (Adorno/Eisler 1996, S. 22) Bereits ab den 1950er Jahren wendet sich Hollywood ten- 36 Die Komposition. Ein Prozess denziell eher von der Leitmotivtechnik ab. Jerry Goldsmith führte 1998 aus, dass ein Filmbesucher bzw. eine Filmbesucherin auf Grund des involvierenden Bildmaterials die Aufmerksamkeit nicht auf alle musikalischen Details richten kann: „Ich glaube nicht so sehr an den Leitmotivansatz der Filmkomposition, weil ich nicht glaube, dass die Zuschauerschaft genug Zeit hat, sich so viel musikalisches Material anzueignen. Ihre Aufmerksamkeit sollte auf das Drama auf der Leinwand gerichtet sein und Musik sollte peripher eingesetzt werden. Im Grunde geht es in der Filmmusik um Thema und Variationen. Sie sollte nicht rhapsodisch sein, aber sie solle in dieser Art strukturiert sein.“ (Karlin/Tilford 1995, Beiheft S. 34, zit. n. Kreuzer 2001, S. 194) 4.2.4. Baukastentechnik Als Kompositionstechnik ist auch die Baukastentechnik oder auch Montagebzw. Ornamenttechnik bekannt. Hier werden kleinste elementare Bausteine, vor allem „vollständig harmonisierte Einzeltakt Zellen, oder eintaktige rhythmische oder melodische Motiv-Zellen“ repetitiv zu vier- oder achttaktigen Mustern verknüpft. Diese Muster werden abermals baukastenartig zu einer vollständigen Komposition zusammengeführt, ähnlich der Methodik des Filmschnitts. Die Musik entspricht bei dieser Methode dem Bild nicht direkt, sondern knüpft eher an den großformalen Aufbau des Films an. Oft wird die Musik auch vor dem Bild kombiniert. Die Musik steht deshalb sehr autonom da und wird auch oft als eigenständige Konzertmusik präsentiert. (vgl. Bullerjahn 2001, S. 93) 4.3. Anforderungen an den Komponisten bzw. die Komponistin Lissa (1965, S. 369) führt Chatschaturjan’s acht Postulate auf, denen ein Filmmusikkomponist bzw. eine Filmmusikkomponistin für eine erfolgreiche Komposition Beachtung schenken soll. • Analysieren und erforschen des Inhalts, der Art des Filmes und des soziales Milieu, sowie die Analyse der Charaktere. 37 Die Komposition. Ein Prozess • Eine spezifische und konkrete kontrastreiche musikalische Gestaltungsweise, der einzelnen Charaktere. • Erarbeiten der wichtigen Knotenpunkte der Dramaturgie, die Musik einfordern, sowie erforschen der Dynamik und Richtung jeder Szene. • Erkunden der zu untermalenden Szenen, die keine reine illustrative Untermalung benötigen, sondern eine eigene Aussage in der Musik tätigen können. • Entwickeln eines Bewusstseins für die dramaturgische Aussage der Musik, kontrapunktisch kommentierend oder synchron paraphrasierend. • Kenntnis einer Vielzahl an Formen, Gattungen, Musikstile, Folkloretraditionen, historischer Stile und so weiter. • Überblick über die Technik der Tonaufzeichnen und vor allem deren Möglichkeiten und Grenzen. • Einstellung auf eine kurze und direkte Aussage der Musik. Lissa (1965, S. 369) erweitert diese Liste noch um einen Punkt: Die Entwicklung eines Bewusstseins für die psychologischen Akzente und visuellen Werte im Bild, also Kontraste, Licht und Schatten, Schärfe und Verschleierungen, aber auch für den Rhythmus des Schnitts. Kontraste in einer Schicht müssen entweder verstärkt oder bewusst von dem Komponisten bzw. der Komponistin ausgeglichen werden. Der Komponist bzw. die Komponistin muss also die Ganzheit des Filmes betrachten und analysieren und daraus die Hauptelemente der musikalischen Gestaltung definieren, da er immer genau das Ausdrücken muss, was die restlichen Ebenen erfordern. (vgl. Lissa 1965, S. 365) Bis auf Punkt sechs fällt in Chatschaturjan’s Liste auf, dass hauptsächlich filmtheoretische und emotionale Bezüge gefordert sind und nur wenig Musikwissen gefragt ist. Dies kommt natürlich Quereinsteigern und Quereinsteigerinnen, die kein ausgereiftes Kompositionsstudium hinter sich haben, zu gute. The Chemical Brothers, die mit Hanna (2011) ihre erste Filmmusik darlegten, studierten beide Geschichte (vgl. Gabriella (NY Rock) 2003), Trent Reznor, der bereits mehrere Filmmusiken geschrieben hat, Computer Engineering. (vgl. Onofrio 2007, S. 387) Beide weisen jedoch einen langjährig geübten Umgang mit ihrer eigenständigen autonomen Musik auf. Das traditionelle Studium klassischer Komposition erscheint also kein Muss. 38 Die Komposition. Ein Prozess Franglen erwähnt jedoch, dass er schon oft erlebt hat, dass Musiker und Musikerinnen ohne klassische Musikausbildung durchaus ein Desaster verursachen können. Dies passiert dann, wenn sie die Spezifik des Films nicht verstehen und einen autonomen Track und keine Begleitung des Films komponieren. (vgl. Pensado/ Trawick 2012) 4.4. Bezug Regie und Musikkomposition Oft ist auch nicht ersichtlich, ob der Einsatz der Filmmusik wirklich dem Komponisten bzw. der Komponistin entspringt, oder der Regisseur bzw. die Regisseurin bereits im Vorhinein die Art und Weise festgelegt hat und der Komponist bzw. die Komponistin nur rein ausführt. Oppenheim wünscht sich deshalb eine gewisse musikalische Grundbildung für Regisseure und Regisseurinnen, damit diese nicht die Filmmusik in der Endentscheidung zum Negativen verändern. (vgl. Kreuzer 2001, S. 128) Auch David Raksin stellt fest, dass sehr viele Regisseure und Regis- seurinnen nicht musikalisch sind und deshalb davor Angst haben, was die Musik mit ihren Bildern machen könnte. (vgl. Brown 1994, S. 285) Franglen erzählt aber auch von einer gegenteiligen Arbeit mit James Cameron bei Avatar (2009), der zwei vollständige Musiken von jeweils 9 Minuten Länge verwerfen ließ und erst mit dem dritten vollständigen Entwurf zufrieden war. Was schließlich auch zur besten Lösung für die Szene geführt hat. (vgl. Pensado/Trawick 2012) Brown (1994, S. 145) schreibt, dass die Beziehung zwischen Regisseur bzw. Regisseurin und Komponist bzw. Komponistin eine sehr essentielle ist und die Verständigung und Interaktion zwischen den Schichten hier an einem Scheidepunkt steht. Erwähnenswerte und über mehrere Filme hinweg erfolgreich zusammenarbeitende Paarungen sind hier Sergei Prokofiev mit Sergei Eisenstein, Bernard Herrmann mit Alfred Hitchcock, Clint Mansell mit Darren Aronofsky und Danny Elfmann mit Tim Burton. Die beiden Posten können jedoch auch von einer einzigen Person umgesetzt werden. Die dadurch entstehende totale Komposition wie in den Filmen von John Carpenter, Clint Eastwood, Mauricio Kagel, Robert Rodriguez und Tom Tykwer 39 Die Komposition. Ein Prozess hat durch die übergreifende Rolle Kontrolle auf beide künstlerischen Ausprägungen des Films. (vgl. Hillebrand 1996; Weir 2011) 4.5. Persönliche Handschrift Nur durch die Betrachtung vieler Filme eines Filmkomponisten bzw. einer Filmkomponistin ist möglicherweise ein persönlicher Stil erkennbar, der repräsentativ für diese Person ist. Oft ist dies der Hang zu einem gewissen Genre, Instrumentierungsart, Klangstrukturen und Harmonisierungsprinzipien. (vgl. Kreuzer 2001, S. 129) In möglichst vielen verschiedenen Stilarten arbeiten zu können gilt als Ma- xime für die meisten Komponisten und Komponistinnen, viele entwickeln aber eine relativ feste Kompositionstechnik, die sich herausdefiniert. (vgl. Schneider 1990, S. 260f) Lissa (1965, S. 371) beschreibt drei Kriterien, den individuellen Stil eines Filmkomponisten bzw. einer Filmkomponistin einzuteilen. • Die Auswahl der Filme und vor allem der Genres (epische, psychologische, fantastische, realistische Filme). • Die Art, wie die Musik zur visuellen Schicht in Beziehung steht. • Die verwendeten musikalischen Mittel, die allerdings wie schon beschrieben, stark vom Film beeinflusst werden. Der kompositorische Stil ist also anders definiert als bei der autonomen Musik, da der persönliche Stil des Komponisten bzw. der Komponistin nicht einfach ohne Handschrift des Bildes durchgezogen werden kann. Der Komponist bzw. die Komponistin kann also nur in einem sehr eingeschränkten Prozentsatz er bzw. sie selbst sein. (vgl. Lissa 1965, S.306) Auch Christine Aufderhaar (2009, S. 18) schreibt, dass persönliche Vorlieben in den Schatten gestellt werden, eine persönliche Handschrift jedoch erkennbar sein sollte. 40 Die Komposition. Ein Prozess 4.6. Arbeitsweise Der Reiz für viele Komponisten und Komponistinnen in die Filmmusik zu gehen ist einerseits der monetäre, da Filmmusik im professionellen Bereich immer eine bezahlte Auftragskomposition darstellt. Andererseits gibt Film die Möglichkeit sich auszutoben und Richtungen einzuschlagen, die außerhalb des Films nicht funktionieren oder kommerziell möglich wären, wie es zum Beispiel Howard Shore zu Beginn seiner Filmkarriere gemacht hatte. (vgl. Dohmen/Dürbeck 2009, S. 42f; Shore 1999, S. 1f; Thiel 1981, S. 88f) Finanziell motivierte Komponisten und Komponistinnen, die nur wegen der monetären Anreize zur Filmmusik wechseln, verkennen jedoch laut Thiel oft die Spezifik der Filmmusik. Wenn sie nie nach der Erforschung der Besonderheiten des Tonfilms streben und diese auch nicht aufgreifen, werden sie immer nur von außen den Film bespielen, aber nicht mit den inneren Elementen des Films arbeiten. (vgl. Thiel 1981, S. 88f) Howard Shore spricht im Interview mit Brown auch davon, dass Jazz Musik eine große Ähnlichkeit zur Arbeitsweise von Filmmusik hat. Die Ablösung von traditionellen klassizistischen Idiomen eröffnet dabei das Spielfeld für improvisatorische Skizzen, die weiter verarbeitet werden können. (vgl. Brown 1994,S. 341) Auch Lemberg (2009, S. 60) und Schneider (1997, S. 154) schreiben, dass die Improvisation und das freie agogische Spiel zum Bild zur Findung von Ideen und Ansätzen eine legitime Arbeitsweise ist, die vor allem bei Klavierparts sehr gut funktioniert. Kloppenburg (2000, S. 24) erklärt die Nähe zum Jazz und zur Improvisation durch die geschichtliche Entwicklung von Filmmusik, die zu Stummfilmzeiten am Klavier ebenfalls live improvisiert wurde. Auch die Kompilation unterschiedlichster Musikstücke zu späterer Zeit entspricht bereits der Öffnung der Bandbreite musikalischer Formen, die in der jetzigen Formenvielfalt geendet hat. Kloppenburg spricht in diesem Zusammenhang auch von einem „Unstil“ der Filmmusik, da sie sich alle Stile gleichermaßen einverleibt, aber nicht durch die Stile der autonomen Musik definiert wird. Populäre Zitate, Stile und Genres werden immer wieder im Film wiederverwertet und aufgegriffen. (vgl. Kloppenburg 2000, S. 24) Wobei hier auch festgestellt werden kann: je klarer Musik sich einem aktuellen und modernen Zeitstil anpasst, desto schneller unterliegt sie einem klaren 41 Die Komposition. Ein Prozess Alterungsprozess. Jeder Sound und jede Melodieführung ist einem historischen oder aktuellen Stil zuordenbar. Je fragmentarischer und primitiver eine Komposition ausgeführt wird, desto langlebiger und zeitloser wird sie. Vor allem die Untermalung historischer Inhalte mit aktuellen modernen Stilen ergibt Probleme. Die Beziehung zwischen damals und heute würde zwar beim Erscheinen des Films funktionieren, einige Jahre später würde der Bezug zwischen zwei historischen Stilen jedoch nicht mehr dasselbe aussagen. Zum Beispiel beim Film Paarungen (1967) von Michael Verhoeven, bei dem die Filmhandlung im Jahr 1900 spielt, die Musik allerdings auf die 1970er Jahre datiert werden kann. Der aktuelle Bezug zur Musik aus dieser Zeit hat sich jedoch so grundlegend verändert, dass sich die Aussage des Films mitverändert. (vgl. Schneider 1990, S. 261f) Ebenso kann der Film Marie Antoinette (2006) von Sofia Coppola aufgeführt werden, bei dem der Soundtrack der Ästhetik der 1980er Jahren entspricht, die Handlung allerdings im 19. Jahrhundert spielt, was bei einer Rezeption in einigen Jahren zu Zuordnungsproblemen führen kann. So genanntes Expertenhören sollte von Komponisten und Komponistinnen bei der Konsumation von Filmmusik ebenfalls vermieden werden, da sie von der expressiven Seite her betrachtet werden sollte, nicht von der musikanalytischen. (vgl. Lemberg 2009, S. 66) Auch Yewdall (2003, S. 403) schreibt, dass Filmmusikkomposition nicht zu sehr intellektualisiert werden darf, da ansonsten beim Überanalysieren die Gefahr auftritt, nicht die Gefühle direkt zu vermitteln, sondern sich darauf zu reduzieren, das zu übermitteln, was man denkt, dass das Publikum empfinden wird. Auch Schneider (1997, S. 22f) und Shore (1999, S. 3) bestätigen, dass Filmmusikkomposition ein sehr intuitiver Vorgang ist und nicht zu sehr intellektuell funktioniert. Sie ist eher eine traumartige Arbeit als ein bewusstes und zielstrebiges Arbeiten. Beim ersten Betrachten einer Szene, bekommt Howard Shore (1999, S. 3f) schon ein gewisses instinktives Gefühl, dass er danach sofort in Musik umsetzen muss. Jerry Goldsmith dazu: „Wenn ich mich hinsetze und etwas schreibe, kann ich nicht erklären, was ich tue oder warum. Es geschieht einfach. Es ist eine Sache des Gefühls. [...] Je länger ich darüber nachdenke, desto mehr Schwierigkeiten bekomme ich.“ (Russel/Young 2001, S. 69) 42 Die Komposition. Ein Prozess Auch Konstantin Wecker bestätigt, dass das Komponieren ein emotionaler Prozess ist, die Melodien kommen von selbst zum Bild. (vgl. Schneider 1990, S. 160) Erst im zweiten Schritt werden die Ideen ausformuliert und auf verschiedene Stimmen aufgeteilt und instrumentiert. (vgl. Schneider 1997, S. 22f; Shore 1999, S. 3f) Shore (1999, S. 4) lässt die Ideen deshalb einfach fließen, zeichnet alles auf und lässt sich in diesem ersten Prozess der Ideenfindung nicht einschränken. Erst danach kann der analytische Teil beginnen, bei dem modifiziert, reduziert und weggelassen wird. Für ihn ist generell das Weglassen und die Reduktion, bei der Musik wie beim Bildmaterial, die grundlegende Arbeitsweise des Films. Auch Dohme und Dürbeck (2009, S. 40) bestätigen, dass es nicht schwierig ist etwas zu komponieren. Die überflüssigen Noten weg zu lassen und sich auf das Wesentliche zu konzentrieren, ist der eigentliche Prozess, wie auch schon Johannes Brahms sagte. „So wenig wie möglich, so viel wie nötig!“, lautet hier die Devise. Dieser Grundsatz wurde vor allem von La Monte Young, Steve Reich, Philip Glass und Terry Riley im Musikstil der Minimal Music hochgehalten. (vgl. Potter 2002, S. 1f) Philip Glass setzte diese Musikart des reduzierten repetitiven Kompo- nierens später in mehreren Filmen ein, zum Beispiel im experimentellen Film Koyaanisqatsi (1982), aber auch im Mainstream Film bei The Hours (2002) und The Illusionist (2006). Gus van Sant hat den minimalistischen Grundsatz mit seinem Film Gerry (2002) in Sachen Filmmusik durchgeführt und verwendet nur an zwei Stellen Musik, die von Arvo Pärt stammt und selbst wiederum zur Minimal Music zählt. Durch den sehr geringen Einsatz der Musik in dem 103 minütigen Film wirkt die Musik verstärkt aus der restlichen Stille heraus, vgl. Kapitel 5.6.9. Des Weiteren ist es auf Grund der intuitiven Arbeitsweise für einen Filmkomponisten bzw. einer Filmkomponistin oft wichtiger sich in einen Filmstoff emotional hineinversetzen zu können, als eine perfekte Kompositionstechnik zu beherrschen. Was natürlich einen Quereinstieg aus jeglichen musikalischen Richtungen erleichtert, vor allem den Umstieg aus der populären Musik, die sich ebenfalls zu einem großen Teil mit Emotionen auseinandersetzt. (vgl. Schneider 1990, S. 21) Schneider (1997, S. 75) schreibt der Filmmusik ihre Kraft genau diesem intuitiven Prozess zu, da die Filmmusik „die Präsenz des Augenblicks“ brauche und „eine Dominanz des Emotional-Inhaltlichen vor jeglichem Rational-Strukturellen“ benö- 43 Die Komposition. Ein Prozess tige. Von einem Kritiker 1923 bereits als dilettantische Wassersuppe bezeichnet, ist die empfundene Nähe zum Trivialen oft durch das rein analytische Hören von Filmmusik gegeben. (vgl. Prox 1979, S. 12) So stellt sich auch Aaron Copland die Frage, warum Filmmusik nicht auch immer auf dem musikalischen Niveau von Konzertmusik sein sollte. (vgl. Thomas 1995, S. 24) Genau im Ausnutzen des Trivialen, des Primitiven, der Zwischenwerte, des Geräuschhaften, der Modulation der Klangfarben, des nicht mehr aufschreibbaren notierten Klanges liegt laut Schneider (1997, S. 80f) jedoch die Ausgangsposition für eine erfolgreiche Filmmusik, die „eine Begegnung mit dem Primitiven, dem Fremden, dem Naiven, dem Ursprünglichen, dem massenpsychologisch Wirksamen“ auslöst, was in der klassischen Konzertmusik kein Ziel ist. Howard Shore (1999, S. 1f) nutzte als Beispiel das Filmgeschäft um seine eigenen musikalischen Ideen auszuarbeiten, die in seiner Rock-Band und der LiveBegleitung für Saturday Night Live keinen Platz hatten. Shore ist von Zeit zu Zeit immer mehr zur Filmkomposition gewandert, die Mitwirkung von regulären Musikern und Musikerinnen bei Filmkompositionen ist jedoch kein Einzelfall. Brophy (2001, S. 31) schreibt allerdings, dass er dabei oft die Gefahr sieht, dass die Künstler und Künstlerinnen vergessen Künstler und Künstlerinnen zu sein und versuchen, traditionelle Filmkomponisten und Filmkomponistinnen zu sein, welche nicht das umsetzen, was sie eigentlich können, sondern das produzieren, was sie denken, dass sie müssten. 4.7. Zusammenfassung Die von Lissa und Chatschaturjan in Kapitel 4.3 beschriebenen Anforderungen an einen Filmkomponisten bzw. eine Filmkomponistin sind zwar schon relativ betagt, jedoch auf Grund ihrer Generalität immer noch aktuell. Die wesentlichen Ansprüche an die Fähigkeiten richten sich nicht an die technischen Fähigkeiten sondern vermehrt an die emotionale Intelligenz und den Bildbezug des Komponisten bzw. der Komponistin. Auch die von Lemberg (2009, S. 60), Schneider (1997, S. 154) und Shore (1999. S. 3) beschriebene intuitive Kompositionsweise stellt ebenfalls eher weniger die technischen und mehr die instinktiven Fähigkeiten in den Vor- 44 Die Komposition. Ein Prozess dergrund. Die Voraussetzungen sind also für einen nicht klassisch ausgebildeten Filmkomponisten bzw. ausgebildete Filmkomponistin erreichbar und ausfüllbar. Einzig die emotionale und intuitive Verbindung zur Filmebene muss besonders erfasst sein. Bezüglich der Kompositionsart kann mit Hilfe von elektronischer Musik ebenfalls jegliche Art umgesetzt werden. Eine komplexe Leitmotivik im Wagnerschen Sinne ist jedoch nicht üblich. Die Mood Technik wird grundsätzlich bevorzugt gehandhabt. 45 Filmmusikalische Charakteristiken 5 Filmmusikalische Charakteristiken 46 Filmmusikalische Charakteristiken 5.1. Ohr vs. Auge „Das Bild konkretisiert die Musik. Die Musik verallgemeinert das Bild.“ (Schneider 1990, S. 69) Filmmusik hat immer in Abgleichung mit den anderen Schichten der Dramaturgie zu stehen. Farbe, Bildgestaltung, Bildausschnitt, Dialog, Geräusche, Schauspiel und so weiter. Der größte Dialog findet jedoch im Allgemeinen zwischen Bild und Ton statt, auf visueller und auditiver Schicht bzw. salopp ausgedrückt auf Augen und Ohren. Hören entspricht laut Schneider (1990, S. 64ff) dem Fühlen, demnach die unbewusste Interaktion mit der Umwelt. Sehen hingegen verbindet Schneider mit dem Denken, also die bewusste Interaktion mit der Umwelt. „Darum wohnt der akustischen Wahrnehmung als solcher unvergleichlich mehr als der optischen ein Moment von altertümlicher Kollektivität inne.“ (Adorno/Eisler 1996, S. 41) Dieselben Geräusche rund um eine Person herum, werden von den umgebenden Personen ebenfalls wahrgenommen, was eine kollektiv gleiche Wahrnehmungsmöglichkeit ergibt. Es werden jedoch nie alle Informationen der akustischen Umwelt bewusst aufgenommen, die Wahrnehmung findet nie 1:1 statt. Es wird immer gefiltert und die Aufmerksamkeiten auf verschiedene akustische Ebenen im Film gelenkt, weswegen keine vollständig kollektiv gleiche Wahrnehmung stattfindet. (vgl. Bruhn 1993, S. 445f) Sehen ist wiederum generell individuell gelenkt und „schafft Distanz“. Des Weiteren bedeutet etwas sehen und bewusst wahrnehmen immer auch, etwas anderes nicht sehen zu können und nicht wahrzunehmen. Das Ohr ist im Vergleich ein 360° orientierter Sinn, der alles rundum aufzeichnen kann, während Sehen immer nur einen kleinen Teil der Welt analysiert. (vgl. Schneider 1990, S. 64ff) Seine Beweglichkeit ermöglicht es dem Auge gezielt zu arbeiten, es ist ein aktives, auch verschließbares Sinnesorgan, das spezifische Informationen, die bewusst gestaltet sind, liefert. Im Vergleich dazu ist das Ohr eher passiver Natur, unbeweglich, 47 Filmmusikalische Charakteristiken nicht verschließbar und weder gezielt noch gerichtet. Es liefert, mit Ausnahme von Sprache, unspezifische Informationen, die der gesamten Umgebung entspringen. Während das Auge ein „hochorganisiertes Organ“ ist, sprechen Adorno/Eisler (1996, S.43) dem Ohr etwas „dösendes, dumpfes“ zu. Das Ohr besitzt eine geringere Über- tragungskapazität zum Großhirn, ist dafür sehr eng mit dem Thalamus und limbischen System verbunden, was eine rationale Verarbeitung im Großhirn umgeht und eine direkte expressive Wirkung von Tönen zulässt. Während das Sehen über den objektiven Zustand der Umwelt informiert, liefert das Hören die Hintergrundinformationen, das Innenleben der Menschen, Stimmungen und Gedankenwelten. (vgl. Kreuzer 2001, S. 123; Schneider 1990, S. 64ff; Schneider 1997, S. 31ff) Der Thalamus und das limbische System erzeugen die affektive Färbung unserer Wahrnehmung, sie sind also für den Gefühlsgehalt verantwortlich, während das Großhirn das analytische Denken ausführt. (Birbaumer & Schmidt 1991, S. 320, zit. n. Bullerjahn 2001, S. 118) In sogenannten Assoziationskernen, das sind sensorische Relaissysteme im Thalamus, entstehen die verschiedenen Stimmungen und Gefühle. Der Hörsinn ist auch eines der wichtigsten Warnsysteme. So wird er bei der Entwicklung des menschlichen Fötus bereits an zweiter Stelle nach dem Gleichgewichtssinn ausgebildet. (vgl. Bullerjahn 2001, S. 103 & 119) Selbst bei Schlaf oder Ablenkung lässt sich nachweislich körperliche Reaktion auf Musikbeschallung feststellen. (vgl. Tauchnitz 2001, S. 86) Musik kann buchstäblich ins Blut gehen. Wissenschaftliche Untersuchungen bezeugen Änderungen im vegetativen Nervensystem, ausgelöst durch die Beschallung mit Musik. Musik kann laut Kreuzer (2001, S. 123), Schneider (1997, S. 47f) und Destunis (1958, zit. n. Von Rosenstiel 1993, S.160) folgende Parameter ändern: • Pulsfrequenz • Atemfrequenz • Blutdruck • Muskelspannungen • Elektrizität der Haut / Änderung des galvanischen Hautwiderstands 48 Filmmusikalische Charakteristiken • verengt oder weitet die feinen Kapillargefäße (wobei eine Weitung durch Entspannung und dem vermehrtem Blutdurchfluss einem Wärmegefühl entspricht) • Verdauungstätigkeit • Hormonhaushalt (z.B. Adrenalin) • EEG-Ströme im Gehirn Schneider (1997, S. 31) begründet die musikalische Unmittelbarkeit im Archaischen, das durch die Dumpfheit bzw. dem Dösenden, das dem Ohr nachgesagt wird, entsteht. Deswegen sehen Adorno / Eisler (1996, S. 43f) auch durch die Musik die Möglichkeit Irrationalität in den Film zu bringen, welche ein Produkt der Vergnügungsindustrie ist und umgangen werden sollte. Durch die direkte Koppelung der Rezeption von Musik mit den Zentren im Gehirn, die Gefühle erzeugen und der nicht vorhandenen Verschließbarkeit des Ohres, wird Filmmusik auch bei unbewusster Rezeption als wirkungsvoll angesehen. Die unbewussten Bestandteile der menschlichen Kommunikation, wie Mimik und Gestik, können also mit der Rolle der Musik im Film verglichen werden. Es zählt nicht unbedingt die direkte und bewusste Botschaft, sondern wie etwas gezeigt wird und wie diese Botschaft musikalisch untermalt wird. (vgl. Kreuzer 2001, S. 123 & 125) Für Schneider (1990, S. 71 & 73; 1997, S. 48) sind genau diese direkten körperlichen Wirkungen der Musik für die Filmmusik essentiell, da die Filmmusik nie rein auf der „intellektuellen Ebene des strukturellen Hörens“ rezipiert wird, sondern im vegetativen System. Da das Bewusstsein, also das analytische Denken, mit Bild und Dialog ausgelastet ist, die der Rezipient bzw. die Rezipientin bewusst und absichtlich wahrnimmt, kann das Ohr quasi unbemerkt im emotionalen Bereich arbeiten. Wird die Musik bewusst und strukturell analysierend gehört, tritt dieser Effekt und die geschilderten vegetativen Veränderungen nicht auf, auch die AlphaWellen-Supression, also die Verlagerung der Hirnstromaktivitäten vom Großhirn zum Hirnstamm, wie es beim emotionalen Hören auftritt, ist nicht nachvollziehbar. Die bevorzugte unbewusste Wahrnehmung sollte jedoch nicht darauf rückschließen lassen, dass die Filmmusik dadurch weniger wertgeschätzt wird. 49 Filmmusikalische Charakteristiken „Je unbewusster Musik wirkt, desto mehr kann sie den Bildbetrachter in einem vom Filmemacher gewünschten Sinne konditionieren und seine Rezeption des Bildes stimulieren“ (Schneider 1990, S. 72) Der Film als relativ junge Kunstform ist in seiner Art und Weise direkt und sinnlich. Während die meisten anderen darstellenden Kunstformen einen kulturellen Diskurs und Rezeptionsvorbildung benötigen, kann ein Film relativ frei von diesen Eintrittsschranken agieren, was ihn auch deshalb sehr ambivalent zwischen Massenkultur und Kunst einordnet. Das Zielpublikum von Filmen ist eben kein besonders im Kunstdiskurs geschultes, sondern die heterogene Masse, vgl Kapitel 2.4. Deshalb erreicht der klassische Kinofilm das Publikum eben auch bei den archetypischen Zuständen (Liebe, Hass, Schuld, Vertrauen, Angst), Instinkten, Trieben, Sehnsüchten und regressiven Wünschen (vgl. Schneider 1997, S. 77) Obwohl, genau wie Träume, der Film nur imaginär ist, wird dennoch ein stark beeinflussendes Realitätsgefühl erzeugt, worin laut Schneider (1990, S. 66) auch die „epochale Kraft der Filmkunst“ liegt. Auch die Lautstärke beeinflusst die Wahrnehmung der Musik. Bei Lautstärken von unter 65 Phon, kann der Hörer die Aufnahme der auditiven Information bewusst ablehnen. Über 65 Phon erzeugt die Musik jedoch auch bei bewusster Verschließung gegenüber der Musik starke vegetative Auswirkungen. (vgl. Schneider 1990, S. 66) 5.2. Bild vs. Ton „Im Film dominiert natürlich die visuelle Schicht, das Bild; die Musik ist hier dieser Schicht völlig unterworfen, bildet aber mit ihr eine viel stärkere Einheit als in anderen synthetischen Künsten und zwar eine Einheit dialektischen Typs, denn erst beide gemeinsam bilden die Ganzheit höheren Grades.“ (Lissa 1965, S. 20) Während das Bild konkretisiert, verallgemeinert die Musik, eine Meinung, die Lissa (1965, S. 117) und auch Schneider (1990, S. 69) vertreten. Es sollte also keine 50 Filmmusikalische Charakteristiken Gegenüberstellung von Bild gegen Ton geben, da die beiden immer zusammenarbeiten und synthetisch rezipiert werden. Die Dominanz des Bildes bei eher handlungsorientierten Filmteilen ist laut Schneider (1990, S. 69) jedoch präsent. Ebenfalls zeigt sich eine Dominanz der Musik bei lyrischen Filmszenen. Dies zeigte sich auch bei der Arbeit des Autors an dem Film Neben meinem Bruder. In der sehr lyrischen und wortlosen Sequenz der Diagnose im Krankenhaus (40:33-42:44) ist die Musik vollständig im Vordergrund und dominiert so das Bild und die vollständig stummen restlichen Elemente der Tonebene. In dem Film MIIO wurde Musik ebenfalls nur in den lyrischen Teilen des Films eingesetzt. Die wortlosen Zwischenschnitte, welche die Technologisierung und Distanzierung des Menschen darstellen, werden immer von Musik dominiert, während die dokumentarischen Sequenzen völlig Musik los bleiben. BILD  MUSIK • zeitliche Anordnung • zeitliche Anordnung • Ausdruck • Ausdruck • Filmgenre • Musikgenre • Handlungsträger Relation • Motive • Spannungsbogen • Spannungsbogen • filmische Parameter • musikalische Parameter • Eindeutigkeitsgrad • Eindeutigkeitsgrad • Informationsdichte • Informationsdichte Abb. 2: Relation der Gestaltungselemente von Bild und Musik. (vgl. Bullerjahn 2001, S. 139) 51 Filmmusikalische Charakteristiken „Das Moment der Bewegung, des Ablaufs und der Veränderung in der Zeit“ ist das gemeinsame Element von Bewegtbild und Ton. (Bullerjahn 2001, 47) Diese Übereinstimmungen, siehe Abb. 2, führen zur problemlosen Verknüpfung im Film. In der Kombination des Tonfilms muss auf die gestalterischen Mittel beider Elemente geachtet werden. Die Elemente Spannungsbogen und Informationsdichte können jeweils im völligen Gegensatz oder in Übereinstimmung zueinander stehen und können so paraphrasieren oder kontrapunktieren. „Bild und Ton sind so eng miteinander verschmolzen, dass beides durch das jeweils andere funktioniert. Es gibt keine Trennung von ich sehe im Bild und ich höre auf der Tonspur. Stattdessen ergibt sich das ich fühle, ich erlebe, aus der großen Summe der Bild-Ton-Kombinationen.“ (Millar/Reisz 2009, S. 126) Die Wahrnehmung des Films beim Rezipienten bzw. der Rezipientin wird immer ganzheitlich stattfinden, die einzelnen Elemente von Bild, Dialog, Geräusch und Musik verschwimmen bei der Wahrnehmung zu einer Einheit. Die Trennbarkeit der Wirkung von Filmmusik und der Gesamtwirkung des Filmes ist nicht vorhanden. (vgl. Bullerjahn 2001, S. 13) Die Erforschung der Tonebene muss diese Einheit als solche erkennen und die Elemente dürfen nicht nur einzeln analysiert werden. So spricht Pauli (1981, S. 56) auch von einer Majorisierung der Sinne untereinander, beim Auftreten von mehreren Sinneseindrücken zum selben Zeitpunkt. So riecht man einen anbrennenden Toast beim Frühstück mit lauter Musik später, als bei nicht vorhandener Musik. Sinneseindrücke majorisieren sich aber nicht nur, sie überlagern sich auch. Einzelne Elemente können losgelöst vom Gesamtbild einen „ausgeprägten Aussagewert“ haben. In der Resynthese, vor dem Hintergrund der anderen Schichten, können sie jedoch als völlig unsinnig erscheinen. (vgl. Kreuzer 2001, S. 127) Die Komposition von Bild und Ton stellt eine neue Einheit dar. Der Ton ist nicht nur eine harmonische Ergänzung, sondern ein integraler Bestandteil des Bildes. Er verbindet den Fluss der Bilder. (vgl. Chion 1994, S. 47) Die vollständig synchrone Verarbeitung und Verknüpfung von partikulären Einheiten von Bild und Ton wird im Bereich der audiovisuellen Kunst durchexerziert. Hier werden in kontrollierter Weise, meist mit Hilfe eines Computers, die 52 Filmmusikalische Charakteristiken Elemente Bild und Ton reaktiv als Teil einer Performance gegenseitig gesteuert und vertreten in der Bearbeitung der einzelnen elementaren Bauteile (Frames und Bits) die vollständige Verknüpfung von Ton und Bild. Vergleiche hierzu die audiovisuellen Arbeiten von Granular Synthesis (Modell 5) (vgl. Granular Synthesis o.J.), Ryoji Ikeda (datamatics, cyclo.) (vgl. Ryoji Ikeda 2010) und Alva Noto (unitxt, cyclo., Inset) (vgl. Alva Noto o.J.). Das Ziel dieser künstlerischen audiovisuellen Arbeiten liegt hier durch die Verschmelzung und Koppelung von Bild und Ton die kognitiv untrennbare Verarbeitung aufzuzeigen, die Frage, wie eine Sinnesebene in die andere übersetzt werden kann, zu beantworten und die Intermedialität des Mediums zu analysieren. (vgl. Föllmer/Gerlach o.J.) 5.3. Geräusch vs. Musik Die gesamte mögliche Energie, die der Tonebene eines Filmes zur Verfügung steht, stellt David Yewdall (2003, S. 401) als Kreisdiagramm vor, das aus folgenden drei Elementen besteht: Musik, Soundeffekte und Dialog. Drängt eines der Elemente in den Vordergrund, steht für die anderen umso weniger Energie zur Verfügung. Der Dialog steht als zentrales Element, außer in künstlerisch stilisiert konzipierten Szenen, immer an der Spitze der Hierarchie der Tonebene. Die Geräusche konkurrieren deshalb direkt mit der Musik. (vgl. Chion 1994, S. 6; Yewdall 2003, S. 401) Bei einer sachlich realistischen Geräuschkulisse findet sich nur sehr wenig Platz für die dramaturgische Musik. Da das Klangbild bereits von den Geräuschen überfüllt wird, kann sich die Musik in ihrer Wirkung nicht zur Geltung bringen. (vgl Kreuzer 2001, S. 119) Diese Art der Geräuschkulisse ist vor allem in deutschen Film- und Fernsehproduktionen häufig, vorwiegend im so genannten Neuen Deutschen Film, wo gezielt auf einen realistischen Ausdruck hingearbeitet wurde. Eine Unterordnung der Geräusche durch die Musik resultiert in einem Zustand der Irrealität. Ein realistisches Ergebnis wird durch die Dominanz der Geräusche gegenüber der Musik erzeugt. (vgl Schneider 1990, S. 34; Schneider 1997, S. 64) „Es gibt einen ganzen Fächer von Möglichkeiten des Spiels zwischen Musik, Geräusch, Bild, Akustik und Ton. Manchmal ist ein Geräusch viel besser als Musik. Da ist z.B. 53 Filmmusikalische Charakteristiken ein gezogenes Streichholz ganz toll. Ich lasse so etwas am liebsten im stummen Raum passieren, - auch wenn Autos durch das Bild fahren. Man muss stilisiert arbeiten, nicht die Wirklichkeit nachahmen.“ - Maran Gosov (Schneider 1990, S. 34) Im Unterschied zur Musik nehmen wir bei einzeln auftretenden Geräuschen immer eine Synchronität zu einer zugehörigen Schallquelle wahr. Abstrakte Geräusche gibt es deshalb nicht, sie implizieren immer eine Bewegung und Materialität. (vgl. Bullerjahn 2001, S. 26) Vertraute Geräusche können auch dauerhafte Verbindungen mit den visuellen Gegenstücken eingehen und diese so völlig ersetzen und informative Funktionen übernehmen. (vgl. Bullerjahn 2001, S. 23; Lissa 1965, S. 61) Jean-Luc Godard versuchte wiederum diese Bindung von Bild und Ton aufzubrechen und lässt diese Einheiten in seinen Filmen immer wieder auseinanderdriften. Geräusche übertönen Dialoge, überschnelle Blenden zeigen bewusst auf den Tonschnitt hin und Musik wird irritierend und emotional, inhaltlich widersprüchlich eingesetzt. (vgl. Föllmer/Gerlach o.J.) Mischdramaturgie bedeutet laut Schneider: „Wer hört wie und was? Aus welcher Perspektive soll gemischt werden?“ (Schneider 1997, S. 17) Die Musik repräsentiert sozusagen die Realität des Filmhelden bzw. der Filmheldin. Wenn der Filmheld bzw. die Filmheldin „traurig“ ist, muss diese Traurigkeit auch akustisch präsent sein. Die äußere Realität der Geräusche rundum verschwindet daraufhin und das Innere, die Gefühlswelt, wandert in den Vordergrund. (vgl. Schneider 1997, S. 15f) Ein ähnliches emotionales Sounddesign tritt beim Film Apocalypse Now (1979) von Francis Ford Coppola auf. Hier verschmilzt in der Eingangssequenz der Deckenventilator mit Hubschraubergeräuschen, der allerdings nur in den Gedanken des Protagonisten existent ist. (vgl. Welsh/Phillips/Hill 2010, S. 179) Auch im Film Reservoir Dogs (1992) kann in der Sequenz in der Herrentoilette eine ähnliche Übertragung von Geräuschen festgestellt werden. Hier wird der gewöhnliche Handtrockner mit einem Flugzeugstartgeräusch akustisch untermalt, der die Szene vollkommen aus der Realität trägt und durch den Einsatz einer Zeitlupe noch intensiviert wird. Eine wichtige Unterscheidung zwischen komponieren von autonomer Musik und von Musik für einen Film besteht auch in der notwendigen Interaktion mit den anderen Ebenen des Tons. Wie schon zu Beginn des Kapitels erwähnt teilen 54 Filmmusikalische Charakteristiken sich Geräusch und Musik einen großen Anteil des übrig gebliebenen Spektrums. Deshalb ist eine enge Zusammenarbeit mit den Sounddesignern und Sounddesignerinnen sehr von Vorteil, wie auch Christin Aufderhaar (2009, S. 19) schreibt. Sie empfiehlt die Musik so bald wie möglich mit den Sounddesignern und Sounddesignerinnen abzusprechen, damit die Musik und die Geräusche aufeinander abgestimmt werden können. Womöglich können auch Elemente des Sounddesigns in der Musik aufgegriffen werden, oder umgekehrt, die Musik in das Sounddesign einfließen. Wobei es oft möglich ist, die Geräusche und die Musik nicht genau abgrenzen zu können. Geräusche werden oftmals in einer Art benutzt, die man als musikalisch bezeichnen kann. Ebenso kann die Filmmusik, ähnlich der konkreten Musik, sehr geräuschhaft auftreten. (vgl. Bullerjahn 2001, S. 23) Yewdall (2003, S. 399) geht sogar so weit, dass er Musik als organisierte Geräusche definiert und Geräusche als unorganisierte Musik. Puristen und Puristinnen wünschen jedoch eine saubere Trennung von Musik und Geräuschen. Nikos Mamangakis geht so weit, dass er, wenn gute Geräusche vorhanden sind, keine Musik macht. Wenn starke Geräusche vorhanden sind, benötigt man keine Musik und man muss aufpassen, dass es nicht wie in einer Seifenoper klingt. (vgl. Schneider 1990, S. 33) Diese musiklose Methode wurde im gesamten Thriller No Country For Old Men (2007) eingesetzt. Das subtile Sounddesign und die klar definierte Geräuschkulisse reichen aus, um die Spannung des Films zu halten. (vgl. Lim 2008) Schneider (1990, S. 35) erwähnt hierzu, dass bei Szenen, bei denen Musik konstant im Hintergrund steht, auf Geräusche gänzlich verzichtet werden kann. Im Film Neben meinem Bruder wird in der Sequenz im Krankenhaus (40:33-42:44) ebenso vollständig auf Geräusche und Dialoge verzichtet. Einzig die Musik ertönt und vermittelt die innere Reaktion des Protagonisten auf die Umgebung. Die restlichen auditiven Elemente waren hier aus der emotionalen Perspektive überflüssig. Elektronische Musik eignet sich vor allem durch ihre Unzahl an Klangmöglichkeiten als einsetzbares tonmalerisches Substitut für die Geräuschebene. Modulierte natürliche oder elektronische Klänge sind zum Beispiel im Horrorgenre fast immer anzutreffen. Im Gegensatz zu akustischen Klängen besitzen elektronische keine in sich gegebene Materialität, da kein physisches Gegenüber besteht. Der geräuschhafte Einsatz elektronischer Musik steht deshalb, bezogen auf die Materiali- 55 Filmmusikalische Charakteristiken tät, immer im Vergleich zu naturalistischen Klängen, deren Physikalität sie jedoch nicht erreichen können, vgl. Kapitel 3.3. 5.4. Filmmusik als funktionale Musik 5.4.1. Filmmusik ist keine autonome Musik „Eine nur ihren eigenen Gesetzen unterworfene Musik gerät mit den spezifischen Anforderungen, die der Film hinsichtlich Länge, Tempo, Rhythmus und Stimmung an sie stellt, zwangsläufig in Widerspruch. Andererseits ermöglicht natürlich erst die Einsicht in die Eigengesetzlichkeit der Musik ihren optimalen dramaturgischen Einsatz.“ (Thiel 1981, S. 55) Wie Thiel im eingehenden Zitat schreibt, ist rein autonome Musik im Normalfall nicht für den Einsatz als diegetische Filmmusik geeignet. Die eigenen musikimmanenten Strukturen die in Kapitel 5.6 erklärt wurden, sind zwar zur Kategorisierung und Analyse interessant, die Funktionalität des Soundtracks wird jedoch von anderen Charakteristiken beeinflusst, die durch die inhaltlichen und formalen Anforderungen des Films gestellt werden. (vgl. Thiel 2001, S. 49) Thiel schreibt weiter, dass diese „Gebrauchsmusik“ eben nicht mit denselben Kriterien messbar ist wie Konzertmusik. Die Analyse mit klassischen musikwissenschaftlichen Methoden scheitert an den dramaturgischen, kompositionstechnischen und ästhetischen Eigenheiten der Filmmusik, da die vorgegebenen Bewertungsgrundlagen für andere Ausgangssituationen entwickelt wurden. Die Kriterien der autonomen Musik führen immer zu einer negativen Bewertung von Filmmusik, da die Spezifik des Tonfilms nicht beachtet wird. Filmmusik ist eine Form der funktionalen oder angewandten Musik, ähnlich der Hörspiel oder Bühnenmusik. Das Bestreben der Filmmusik geht über die musikimmanenten Funktionen hinaus, was durch die abnormale Rezeptionssituation bereits illustriert wird, und entfaltet ihren Sinn erst im Zusammenhang mit den Bildern bzw. in 56 Filmmusikalische Charakteristiken ihren Leistungen für das Publikum und die Handlung. (vgl. de la Motte-Haber / Emons 1980, S. 81; Kreuzer 2001, S. 127; Thiel 1981, S. 16f) Filmmusik ist laut Schneider (1990, S. 21) eine unakademische Kunst. Sie ist eine situative Musik, die immer zu menschlichen Situationen, Stimmungen oder sozialen Kontexten in Bezug steht. Diese Relation ist der europäisch zentrierten Kunstmusik eher fern. Einen reinen Filmmusikhörer bzw. eine reine Filmmusikhörerin trifft man nur selten im Kino an, Filmzuseher und Filmzuseherin ist eher die richtige Bezeichnung für das Publikum des Tonfilms. Durch diese Unterscheidung werden viele filmmusikalische Eigenheiten ausgelöst und führen bei Nichtbeachtung zu Fehlurteilen bezüglich der Qualität der Musik, da Filmmusik immer unter Einbezug der Entstehungssituation bewertet werden muss. (vgl. Chion 1994, S. XXVI; Kreuzer 2001, S. 128; Thiel 1981, S. 16) Ansonsten tritt, wie bei dem bekannten Soziologen Al- phons Silbermann, eine generell abwertende Reaktion von Filmmusik auf, da sie für ihn zum Beispiel keine echte (autonome) Musik sei. (vgl. Thiel 1981, S. 17) Auch Rudolf Arnheims behauptet, dass nur schlechte, triviale Musik im Film Wirkung erziele und deshalb auf jegliche Musik im Film verzichtet werden solle. (vgl. Kreuzer 2001, S. 128) Ein weiteres bekanntes Zitat ist die Kritik der Zeitschrift „Film-Ton- Kunst“ 1923 der Aufführung eines Films mit einer Orchesterbegleitung in Berlin. Der Kritiker schreibt, dass die Aufführung nichts anderes als drei einfache Akkorde beinhaltete, die je nach dramaturgischem Verlauf an- und abschwellten. Das Publikum applaudierte begeistert, der Kritiker beanstandete vehement die „musikalische Wassersuppe“, die das Orchester fabriziert hatte. (vgl. Prox 1979, S. 12) „Konzertmusik ist voller Geheimnisse; Brahms z. B. erschließt sich dem Hörer nur durch langes Nachdenken. Filmmusik hingegen muss sich sofort und unmissverständlich zu erkennen geben, weil sie [...] nur einmal gehört wird - von einem Publikum, das obendrein unvorbereitet ist und nicht ins Kino kommt um Musik zu hören.” (Keller 1995, zit. n. Kloppenburg 2000, S. 56) Miklós Rózsa erörterte ebenfalls, dass die Wirkung von Filmmusik unmittelbar sein muss und das Erschließen der Musik nicht durch wiederholtes Hören 57 Filmmusikalische Charakteristiken allmählich auftreten kann. (vgl. Kreuzer 2001, S. 128) Selbst Adorno/Eisler (1996, S. 208) sind der Ansicht, dass gute Filmmusik alles sofort sichtbar an der Oberfläche leistet. Strawinsky erörtert, dass Filmmusik nicht als Musik wichtig sei, sondern im Bezug zum Film, weshalb bessere Komponisten und Komponistinnen nicht automatisch bessere Filmmusiken kreieren können. (vgl. Craft 1961, S. 12; zit. n. Schneider 1990, S. 21) Filmmusik tritt im Unterschied zur Konzertmusik ohne den sie umschließenden ästhetischen Diskurs auf, ohne Konzertführer oder Biographieinformationen zum Komponisten bzw. zur Komponistin, ohne Verweise auf epochale Bedingungen und ohne Einbettung in eine Konzertkultur, schreibt Jörg Lemberg (2009, S. 68). Die Musik tritt also völlig ungeschminkt auf und eröffnet sich ungeschützt dem Publikum. Deshalb muss Filmmusik auch mehr Anstrengungen in Richtung Direktheit zu Tage legen, da die Musik prompt wirken muss. (vgl. Lemberg 2009, S. 68) 5.4.2. Ziele und Funktionen Kracauer unterscheidet drei zentrale Funktionen, die kommentierende Musik, aktuelle Musik und Musik als Kristallisationskern, wobei hier Parallelismus und Kontrapunkt unterschieden wird. (vgl. Kloppenburg 2000, S. 50) Kracauer spricht auch über die strukturierende Wirkung von Filmmusik. Sie leitet die Aufmerksamkeit des Zuhörers und lässt etwa Licht, durch ein gleichzeitiges Summen, heller erscheinen. Filmmusik, nutzt diesen Effekt und erzeugt Strukturen, wo vorher keine vorhanden waren. Musik lässt die Rezipienten bzw. Rezipientinnen Zusammenhänge erkennen. „Gespenstische Schatten, flüchtig wie Wolken, werden so zu verlässlichen Figuren.“ (Kracauer 1971, S. 188) Für Gorbman ist eines der wichtigsten Ziele, die die Filmmusik zu erfüllen hat, die Einlullung der Rezipienten und Rezipientinnen. Sind diese weniger wachsam, sind sie auch weniger kritisch. Ähnlich einer Hypnose, wird also selbst in Filmen mit realistischem Charakter Musik eingesetzt, um von der technischen 58 Filmmusikalische Charakteristiken Natur des Films abzulenken und die Fiktion zu unterstützen. Die Musik liefert eine speziell für den Zuhörer bzw. Zuhörerin hinzugefügte Komponente, die nur diese hören und die Charaktere im Film nicht. Die Fabel wird also zur Fantasie des Rezipienten bzw. der Rezipientin. Des Weiteren wird auch die Anfälligkeit für Suggestionen erhöht, deshalb wird die Filmmusik auch mit Hypnose verglichen, die beide eine Art Trance erzeugen, in der die Zeit anders verstreicht. Filmmusik verringert die Schwelle etwas als Wahrheit anzunehmen und ist deshalb in dieser Funktion unverzichtbar für das Kino. (vgl. Gorbman 1987, S. 5f) Dies bestätigt sich in dem erhöhten Musikbedarf irrealer Inhalte (Fantasy, Horror, …), im Vergleich zu realistischen. (vgl. Schneider 1997, S. 65) „Wir Komponisten sind es, die die Gefühle jedes Publikums dirigieren.“ (John Barry nach Wördehoff 1996, S. 47, zit. n. Kloppenburg 2000, S. 49) Wie auch Gorbman schon erkannt hat, ist Filmmusik für Leonard Rosenman ein heimlicher Überreder. Sie wird eingesetzt, um Emotionen zu evozieren und er schreibt ihr eine persuasive und katalysatorische Funktion zu. (vgl. Thomas 1995, S. 351) Laut Bullerjahn (2001, S. 188) ist die Hauptgestaltung der Filmmusik die Emoti- onalisierung der Zuseher. Die Ursache findet sich in der Ähnlichkeit zwischen musikalischer und vokaler Sprache, sowie die „grundsätzliche Fähigkeit der Musik zur Stimmungsbeeinflussung“. Aber nicht nur die Musik allein gestaltet die emotionale Wirkung eines Films mit, auch „Kameraperspektive, Größe des Bildausschnitts, Objekt und Kamerabewegungen, Schnittfrequenz, Beleuchtung oder allgemein die Farbgestaltung tragen zu einer subtilen emotionalen Wirkung bei“. Oft wird die musikalische Emotionalisierung aber zu plump und offensichtlich eingesetzt. Strawinsky vergleicht es mit einem billigen Parfum, das Erregung bewirken soll. (vgl. Schneider 1990, S. 67f) Die Grundlage zur emotionalen Wirkungsweise von Musik ist das „affektive Gedächtnis“. Erinnerungen werden immer im Zusammenhang mit Stimmungen und Emotionen abgespeichert. Ruft man diese Stimmungen oder Emotionen wieder hervor, wird auch der Zugang zu den Erinnerungen erleichtert. Werden dramaturgische Schlüsselszenen mit einer Musik unterlegt, die bereits mit einer anderen 59 Filmmusikalische Charakteristiken Szene verknüpft ist, werden die Emotionen aus der Einen in die Andere überfließen. (vgl. Schneider 1990, S. 67; Wulff 2010, S. 130) Die Musik muss also semantisiert werden. Bild- und Handlungsverlauf projezieren ein Bedeutungspotential auf die musikalischen Elemente und nach und nach entsteht eine unbewusste, semantische Koppelung, so dass mit dem musikalischen Element am Schluss eine Emotion fest verknüpft ist. (vgl. Bullerjahn 2001, S. 145; Schneider 1997, S. 27) Musikalische Strukturen (Melodie, Rhythmus und Harmonie) sind vom zeitlichen Verlauf, menschlichen Gefühlen und Stimmungen sehr ähnlich. In der Emotionstheorie wird eine Stimmung als schwach gegliederter, diffuser und emotionaler Grundzustand definiert, der über einen langen Zeitraum stabil bleibt. Als langfristige Tönung liefert die Stimmung einen Filter für die einzelnen Wahrnehmungen. Dies lässt sich mit Rhythmus und Harmonie bei der Begleitung vergleichen. Ein Gefühl „ist ein zeitlich klar gegliederter Ablauf (mit Anwachsen, Abschwellen, Klimax, verschiedenen Intensitäten und Schüben)“, der akut und aktuell ist und selten länger als einige Sekunden dauert und sich immer auf Personen, Dinge oder Ereignisse bezieht. Gefühle sind in diesem Fall ähnlich der Melodie oder einer Tonfolge im Allgemeinen. (vgl. Bullerjahn 2001, S. 189) Der Aufbau von Musik kann also nach Schneider folgendermaßen gegliedert sein: „Über eine Grundstimmung von ‚Nervosität‘ (in der Begleitung) [kann] eine ‚Angst‘ (in der Melodiestimme) plötzlich ansteigen, langsam verebben und sich dabei in ein sehr langsam aufkeimendes Liebesgefühl ändern.“ (Schneider 1997, S. 32f) Bei der Vermittlung von Emotionen mit Musik muss jedoch hinzugefügt werden, dass nur Emotionen evoziert werden können, die der Hörer bzw. die Hörerin bereits kennt. Ohne ein tiefes Trauergefühl vorher schon empfunden zu haben kann ein Hörer bzw. eine Hörerin kein solches Gefühl bei einem Requiem nachvollziehen. Musik erzeugt also nur Scheingefühle, die nicht wirklich existieren. Dadurch vollzieht sich nur eine „Als-ob-Kommunikation“. (vgl. Bullerjahn 2001, S. 199) 60 Filmmusikalische Charakteristiken 5.4.3. Kritik an der populären Filmmusik Durch die Einfachheit und Direktheit von Filmmusik, die sie benötigt, um im Publikum die gewünschte emotionale Wirkung beim ersten Hören zu erzielen, kommt sie oft unter Beschuss. Die Kritik aus der Perspektive der Hochkultur heraus ist weiterhin für aktuelle Musik relevant, da sich auch Heutzutage essentielle Kernpunkte der Filmmusik nicht verändert haben, wie eben die Wirkungseigenschaften. In einem der zentralen Kritikerwerke von Adorno und Eisler, „Komposition für den Film“, wird vor allem auf das warenästhetische und manipulierende Moment in der Filmmusik eingegangen und dieses kritisiert. (vgl. Bullerjahn 2001, S. 15) Adorno und Eisler fordern hier vor allem mehr Sachlichkeit im Film und dessen Filmmusik, „um eine Entspannung des Kinozuschauers zu verhindern, die er aufgrund der entfremdeten Arbeitsbedingungen der spätkapitalistischen Gesellschaft zum Hinwegtäuschen über soziale Kälte benötige“. (Kreuzer 2001, S. 116f) Kreuzer (2001, S. 116f) kritisiert, dass diese Forderung etwas eigensinnig wirkt, wenn man bedenkt, dass genau der zentrale Kern eines populären Spielfilms die Unterhaltung ist, welche von den Rezipienten bzw. Rezipientinnen als eine Besänftigung und Ablenkung vom Arbeitsalltag verstanden wird. Adorno und Eisler kritisieren laut Kreuzer über den Umweg der Filmmusik die kapitalistische Einstellung von Hollywood. Nicht die Kompositionstechnik, Beschaffenheit der Musik oder eine inkonsequente Machart sind die eigentlichen Auslöser der negativen Beurteilungen durch die beiden Kritiker, sondern deren ideologische Weltsicht und die pragmatische Arbeitsweise der Filmkomponisten. (vgl. Kreuzer 2001, S. 116) „Die Autoren kritisieren einen kulturellen Nährboden, den sie nicht mögen, anhand von dessen filmmusikalischen Auswüchsen, ohne aber übergreifende Wertmaßstäbe zur Beurteilung dieser Auswüchse in der Hand zu haben oder diese zumindest prämissenhaft zu benennen.“ (Kreuzer 2001, S. 116) 61 Filmmusikalische Charakteristiken Eines der Ziele laut Adorno und Eisler ist es eben nicht, wie der heute übliche Ansatz von Filmmusik, Publikumsnähe und emotionale Bindung zum Film zu erzeugen. Sie fordern im Gegensatz dazu auf, Distanz bei dem Zuseher bzw. der Zuseherin aufzubauen. Die Identifikation mit den Filmcharakteren ist also ebenfalls als negativ zu betrachten, was dazu führt, das Adorno und Eisler eine emotional stimmige Tonmischung und eine emotional führende Filmmusik ablehnen, da hier ebenfalls die Aufmerksamkeit des Publikums gelenkt wird. Adorno und Eisler lehnen Filmmusik jedoch nicht gänzlich ab, was einem vollkommenen Realismus, ohne jegliche Lenkung des Rezipienten bzw. der Rezipientin, ähnlich der Dogma 95-Bewegung, nahe kommen würde. Dramaturgische Musik führt jedoch den Zuseher bzw. die Zuseherin immer, auf Musik verzichten wollen Adorno und Eisler hingegen auch nicht. Dieser Widerspruch, zeigt die theoretisch starre Sichtweise der Autoren, die in der Realität nicht wirklich umsetzbar ist. (vgl. Kreuzer 2001, S. 119) Auch Lissa (1965, S. 11f) kritisiert Adorno und Eisler, da sie ihrer Meinung nach die falsche Blickrichtung annehmen. Sie analysieren nicht hauptsächlich die dramaturgische Funktion der Filmmusik, sondern wie auch viele andere Kritiker, die nicht auf die Spezifik der Filmmusik eingehen, die Musik hinsichtlich der Maßstäbe autonomer Musik. Eisenstein schreibt dazu, dass die Aufgabe von Musik nicht die Steigerung der Wirkung eines Films ist, sondern Emotion mittels der Musik übermittelt werden soll, die mit den anderen Ebenen des Films nicht dargestellt werden können. (vgl. Thiel 1981, S. 56) Kreuzer spinnt diese Maxime noch weiter: „Es geht in erster Linie darum, durch Musik Wirkung zu steigern, was oft durch das Ausdrücken von Emotionen, die mit anderen Mitteln nicht darstellbar sind, erreicht werde.“ (Kreuzer 199, S. 56) Schneider (2009, S. 149) bestätigt jedoch den sich zur Zeit bewahrheitenden, von Adorno und Eisler beschriebenen, affirmativen Charakter der Kulturindustrie. Filmmusik wird also Filmmusik immer ähnlicher. Dies ist zu einem großen Teil eine Folge des Einsatzes von Temptracks. Die Temptracks sind bei sehr vielen Produktionen die selben. Einige aktuelle Standards sind, Jerry Goldsmiths Musik für Basic Instinct (1992), Hans Zimmers Musik für The Thin Red Line (1998), John Williams Musik für Harry Potter (2001) und Hans Zimmers und James Newton Howards Musik für die Batman - The Dark Knight Trilogie (2005, 2008 & 2012). 62 Filmmusikalische Charakteristiken Insbesondere die Introsequenz von Batman wird laut Schneider aktuell in einer Vielzahl von anderen filmischen Projekten, teilweise offensichtlich ähnlich nachgeahmt. Auch George Antheil erkennt 1973, dass der Musikgeschmack des Publikums, durch ihre immer wieder wiederholte Rezeption, geformt wird, ohne dass das Publikum diesen Prozess bemerken würde. Durch die erhöhte und sich aufbauende unbewusste Kenntnis der bereits gehörten Filmmusiken, wird Filmmusik laut Antheil zu einer verständlichen Sprache, die das Publikum dann einfacher entziffern kann. (vgl. Bullerjahn 2001, S. 153) Eine atypische Filmmusik, die eben nicht dem symphonischen Hollywoodstandard entspricht, kann so eine besonders hohe Wirkung erzielen, da sie die Aufmerksamkeit der Rezipienten und Rezipientinnen vermehrt einfordert, da diese nicht die Eingliederung in die schon vorgefertigten Reaktionen vornehmen können. Wege abseits der typischen Hollywoodsounds entfernen sich deshalb vom traditionellen Kinosymphonikorchester und schlagen eine Richtung zur nicht-orchestralen Instrumentation oder zu verschiedenen Mischformen ein. Eine Auswahl erwähnenswerter Beispiele aus dem Populärkino wären hierzu: • American Beauty (1999, Musik von Thomas Newman): Mix aus verschiedenem, oft fernöstlichem Schlagwerk und anderen Soloinstrumenten. Sehr komplexer und abwechslungsreicher Einsatz der Instrumente. • Requiem for a Dream (2000, Musik von Clint Mansell): Atypischer Einsatz eines Streichquartetts mit elektronischen Einflüssen. • Brokeback Mountain (2005, Musik von Gustavo Santaolalla): Für ein Liebesdrama eine sehr einfache und bodenständige Musikauswahl. Zentrales Element: eine Steelguitar. • Babel (2006, Musik von Gustavo Santaolalla): untypische, reduzierte, ethnische Musik für ein komplexes Drama • Little Miss Sunshine (2006, Musik von Mychael Danna & DeVotchKa): Einsatz einer Rockband anstatt eines Orchesters. Sehr gute Übereinstimmung mit dem Gesamteindruck des Roadmovies. • The Fountain (2006, Musik von Clint Mansell & Mogwai): Die Kombination aus Post-Rock und Symphonik ergibt einen sehr epischen Soundtrack. 63 Filmmusikalische Charakteristiken • Michael Clayton (2007, Musik von James N. Howard): Ähnlich wie The Hurt Locker ein sehr flächiger Klangteppich, der sehr untypisch für das Actiongenre ist. • The Hurt Locker (2008, Musik von Marco Beltrami & Buck Sanders): sehr ruhige und trotzdem intensive Musik, die aus flächigen Drones besteht; untypisch für das Actiongenre. • The Social Network (2010, Musik von Trent Reznor & Atticus Ross): Ein elektronisch, rockiger Soundtrack, der oft mit Drones und subtilen Layern arbeitet. 5.5. Klischees Die in Kapitel 2.5 besprochenen vorgefertigten Reaktionen der Rezipienten und Rezipientinnen auf gewisse wiederholt auftretende Elemente in der Filmmusik, führen zur Bildung von Klischees, deren Einsatz teilweise sehr simpel ist, um eine gewünschte Wirkung zu erzielen. Lissa (1965, S. 370) vertritt die Meinung, dass bestimmte Elemente der Rhythmik, Agogik, Instrumentation und Ausdruck der Emotionen bei der Melodie sich zu Klischees herausgebildet haben und jede wiederholte Anwendung des Klischees dieses bestätigt. Aber nicht nur in der Filmmusik liegt die Entstehung solcher Klischees, bereits in der Oper, Vokal- und programmatischen Orchestermusik hat die häufige Verwendung gewisser musikalischer Strukturen zur Herausbildung verschiedener gefestigter Gedankenverbindungen geführt. Die verschiedenen Typen an Liebes-, Gewitter-, Sturm - oder Verfolgungsmusiken können starke stilistische Unterschiede aufweisen, aber verwenden meist übergreifend bei einigen Gestaltungselementen einen gewissen einheitlichen Typus, welcher der Hörtradition des Publikums bekannt ist. (vgl. Thiel 1981, S. 91) Verschiedene Instrumente sind durch ihre Verwendung historisch bereits an gewisse emotionale Ausdrücke gebunden, siehe Tabellen Instrumente und Gefühlsqualitäten, siehe Tab. 1 und Tab. 2. 64 Filmmusikalische Charakteristiken interessante Kombination Beweglichkeit als „Schifferklavier“ klischeegebunden. Durch aparte Registrierung aber sehr variabel. Elektrisch mit Fußpedalen zur Klangverfremdung mit Mundharmonika zur harmonischen Stützung, besonders bei „HandwedelVibrato“ ziemlich Jazz Rußland, Folkore mittelhohe Melodien, Klang zwischen Banjo und Mandoline, Einzeltöne, klischeegebunden zur Ergänzung der sehr Rhythmusgruppe mit Congas Bongos (zwei aneinander) Urwald zwei hand- und fingergespielte, zur Ergänzung der sehr unterschiedlich hohe Trommeln, sehr Rhythmusgruppe hoch und etwas tiefer, stimmbar. mit Congas Für schnelle, aufgeregte Soli Cembalo Barock leises, aber scharf anreissendes, bei Dämpfer tupfendes „altes“ Tasteninstrument mit farbverändernden Koppel-Registern für barocke Wirkungen oder intime Rhythmen mit gestoppter E-Gitarre sehr Jazz Bouzouki Griechenland, Folklore im Tremolo klischeegebunden wie Mandoline, Ton nur größer und nachklingender, Solo in Terzen mit 2 Saxophonen mittel Conga (meist 2) Lateinamerika sehr unterschiedliche mittelhelle bis dunkle Klangfarbe, je nach Schlagen mit Händen und Fingern. Zusatz zu Latin- oder Modern-Rhythmen bei „Soft-Sound“ ergänzend mit HiHat (Besen) sehr Dudelsack Schottland laut, durchdringend, nasal, liegender Unterton (Bordun), einfache Melodien mit Oboen und Englisch Horn ziemlich Englisch Horn Norden, Eis, scharf, melodiös, etwas traurig bei Schnee langen Tönen, tiefere Lage, classicSoli Solo bei tiefem oder sehr hohem Streicher-Background nicht sehr Hawai-Gitarre Südsee Mittelhoch, rutschende einfach Akkorde. Südsee-Soli und Begleitung. Auch Western (Nashville-) Sound mit Südsee- oder Western-Rhythmus (E-Gitarre, E-Baß) wenig Horn (Waldhorn) Jagd, Postkutsche, Wald und Feld mittelhoch bis tief, sehr weich, indirekt, Soli klischeegebunden, einfache Melodien mit Celli für Melodien oder Posaunensatz als „Weichmacher“ mittel Kastagnetten Spanien Klischeegebunden, Für Rhythmus mit Akustik-Gitarre einmal ganz kurz mti HiHat (offen) mittel Kirchenorgel Kirche, Sonntag, Hochzeit, Trauer von ganz tief bis ganz hoch, luftangeblasene Orgelpfeifen. Moderne Kirchenorgeln mit aparten SonderRegistern, für barocke Musik große Klangteppiche, feierliche Begebenheiten möglichst Solo oder mit Rhythmusgruppe oben sehr, unten wenig Klarinette Bayerische Volksmusik großer Tonumfang, Soli Oldtime und Oberstimme im modern, melodiös, lustig, hohe Lage Klarinettensatz schrill (Glenn Miller) Instrumente Klischee Klang und Verwendbarkeit Akkordeon Paris (Musette), Hafen (Stimmung), Volksmusik Balalaika sehr Jazz 65 Filmmusikalische Charakteristiken Instrumente Klischee Klang und Verwendbarkeit interessante Kombination Beweglichkeit KonzertGitarre Spanien, Folklore, Classic mittelhoch bist tief, zarte, leise Melodien, harter und weicher Zupfton, Liedbegleitung mit Gesang oder als Zusatz zur Rhythmusgruppe ziemlich Mandoline Italien, Mit- hohe silbrige Melodien, im Tremolo telmeer klischeegebunden. Einzeltöne apart für kurze Melodien intimen Charakters mit E-Baß oder Cembalo beweglich Mundharmo- Wasser, nika (auch Segeln, das Blues-Harp) Lied vom Tod, Blues mittel bis hoch, silbrig, Solo melodiös, auch akkordisch, für WesternRhythm. Rock und BeatrhythmusZusatz mit Harfe für intime Melodien, Blues-Harp mit Western-Gitarre mittel Jazz Pan-Flöte Folklore offener, mittelhoher, etwas pfeifender Ton, einfachste Melodien, Solo mit Synthesizer zur Verstärkung wenig Sitar Indien jammernder Drahtklang, klischeegebunden, Chorus für modern-Sound mit Tabla für Folklore mittel Jazz Tam Tam Orient, Asien großer, tief schmetterndern, lange nachklingender Gong. Für große bedeutende Effekte und Schüsse mit Pauken nicht, da Einzelschläge Trompete Militär, Blasmusik, Dixieland, Zirkus offen geblasen strahlend, signalhaft, mittel bis hoch, gestopft mit verschiedenen Dämpfern (scharf, weich, Glas, Wau-Wau), Soli sentimental oder Jazz, führend im Blechsatz á 3 bis á 5 im Satz, gestopft auch mit EGitarre beweglich Jazz Tuba Blasmusik, Volksmusik sehr tief, weich, wattig, laut. BaßVerstärkung, tiefe Gags mit Pauken wenig Zither Bayerneigenständiges Soloinstrument, EinAlpen, der bis zweistimmiges Melodien mit dritte Mann Eigenbegleitung, klischeegebunden mit Folkloreinstrumenten mäßigbeweglich Tab. 1: Klischees der Instrumentation (Wüsthoff 1978, S. 38f) Instrumente Hohes Register Mittleres Register Tiefes Register Flöte breit ausschweifend, szenisch, hell und freundlich romantisch, feinfühlig geheimnisvoll, unterschwellig Altflöte Baßflöte gebrechlich (abzuraten!) dramatisch, geheimnisvoll, verhängnisvoll dramatisch, schwächlich, schicksalsschwer Oboe dünn, klagend ergreifend, zuversichtlich, humorvoll dramatisch, ungewiß Englischhorn dünn, flehend stark, einsam, ahnungsvoll dunkel, leuchtend Fagott dünn, klagend kraftvoll, melodiös, geheimnisvoll, dramatisch dramatisch, launig Kontrafagott abzuraten! geringe Wirkung rätselhaft, angstvoll, seltsam, düster B-Klarinette kräftig, bejahend melodiös, romantisch dunkel, warm 66 Filmmusikalische Charakteristiken Instrumente Hohes Register Mittleres Register Tiefes Register BaßKlarinette klagend, singend warm dramatisch, düster, freundlich KontrabaßKlarinette geringe Wirkung geheimnisvoll, spannend melodramatisch, drohend Horn zuversichtlich, kraftvoll warm, drängend spannend-intensiv Trompete heldenhaft, kräftig, unabhängig, bejahend melodiös, kraftvoll, eigenwillig dramatisch, sehnsüchtig Posaune melodiös, schwerfällig stark, dramatisch dunkel, melodramatisch, schwermütig Violinen glänzend, melodiös, zurück- warm, romantisch, leidenhaltend schaftlich dunkel, dramatisch, grämlich Bratschen dünn, melodiös warm, sanft, sehnsüchtig dunkel, dramatisch Violoncelli eindrucksvoll, gefühlsvoll warm, klangvoll dramatisch, bejahend Tab. 2: Musikinstrumente und ihre Gefühlsqualitäten (Skiles 1976, S. 70, zit. n. Bullerjahn 2001, S. 88) Das Wissen der Rezipienten und Rezipientinnen um die Bedeutung der Klischees kann gezielt genutzt werden, vor allem bei der Erzeugung von Spannung. Durch unmissverständliche und eindeutige Klischees kann selbst bei einer romantischen Szene im Bild, wenn sich ein Paar küsst, durch einen atonalen Streichercluster bereits das Unheil angekündigt werden. Die Diskrepanz zwischen der Aussage von Ton und Bild erzeugt bereits automatisch durch die ästhetischen Qualitäten eine Vorahnung, dass hier etwas nicht stimmen könnte. Ebenso kann eine beruhigende Filmmusik zu einer gezeigten tickenden Zeitbombe durch den Kontrast die Wirkung verstärken. Durch die Klischeeverbindung der Streichercluster mit Spannung, wird die Verbindung von Kuss und Begleitung noch weiter intensiviert. (vgl. Kreuzer 2001, S. 121f) Adorno und Eisler (1996, S.34) sehen hier jedoch die exakt gegenteilige Wirkung, nämlich dass die beabsichtigte Wirkung einer psychologischen Doppelsinnigkeit folgt. Während der Rezipient bzw. die Rezipientin sofort beim Ertönen einer kontradiktorischen klischeehaften Musik erkennt, dass etwas schreckliches angekündigt wird, reduziert dieses Erkennen für Adorno und Eisler auch gleichzeitig, durch die Fixierung der Erwartungen, die erzeugte Spannung wieder auf ein Minimum. Laut de la Motte-Haber (1980, S. 210) gewinnen Zitate vor allem durch das kurze Aha-Erlebnis, das dem Publikum widerfährt, an Reiz und Wirkung, wenn es die Anspielung erkennt, da sie dadurch schon einen Wissensvorsprung gegenüber den 67 Filmmusikalische Charakteristiken Charakteren im Film haben. Der ästhetische Anspruch von Zitaten und Klischees ist für de la Motte-Haber jedoch fragwürdig, da ein Vorwissen des Publikums vorausgesetzt wird und sie auch sehr einfach zur qualitativen Reduktion führen, die zu einem Preisen des schon Dagewesenen und Weglassen von neuen Ideen verfällt. Schneider (1997, S. 53) schreibt, dass der große Vorteil beim Einsatz bekannter Versatzstücke, die Entlehnung der Aura des Renommierten und Großartigen ist. Er kritisiert jedoch ebenso, dass Kunst, die sich Klischees bedient nur affirmativ ist und niemals etwas erzeugen kann, was nicht bereits Alle wissen. Der Komponist bzw. die Komponistin muss hier einen Spagat zwischen Vorhersehbarkeit und der Unterwanderung dieser bewältigen, um dem ewigen Kreislauf des Wiederkäuens des Bekannten zu entgehen. Eine Annahme, die auf der linguistischen Rezeptionstheorie basiert, besagt, dass „musikalische Gestalt nur durch ihr stetiges Wiederauftreten ausdrucksvoll“ wird und entsagt der Musik jegliche Kraft autonom direkt eine Wirkung zu erzeugen. (vgl. Kreuzer S. 123) Die Neuschaffung von Klischees und musikalischen Bedeutungen werden durch diese Theorie zur Willkür degradiert, da dadurch jedes beliebige musikalische Element in gleichem Maße zur Untermalung benutzt werden könnte und dieses dadurch eine bestimmte Bedeutung annehmen würde. (vgl. Kreuzer 2001, S. 126) Eine absolute Aussage dazu kann laut Kreuzer (2001, S. 126) nicht getätigt werden, da man nie sicher sein kann, „ob ein vorgefundenes Musikelement direkt wirkt, oder sich als klischeehafter Bedeutungsträger etabliert hat.“ Die Wirkung von Filmmusik kann demnach nie vollständig untersucht werden, wenn die Subjektivität außen vorgelassen wird. Subjektivität sollte jedoch in jeder genauen Analyse nicht zugelassen werden, weshalb die meisten Analysen auf „minuziöses InBeziehung-Setzen von Musik- und Filmsyntax sowie strukturaler Textforschung“ beruhen. (vgl. Kreuzer 2001, S. 126) 5.6. Musikdramaturgische Gestaltungselemente „Ein Begreifen von Filmmusik setzt ein Begreifen von Film voraus, und eine vernünftige Annäherung an die Sache ist anders prinzipiell nicht möglich. Ein Begreifen von Film 68 Filmmusikalische Charakteristiken wiederum verlangt, dessen spezifische Ausdrucksmittel und ihren Syntax ins Bewusstsein heben.“ (Rügner 1988, S.5) Wie jede Musik lässt sich auch Filmmusik durch ihre allgemeinen musikalischen Parameter definieren, dazu zählen unter anderem Melodik, Harmonik, Dynamik, Rhythmik, Tempo, Tongeschlecht und Klangfarbe. (vgl. Bullerjahn 2001, S. 127, Faulstich 2002, S. 138) Im Folgenden werden die wesentlichen musikdramaturgischen Gestaltungselemente auf ihre Relevanz und Eigenheit bei der Nutzung in der Filmmusik, vor allem auch speziell in der elektronischen Filmmusik, analysiert. 5.6.1. Melodie und Motiv „Die Melodie ist [...] gegliederte Gestalt. Melodie ist bewusste Formung von Zeit und Raum mit gemessenen Längen und Kürzen sowie distinkten Tonhöhen.“ (Schneider 1997, S. 185) Auch als „hohe Schule“ der Musik bezeichnet, begibt sich die Melodie immer an die Oberfläche der Musik. Melodie organisiert eine fixe Notenanzahl in ein wiedererkennbares Muster und hat zumeist wenig Probleme die Aufmerksamkeit des Zuhörers bzw. der Zuhörerin zu erlangen und trägt viel zur Hörbarkeit der Musik bei. (vgl. Brown 1994, S. 154; Schneider 1997, S. 185) Sie wirkt am direktesten zur Charakterisierung von offensichtlichen, extrovertierten Emotionen (offener Schmerz, Jubel, Freude, Trauer, Happy End), Personen, Situationen und nationaler - gesellschaftlicher Merkmale. (vgl. Bullerjahn 2001, S.127; Schneider 1997, S. 185) John Barry führt zum Thema Melodie aus: „I love working with melody. I think if you can capture something in the simplest possible way, which is what melody is, then you’re halfway there“. Randy Newman hat ebenfalls eine Neigung Melodien einzusetzen „I believe in melody. Maybe there are places where you don’t want it, but I don’t know where they’d be.“ (Kalinak 2010, S. 11) 69 Filmmusikalische Charakteristiken Besonders wirksam ist die Melodie in formal geschlossenen Liedern, so Lissa (1965, S. 265). Die strukturellen Bedürfnisse einer Melodie lassen sich jedoch nicht einschränkungslos mit den strukturellen Gegebenheiten des Films vereinen. Um eines der Probleme einer konkreten musikalischen Form, siehe Kapitel 5.6.2, zu umgehen, setzt David Raksin beispielsweise auf das Komponieren völlig asymmetrischer Melodien, die aus individuellen Zählzeiten und Taktarten zusammengesetzt sind. In eine komplett andere Richtung schwenkt Bernard Herrmann, der in seinen Arbeiten Melodie beinah vollständig ausradiert hat. (vgl. Brown 1994, S. 154) Im Vergleich zur Melodie sind Motive nur kurze Bausteine, aus denen sich eine Melodie zusammenfügt. Während die Melodie eine in sich geschlossene Zeitgestalt besitzt, die Schneider (1997, S. 185) als ballistische Kurve bezeichnet, besitzt das Motiv oftmals keine zeitliche Bestimmung. Die häufig kurzen motivischen Phrasen lassen sich einfach als flexible Bausteine in der Gesamtmusik integrieren. Große Formen und Gestaltungselemente gewähren meist seltener eine einwandfreie Verbindung mit dem Fluss der Bilder. (vgl. Brown 1994, S. 154) Das Motiv, von Schneider (1997, S. 185) als kurzer emotionaler Reflex bezeichnet, ist als willenloser Baustein frei aneinandergereiht, umgekehrt, fortgesponnen oder fragmentiert verwendbar. Zur Andeutung von beiläufigen und nebensächlichen Aussagen eignet sich ein Motiv durch seine hohe Flexibilität, die es seiner zeitlichen Unbestimmtheit verdankt. „Es lässt sich schnell abrufen, um an einem syncpoint kurz anzuklingen und wieder vergessen, von Harmonien und Rhythmen ‚weggespült‘ zu werden.“ (Schneider 1997, S. 185) Christine Aufderhaars Arbeiten sind ebenfalls wesentlich mit Motiven gefüllt. Sie versucht sich auf wenige bestimmende Elemente einzuschränken und mit diesen dann bausteinhaft einen Gesamtbogen zu kreieren. (vgl. Aufderhaar 2009, S. 18) Der spezifische kompositionstechnische Einsatz von Motiven als Leitmotiv wird in Kapitel 4.2.3 erklärt. In der elektronischen Musik sind melodische Elemente nicht anders zu handhaben als bei symphonischer Kinomusik. Einzelne Elemente können melodische oder begleitende Funktionen übernehmen und diese ineinander verknüpfen. Wie in 70 Filmmusikalische Charakteristiken jeglicher Musik erhöht eine eingängige Melodie den Wiedererkennungswert. Auffallend ist eine große Anzahl im Wesentlichen melodiefreier, eher drone-lastiger Arbeiten, die unbemerkt mehr atmosphärisch als punktuell arbeiten. Als aktuelle Beispiele wären hier Cliff Martinez für Drive (2011), Marco Beltrami und Buck Sanders für The Hurt Locker (2008) und Trent Reznor und Atticus Ross für The Social Network (2010) zu nennen. Die Textur ist bei diesen atmosphärischen Filmmusik wichtiger als einzelne melodische oder motivische Bausteine. Die einzelnen klanglichen Qualitäten der Flächen und Rhythmen bilden hier sozusagen das wiederholt auftretende Motiv, vgl. der Einsatz eines Cristal Baschet bei Drive und die langgezogenen modulierenden Streicher- und Flötenklängen bei The Hurt Locker. Es ist jedoch anzumerken, dass auch motivische Fragmente eingesetzt werden, wie zum Beispiel die sechs-tönige Klaviermelodie in The Social Network, die wiederholt aufgegriffen wird. Die Filmmusik von The Chemical Brothers für den Film Hanna (2011) weist wiederum eine einfache kinderartige Zirkusmelodie und ein Glockenspiel auf, die beide immer wieder auf unterschiedliche Art und Weise aufgegriffen werden. Insbesondere ist hier auch das wiederholte pfeifende Aufgreifen der Melodie von einem der Akteure auffallend. Die Verschmelzung von diegetischer und extradiegetischer Musik tritt hier völlig unscheinbar auf. 5.6.2. Musikalische Struktur und Form „ ‚The structure of myths can be revealed through a musical score‘. - Levi Strauss“ (Brown 1994, S. 97) Als Pflicht und Grundvoraussetzung von Filmmusik beschreibt Thiel (1981, S. 88) die Unterwerfung der Musik durch die filmische Dramaturgie. Auch Rügner formulierte 1988, dass die filmmusikalische Gesamtform ein Produkt der wesentlichen Gesichtspunkte der filmischen Dramaturgie und der Erwartungshaltungen des Filmpublikums darstellt und diese Form vom Komponisten bzw. von einer Komponistin in Bezug auf Thema und Fabel, Stil und Handlungslinie in der Musik 71 Filmmusikalische Charakteristiken materialisiert werden muss. (vgl. Bullerjahn 2001, S. 13) Die Struktur des Filmes muss sich innerhalb aller Teile aufeinander beziehen. Eine maßgeschneiderte Komposition reicht nicht allein, die Filmmusik muss von der Dramaturgie umschlossen werden. „Eine Aufreihung unverbundener Stücke tut’s nicht.“ (vgl. Jerry Goldsmith in Thomas 1995, S. 321) Kreuzer (2001, S. 191) und Rosenman (Burt 1995, S. 5) sehen generell die filmmusikalische Struktur nicht mehr als Musikform an, sondern stellen sie eher einer literarischen Form wie dem Drehbuch gegenüber. Die Form wird nämlich nicht durch musikalisch autonome Faktoren bestimmt und darf auch nicht in musikimmanenten Kategorien gedacht werden, sondern entspringt gänzlich dem Film. Die Fabel wird also zum zentralen Ankerpunkt für die Form der Musik, nur innerhalb des Fabelverlaufs erlangt die Filmmusik die Dimension des Vorhers und Nachhers. (vgl. Schneider 1990, S. 22) Weniger die Gestalt der Musik selbst, sondern die dramaturgische Richtigkeit, also die Stimmigkeit des Musikeinsatzes, ergibt den filmmusikalischen Zusammenhang. (vgl. Schneider 1990, S. 63) Die musikalische Form muss nicht nur durch musikimmanentes Reflektieren erlangt werden, sondern im Zusammenhang mit den weiteren Ebenen des Gesamtkunstwerks (Bildinhalt, Bildbewegung, Farben, Helligkeitswerte, Bildgestaltung, schauspielerischer Ausdruck, Dialog, Geräusche, Atmosphären und Musik). Diese Ebenen müssen alle im Bezug zur Filmmusik und untereinander dramaturgisch verwoben einen Gesamtbogen spannen. Die Story wird wechselnd von Schicht zu Schicht erzählt. Jede Schicht ist also nur fragmentarisch ein Teil des Gesamten. (vgl. Schneider 1997, S. 63f) Dies bedingt eine biegsame und wendige Kompositionstechnik. Sonatenhauptsatz, Fugenexposition oder ABA-Formen können diese Flexibilität nicht bereitstellen. Motivvariationen oder Melodiemetamorphosen sind dafür eher geeignet. Die sehr kurze Entfaltungszeit, die aktuelle Filme der Musik gewähren, führt zu einer Abwertung der musikimmanenten formalen Funktionen und zu einer Dominanz der Anschauung der Gesamtform. Diese Kompositionsweise beinhaltet zwar eine geringe musikalische Substanz, erzielt jedoch die gewünschte Wirkung im dramaturgischen Ganzen. (vgl. Thiel 1981, S. 98) Auch Franglen findet Gefallen an der freien Form, die abseits des vier Viertel Taktes funktioniert. Das lebendige Atmen von Texturen und Takten eröffnet eine Vielzahl kreativer Möglichkeiten. (vgl. Pensado/Trawick 2012) 72 Filmmusikalische Charakteristiken Kurze geschlossene Formen, wie etwa Lieder, Songs und Tänze können im Film erscheinen, andere bewährte Strukturen sind jedoch bedeutungslos. Als Beispiel funktioniert das im Sonatensatz übliche Reprisen Prinzip im Film generell nicht, also die Wiederaufnahme eines thematischen Materials beim Beenden eines Stückes. Die Funktion der Reprise und auch der Durchführung bedingt in der autonomen Musik das aufmerksame Hören des musikalischen Fortgangs, diese Konzentration ist während des Films jedoch nur auf ein Minimum eingeschränkt. (vgl. Lissa 1965, S. 258) Auch periodische Strukturen, wie im Lied oder Chorsatz, können meist nicht ihre volle Form verwirklichen, außer die visuelle Ebene ordnet sich der Musik unter und wird passend zum Rhythmus der Tonebene geschnitten, oder wie im Trickfilm das Bild vollständig zur Musik synchronisiert. (vgl. Lissa 1967, S. 268) Die Beschränkungen, bei Liedern und Melodien immer die acht- oder sechzehntaktige Phrase durchzukomponieren, hat Bernard Herrmann davon abgewandt, diese zu benutzen und auf seine kurzen wiedererkennbaren Motivtechniken wie bei Der weiße Hai (1975) umzustellen. (vgl. Brown 1994, S. 42) „Once you start, you’ve got to finish - eight or sixteen bars. Otherwise, the audience doesn’t know what the hell it’s all about“. - Bernard Herrmann (Brown 1994, S. 42) Das Variationsprinzip, also die den veränderten Situationen angepasste Verarbeitung und Wiederholung eines thematischen Materials, lässt sich hingegen ohne Probleme mit der Gesamtform des Films verbinden. (vgl. Lissa 1967, S. 258) Der klassische Formenkanon musikalischer Gattungen, wie zum Beispiel Fuge, Sonate, Rondo und achttaktige Liedperiode, wird im Film auf Grund der filmspezifischen und bildabhängigen Ausprägungen allerdings weitgehend zurückgelassen. Die Filmmusik eröffnet somit, laut Thiel (1981, S. 12), als relativ junge Kunstform eine Großzahl an möglichen Entwicklungen zukunftsträchtiger Wirkungsmechanismen zu entwickeln, welche, außerhalb der aus anderen Gestaltungsformen mitgenommenen Strukturen, auf originellere und aussagekräftigere BildTon-Beziehungen stoßen. Lissa (1965, S. 272) spricht hierzu von einer musikalischen Form, die nicht im Sinne der Formen der autonomen Musik steht. Die musikalische 73 Filmmusikalische Charakteristiken Form entsteht aus dem Ergebnis ihrer Funktion gegenüber dem gesamten Filmwerk und darf nicht von der visuellen Ebene entkoppelt besprochen werden. Schneider (1990, S. 259f) führt dazu folgende vier spezielle Formen für Filmmusik auf: • „Gestische Expressionsform”: Hier wird im Sinne einer musikalischen Prosa gearbeitet. Die Musik setzt sich hier vollkommen mit dem Ausdruck der Szene auseinander, wobei keine „gebundene Form“ entsteht und Form im musikalischen Sinne auch nicht gestalterisch mitgedacht wird. • „Flächen”: Die Filmmusik wird hier als ruhender, stehender Klang oder als rotierende oder pulsierende Fläche in den Hintergrund gestellt. Die Filmmusik besitzt in dieser Art und Weise eine gewisse Tapetenfunktion. Vielseitig einsetzbar sind diese atmosphärischen („Atmos”) Stimmungsbasen sehr häufig im Einsatz. • „allgemeine Formkriterien“: Diese sind selbst bei den formlosen Flächen und Gesten einsetzbar und gliedern sich aus einerseits der Aufeinanderfolge von „locker gefügten“ und „fester gefügten Teilen“, die ein gewisses formales Atmen darstellen und anderseits aus dynamischen Crescendound Decrescendoformen. • „Offene Form”: Die Ausführung von Elementen der Filmmusik ist sehr oft nur fragmentarisch und unvollständig. Musiken denen etwas „fehlt“ verbinden sich einfacher mit den Bildern, als in sich geschlossene Werke. Durch die strukturellen Abwesenheiten klammert sich die Musik förmlich an die restliche Dramaturgie des Films, um dort ihren Sinn zu erlangen und konstituiert so eine tiefere Beziehung als formal geschlossene Werke. Im Bezug zur offenen Form führt Schneider (1990, S. 20) weiter aus, dass konventionelle Kriterien (interessante Melodik, Harmonik, Rhythmik) für den Film nicht relevant sind und dem filmischen Zusammenspiel eher entgegenwirken. Elementare musikalische Bruchstücke können jedoch große Effektivität besitzen, da die Aufmerksamkeit auf weitere aussagekräftige Elemente des Films geführt werden kann. Musikalische Komponenten, wie zum Beispiel Einsätze oder Höhepunkte, sind schon immer maßgeblich von der Dramaturgie des Films vorbestimmt, die Formlosigkeit, wie bereits auch in der Programmmusik des 19. Jahrhunderts, bezieht sich 74 Filmmusikalische Charakteristiken vollständig auf die innere Bewegung und die Psychologie des Filmmaterials. (vgl. Schneider 1990, S. 258) Die Ablegung konventioneller Formkriterien lässt sich vor allem bei der Verwendung experimenteller Elektronik beobachten. Obwohl der Soundtrack von Hanna (2011) häufig sehr beatorientiert ist, fallen auch einige Stellen auf, die sich von dieser geraden Zeitorientiertheit ablösen und sich frei schwebend, unfertig präsentieren. Vor allem die von Schneider als Flächen beschriebenen Klänge sind in der elektronischen Musik, oft auch Drone genannt, sehr beliebt, wie auch im Kapitel 5.6.1 beschrieben. Der Score zu The Hurt Locker (2008) besteht vollkommen aus nur in Kombination mit dem Bild lesbaren klangmalerischen Crescendo- und Decrescendoformen. Die Aneinanderschichtungen verschiedener oszillierender Klänge befreit sich völlig von gängigen Formstrukturen, nur die Dimension des Jetzt bleibt relevant (vgl. 06:45-07:34, 12:35-14:51, 22:58-25:11, …). Im Film MIIO wird im Musiktake 11 (14:44-15:32) eine rein gestische Expressionsform eingesetzt. Vor allem im Rhythmus entsteht ein unregelmäßiges Gebilde ohne fixe Taktart. Die Bilder fixieren jedoch den Inhalt der Musik. Diese lässt sich auch gleichzeitig in die sogenannte offene Form eingliedern, da sie ohne die Bilder durch ihren instabilen Rhythmus nicht bestehen könnte. Flächen sind in der elektronischen Musik die am häufigsten auffindbare musikalische Form. Im Film Neben meinem Bruder finden sich einige dieser Layersounds, die subtil im Hintergrund eine gewisse unruhige Stimmung erzeugen. Der Film Neben meinem Bruder enthält in der bereits erwähnten Sequenz im Krankenhaus (40:33-42:44) Musik in einer geschlossenen Form. Auf Grund der starren A-A-B Form entstanden Probleme mit Timing und Synchronisation, die beim Einsatz einer offenen Form nicht auftreten. 5.6.3. Harmonik Laut Jörg Lemberg (2009, S. 67) stellt die Harmonik die eigentliche Essenz der Musik dar. In einer von ihm angefertigten Testreihe wurde ein Werbespot zehn Mal mit verschiedenen Variationen desselben Themas unterlegt, bei dem jeweils nur ein Parameter (Tempo, Umkehrung ...) verändert wurde. Die deutlichste Veränderung 75 Filmmusikalische Charakteristiken der Aussage des Clips fand bei der Manipulation der Harmonik statt. Deshalb kritisiert er auch Adorno und Eislers Aussagen, dissonante Klänge an zärtlichen und harmonischen Stellen einzusetzen. Da dies, um die korrekte Intention des Films herauszulesen, die Auseinandersetzung des Publikums mit dem ästhetischen musikalischen Diskurs des 20. Jahrhunderts voraussetzen würde. Diese Voraussetzung ist jedoch nicht generalisierend annehmbar. Die klassische Harmonielehre wurde generell im 20. Jahrhundert auch in der autonomen Musik grundlegend erweitert. Die eine Richtung machte sich völlig frei von jeglichen harmonischen Bezügen und richteten ihr Hauptaugenmerk auf die Physikalität des Geräuschs an sich (Russolo, Schaeffer, Cage,…) (vgl. Vowinckel 1995, S. 29 & 76f), die andere erweiterte die klassische Harmonik von ihrem Bezug zum einzelnen Ton oder löste sie vollends atonal auf (Schönberg, Messiaen, Stockhausen, Ligeti,…) (vgl. Hünermann 2004, S. 25, 46, 99 & 129; Kolleritsch 1987, S. 14). In der darauffolgenden, vermehrt rhythmusorientierten, elektronischen Popmusik der Disco-, Synthpop- und Technoära, der Grundlagen aktueller elektronischer Tanzmusik, wird Harmonik meist nur nebensächlich praktiziert, vgl. Donna Summer: I Feel Love (1977), Supermax: Love Machine (1977) und Kraftwerk: Mensch-Maschine (1978) & Computerwelt (1981). Komplexe Akkordfolgen werden der Betonung von Rhythmus, Bass und Klang untergestellt. Lissa (1965, S. 266) sieht die Harmonik im Film „nicht nur als Grundierung, Begleitung der Melodie“. Die Harmonik charakterisiert auch selbstständig dramaturgische Elemente und illustriert auch bereits als alleiniges Mittel das Bild, wie etwa als eigenständiger dissonanter Akkord, der nicht in den musikalischen Ablauf mit eingebunden werden muss. Die Funktionsweise von Melodik und Rhythmik transformiert sich bei der filmischen Nutzung im Vergleich zur autonomen Musik nicht wesentlich, bei der Harmonik stellt Lissa jedoch Abwandlungen fest. Insbesondere der harmonische Stilpluralismus innerhalb eines Filmes ist bei autonomer Musik eher ungewöhnlich. Im Film aber, wenn von der Dramaturgie eingefordert, nicht unüblich. Harmonische Methoden, wie zum Beispiel die Modulation in der Kadenzharmonik, haben im Film ebenfalls keinen Wert. Die fehlende Zeit für Phasen der Stabilisierung der neuen Tonart ermöglicht sehr selten eine vollständig durchgeführte Modulation. 76 Filmmusikalische Charakteristiken Durch die ständigen kurzen Einsätze der Musik, die durch die Bilder getrennt keine harmonischen Übergänge benötigen, ist die Modulation von einem Tonmaterial zum nächsten auch im Wesentlichen meist nicht erforderlich. (vgl. Kloppenburg 2000, S. 34; Lissa 1965, S. 266) Die traditionelle Harmonielehre ist bei aktuellen elektronischen Produktionen nicht in dem Ausmaß wie in der traditionellen Kinosymphonik von Bedeutung. In der elektronischen Filmmusik wird Harmonik unterschiedlich bedacht: Flächige Klänge, wie im Film The Hurt Locker (2008), zeichnen clusterartige Klänge nach. Die klassische und romantische Harmonielehre wird nur peripher miteinbezogen. Der sich steigernde Klang an sich ist das Hauptelement und steht völlig frei von jeglichem harmonischem Modulationsdrang (vgl. 18:33-20:30). Diese flächigen Klangsphären pendeln auch in gewisser Weise zwischen Sounddesign und Musik hin und her. Insbesondere der wiederholte Einsatz von Flugzeugüberfluggeräuschen an dramaturgisch spannungsgeladenen Szenen während eines Musikeinsatzes steht stark an der Grenze zwischen Geräusch, Sounddesign und geräuschhafter Musik (vgl. 06:03-06:07, 39:27-39:40). Popmusik- oder beatbasierte elektronische Musik als Filmmusik, wie im Film Hanna (2011), arbeitet mit einer, für diese Musik übliche, repetitiven und beatorientierten Charakteristik, die wenig Wert auf komplexe Harmonik legt und Rhythmus und Klang in den Vordergrund stellt. (vgl. 18:03-19:37, 24:30-27:21) 5.6.4. Dynamik Dynamik, also die Lautstärkeunterschiede innerhalb eines Stückes, in der Filmmusik ist anders zu handhaben als bei autonomer Musik. Die dynamischen Differenzierungen sind auf Grund der anderen Ebenen des Tons (Dialog, Geräusche) oft stark eingeschränkt, deshalb werden dynamische Mängel gerne mit Hilfe einer abwechselnden Instrumentierung überzeichnet. (vgl. Lissa 1965, S. 266) Adorno/ Eisler (1996, S. 36f) bemängelten die zu ihrer Zeit auftretende Standardisierung der dynamischen Unterschiede zu einem gleichbleibenden Mezzoforte. Die Stärke eines dreifachen Fortissimos und Schwäche eines doppelten Pianissimos gehen verloren. Die Tendenz immer lauter und mit wenig dynamischen Unterschieden zu produzie- 77 Filmmusikalische Charakteristiken ren, findet in der aktuellen Popmusik, unter dem Begriff „Loudness War“ zusammengefasst, Einzug. Aktuelle Kinofilmmusik arbeitet jedoch, dank der erweiterten technischen Möglichkeiten, oftmals wieder mit einem vollen Dynamikumfang. Folgende Einsatzmöglichkeiten für den Einsatz von Dynamik gibt es laut Lissa (1965, S. 167): • Repräsentation des Vordergrunds, Hintergrunds, oder der nichtgezeigten Räume im Film. • Darstellung der Bewegung und Bewegungsrichtung, d.h., die Verschiebung der Schallquelle im Bild, oder des Aufnahmepunkts zur Schallquelle. • Änderung der Dynamik durch Auftreten einer neuen auditiven Ebene, die dramaturgisch wichtiger ist, also zum Beispiel Einsetzen eines Dialogs. • Steuerung der Aufmerksamkeit des Publikums durch dynamische Akzente oder das Erlöschen der Dynamik. Die grundlegenden die Dynamik beeinflussenden Elemente, wie von Lissa aufgeführt, sind auch genauso in der elektronischen Filmmusik auffindbar. Insbesondere wird die Dynamik Großteils aber nicht von der Musik selbst beeinflusst, sondern von den anderen Ebenen des Tonfilms, wie auch Yewdall (2003, S. 401) in seinem Kreisdiagrammvergleich beschreibt. Die hier beschriebene Dynamik steht jedoch nur für die innerdynamischen Prozesse innerhalb der Musik. Die Gesamtdynamik kann hingegen in der Mischung noch grundlegend verändert werden. 5.6.5. Rhythmus „Den Rhythmus einer Sache zu erkennen, heißt nämlich so viel wie: die Identität wahrnehmen.“ (Schneider 1997, S. 139) Rhythmus tritt als Begrifflichkeit nicht nur in der Musik auf, auch in Tanz, Dichtkunst, Bildhauerei, Malerei, Regie und Videoschnitt wird vom Rhythmus gesprochen. (vgl. Schneider 1997, S. 139) Rhythmus ist die zeitliche Organisation in der Musik. Die Basis, der immer gleiche oder ähnliche Schlag (Beat), tritt in aufeinander beziehbaren Zeitabschnitten als Puls auf. (vgl. Kalinak 2010, S. 12f; Schneider 1990, 78 Filmmusikalische Charakteristiken S. 32) Rhythmus stellt immer Struktur und Gliederung bereit. (vgl. Schneider, 1990, S. 32) In Bezug auf Filmmusik sind Rhythmik und die Metrik sehr stark von den Eigenschaften der betreffenden Szenen abhängig. Das gewählte Schnitttempo und die Bewegung im Bild beeinflussen maßgeblich die rhythmischen Eigenschaften der Musik. (vgl. Lissa 1965, S. 265f) Rhythmus, als körperliche Eigenschaft, steht dem Takt als abstrakte Leistung des Denkens gegenüber. Takt sei tote Ordnung, schreibt Schneider (1997, S. 144), während Rhythmus flexibel und naturgemäß nie identisch sei (siehe: Atmen, täglich wechselnder Sonnenstand...), ist Takt ein Produkt des mechanistischen Zeitalters. Uhren, Metronome, Motoren und Computer realisieren Takt produzierend die Idealvorstellung der Maschine. René Descartes schreibt dazu in seinem 1618 erschienen Compendium musicae: „Rhythmus ist in der abendländischen Musik so entkörperlicht, dass wir eine zeitliche Gestalt ohne den normativen Hintergrund des Taktes nicht auffassen können.“ (Schneider 1997, S. 144) Im Filmischen wird der Rhythmus als Folge der Bewegung bezeichnet. Das Ziel soll laut Erdmann ein Gesamtrhythmus des Films sein, der sich aus dem sogenannten großen Rhythmus (das „Auf und Nieder der Handlung”) und dem kleinen Rhythmus (der szenische Bewegungsrhythmus) zusammensetzt. (vgl. Bullerjahn 2001, S. 50) Der spezifische optische Rhythmus setzt sich aus folgenden drei Elementen zusammen: 1.) Die Dauer einer Einstellung (Schnitt) 2.) Die interne Bewegung im Bildgeschehen (Inszenierung) 3.) Die Bewegung der Kamera (Fahrt, Schwenk, Zoom usw.). (vgl. Schneider 1997, S. 147) Die Addition des optischen und musikalischen Rhythmus ist ein komplexes Unterfangen. Der Schnitt eines Filmes ist sehr sensibel von jedem Einzelbild abhängig und die Musik beeinflusst diesen zeitlichen Ablauf vollständig, je nachdem ob sie einige Felder nach vorne oder eben nach hinten gerückt wird, verändert sich der gesamte filmische Rhythmus. (vgl. Schneider 1990, S. 121) Passt der musikalische Rhythmus nicht zum optischen Rhythmus, kann er diesen auseinanderbrechen und zerstören. Erkennt der Komponist den inneren Rhythmus einer filmischen Szene, 79 Filmmusikalische Charakteristiken kann er die Musik zu ihm in Beziehung und den optischen und musikalischen Rhythmus in Dialog setzen. (vgl. Schneider 1997, S. 148) Hier sei hervorzuheben, dass eine „gerade“ Musik den Schnitt eher bewusst wahrnehmen lässt, als eine „krumme“. Fällt ein einzelner Schnitt auf eine betonte Taktzeit, wird auch der Schnitt hervorgehoben und nimmt der Montage den durchgehenden Fluss. „Krumme“ Musik tarnt den Schnitt und beirrt die Bewegung des Bildes nicht. (vgl. Schneider 1997, S. 151) Auch Sergei Eisenstein und Sergei Prokofiev stellte sich immer wieder die Komplexität des filmischen und auditiven Rhythmus in den Weg. Meist war keiner der Beiden dafür zu begeistern, als erster einen Rhythmus zu bestimmen. Dass der musikalische Rhythmus vor dem filmischen definiert wird, ist jedoch meist nicht der Regelfall. (vgl. Brown 1994, S. 162) Als klangliches Abbild des „ewigen Jetzts“ ist die in den 1960er Jahren entwickelte Minimal Music für einen ständig anhaltenden Polyrhythmus bekannt, der sich durch die Wiederholungsmuster in fortlaufenden minimalen Veränderungen ergibt. Die musikalische Gliederung gibt keine dominierende Rhythmik mehr vor. In Kombination mit Bildmaterial ergibt sich dadurch eine harmonierende Zusammenarbeit, wie zum Beispiel von Michael Nyman in Das Piano (1993), da der optische Rhythmus immer mit dem quasi zeit- und raumlosen musikalischen Rhythmus übereintreffen wird. (vgl. Schneider 1997, S. 167) Visueller und auditiver Rhythmus beim Einsatz elektronischer Musik sind insbesondere bei der Visualisierung von Musik im Livekontext von Relevanz. Hier wird im Regelfall die vollständige Synchronisation der beiden Rhythmen angestrebt. Rhythmus ist vor allem in der beatorientierten Musik die maßgebliche Charakteristik, in der elektronischen Tanzmusik umso mehr, vgl. Kapitel 5.6.3. Beatorientierte elektronische Soundtracks wie bei Hanna (2011) fallen deshalb Großteils unter die, von Schneider als „gerade“ Musik bezeichnete, Kategorie (vgl. Kampfszene U-Bahnstation: 1:06:08-1:07:10). Je beatlastiger die Musik, desto mehr wird der visuelle Rhythmus dominiert und dieser muss sich meist dem auditiven unterwerfen, um nicht vom Beat der Musik unterbrochen zu werden. Im Schnitt entsteht deshalb beim Einsatz von beatorientierter elektronischer Musik eine Videoclipästhetik, bei der nur nach Takt der Musik geschnitten wird und wenig auf den visuellen Rhythmus geachtet werden kann, dass ist jedoch im Spielfilm auf Dauer nicht 80 Filmmusikalische Charakteristiken zu halten. Eine rhythmisch freiere Form in der Musik ist deshalb von Vorteil, um dieser absoluten Dominanz zu entgehen. Experimentellere elektronische Filmmusiken weisen deshalb, wenn sie von einem durchgehenden Rhythmus freigestellt sind, keine Zusammenstöße mit dem visuellen Rhythmus auf. Der Kurzfilm Kleines Püppchen Teddybär beinhaltet eine Szene (16:5717:29), in der das titelgebende Kinderlied in seiner Gesamtform vorgetragen wird. Hier wurde beim ersten Anlegen zum Bild sofort klar, dass die Melodie in einer rhythmisch durchgehend strukturierten Form nicht mit dem Fluss der Bewegungen funktioniert, weil sich der Hauptcharakter apathisch, stockend und getragen bewegt. Das freie Einspielen, wobei sich die Agogik frei atmend zum Bild verändert, führt hier jedoch zum sofortigen Zusammenschluss mit der visuellen Ebene. Im Film MIIO unterlegte der Autor eine Sequenz, in der der Hauptcharakter desorientiert durch die Stadt streift (23:28-24:51), mit schneller, beatorientierter Musik die dem Genres IDM/Glitch entspringt. Das Bild wurde hier passend zur Musik geschnitten, der visuelle Rhythmus ordnet sich dem auditiven unter. Die entstehende Videoclipästhetik ist für die lyrische Passage passend, da die auditive Ebene nur aus der Musik besteht. Sie würde jedoch über die Gesamtdauer des Films nicht funktionieren. 5.6.6. Tempo Wie der musikalische Rhythmus zum visuellen, steht auch das musikalische Tempo im direkten Bezug zum Gesamttempo, bestehend aus den gezeigten Bewegungen und dem Schnitt. (vgl. Bullerjahn 2001, S. 51) Änderungen des musikalischen Tempos wirken laut Schneider (1997, S. 145) äußerst effektvoll um dramaturgische Stimmungsschwankungen plastisch erlebbar zu machen. Äußerst schnelle Tempi, können wie auch bei rasanter Clubmusik, den Körper bis zur Belastungsgrenze beanspruchen. Vor allem die Verbindung mit komplexer Rhythmik und extremen Lautstärken kann diesen Effekt weiter steigern. Sehr langsame Tempi vermitteln den Charakter von Statik und „schmerzhafte Langsamkeit“. Elektronische Mittel ermöglichen hierbei noch langsamere Tempi als sie mit akustischen Techniken machbar sind. Die extrem gedehnten Tempi sind 81 Filmmusikalische Charakteristiken vor allem bei den flächigen elektronischen Musiken beobachtbar. Klänge werden über eine lange Dauer gehalten. Schnelle Musik verlangsamt jedoch grundsätzlich das Tempo des Bildes, während langsame Musik die Zeit im Film beschleunigt. (vgl. Bode/Müller 2010, S. 97) Oft wird sehr schnelle hektische Musik bei aktionsreichen Szenen benützt, was jedoch nicht zwingend die erwünschte intensivierende Leistung erbringt, sondern oftmals eher das Gegenteil hervorrufen kann. Der Einsatz von extrem gedehnten Tempi, bzw. völlig tempofreier Musik, bei actionreichen Stellen, wie zum Beispiel The Hurt Locker, intensivieren die geladene Spannung während den Bombenentschärfungen und beschleunigen die Schnitte wie auch die Bewegungen im Bild (vgl. 08:01-08:35, 18:33-20:30) Beatorientierte Musik ist oft mit hohen Tempi versehen. Drum‘n‘Bass oder andere schnelle Techno-Derivate wirken als Filmmusik deshalb die Bewegungen im Bild verlangsamend als beschleunigend. Im Film Hanna werden Actionsequenzen oft mit elektronischer Tanzmusik unterlegt, diese beschleunigt jedoch nicht die Handlungen, sondern wirkt hier tendenziell gegen die intendierte Wirkung und verlangsamt bzw. ordnet die Kampfszenen (vgl. Kampfszene U-Bahnstation: 1:06:08-1:07:10). Im Film Pi (1998) unterlegt Clint Mansell die Psychose des Hauptcharakters hauptsächlich mit experimenteller elektronischer Musik aus dem Drum and Bass und IDM Genre. Das durchgehend hohe Tempo der Musik löst hier eine, den gesamten Film andauernde, Unruhe aus, welche durch die harten und schnellen Schnitte der Bilder verstärkt werden. 5.6.7. Sound „Von mehreren Filmkomponisten ist bekannt, dass die Suche nach dem geeigneten Klang am Beginn ihrer Materialsammlung steht: Der Ausgangspunkt kann eine typische Summstimme, oder das Timbre eines Ensembles, ein charakteristisch gespieltes Instrument, ein synthetischer Sound, ein musikalisierbares Geräusch (etwa das Echolot in Klaus Doldin- 82 Filmmusikalische Charakteristiken gers Filmmusik zu Das Boot) oder ein archaisches Element der ethnischen Musik (ob Rhythmus, Satzart oder Musikinstrument) sein.“ (Schneider 1997, S. 191) Auch Lissa (1965, S. 265) schreibt, dass in einzelner Klang oder Sound oft wesentlich mehr wert ist, als eine perfekte geschlossene Form, insofern er eine funktionelle filmische Wirkung erfüllt. Klang präsentiert sich, im Kontrast zur sich zeitlich entwickelnden Melodie, prompt und unverzüglich und hat dadurch die Fähigkeit, trotz der fehlenden Aufmerksamkeit des Filmpublikums erkennbar zu bleiben und sich in dessen Gedanken fest zu haken. (vgl. Thiel 1981, S. 29) Auch Schneider (1990, S. 257) weist darauf hin, dass ein vollständiges Thema nie so schnell erfasst werden kann, wie ein prägnanter Klang, der schon nach Sekunden wiedererkennbar ist. Ein gängiges Thema benötigt dazu acht oder sechzehn Takte, bis es vollständig aufgefasst werden kann. Die Klangfarbe und der Klang selbst sind Charakteristiken, die zwei gleiche Instrumente oder Stimmen voneinander unterscheidbar machen. Klangfarbe ist im westlichen Musikverständnis vor allem im popmusikalischen Bereich relevant. Im klassischen Musikgebrauch wird versucht, jedes gleiche Instrument mit einem möglichst einheitlichen Klang zu versehen. In der Popmusik ist das Ziel jedoch eine einzigartige Klangfarbe zu erreichen. Die Differenzierung der Stimmen von zum Beispiel Mariah Carey und Pink, oder der unterschiedlichen Gitarrensounds im Rock’n’Roll, ist essentiell für den Erfolg und die Einzigartigkeit der Künstler und Künstlerinnen, die bewusst forciert wird. (vgl. Kalinak 2010, S. 13) In den 40er und 50er Jahren wurde der spezielle Sound noch durch die Instrumentierung geprägt, durch die veränderten technischen Möglichkeiten bestimmen seit den 1960er Jahren jedoch Klangmodulationen, Hallanteile und spezifische Mischungsverhältnisse den Sound eines Künstlers bzw. einer Künstlerin. So wie ein Popinterpret bzw. eine Popinterpretin einen eigenen Sound entwickelt, hat auch jede Filmmusik mittlerweile ihren eigenen Sound. Diese Entwicklung wurde vor allem durch den Einbezug elektronischer Musik im Film ermöglicht. Martin Böttcher bestätigt, dass allein durch einen speziellen Sound schon eine enorme Stimmung erzeugt werden kann. Motive oder Themen stellen dagegen die großen Durchbrüche in der Musik dar. (vgl. Schneider 1990, S. 257) 83 Filmmusikalische Charakteristiken Piet Klok vergleicht Sound mit „das Atmen, das Niesen, das Magenknurren. Eine Komposition, Melodieführung wie Reden und Sätze.“ (Schneider 1990, S. 257) Hans Loeper führt die Wirkungskraft eines eigenständigen Sounds auf das nicht sehr umfassende Musikverständnis der breiten Masse zurück. Vor allem mit dem Erscheinen des Pop-Sounds hat sich gezeigt, dass der Inhalt nicht mehr vorrangig und der Sound die Hauptattraktivität wurde. (vgl. Schneider 1990, S. 258) Klang ist sozusagen das atomare Element der Musik. Es kann phänomenologisch nicht mehr segmentiert werden. Physisch setzt sich ein Klang durch sein individuelles Obertonspektrum zusammen, das mit Hilfe einer Spektralanalyse offengelegt werden kann. Eine Fourier Analyse kann detailliert jeden Formanten und Oberton aufschlüsseln. Die Assoziation „dunkel-hell“ bei einem Crescendo lässt sich auf die Intensitäten der Obertöne zurückführen. Beim Crescendo ist dabei zum Beispiel bei Blechblasinstrumenten eine strahlende Aufhellung hörbar, die auf eine Stärkung der Obertöne zurückzuführen ist. Die Wirkungskraft von Klang ist jedoch völlig archaisch. Klang ist ohne Zeitstruktur, nur im Moment vorhanden und die „Gegenwart eines physischen Seins“. Während einem Motiv oder einer Melodie eine gestische und zeitliche Intention innewohnt, die nach vorne und außen treibt, entwickelt der Klang durch sein „einfach Dasein“ seine spezielle Kraft und bohrt sich durch sein Auf-der-Stelle-Treten in das Unterbewusstsein. (vgl. Schneider 1997, S. 185ff) Mit der Aufzeichnung von Musik auf Papier durch die Notation wird zwar Tonhöhe, Rhythmus und Taktwert aufgezeichnet, die Essenz der Musik geht jedoch verloren. Die Klangfarbe, oder auch Klangfarbenmodulation, kann nicht dargestellt werden. Das Vernachlässigen der körperbezogenen Aspekte führt zu einem Verlust der subjektiven Energie der Musik und der emotionalen Aussage. Eben diese subjektive Energie muss ein Filmkomponist bzw. eine Filmkomponistin in die Musik zurückbringen, um die verlorene Körperlichkeit wieder zu gewinnen. (vgl. Schneider 1997, S. 20 & 82f) Schneider (1997, S. 91) führt in diesem Zusammenhang auch aus: „Je archaischer seine [Filmkomponist] Musik, um so geeigneter ist sie als Filmmusik.” Besonders archaisch klingen für Schneider (1997, S. 100) zum Beispiel völlig ungeordnete Schläge der Musik ohne periodische Voraussagbarkeit, oder rhyth- 84 Filmmusikalische Charakteristiken muslose diffuse Klangbänder (liegende Bässe, Klangbänder (Bordune), statische Klangfelder (ein in monotones Pulsieren aufgelöster Klang) und Clusterflächen). Genau wie bei der Popmusik ist auch bei der elektronischen Musik Klang das zentrale Element. Durch die endlosen Möglichkeiten verschiedene Klänge zu erzeugen, steht sehr oft die Findung des geeigneten Klanges zu Beginn der Komposition. Teilweise ist sie auch der einzige Teil der Komposition, da auch bei der elektronischen Musik, wie von Lissa beschrieben, ein einzeln ertönender Klang oft mehr aussagen kann, als eine voll ausgeführte Komposition. Statische Klangfelder finden sich bei den bereits mehrfach erwähnten elektronischen Droneflächen wieder. Hier ist meist weder die Harmonik, noch die Rhythmik oder Melodik von Bedeutung. Nur der vorhandene Klang definiert die Aussage der Musik. Der Klang und die Spielart sind sehr definierende ästhetische Parameter der elektronischen Musik. Die Möglichkeiten Klang elektronisch zu verändern und zu erzeugen sind zahlreich, beinahe endlos. Bei der Komposition von Filmmusik von Popmusikern und Popmusikerinnen fällt jedoch auf, dass sehr oft die ästhetische Klangqualität der autonomen Produktionen den Klängen der Filmmusik gleicht. Das ist natürlich oft erwünscht, wenn The Chemical Brothers für Hanna (2011) gebucht werden, erwartet man kein klassisches Symphonieorchester. Die Möglichkeiten außerhalb des eigenen Spielfelds sollten hier jedoch nie übersehen werden, oftmals ist eine andersartig gestaltete Musik wirksamer, als es die Einschränkung in der eigenen Klangwelt sein kann. Dies ist auch bei den ersten Versuchen des Autors, Musik für den Film Neben meinem Bruder zu komponieren, aufgetreten. Die Klangästhetik der ersten Produktionsskizzen war zwar in der Eigenästhetik funktionierend, der Film erforderte jedoch eine völlig andere Klangwelt. Jeder Film erfordert um die richtige Aussage zu bestärken, bei elektronischen wie auch symphonischen Produktionen, eine spezielle Klangwelt, die mit der Dramaturgie kongruiert. 85 Filmmusikalische Charakteristiken 5.6.8. Instrumentation 5.6.8.1. Historische Entwicklung der Orchesterinstrumentation In der Wiener Klassik wurde der erste klassische Orchesterstandard begründet. Er umfasste: zwei Flöten, zwei Oboen, zwei Klarinetten, zwei Fagotte, zwei Hörner, Pauken und Streicher (aufgeteilt in Violine 1 und 2, Viola, Violoncello und Kontrabass). (vgl. Hugill 2002a) In der Romantik im 19. Jahrhundert wurde dieser Standard unter anderem durch Richard Wagner um andere Instrumente erweitert, zum Beispiel Tuba, Bass-Klarinette, Englischhorn und ein erweitertes Schlagwerk. Zum Ende der Romantik hin waren die Orchesterbesetzungen am größten, beispielsweise mit vier Flöten und vier Oboen, was bei Mahler üblich war. (vgl Hugill 2002b) Anfang des 20. Jahrhunderts wurden erste Schritte zur Individu- alisierung der Instrumentation gesetzt. Stravinsky komponierte ein Concerto für Klavier und Blasinstrumente und setzte die Anfänge für eine Individualisierung der Instrumentation. (vgl. Hugill 2002c) Die Klangfindung wird im 20. Jahrhundert bedeutungsvoller als Kompositionstechniken wie Kontrapunkt oder Melodieführung. (vgl. Schneider 1997, S. 198f) Insbesondere die postseriellen Klangflächenkompositionen von György Ligeti und Krzysztof Penderecki in den 1960er Jahren sind Produkte dieser Tendenz. (vgl. Kolleritsch 1987, S. 179) Dem physikalischen Studium des Klangs im Serialismus, was einem De-Komponieren glich, folgte ein Zusammenfügen (sozusagen wieder der Weg zum Komponieren) dieser einzelnen Klänge mit Hilfe von fortgeschrittenen Instrumentationstechniken. (vgl. Schneider 1997, S. 199) 5.6.8.2. Filmmusikalisch historische Instrumentation Für Franz Waxmann ist die Farbigkeit der Orchestrierung wichtiger als die Melodie. (vgl. Thomas 1995, S. 46) In der symphonischen Filmmusik hat sich bei größeren Produktionen, laut Schneider (1990, S. 38), die spätromantische Vierer-Orchesterpalette als traditionelles Arbeitsmittel entwickelt. Mit Mehrspuraufnahmen kann auch mit weniger als der Vollbesetzung aufgenommen werden. Kriterien für 86 Filmmusikalische Charakteristiken die Instrumentation sind hier vor allem das Räumliche, die Lautstärkenintensität und der gewünschte Orchesterklang. Für Heiner Goebbels spielt die Dimensionierung der Instrumente eine tragende Rolle. Die Räumlichkeit im Film sollte mit der Instrumentierung übereinstimmen. So wird ein großes Orchester bei einem kleinen Film, der in einem Keller spielt, fehl am Platz sein. (vgl. Schneider 1990, S. 38) Brown (1994, S. 59) schreibt hierzu jedoch, dass mit zunehmender Größe des Filmmusikensembles, die Musik immer unsichtbarer wird. Durch die Vollbesetzung im Symphonieorchester verschwindet das Orchester in sich selbst durch die Vielzahl an verschiedenen Klangfarben und der Größe des Klangs. Je größer das Orchester, desto umfassender ist das Potential der Musik ins Unbewusste zu wandern. Eine Vorstellungsmöglichkeit für die Arbeit des Instrumentierens ist ein Arrangieren von Klangfarben, da jedes Instrument bereits einen gewissen Ausdruckscharakter mit sich bringt, der sich in der klassischen und romantischen Musik entwickelt hat. Eine grobe Einteilung setzt Streichinstrumente für lyrische, Holzbläser für pastorale und Blechbläser für heroische Situationen ein. (vgl. Lissa 1965, S. 288; Schneider 1997, S. 199) Eine dauerhafte leitmotivische Bindung von einzelnen Filmfi- guren und einzelnen Instrumenten erweist sich als sehr zuverlässig. Die Mundharmonika eignet sich gut für einen kleinen Jungen, robustere bäuerliche Charaktere harmonieren sehr gut mit einer Basstuba, der bürgerliche Dandy verträgt sich gut mit einem Klavier. Neue Koppelungen, abseits der alten Klischees, erweisen sich allerdings immer als frisch und innovativ und sind laut Schneider empfehlenswerter. (vgl. Schneider 1997, S. 65) Unkonventionelle Instrumentierungen wurden zum Beispiel von Mancini im Film Der unheimliche Besucher (1971) benutzt. Ein Kammerorchester ohne Streicher, dafür mit zwölf Holzbläsern, einer Orgel, zwei Klaviere und zwei, um einen Viertelton verstimmte, Cembalos ergeben einen sehr dissonanten und unwirklichen Klang, der die Eigenschaften des Hauptcharakters wiedergibt. Auch der Einsatz von Elementen der konkreten Musik als Instrumentierung (gestimmte Aluminiumschüsseln, eine über einen Gong gestreifte Triangel, ...) verschafft Jerry Goldsmith in Planet der Affen (1968) eine einzigartige Stimmung. (vgl. Brown 1994, S. 178) 87 Filmmusikalische Charakteristiken 5.6.8.3. Elektronische Instrumentierung Die Instrumentierung elektronischer Werke fällt anders aus als bei akustischen. Bei rein elektronischer Ästhetik wird im Prinzip nur in Klangfarben gedacht, nicht in Instrumenten. Ein Basslaut kann in vielfach modulierten Varianten generiert werden. Die Ästhetik des Klangs steht vor der Ästhetik einer bestimmten Standardinstrumentierung. Kurtz erwähnt hierbei, dass bestimmte Synthesizertypen bestimmte Klangqualitäten verwirklichen können. Auch Goldstein schreibt, dass die Wahl des Synthesizers die Möglichkeiten der Klanggenerierung stark beeinflusst. (vgl. Prendergast 1992, S. 307) Aktuell ist jedoch, wie Simon Franglen beschreibt, die Technik so ausgereift, dass auf keine Hardwaregeräte mehr zurückgegriffen werden muss. Franglen nutzt einen Computer, der mit genügend Rechenleistung ausgerüstet, alle eigenständigen Hardwaresynthesizer ersetzen kann. Ein voll ausgerüstetes Studio kann sich aktuell also auf einen Computer und eine geeignete Abhöranlage beschränken. (vgl. Pensado/Trawick 2012) Franglen nutzte als Beispiel für den elektronischen Bereich des Scores von Avatar unter anderem Elemente der Komplete Suite von Native Instruments und Plugins von Spectrasonics und Soundtoys. (vgl. Levine 2011) Spätestens mit dem Aufkommen modularer Soundprogrammierungsumgebungen wie Pure Data, Max/MSP und Reaktor erscheint das Feld der Möglichkeiten noch weiter und die Anzahl der verschiedenen Klänge endlos. Für technisch interessierte und versierte Komponisten besteht in dieser Variante ein schier unendliches Klangpotential. Laut Kloppenburg (2000, S. 36) bewirkt eine durchdachte Instrumentation expressive Eindeutigkeit. Die Hervorhebung einzelner Instrumente gegenüber gleichklingender Streichersounds stellt sich als effektiv heraus, wie zum Beispiel Bernard Herrmann mit der Hervorhebung einer Bassflöte oder eines gedämpften Horns beweist. Dasselbe kann zur elektronischen Instrumentation weitergedacht werden. Ein durchdachter Klangraum, der einzelne Elemente hervorhebt, wirkt anders als 88 Filmmusikalische Charakteristiken eine reine Wall of Sound Ästhetik, bei der alles gleichstark hervortritt und keine Akzente gesetzt werden. David Yewdall (2003, S. 401) weist darauf hin, dass die gewählte Instrumentation immer mit dem Klang und Frequenzraum der Soundeffekte abgestimmt werden muss. Eine Filmszene, die von Bassinstrumenten begleitet wird, sollte zum Beispiel keinen Vulkanausbruch beinhalten, der ebenfalls im tieftönigen Bereich akustisch präsent sein wird. Eine Absprache mit den Sounddesignern ist also immer notwendig, siehe auch Kapitel 5.3. Der Autor hatte bei seinen bisherigen elektronischen Filmkompositionen festgestellt, dass es von Vorteil ist im Vorfeld über Moods und Beispieltracks die Klangästhetik der gewünschten Musik ungefähr mit dem Regisseur bzw. der Regisseurin einzuschränken. Dadurch wird ein eingegrenztes Arbeitsgebiet definiert, dass ein endloses Experimentieren verhindert. Zu beachten ist dabei jedoch, dass der Kreativprozess dadurch nicht eingeschränkt werden darf. So wurde z.B. beim Film Neben meinem Bruder im Vorproduktionsstadium eine Ästhetik festgelegt, die in Richtung experimentelle aber sanfte Elektronik ging, im Endstadium hat sich jedoch eine klassischere Klavier und Streicherkombination als zum Filminhalt passender erwiesen. 5.6.9. Stille „ ‚Für Kafka ist das Schweigen eine noch schrecklichere Waffe als der Gesang‘, schreibt Berendt (1985, 33). Kafka prägte auch den Begriff der Dröhnenden Stille.“ (Flückiger 2002, S. 231) Stille kann sehr unterschiedliche Funktionen im Film ausführen. Eine drastische Spannungssteigerung kann jedoch in jeder ihrer Einsatzmöglichkeiten verzeichnet werden. (vgl. Lissa 1965, S. 242) In den Anfangszeiten des Tonfilms, vor allem in der Stummfilmzeit, wurde eine pausenlose Begleitung durch Musik durchgeführt, erst Komponisten und Komponistinnen wie zum Beispiel Bernard Herrmann 89 Filmmusikalische Charakteristiken präzisierten die Musik in ihrem Einsatz. Musiklose Passagen sind genauso wichtig wie Szenen mit Musik, schreibt Elmer Bernstein. (vgl. Russell/Young 2001, S. 43) Stille kann jedoch nicht ohne ihrem Gegenüber, dem Klang, stehen. Stille hat nur Wirkung, wenn davor ein akustischer Laut jeglicher Art aufgetreten ist. (vgl. Lissa 1965, S. 242) „Stille hat nur dort Bedeutung, wo es auch laut sein könnte. Wo eine Absicht dabei ist“, schreibt Bela Balázs 1930. (vgl. Flückiger 2002, S. 233) Dies bestätigt auch Zbigniew Preisner. (vgl. Russell/Young 2001, S. 165) Chion (vgl. 1994, S. 67) beschreibt die Stille als das Negativ der vorher auftretenden Geräusche, das Produkt des Kontrastes. Für einen Komponisten bzw. eine Komponistin ist es deshalb wichtig, den Einsatz von Musik präzise zu halten, wie auch in Kapitel 5.7 beschrieben wird. Max Steiner nennt diese Fähigkeit als eine der wichtigsten bei einer Filmkomposition. (vgl. Thomas 1995, S. 76) Während laut Schneider (1997, S. 191f) laute Klänge das Publikum schnell desensibilisieren, liegt in dem Leisen und der Stille eine große Wirkungskraft, die das Publikum in den Film hineinzieht. Laute Musik distanziert die Besucher vom Film. Exzessive Lautstärken sind laut Flückiger (2002, S. 243) überdurchschnittlich oft mit Aggression und Anspannung konnotiert, also Kampfszenen, Showdowns und Verfolgungsjagden. Einzig dominant euphorische Montagen werden bei positiver emotionaler Aussage mit lauter Musik versetzt. Im deutschsprachigen Raum sind vor allem durch die Dogma 95-Bewegung vermehrt gänzlich musiklose Filme produziert worden, die auch mit einem puristischen Original-Ton funktionieren. (vgl. Aufderhaar 2009, S. 22) Der völlig realistisch intendierte Eindruck dieser Filmgattung ist jedoch in Sachen Musiklosigkeit nicht direkt auf die oft lyrischen Anforderungen der Filme des Populärkinos übertragbar. Im Film No Country For Old Men (2007) wird, durch die fast vollständige Abwesenheit von Musik, die Spannung und Intensität der Szenen gesteigert. Die ansonsten im Thriller übliche Spannungsmusik wird hier durch eine subtile, fesselnde Geräuschebene ersetzt, die durch die erdrückende Stille das Publikum auf jedes akustische Ereignis, wie annähernde Schritte oder Schüsse, verstärkt reagieren lässt. (vgl. Lim 2008) Stille bedeutet im Film eben kein akustisches Loch ohne jegliches akustisches Signal, sondern die Reduktion auf minimale Elemente der Geräuschebenen: Windrauschen, Umgebungsgeräusche, Zikadenzirpen oder Ähn- 90 Filmmusikalische Charakteristiken liches. Die Geräuschmikroskopie sensibilisiert das Publikum und intensiviert die Reaktion auf darauffolgende laute akustische Ereignisse. (vgl. Keller 2000, S. 144) Ein dramatischer Effekt kann deshalb auch Musik aus einer langen Stille heraus sein. Christin Aufderhaar (2009, S. 22), spricht von völlig eigenständigen Stücken, die vollständig als intensives geschlossenes Musikstück durchinszeniert werden und eine große Wirkung erzielen. Schneider (1997, S. 16) führt hierzu eine Szene aus Cyrano de Bergerac auf, die die Emotionalität des sterbenden Christian auf diesem Wege übermittelt. Auch in Gus van Sants Film Gerry (2002) wird dieser Effekt genutzt. Die den gesamten Film andauernde Musiklosigkeit wird nur an zwei Stellen aufgebrochen, in der die als Gesamtstück auftretende Musik dadurch umso intensiver wirkt. 5.7. Timing In einem Großteil der Fälle entsteht die Filmmusik nach Beendigung des Roh- oder Feinschnitts. Nach der Besichtigung des geschnittenen Materials durch meist den Filmkomponisten bzw. die Filmkomponistin und den Regisseur bzw. die Regisseurin in der so genannten Spotting Session, werden die mit Musik zu untermalenden Stellen endgültig festgelegt. (Kloppenburg 2000, S. 38) Dabei ist es laut Max Steiner die wichtigste Eigenschaft eines Komponisten beurteilen zu können „wann und wo Musik nötig ist, wo sie beginnen und enden muß.“ (Thomas 1995, S. 76) Die durchschnittliche Anzahl an Musiktakes pro Film liegt bei ca. 10 bis 20 Takes. Besonders musikliebend oder melodramatisch werden Filme mit 20 bis 30 Takes wahrgenommen. Auch über 30 Takes treten selten, aber doch auf. (vgl. Schneider 1990, S. 266) Ob ein Film eher trocken, bildbetont (äußerlich und realistisch) oder musiklastig (psychisch und innenorientiert) sein soll, muss bereits im Vorhinein festgelegt werden. Eine Gesamtmusikdauer von circa 25 bis 50 Prozen der Filmgesamtlänge wird als durchschnittlich angesehen. Verschiedene Genres geben hier jedoch auch verschiedene Verteilungen vor, so sind irreale Stoffe (Märchen, Fantasy, Horror) meist musikbedürftiger und politische oder realistische Materialien karger mit Musik verziert. In der anfänglichen Konzeption muss auch die Dichte der Musik über die Gesamtfilmlänge festgelegt werden. So wird im ersten Drittel, der 91 Filmmusikalische Charakteristiken Exposition, oft mehr Musik benötigt, um Stimmungen zu begründen und die Charaktere plastischer zu präsentieren. Gegen Ende des Films, nach der Etablierung der Handlungsstränge, wird meist weniger Musik benötigt. (vgl. Schneider 1997, S. 65) Der Einsatz der Musik, also der Beginn und Ende eines Takes, ist sehr bezeichnend. Meist setzt die Filmmusik in Verbindung mit einer neuen Räumlichkeit, Person, Stimmung, Kameraeinstellung oder Handlungsstrang ein. (vgl. Schneider 1997, S. 66) Ein harter Einstieg der Musik mit Akzentuierung gibt dem Film einen dynamischen Charakter. Bullerjahn (2001, S. 169) erklärt dies mit einer einsetzenden Orientierungsfunktion, die durch plötzlich beginnend oder abreißende Musik hervorgerufen wird. Die Reaktion erhöht die Wachsamkeit und die Neugierde, da das Publikum bereits durch seine mediale Schulung weiß, dass die Ursache für die musikalische Abruptheit im Bild zu finden sein muss. Das abrupte Aufhören der Musik „weist wie der Doppelpunkt in der Schriftsprache auf das Kommende hin“. (vgl. Schneider 1997, S. 66f) Diese Eigenheit wird auch bei den Trailern und Intros für Fernsehserien oder Nachrichtensendungen genutzt, um die Aufmerksamkeit auf das Bildgeschehen zu lenken. (vgl. Bullerjahn 2001, S. 169) Jens-Peter Ostendorf postulierte: „Musik muss unmerklich kommen und gehen, als wäre sie im Film immer da.“ (vgl. Schneider 1990, S. 132) Er nutzt diesen zusätzlichen Effekt der gesteigerten Aufmerksamkeit also nicht. Bei einem allmählichen unbemerkten Erscheinen oder Aufhören der Musik wird sie wesentlich unbewusster konsumiert und die Aufmerksamkeit des Publikums nicht zusätzlich gelenkt. (vgl. Schneider 1997, S. 66f) 5.8. Synchronität von Bild und Musik Zur exakten Zusammenarbeit von Musik- und Bildebene werden so genannte Synchronpunkte (syncpoints, cue points) definiert. Diese definieren präzise Zeitpunkte, an denen Umschwünge, Akzente oder Ähnliches in der Musikebene passieren. (vgl. Schneider 1997, S. 21) Entspricht die völlige Übereinstimmung von Bild und Ton der „Videoclip-Ästhetik“ unserer Zeit, trägt sie jedoch auch immer die Gefahr mit sich, in das geringgeschätzte Mickey Mousing abzudriften. Obwohl sie sicherlich ein schwierig zu erreichendes Kriterium ist, stellt eine perfekte Synchronisati- 92 Filmmusikalische Charakteristiken on noch kein Qualitätskriterium dar. Oft passiert es, dass Musik im Schnitt oder Ähnlichem ein oder zwei Sekunden nach vorne oder hinten geschoben wird. Eine nur durch ihre exakte Synchronisation funktionierende Musik verliert damit sofort ihre Bedeutung. (vgl. Schneider 1997, S. 155) Laut Lissa (1965, S. 370) muss jede „Filmmusik so elastisch sein, dass in jedem Augenblick eine musikalische Episode verlängert oder verkürzt werden kann, falls die Montage der visuellen Schicht diese verlangt“. (Lissa 1965, S. 370) „Bei mir hat sich die Gewissheit eingeschlichen, dass autonome Musikalität (ein gutes Thema, freies Ausschwingen eines Klanges, das Nachspüren einer rhythmischen Eigengesetzlichkeit, das freie Beenden einer Spannungslinie) einer Filmmusik besser bekommt, als das sklavische Nachzeichnen von Schnitten und Bildakzenten.“ (Schneider 1997, S. 155) Adorno/Eisler (1996, S. 151) und Thiel (1981, S. 95) sprechen von einer labilen Kompositionsweise, die vollendetes Synchronisieren mit einem lebendigen autonomen Vortrag verbindet. Synchronitätspunke sind zum Beispiel trotzdem zu beachten, wenn ein Szenenwechsel während eines Musiktakes stattfindet, da die Musik hierauf sehr präzise interagieren muss. Bei aktionsreichen Filmstellen, mit hoher Dichte von syncpoints, wird nicht jeder davon berücksichtigt werden können. Deshalb hilft in solchen Situationen, „die Akzente der großen Bewegungsabläufe und der wichtigen Schnitte zu berechnen und für alle schnelleren Bewegungen Musik mit rhythmischen dichten Abläufen anzubieten“. (Schneider 1997, S. 155) Die Musik ergibt mit ihren schnellen Bewegungen dann automatisch die benötigte Synchronität. Hinsichtlich der Synchronität zum Bild muss auch überlegt werden, ob bei der Aufnahme des Materials mit so genanntem Click-Track gespielt wird oder ohne. Schneider beschreibt die Vorteile des agogischen Atmens des Orchesters bei free timing (also ohne Click-Track) als mit einer besonderen unverwechselbaren Aura versehen. Bei Musiken mit großem Schlagwerkanteil kann das Spielen zum Click jedoch adäquater sein. Beim Free Timing wird meist zu einer Filmprojektion live gespielt, um syncpoints, also Akzente und Übergänge, korrekt bespielen zu können. Dies verursacht jedoch hohe Mehrkosten und lenkt den Blick der Musiker 93 Filmmusikalische Charakteristiken und Musikerinnen von dem Dirigenten bzw. der Dirigentin ab. (vgl. Schneider 1997, S. 162) Elektronische Musik hat im Bezug zur Synchronität durch ihre rein technische Produktionsweise am Computer die Möglichkeit, immer völlig synchron zum Bild zu arbeiten. Freies Einspielen eines Orchesters mit Clicktracks ist nicht notwendig, vor allem wenn die Klangerzeugung direkt im Computer, basierend auf MIDI-Eingaben oder ähnlichen Formaten, stattfindet. „For example, I love the way that you can ‚touch‘ a note in the score and see the video automatically jump to the frame that is in sync with that note. Then, if you want to, you can move your note to the frame that you want it to hit.“ - David Hirschfelder (Sound on Sound 1994) Die völlige Synchronität ist jedoch vor allem bei beatorientierter Musik, wie sie die elektronische Musik sehr oft ist, ein Problem. Das Resultat einer nachträglich komponierten, starren, gleichtaktigen, rhythmusorientierten Musik ist in Kombination mit dem visuellen Rhythmus zwar zu einigen Bezügen passend, in der Gesamtsequenz meist jedoch schwierig einzugliedern. Hier ist die einzige Möglichkeit, Bild und Ton völlig zu synchronisieren, das Bild im Nachhinein zu verändern. Die dadurch entstehende Videoclipästhetik ist jedoch nicht für jede Szene empfehlenswert. Rhythmusfreie und agogisch atmende Klangflächen und Musiken haben hier generell einen großen Vorteil. Sie können frei auf das Bild reagieren und sind nicht an den auditiven Eigenrhythmus gebunden. 5.9. Zusammenfassung Die Bild-Ton-Beziehung hat auf Grund der unterschiedlichen Rezeptionsweisen der einzelnen Ebenen die Möglichkeit einerseits die analytische und andererseits die emotionale Seite des Gehirns mit einzubeziehen. Die Gemeinsamkeiten von Bild und Ton als zeitbasierte und dramaturgische Medien führen zu einer synthetischen Wahrnehmung, die nicht ohne den Gesamtkontext analysiert werden darf. Die Analyse der Tonspur im Bezug zum Bild hat gezeigt, dass elektronische 94 Filmmusikalische Charakteristiken Filmmusik oftmals mit den Geräuschen kongruiert und das Sounddesign großes Potenzial zur Zusammenarbeit bereitstellt. Elektronische Musik kann grob in texturbasiert (Drones) und rhythmusbasiert (Beatmusik) eingeteilt werden. Die Analyse der musikalischen Gestaltungsmerkmale hat dabei gezeigt, dass die rhythmusbasierte Musik Einschränkungen im Einsatz aufweist. Sie ist weniger flexibel als flächige Klänge und verändert durch ihren prägnanten Rhythmus den visuellen Schnitt möglicherweise ins Negative. Flächige Texturen können flexibler auf Syncpoints reagieren und direkter mit dem Bild interagieren. Zusammengefasst sind die Möglichkeiten elektronischer und symphonischer Musik jedoch äquivalent. Einzig der ästhetische Unterschied der Klangqualitäten fällt drastisch aus und muss zum Gesamtkonzept des Films passen. Die Entscheidung welche Musik eingesetzt wird, sollte deshalb immer von den Bedürfnissen des Films ausgehen, wie im folgenden Conclusio genauer erörtert wird. 95 Conclusio 6 Conclusio 96 Quellen „Wer über Filmmusik schreibt, fischt – klipp und klar gesagt – in trüben Gewässern“. (Pauli 1981, S. 37) Dieses Problem hat sich auch dem Autor beim Verfassen dieser Arbeit gestellt. Es gibt zwar einen Grundkanon von mehreren Autoren und Autorinnen, die verschiedene Filmmusiken analysieren und Funktionen und Möglichkeiten aufzeigen. Die Problematik ist hierbei jedoch oft, dass ein Großteil der Autoren und Autorinnen nur dem musikalischen Zweig entstammen (vgl. Prendergast, Kreuzer und andere), weswegen die eigentliche Synthese aus Musik und Ton nur aus dem Blickwinkel der autonomen Musik analysiert wird, was aber zu keiner umfassenden Aussage der spezifischen Verbindung zwischen auditiver und visueller Ebene führt. Die Verbindung zwischen auditiver und visueller Schicht ist aber das Hauptelement der Funktionalität von Filmmusik. Bullerjahn (2001, S. 141) führt eine vorgelagerte getrennte Analyse von Bild und Musik an. Zuerst sollen alle musikalischen Parameter, der funktionale Zusammenhang zwischen Bild und Musik und die resultierende Gesamtaussage erfasst werden. Danach kann erst die Bewertung „der erfüllten oder unterlassenen filmmusikalischen Konventionen materialstilistischer Gegebenheiten“ durchgeführt werden. Bei der isolierten Betrachtung eines Musikstückes im Vorhinein, in Bezug auf seine musikimmanenten Strukturen, wird dies nicht zur Analyse im filmischen Bereich eingesetzt, sondern nur um die Form im Vorhinein zu begreifen. (vgl. Kreuzer 2001, S. 128) Eine Gesamtbeurteilung von Filmmusik muss daraus folgend immer in der Verbindung zum Bild und der Dramaturgie, ohne perspektivische Einschränkungen, stehen. Die grundlegende Frage, die mit dieser Arbeit erforscht wurde, beschäftigt sich mit den Unterschieden beim Einsatz symphonischer Filmmusiken und elektronischer, bzw. deshalb nicht-orchestraler Filmmusiken. Dabei haben sich folgendes Ergebnisse herauskristallisiert: Melodie und Motive treten bei der symphonischen Musik, gleich wie bei der elektronischen Musik, auf. Eine eingängige Melodie kann den Wiedererkennungswert stark erhöhen. In der elektronisch erzeugten Filmmusik lässt sich jedoch ähnlich zu den Arbeiten Bernhard Herrmanns eine Ablösung vom Melodischen und eine starke Tendenz zu flächigen Drones und abstrakten Klangfolgen erkennen. Der Klang bzw. Sound selbst als Ausdrucksqualität ist in 97 Quellen der elektronischen Musik wesentlich wichtiger als in der symphonischen. Ähnlich zur Popmusik stellt die individuelle Klangästhetik eines der wichtigsten Merkmale und Arbeitsmittel der elektronischen Filmmusik dar. Was in der symphonischen Musik die Findung der passenden Instrumentation darstellt, ist in der elektronischen die Suche nach den richtigen Klängen. Hier stellt sich ein Unterschied zur symphonischen Musik dar, bei der der Sound immer nach einem, zwar möglicherweise individuell instrumentierten, Orchester klingt, jedoch keine spezifische Soundästhetik erwünscht ist. Elektronische Musik, wenn sie sich hauptsächlich nur aus Klang ohne harmonischen Bezug zusammensetzt, streift in diesem Zusammenhang an der Grenze zum Sounddesign. Eine Unterscheidung dieser Beiden ist oft nicht vollständig möglich. Ein ausgereiftes Sounddesign kann hierbei Filmmusik bei passenden Sequenzen gänzlich obsolet machen und selbst als konkrete Musik auftreten. Bei der Wahl einer speziellen elektronischen Klangästhetik ist jedoch zu beachten, dass diese noch mehr datiert als z. B. ein gewählter Kompositionsstil in der symphonischen. Der filmmusikalische Einsatz brandaktueller Trends in der elektronischen Musik ist also immer zu hinterfragen, da diese im Regelfall schon nach kurzer Zeit wieder vom nächsten Trend überholt sind und den Film schneller altern lassen (vgl. z.B. Lola Rennt (1998)). Symphonische Musik weist hier Großteils eine längere „Halbwertszeit“ auf. Die bereits erwähnte flächige elektronische Musik bringt Vorteile für das Zusammentreffen von visuellem und auditivem Rhythmus. Ein stark definierter Rhythmus in der Filmmusik dominiert das Bild voll und ganz und stört dabei den visuellen Rhythmus, mehr als er mit diesem zusammenarbeitet. Vor allem dann, wenn das Bild nicht direkt zur Musik passend geschnitten wird, was aber über eine längere Sequenz hinweg im Spielfilm zu einer ästhetisch nicht sinnvollen Lösung führt. Elektronische Tanzmusik basiert auf einem geraden, repetitiven Rhythmus, sie ist deshalb für viele Sequenzen im Film nicht geeignet. Die hohen Tempi in der elektronischen Tanzmusik wirken bei ihrem autonomen Einsatz des Weiteren sehr intensivierend und körperbezogen, kombiniert mit der visuellen Ebene fällt jedoch auf, dass sie hier die Zeitwahrnehmung nicht beschleunigen, sondern verlangsamen, was den Einsatz bei Actionsequenzen oft ad absurdum führt. Hier empfiehlt es sich oftmals die Musikebene bei intensiven Szenen beruhigt zu halten und dem Sound- 98 Quellen design Platz zur Entfaltung zu geben (vgl. No Country for Old Men (2007), Drive (2011), …). Generell ist eine intensive Zusammenarbeit mit den restlichen Abteilungen der Tonproduktion (Sounddesign, Mischung, Tonschnitt, …) zu empfehlen, da häufig in der Kooperation mit den anderen Ebenen des Tons ein stimmigeres Gesamtbild entstehen kann. Die Analyse der einzelnen musikdramaturgischen Gestaltungselemente hat also im Gesamten zusammenfassend ergeben, dass keinerlei gravierende Unterschiede im Einsatz zwischen symphonischer und elektronischer Musik auftreten. Einzig die ästhetischen Qualitäten der jeweiligen Stilistiken unterscheiden sich stark. Es kann aber jegliche kompositorische Anforderung mit beiderlei Mitteln realisiert werden. Filmmusik zu komponieren ist ein sehr intuitiver und emotionaler Prozess. Filmmusikkomponisten und -komponistinnen arbeiten deshalb oft mit nicht dermaßen komplexen Methoden wie ihre Kollegen und Kolleginnen aus der autonomen symphonischen Musik. Die persönlichen Voraussetzungen für die Filmmusikkomposition deuten allesamt daraufhin, dass die besten autonomen Komponisten und Komponistinnen nicht automatisch auch die besten Filmmusiken schreiben können. Durch den großen emotionalen Einfühlungsbedarf und die Eingliederung in die Rahmenbedingungen, wie Dramaturgie, Schnitt oder Bildinhalte, bestehen auch trivialere Musiken im Film als in der autonomen Musik. Dies begünstigt natürlich den Einstieg zur Filmmusik aus der Popmusik, da in der Popmusik auch der emotionale Ausdruck stark fokussiert wird. Bei einer fehlenden kompositorischen Grundausbildung schränkt sich jedoch der mögliche Stil einer Filmmusik stark ein. Jeder Film erfordert im Optimalfall eine spezifische Stilrichtung, die die gewünschte Aussage unterstützt. Einen bestimmten Stilpluralismus zu beherrschen hilft deshalb auch in anderen Stilen, als dem persönlich präferierten, mögliche Chancen zu erkennen, da der persönliche Musikstil eines Komponisten bzw. einer Komponistin nicht immer zu jeglichen Filminhalten passt. Die Verbindung der Musik zum Film muss immer vor persönlichen musikalischen Stilpräferenzen stehen! Die aktuellen technischen Entwicklungen und die Möglichkeiten elektronische Musik zu gestalten schreiten rasant voran. Vor allem die Samplingtechnologie hat sich stark verfeinert und eine beinah realistische, bzw. für Laien nicht mehr zu 99 Quellen unterscheidende, Simulation akustischer Instrumente ist möglich. Dennoch ist das Einspielen mit Originalinstrumenten zu empfehlen, da jeder Instrumentalist neben der individuellen Färbung auch weitere Spieltechniken weit abseits der gesampelten Klänge mitbringen kann. Insbesondere experimentelle Einsätze und Spielweisen akustischer Instrumente sind nur mit Originalinstrumenten möglich. Vorgefertigte Samples schränken in diesem Bereich die Kreativität stark ein. Bei der Erzeugung originärer elektronischer Klänge ist es von Bedeutung, bereits im Vorhinein ein gewünschtes Klangkonzept zu entwickeln, da ansonsten endlos nach neuen Klängen geforscht werden kann. Eine zielorientierte und wenig experimentierfreudige Arbeitsweise ist deshalb im zeitlich meist knapp bemessenen Filmgenre oft vonnöten. Die in Kapitel 1.1.3 beschriebene Tendenz der Oscarverleihungen, elektronische bzw. jegliche nicht-orchestrale Musiken verstärkt zu berücksichtigen, wird sich in den nächsten Jahren voraussichtlich weiter fortführen. Dies beeinflusst wiederum die Entscheidungsträger des Hollywoodfilms vermehrt diese einzusetzen, da sie sich als ökonomisch rentable Alternative bestärken. Deshalb werden, rein aus der kapitalistischen Perspektive gesehen, in Zukunft wohl vermehrt Filme mit Musik abseits der klassischen Hollywoodsymphonik finanziell gefördert werden. Erfolge wie die Musiken für The Social Network (2010) und The Girl with the Dragon Tattoo (2011) von Trent Reznor und Atticus Ross haben sicher auch andere zeitgenössische Musiker aus dem Popkanon auf den Geschmack gebracht, für den Film zu komponieren. Zu beachten ist hier jedoch wieder, dass die Stilistik der besagten Filmmusiken der Industrial-Rockmusiker stark dem persönlichen Musikstil ihrer autonomen Musiken entspricht. Eine Untermalung jeglicher Filminhalte ist ihnen, auf Grund der bereits durch das Genre eingeschränkten Aussagekraft der Musik, nicht möglich. Die Entscheidung, ob symphonische, elektronische oder überhaupt Musik eingesetzt wird, ist immer den Bedürfnissen des Films zu überlassen. Finanziellen, persönlich motivierten oder stilistisch eingegrenzten Forderungen darf deshalb nicht stattgegeben werden. Nicht jeder Film harmoniert mit rein elektronischer Musik und nicht jede Ästhetik ist mit symphonischer Musik realisierbar. Die Bildton-Synthese und Funktion des Films steht immer im Vordergrund des Klang- 100 Quellen konzepts. Der Film und dessen Dramaturgie entscheidet deshalb welche Musik eingesetzt werden sollte! 101 Quellen Quellen 102 Quellen Literaturverzeichnis Adorno, Theodor W. / Eisler, Hanns (1996): Komposition für den Film, Neuauflage, Hamburg: Europäische Verlagsanstalt Aufderhaar, Christine (2009): Fuga improvisata. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 10-24 Baumann, Gerd (2009): Settembrini und Naphta. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 26-30 Benjamin, Walter (1963): Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Frankfurt a. M.: Suhrkamp Birbaumer, Niels / Schmidt, Robert F. (1991): Biologische Psychologie, Berlin: Springer Bode, Andreas / Müller, Christoph (2010): Mit Medienmusik erfolgreich in der Kreativwirtschaft: Ein praxisorientierter Leitfaden für die professionelle Musiknutzung in der Kreativwirtschaft, München: Musikmarkt GmbH & Co KG British Broadcasting Company (1931): BBC Yearbook, London: British Broadcasting Company Brophy, Philip / Eagger, Fiona / Giarrusso, Vince (2001): Mallboy: a case study of sound and music for an australian feature. In: Brophy, Philip (Hg.): Cinesonic: Experiencing the soundtrack, North Ryde: Australian Film Television and Radio School, S. 19-40 Brown, Royal S. (1994): Overtones and Undertones: reading film music, Berkeley and Los Angeles: University of California Press 103 Quellen Bruhn, Herbert (1993): Tonpsychologie - Gehörpsychologie - Musikpsychologie. In: Bruhn, Herbert / Oerter, Rolf / Rösing, Helmut (Hg.): Musikpsychologie: Ein Handbuch, Reinbek b. Hamburg: Rowohlt. S. 439-451 Bullerjahn, Claudia (2001): Grundlagen der Wirkung von Filmmusik, Augsburg: Wißner Burt, George (1995): The Art of Film Music, Boston: Northeastern University Press Chion, Michel (1994): Audio-Vision: Sound on Screen, New York, NY: Columbia University Press Cox, Christoph / Warner, Daniel (2004): Audio Culture: Readings in Modern Music, London: Continuum Craft, Robert (1961): Igor Strawinsky. Gespräche mit Robert Craft, Zürich: Atlantis Destunis, Georg (1958): Beiträge zur Frage der Musikeinwirkung auf die zwischenhierngesteuerten Funktionen des Kindes. In: Teirich, H. (Hg.): Musik in der Medizin, Stuttgart: Fischer, S. 54-67. Dohmen, René / Dürbeck, Joachim (2009): Wie eine chemische Reaktion. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 32-44 Elias, Karim Sebastian (2009): Der Weg, für den man sich entscheidet. Ein Werkstattgespräch mit Beatrice Ottersbach. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 46-56 104 Quellen Emons, Hans / De la Motte–Haber, Helga (1980): Filmmusik: eine systematische Beschreibung, München: C. Hanser Evens, Aden (2005): Sound Ideas: Music, Machines and Experiences, Minneapolis, MN: Univerity of Minnesota Press Faulstich, Werner (2002): Grundkurs Filmanalyse, München: Wilhelm Fink Verlag GmbH & Co KG Flückiger, Barbara (2002): Sound Design: die virtuelle Klangwelt des Films, 2. Aufl., Marburg: Schüren Hillebrand, Christiane (1996): Film als totale Komposition: Analyse und Vergleiche der Filme Mauricio Kagels, Frankfurt a. M.: P. Lang Hoffer, Charles (2012): Music Listening Today, 4. Aufl., Boston, MA: Cengage Learning Holmes, Thom (2002): Electronic and Experimental Music, 2. Aufl., New York, NY: Routledge Hünermann, Tobias (2004): Kompositorische Stationen des 20. Jahrhunderts: Debussy, Webern, Messiaen, Boulez, Cage, Ligeti, Höller, Bayle, Münster: Lit Verlag Münster Gorbman, Claudia (1987): Unheard Melodies: Narrative Film Music, Bloomington: Indiana University Press Kahn, Douglas (1999): Noise, Water, Meat: a history of sound in the arts, Cambridge, MA: MIT Press 105 Quellen Kalinak, Kathryn M. (2010): film music: a very short introduction, Oxford: Oxford University Press Karlin, Fred / Wright, Rayburn (2004): On the track: a guide to contemporary film scoring, New York, NY: Routledge Keller, Matthias (2000): Stars and Sounds: Filmmusik - die dritte Kinodimension, Kassel: Bärenreiter Kinsky-Weinfurter, Gottfried (2001): Das Verschwinden der Hochkultur. In: Neubauer, Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in Film und Fernsehen, Hamburg: von Bockel, S. 9-23 Kloppenburg, Josef (2000): Filmmusik. Stil–Technik–Verfahren–Funktionen. In: Kloppenburg, Josef (Hg.): Musik multimedial - Filmmusik, Videoclip, Fernsehen, Laaber: Laaber, S. 21-56 Korte, Helmut (1988): Systematische Filmanalyse als interdisziplinäres Programm. In: Zeitschrift für Literaturwissenschaft und Linguistik, Beiheft Nr. 15, Göttingen, S. 166-183 Kolleritsch, Otto (1987): György Ligeti: Personalstil, Avantgardismus, Popularität, Wien: Universal Edition Kracauer, Siegfried (1971): Theorie des Films, Frankfurt a. M.: Suhrkamp Kraft, William (1992): Foreword to the Second Edition, by William Kraft. In: Prendergast, Roy M.: Filmmusic: a neglected art: a critical study of music in films, New York, NY: W. W. Norton & Co Kreuzer, Anselm C. (2001): Filmmusik: Geschichte und Analyse, Frankfurt a. M.: Lang 106 Quellen Lemberg, Jörg (2009): Apologia. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 58-81 Levy, Emanuel (2003): All about Oscar: the history of politics of the Academy Awards, New York, NY: Continuum Lissa, Zofia (1965): Ästhetik der Filmmusik, Berlin: Henschel Millar, Gavin/Reisz, Karel (2009): The Technique of Film Editing, 2. Aufl., Oxford: Focal Press Onofrio, Jan (2007): Pennsylvania Biographical Dictionary - Third Edition, St. Clair Shores MI: Somerset Publishers Inc. Pauli, Hansjörg (1976): Filmmusik: Ein historisch-kritischer Abriß. In: Schmidt, Hans-Christian (Hg.): Musik in den Massenmedien Rundfunk und Fernsehen. Perspektiven und Materialien, Mainz: Schott, S. 91-119 Pauli, Hansjörg (1981): Filmmusik: Stummfilm, Stuttgart: Klett-Cotta Potter, Keith (2002): Four Music Minimalists: La Monte Young, Terry Riley, Steve Reich, Philip Glass, Cambridge, UK: Cambridge University Press Prendergast, Roy M. (1992): Filmmusic: a neglected art: a critical study of music in films, New York, NY: W. W. Norton & Co Prokop, Dieter (1995): Medien-Macht und Massen-Wirkung, Freiburg: Rombach Prox, Lothar (1979): Perspektiven einer Wiederaufarbeitung von Stummfilmmusik, In:Stiftung Deutsche Kinematik: Stummfilmmusik gestern und heute: Beitr. u. Interviews anlässl. e. Symposiums im Kino Arsenal am 9. Juni 1979 in Berlin, Berlin: Spiess 107 Quellen Ruschkowski, André (1998): Elektronische Klänge und musikalische Entdeckungen, überarbeitete Aufl., Stuttgart: Reclam Russell, Mark / Young, James (2001): screencraft: film music, Reinbek bei Hamburg: Rowohlt Rügner, Ulrich (1988): Filmmusik in Deutschland zwischen 1924 und 1934, Hildesheim: Olm Schneider, Enjott (2009): Geschichten erzählen mit Tönen und Bildern …. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 134-152 Schneider, Norbert Jürgen (1990): Handbuch Filmmusik Bd. 1: Musikdramaturgie im neuen deutschen Film, 2. Auflage, München: Ölschläger Schneider, Enjott (1997): Komponieren für Film und Fernsehen : ein Handbuch, Mainz: Schott Shore, Howard (1999): Composing with a very wide palette. In: Brophy, Philip (Hg.): Cinesonic: the world of sound in film, North Ryde: Australian Film Television and Radio School, S. 1-14 Skiles, Marlin (1976): Music scoring for TV & motion pictures, Blue Ridge Summons, PA: TAB Books Ströer, Hans Peter (2009): Just do something and then see what happens…. In: Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 154-165 108 Quellen Tauchnitz, Jürgen (2001): Musik in der Werbung. State of the art. In: Neubauer, Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in Film und Fernsehen, Hamburg: von Bockel, S. 83-104 Thiel, Wolfgang (1981): Filmmusik in Geschichte und Gegenwart, Berlin: Henschel Thiel, Wolfgang (2001): Integrale Filmmusik. Ein Thesenpapier. In: Neubauer, Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in Film und Fernsehen, Hamburg: von Bockel, S. 47-52 Thomas, Tony (1995): Filmmusik: Die großen Filmkomponisten - ihre Kunst und ihre Technik, München: Wilhelm Heyne Van der Lek, Robbert (1987): Filmmusikgeschichte in systematischer Darstellung. Ein Entwurf. In: Archiv für Musikwissenschaft 44 (1987). Stuttgart: Franz Steiner Verlag, S. 216-239. Von Rosenstiel, Lutz (1993): Musik und Arbeit. In: Bruhn, Herbert / Oerter, Rolf / Rösing, Helmut (Hg.): Musikpsychologie: Ein Handbuch, Reinbek b. Hamburg: Rowohlt. S. 157-168 Vowinckel, Antje (1995): Collagen im Hörspiel: Die Entwicklungen einer radiophonen Kunst, Würzburg: Königshausen & Neumann Welsh, James M. / Phillips, Gene D. / Hill, Rodney F. (2010): The Francis Ford Coppola Encyclopedia, Plymouth, UK: Scarecrow Press Wördehoff, Thomas (1995): Schreib mir das Lied vom Tod. In: Die Weltwoche, 15. Februar 1995, Zürich, S. 47 Wulff, Hans J. (2010): Arten der Perspektivität und Semantisierung der Musik. Am besonderen Beispiel der Bedeutungs-Aufladung eines Liedes in THREE 109 Quellen SEASONS (SAIGON STORIES, USA/Vietnam 1999, Tony Bui). In: Heidt, Guido / Krohn, Tarek / et al. (Hg.): Kieler Beiträge zur Filmmusikforschung Ausgabe 6, November 2010, Kiel: Kieler Gesellschaft für Musikforschung, S. 124-136 Wüsthoff, Klaus (1978): Die Rolle der Musik in der Film-, Funk- und Fernsehwerbung: mit einer Instrumententabelle der Gebrauchsmusik, einer Einführung in die Studiopraxis und Kompositionsanleitungen für Werbespots. Unter Mitarbeit von Gisela Wüsthoff, Berlin: Merseburger Yewdall, David L. (2003): Practical Art of Motion Picture Sound, 2. Aufl., Amsterdam: Focal Press 110 Quellen Internet Academy of Motion Pictures Arts and Science (2012): The 51st Academy Awards (1979) Nominees and Winners, Online unter: http://www.oscars.org/ awards/academyawards/legacy/ceremony/51st-winners.html, Abgerufen am 5. März 2012 Academy of Motion Pictures Arts and Science (2012): The 54th Academy Awards (1982) Nominees and Winners, Online unter: http://www.oscars.org/ awards/academyawards/legacy/ceremony/54th-winners.html, Abgerufen am 5. März 2012 ARGE Kultur Salzburg (2012): ARGEkultur Salzburg :: Veranstaltungen :: Naked Lunch „Universalove“ :: 11.03.2012:, Online unter http://www.argekultur.at/ Ars/Arge/Event/EventDetails.aspx?EventID=10588, Abgerufen am 18. März 2012 Awards and Shows (o.J.): Oscar Award for Best Original Score – Academy Awards for Original Music Score, Online unter: http://www.awardsandshows.com/ features/best-original-score-20.html, Abgerufen am 16. März 2012 Bytesmaster (2010): Oscars: Quotes, Online unter: http://bytesdaily.blogspot. com/2010/03/oscars-quotes.html, Abgerufen am 18. März 2012 Cahill, Matt (2011): And the award goes to, Online unter: http://ryeberg.com/ curated-videos/and-the-award-goes-to/, Abgerufen am 18. März 2012 Chrisafulli, Chuck (2006): Score One for Originality. Online unter: http://www. craigarmstrongonline.com/additions/article_02.htm, Abgerufen am 14. März 2012 111 Quellen Föllmer, Golo / Gerlach, Julia (o.J.): Audiovisionen, Online unter: http://www. medienkunstnetz.de/themen/bild-ton-relationen/audiovisionen/print/, Abgerufen am 23. März 2012 Gabriella (NY Rock) (2003): Interview: Tom Rowlands of The Chemical Brothers (NY Rock), Online unter: www.nyrock.com/chemical.htm, Abgerufen am 2. März 2012 Gerber, Jerry / Prager, Michael (o.J.): The Unreal Orchestra, Online unter: http://www.jerrygerber.com/unrealorchestra.htm, Abgerufen am 10. März 2012 Granular Synthesis (o.J.): GRANULAR~SYNTHESIS / Modell 5, Online unter: http://www.granularsynthesis.info/ns/?goto=modell%205, Abgerufen am 11. März 2012 Hugill, Andrew (2002a): The Orchestra: A User‘s Manual: Classical, Online unter: http://andrewhugill.com/manuals/orchclassical.html, Abgerufen am 12. März 2012 Hugill, Andrew (2002b): The Orchestra: A User‘s Manual: The Orchestra in the 19th Century, Online unter: http://andrewhugill.com/manuals/orch19thC.html, Abgerufen am 12. März 2012 Hugill, Andrew (2002c): The Orchestra: A User‘s Manual: The Orchestra in the 20th Century, Online unter: http://andrewhugill.com/manuals/orch20thC.html, Abgerufen am 12. März 2012 Ikeda, Ryoji (2010): ryoji ikeda [ datamatics, Online unter http://www.ryojiikeda. com/project/datamatics/, Abgerufen am 11. März 2012 Levine, Mike (2011): Simon Franglen: Q&A, Online unter http://www.emusician. com/engineers-producers/0989/simon-franglen-qa/138171, Abgerufen am 12. März 2012 112 Quellen Lim, Dennis (2008): Exploiting Sound, Exploring Silence, Online unter http:// www.nytimes.com/2008/01/06/movies/awardsseason/06lim.html?pagewanted=all, Abgerufen am 13. März 2012 Noto, Alva (o.J.): alva noto | Audio, Online unter http://www.alvanoto. com/?a1=audio, Abgerufen am 11. März 2012 Sondermeyer, Juliane (2010): Naked Lunch: Naked Lunch spielt Live-Musik zum Film: „Universalove“ (motor.de Interview):, Online unter: http://www.motor.de/ motormeinung/motor.de/naked_lunch_universalove_naked_lunch_spielt_live_musik_zum_film.html, Abgerufen am 18. März 2012 Sound on Sound (1994): David Hirschfelder: Scoring An Oscar for Elizabeth, Online unter: http://www.soundonsound.com/sos/apr99/articles/hirxchfelder.htm, Abgerufen am 10. März 2012 Weir, William (2011): Clint Eastwood Is a Great Director. Is He a Good Composer?, Online unter: http://www.slate.com/blogs/browbeat/2011/11/09/clint_eastwood_john_carpenter_and_other_director_composers.html, Abgerufen am 10. März 2012 WhoWonWhen (o.J.): Who Won Original Score Oscars (Academy Award Winner), Online unter: http://www.whowonwhen.com/entertainment/academy_awards/ original-score.php, Abgerufen am 16. März 2012 Wrench, Nigel (2008): BBC News | Entertainment | Lost Tapes of Dr. Who composer, Online unter: http://news.bbc.co.uk/2/hi/entertainment/7512072.stm, Abgerufen am 10. März 2012 113 Quellen Audioquellen Keller, Michael (1995): Sounds of Cinema: Spielarten der Filmmusik, 4 CD-Rom, München: TR-Verlagsunion Videoquellen Karlin, Fred / Tilford, Ron H. (1995): Film Music Masters - Jerry Goldsmith, VHS Video mit Beiheft, USA: Karlin/Tilford Production Pensado, Dave / Trawick, Herb (2012): Pensado’s Place Episode 57: Simon Franglen, Internetvideo, Online unter http://www.youtube.com/watch?v=WHtJyl8Mb30, aufgerufen am 1. März 2012 114 Quellen Abbildungsverzeichnis Abb. 1: Akustische Ereignisse im Film. Aufteilung Bildton und Fremdton. (vgl. Bullerjahn 2001, S. 20) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Abb. 2: Relation der Gestaltungselemente von Bild und Musik. (vgl. Bullerjahn 2001, S. 139) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 115 Quellen Tabellenverzeichnis Tab. 1: Klischees der Instrumentation (Wüsthoff 1978, S. 38f) . . . . . . . . . . . . . . . . 66 Tab. 2: Musikinstrumente und ihre Gefühlsqualitäten (Skiles 1976, S. 70, zit. n. Bullerjahn 2001, S. 88) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 116