Ruhe im Orchester! - Martin Sachsenhofer

Werbung
Ruhe im Orchester!
Elektronische Spielfilmmusik im Populärkino des 21. Jahrhunderts.
Masterthesis zur Erlangung des akademischen Grades
„Master of Arts in Arts and Design“
Verfasser
Martin Sachsenhofer
Vorgelegt am FH-Studiengang MultiMediaArt, Fachhochschule Salzburg
Begutachtet durch:
Martin Löcker (Inhaltlicher Gutachter 1)
Gianni Stiletto (Inhaltlicher Gutachter 2)
Salzburg, März 2012
I
Danksagung
Hiermit möchte ich mich bei den zentralen Personen bedanken, die mich
während meines Studiums und während des Enstehungsprozesses dieser Masterthesis tatkräftig unterstützt haben:
Edeltraud & Günther Sachsenhofer
Bernd Radler, Cornelia Sachsenhofer, Julia Weithaler
Martin Löcker, Gianni Stiletto
II
Eidesstaatliche
Erklärung
Hiermit versichere ich, Martin Sachsenhofer, geboren am 10.10.1987 in Linz,
dass ich die Grundsätze wissenschaftlichen Arbeitens nach bestem Wissen und
Gewissen eingehalten habe und die vorliegende Masterthesis von mir selbstständig
verfasst wurde. Zur Erstellung wurden von mir keine anderen als die angegebenen
Quellen und Hilfsmittel verwendet.
Ich versichere, dass ich die Masterthesis weder im In- noch Ausland bisher in
irgendeiner Form als Prüfungsarbeit vorgelegt habe und dass diese Arbeit mit der
den Begutachtern vorgelegten Arbeit übereinstimmt.
Salzburg, am 26. März 2012
Martin Sachsenhofer Matrikelnummer: 0910627032
III
Faktische
Zusammenfassung
Vor- und Zuname Institution Martin Sachsenhofer
FH Salzburg
Studiengang MultiMediaArt
Titel der Masterthesis
Ruhe im Orchester!
Begutachter (1) Martin Löcker
Begutachter (2)
Gianni Stiletto
Schlagwörter Filmmusik
elektronische Musik
Komposition
IV
Inhaltliche
Zusammenfassung
Das symphonische Kinoorchester tritt bereits seit Beginn des Films als maßgebliches ästhetisches Moment auf. Die Entwicklung aktueller, populärer Musik ist
jedoch seit den Anfängen des Films in einem heute sehr ausgereiften und diversifizierten Stadium angekommen, das sich weiterhin entfaltet. Der Einsatz von Musik,
abseits der klassischen Kinosymphonik, die sich einer romantischen Orchesterpalette bedient, gibt der Tonebene die Möglichkeit sich fern der ausgetrampelten
Wege zu komponieren und alte Klischees zu durchbrechen. Weswegen der Titel
„Ruhe im Orchester!“ auf den Einsatz anderer musikalischer Mittel im Film hindeutet. Im Fokus dieser Arbeit steht deshalb die elektronische Musik im Einsatz
als non-diegetische Filmmusik. Ziele, Möglichkeiten und Funktionen elektronischer
Filmmusik begutachtet der Autor anhand ihrer historischen Entwicklung. In weiterer Folge werden die filmmusikalischen Charakteristiken, die sich aus der Synthese
von Bild und Ton ergeben, betrachtet und ihre spezifischen Voraussetzungen für
den Einsatz elektronischer Musik im Film durchleuchtet. Insbesondere analysiert
der Autor die einzelnen musikdramaturgischen Gestaltungselemente (Melodie,
Harmonik, Rhythmus, …) symphonischer Filmmusik und stellt sie in Relation zur
elektronischen. Des Weiteren werden die Voraussetzungen für einen Komponisten
bzw. eine Komponistin untersucht Filmmusik zu komponieren und ob diese ohne
klassische Kompositionsausbildung erfüllt werden können. Ziel der Arbeit ist es,
die Unterschiede im Kompositionsprozess und Einsatz von elektronischer und symphonischer Kinomusik aufzuzeigen und die unterschiedlichen Möglichkeiten darzustellen.
V
Abstract
The symphonic movie orchestra constitutes a major aesthetic force since the
beginning of film. Modern and popular music underwent a rather significant evolution and diversification though since the early stages of film and presents itself now
as a rather elaborated, but still evolving aesthetical style. The usage of music aloof
of traditional symphonic scores provides opportunities far off the beaten track and
besides old stereotypes. The title “Ruhe im Orchester!” (Silence in the orchestra!)
already suggests the implementation of different musical styles other than the traditional symphonic sound.
This thesis‘ focus is therefore on the unique ways of using electronic sounds
in non-diegetic movie scores. Goals, opportunities and functioning of electronic
movie scores are initially analysed by means of their historical developments. In
succession filmmusic‘s characteristics, which originate in the synthesis of sound and
vision, are being examined on their specifics for electronic movies. Especially the
distinct musical qualities (melody, harmony, rhythm, …) of electronic music will be
surveyed and put in relation to symphonic music. Furthermore the requirements
for being a movie score composer will be examined and looked at whether classical
composing education is compulsory. The objective of this thesis is to specify the
differences for the writing process and the usage of electronic and symphonic movie
scores and to show the emerging prospects.
VI
Inhaltsverzeichnis
1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Forschungsinteresse. . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1. Orchestrale Filmmusik . . . . . . . . . . . . . . . . . . . . 2
1.1.2. Nicht-orchestrale und elektronische Filmmusik . . . . . . . . . 3
1.1.3. Vergleich Academy Awards for Best Original Score 1993 - 2012 . 3
1.2. Forschungsfrage . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3. Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Forschungsrelevante Hinweise . . . . . . . . . . . . . . . . . . . 6
1.4.1. Verbindung zum Werk . . . . . . . . . . . . . . . . . . . . 6
1.4.1.1. Spielart. . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1.2. Kleines Püppchen Teddybär . . . . . . . . . . . . . . . 7
1.4.1.3. Neben meinem Bruder. . . . . . . . . . . . . . . . . . 8
1.4.1.4. MIIO. . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2. Lesetechnische Hinweise . . . . . . . . . . . . . . . . . . .
8
1.4.3. Verwendete Methoden. . . . . . . . . . . . . . . . . . . .
9
2 Filmmusik: Introduktion und Begriffe. . . . . . . . . . . . . . . . . . . . . 10
2.1. Bildton und Fremdton. . . . . . . . . . . . . . . . . . . . . . 11
2.2. Diegetische und Nicht-Diegetische Filmmusik. . . . . . . . . . . 12
2.3. Allgemein Filmmusik. . . . . . . . . . . . . . . . . . . . . . 13
2.4. Film ist Massenkunst. . . . . . . . . . . . . . . . . . . . . . 15
2.5. Wirkung von Filmmusik . . . . . . . . . . . . . . . . . . . . . 16
3 Entwicklung von Filmmusik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1. Allgemeine Filmmusikentwicklung im Tonfilm. . . . . . . . . . . 19
3.2. Elektronische Filmmusik. . . . . . . . . . . . . . . . . . . . . 21
3.3. Kritik und Einsatzbereiche der elektronischen Filmmusik . . . . . . 26
3.4. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 30
4 Die Komposition. Ein Prozess. . . . . . . . . . . . . . . . . . . . . . . . . . . 31
VII
4.1. Stil einer Filmmusikkomposition. . . . . . . . . . . . . . . . . 32
4.2. Filmische Kompositionsarten. . . . . . . . . . . . . . . . . . . 34
4.2.1. Deskriptive Technik . . . . . . . . . . . . . . . . . . . . . 34
4.2.2. Mood Technik. . . . . . . . . . . . . . . . . . . . . . . 36
4.2.3. Motiv Technik. . . . . . . . . . . . . . . . . . . . . . . 36
4.2.4. Baukastentechnik . . . . . . . . . . . . . . . . . . . . . . 37
4.3. Anforderungen an den Komponisten bzw. die Komponistin . . . . . 37
4.4. Bezug Regie und Musikkomposition . . . . . . . . . . . . . . . 39
4.5. Persönliche Handschrift. . . . . . . . . . . . . . . . . . . . . 40
4.6. Arbeitsweise. . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.7. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 44
5 Filmmusikalische Charakteristiken. . . . . . . . . . . . . . . . . . . . . . . 46
5.1. Ohr vs. Auge. . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2. Bild vs. Ton . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3. Geräusch vs. Musik. . . . . . . . . . . . . . . . . . . . . . . 53
5.4. Filmmusik als funktionale Musik. . . . . . . . . . . . . . . . . 56
5.4.1. Filmmusik ist keine autonome Musik . . . . . . . . . . . . . 56
5.4.2. Ziele und Funktionen. . . . . . . . . . . . . . . . . . . . 58
5.4.3. Kritik an der populären Filmmusik. . . . . . . . . . . . . . 61
5.5. Klischees. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.6. Musikdramaturgische Gestaltungselemente. . . . . . . . . . . . 68
5.6.1. Melodie und Motiv. . . . . . . . . . . . . . . . . . . . . 69
5.6.2. Musikalische Struktur und Form. . . . . . . . . . . . . . . 71
5.6.3. Harmonik . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.4. Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6.5. Rhythmus. . . . . . . . . . . . . . . . . . . . . . . . . 78
5.6.6. Tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.6.7. Sound. . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.6.8. Instrumentation . . . . . . . . . . . . . . . . . . . . . . 86
5.6.8.1. Historische Entwicklung der Orchesterinstrumentation. . . 86
5.6.8.2. Filmmusikalisch historische Instrumentation. . . . . . . 86
VIII
5.6.8.3. Elektronische Instrumentierung. . . . . . . . . . . . . 88
5.6.9. Stille. . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.7. Timing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.8. Synchronität von Bild und Musik . . . . . . . . . . . . . . . . 92
5.9. Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . 94
6 Conclusio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
IX
Abkürzungsverzeichnis
Abb.
Abbildung
Aufl.
Auflage
bzw.
beziehungsweise
d.h.
das heißt
et al.
und andere
f
und folgende Seite
ff
und folgende Seiten
Hg.
Herausgeber
IDM
Intelligent Dance Music
o. J.
ohne Jahresangabe
o. A.
ohne Autoren- bzw. Autorinnenangabe
PC
Personal Computer
S.
Seite
TV
Television
vgl.
vergleiche
vlt.
vielleicht
vs.
versus
z.B.
zum Beispiel
zit. n.
zitiert nach
X
Einleitung
1
Einleitung
1
Einleitung
1.1. Forschungsinteresse
„Entrückt [...] in eine ganz und gar künstliche Sozialsituation, hermetisch abgedichtet gegen die Außenwelt und eingetaucht in die suggestible Atmosphäre nur graduell verschiedenen Dämmerlichts, ist der Kino- wie der Konzertbesucher gleichermaßen disponiert,
sich von der Flut bewegter und bewegender Bilder oder Klänge forttragen zu lassen in
eine Welt des Zaubers, die erst im Nachhinein Struktur gewinnt [...]“ (Emons 1980, S. 35)
Zentrales Interesse dieser Thesis ist das Phänomen Filmmusik, im Besonderen dabei eine Tendenz im Populärkino des letzten Jahrzehnts in Richtung nichtorchestraler Musik im Film. Eine nähere Betrachtung ergibt nämlich, dass nicht
nur rein orchestrale Filmmusik verwendet wird, sondern vor allem nicht-orchestrale
Begleitung im Hollywoodfilm eine größere Präsenz erhält.
Zu Beginn sollte kurz geklärt werden, was der Unterschied zwischen den beiden bereits erwähnten Arten von Filmmusik ist.
1.1.1. Orchestrale Filmmusik
Orchestrale Filmmusik ist, wie der Name schon verrät, auf ein vollbesetztes
Orchester ausgerichtet. Die klassische Symphonieorchesterbesetzung mit Holzbläsern, Blechbläsern, Schlaginstrumenten, Zupfinstrumenten, Streichern und zusätzlichen Instrumenten, wie Klavier oder Saxophon, spielt hier die größte Rolle. Diese
Art von Filmmusik gibt es seit die audiovisuelle Kombination eingegangen wurde.
Mit der Entwicklung geeigneter Aufnahme- und Abnahmeverfahren begann
sich die Filmmusik weiterzuentwickeln. Über die Aneignung der Modalität von
Jazz und der Atonalität der seriellen Musik wurde die Art eine Filmmusik zu
schreiben immer freier. Immer häufger wurden verschiedene Instrumente experimentell eingesetzt. Durch Komponisten wie Alfred Newman, John Williams oder
Bernhard Herrmann wurden fixe Bezugspunkte geschaffen, die wiederum vielfach
musikalisch zitiert wurden.
2
Einleitung
1.1.2. Nicht-orchestrale und elektronische Filmmusik
In den letzten Jahren zeichnet sich allerdings die Tendenz ab, auch nichtorchestraler Filmmusik, mehr Präsenz zu schenken und diese nicht nur in Genrenischen, wie zum Beispiel Italowestern oder Sciencefiction Filmen, einzusetzen.
Nicht-orchestrale Filmmusik inkludiert alle Arten von Filmmusik abseits eines traditionellen Sinfonieorchesters. Vor allem minimalistisch besetzte, experimentelle,
elektronische, ethnische, popmusikalische und kompilierte Soundtracks sind hier
nennenswert.
„There are people who do incredible orchestral stuff, but it‘s so done already. Directors
and audiences become a little numb to that kind of scoring. Sometimes with less, you
can achieve so much more.“ - Gustavo Santaolalla (vgl. Chrisafulli 2006)
Besonders experimentelle und rein elektronische Sounds werden dem eher
experimentellen Arthouse Kino oder dem Science Fiction Genre zugeordnet. Hier
hat nicht nur der visuelle Teil Platz für Experimente, auch der auditive Part wird
oft von ungewohnten Klängen getragen. Diese Genreeinschränkung wird jedoch
immer wieder aufgebrochen.
1.1.3. Vergleich Academy Awards for Best Original Score 1993 2012
Vergleicht man als Beispiel die vergebenen Academy Awards for Best Original Score in den Jahren 1993 bis 2002 mit denen von 2003 bis 2012, kann ein großer
Präsenzaufschwung der nicht-orchestralen Musik festgestellt werden. (vgl. Awards and
Shows o.J.; WhoWonWhen o.J.)
Wobei anzumerken ist, dass die Academy Awards nicht
als objektive, qualitative Auszeichnung gesehen werden können. Die Vergabe der
Oscars ist, laut William Friedkin, die größte Reklameaktion die eine Industrie je
für sich selbst erfunden hat. (vgl. Bytesmaster 2010; Cahill 2011) Viele marktpolitische
und marktstrategische Entscheidungen stehen im Hintergrund der Vergabe durch
3
Einleitung
die Jury der American Academy of Motion Picture Arts and Sciences. (vgl. Levy
2003, S. 323f)
Trotz alledem zeigen die Oscars grundlegende vor allem ökonomische
Tendenzen des aktuellen Spielfilms auf und gaben damit den Initalimpuls diese
Arbeit zu verfassen.
In den Jahren 1993 bis 2002 wurden 14 Oscars für die Filmmusikkategorie
vergeben. (Inkludiert wurde auch die kurze Aufsplitterung von 1995 bis 1998 in
Dramatic Score und Musical or Comedy Score.) Von diesen 14 Oscargewinnerfilmen waren beinahe alle zu einem Großteil orchestral begleitet. In der Kategorie
Dramatic Score konnte nur ein Film, nämlich König der Löwen (1994), Popeinflüsse durch die Beteiligung von Elton John verbuchen. Bei den Awards for Best
Original Score: Musical or Comedy Score wies nur der Film The Full Monty (1997)
einen rein popmusikalischen Soundtrack auf, der Rest wurde klassisch oder mit
ethnischen Einflüssen (Crouching Tiger, Hidden Dragon (2000)) orchestriert. (vgl.
Awards and Shows o.J.; WhoWonWhen o.J.)
Im Vergleich dazu wurden in den Jahren 2003 bis 2012 nur fünf der zehn
Oscars an klassisch orchestrale Filmmusiken vergeben. Frida (2002) und Babel
(2006) sind beide sehr stark von ethnischer Musik geprägt, passend zur dargestellten Szenerie. Brokeback Mountain (2005) beschränkt sich bei der Filmmusik auf
das Country und Folkgenre, stark geprägt durch die Verwendung einer Steelguitar.
Slumdog Millionaire (2008) besteht aus einer Mixtur aus traditioneller indischer
Musik und moderner ethnischer Popmusik (Worldmusic). The Social Network
(2010) wird von elektronisch rockiger Musik begleitet. (vgl. Awards and Shows o.J.;
WhoWonWhen o.J.)
Aus diesem Vergleich kann man also das Resultat ziehen, dass nicht-orchestrale Musik im populären Interesse in den Vordergrund drängt und das klassische
Sinfonieorchester nach einer jahrzehntelangen Dominanz etwas zurücktritt.
1.2. Forschungsfrage
Wo liegen die Unterschiede beim Einsatz elektronischer Filmmusik im Vergleich zur symphonischen? Kann nicht-orchestrale Musik eine ähnlich intensive
audiovisuelle Verbindung eingehen wie ein traditioneller Orchesterscore? Ein typi-
4
Einleitung
scher Kinofilm hat über einhundert so genannte Cues, also in der Filmdramaturgie
und -zeit fixierte Einsätze, die der Komponist synchron zum Bild bearbeiten muss.
Ist diese akribische Zuordnung und das Hinspielen auf diese Punkte mit elektronischer Musik möglich? Eine typische elektronische Beatmusik lebt von einem durchgehenden Rhythmus, ein Orchester kann frei und lebendig atmen und spielen.
Kleine dynamische Änderungen oder Pausen sind deshalb einfacher möglich. Verhindern Einschränkungen wie diese eine perfekte Union von Musik und Film bei
der Verwendung von rhythmusbasierter Musik? Experimentelle Musik oder freie
ethnische Musik haben diese Einschränkungen meist nicht, liegt darin ausreichend
Potential das Spektrum typischer Kompositionen dauerhaft zu ergänzen? Liegt die
Zukunft in einer Mischform aus klassischer und „untypischer“ Orchestrierung?
Aus diesen Thesen und Fragestellungen ergibt sich folgende zentrale Forschungsfrage:
Welche Unterschiede treten beim Einsatz elektronischer Spielfilmmusik im Populärkino des 21. Jh. im Vergleich mit dem Einsatz symphonischer Musik auf ?
Aus dieser Kernfrage ergeben sich weitere Folgefragen:
• Inwieweit kann elektronische Musik die dramaturgischen und funktionalen Anforderungen an Spielfilmmusik abdecken?
• Bezug nehmend auf die Tendenz Rock und Popmusiker mit der Komposition elektronischer Spielfilmmusik zu beauftragen, können diese den
Anforderungen an die Filmmusikkomposition gerecht werden?
• Sind die musikdramaturgischen Gestaltungselemente elektronischer Musik anders gestaltet als in der symphonischen?
1.3. Aufbau der Arbeit
Um diese aufgestellten Forschungsfragen beantworten zu können, präsentiert
der Autor in Kapitel 2 eine allgemeine Einführung zum Thema Filmmusik, Bildton
bzw. Fremdton, diegetische und nicht-diegetische Filmmusik. In Kapitel 3 wird die
5
Einleitung
fortlaufende historische Entwicklung der Filmmusik von der ersten symphonischen
bis zu aktuellen elektronischen Filmmusiken aufgeführt und analysiert. Kapitel 4
beschäftigt sich darauffolgend mit der Persönlichkeit des Komponisten bzw. der
Komponistin selbst, den Voraussetzungen und den Fähigkeiten die in der Filmmusik benötigt werden. Kapitel 5 nimmt den Hauptteil der Arbeit ein und analysiert
die verschiedenen filmmusikalischen Charakteristiken von symphonischer und elektronischer Filmmusik. Dies erfolgt zuerst über generelle Eckpunkte der Wahrnehmungen und in der Betrachtung von Filmmusik als funktionale Musik. In weiterer
Folge werden die einzelnen musikdramaturgischen Gestaltungselemente auf ihre
Unterschiede im Vergleich von elektronischer und symphonischer Filmmusik analysiert und die Möglichkeiten der Stille erörtert. Zum Abschluss wird in Kapitel
6 über die aufgelisteten Beobachtungen resümiert und kritisch über die gefunden
Erfahrungen reflektiert.
1.4. Forschungsrelevante Hinweise
1.4.1. Verbindung zum Werk
Das Hauptwerk des Autors entstand in einer Gruppenarbeit und trug den
Namen Spielart, dessen Endergebnis eine Ausstellung zum Thema Kommunikation & Stille Post war, vgl. Kapitel 1.4.1.1. Ausgehend von der Vorliebe zum Bewegtbild hat der Autor im Verlauf des Masterstudiums an drei Filmprojekten als
Nebenprojekt mitgewirkt und zu diesen Filmen auch die Filmmusik komponiert.
Bezugnehmend auf diese drei Nebenprojekte ist die Thematik und Problemstellung dieser Arbeit entstanden. Der praktische Bezugspunkt dieser Thesis ist deshalb nicht das einzelne Hauptprojekt Spielart, sondern liegt in den Beteiligungen
an folgenden drei Werken begründet:
• Kleines Püppchen Teddybär (vgl. Kapitel 1.4.1.2)
• Neben meinem Bruder (vgl. Kapitel 1.4.1.3)
• MIIO (My Identity is Open) (vgl. Kapitel 1.4.1.4)
6
Einleitung
Diese drei Werke forderten jeweils einen spezifischen Einsatz von Filmmusik und
eine differenzierte Stilistik. Die Unterschiede im Einsatz möchte ich im Folgenden
aufgreifen und als praktisches Werk dieser Arbeit thematisieren.
1.4.1.1. Spielart
Das Projekt Spielart lehnte sich in der Ausführung an das Kinderspiel Stille
Post an. Interdisziplinär Medienschaffende spielten, ohne erklärende oder begleitende Worte, Stille Post untereinander mit Hilfe von medialen Werken. Der erste
startete mit einem klar definierten Begriff, den er in ein Werk verarbeitete und
dieses ohne Kommentar und Bekanntgabe des Begriffs an den nächstfolgenden in
der Spielrunde weitergab, und so weiter. Das 33 Werke umfassende Ergebnis, der
drei unabhängig voneinander erfolgten Spielrunden, wurde zum Schluss des Spiels
in einer Ausstellung präsentiert, in der die jeweiligen Codierungen und Decodierungen der Botschaften sichtbar gemacht wurden. Ziel dieser Auseinandersetzung
des Projekts mit den Themen Kommunikation und Rezeption war die Auslösung
eines Reflexionsvorgangs der Ausstellungsbesucher über Fehlinterpretationen und
Fehlkommunikation. Die Rolle des Autors war in der Konzeption, Kuration und
Ausführung des Projekts und der Erstellung dreier audiovisueller Werke innerhalb
der Spielketten begründet.
1.4.1.2. Kleines Püppchen Teddybär
Dieser Kurzfilm beschäftigt sich mit der pädophilen Neigung seines Hauptcharakters und seinem inneren Kampf, nicht dieser Neigung nachzugeben. Ein
weiteres Hauptthema ist die, für die Beeinträchtigung der Opfer, nicht eintretende
Verjährung von pädophilen Übergriffen. Die komponierte Filmmusik tritt nur als
Intro und Outro auf, einzig an einer Stelle im Film wird das titelgebende Lied
von Kindern im Film gesungen, was der Hauptcharakter danach aufgreift und die
Filmmusik darauffolgend noch einmal kurz reflektiert. Die eingesetzte Stilistik der
Musik ist sehr kindlich wirkend und begründet sich in den Hauptelementen Flöte
und Gitarre.
7
Einleitung
1.4.1.3. Neben meinem Bruder
In diesem Spielfilm werden zwei Zwillinge vom Jugendalter bis zum Erwachsen sein portraitiert. Besonders an diesen beiden ist jedoch, dass sie von ihrem
Vater als eine Identität aufgezogen wurden und sich so nur ein Leben teilen. Diese
Fassade bricht am Schluss, als einer der beiden stirbt und der andere plötzlich ein
vollständiges Leben ausfüllen muss. Der Einsatz der Filmmusik ist sehr klassisch
angelegt, es soll emotional geführt werden, mit Einsätzen von Klavierakkorden und
tiefen Streichertönen. Des Weiteren befindet sich jedoch eine atypischere Szene
im Film, in der die Diagnose im Krankenhaus (40:33-42:44) stattfindet. Hier wird
gänzlich auf andere auditive Ebenen verzichtet und nur die Bildmontage und die
Filmmusik bestehend aus Klaviersolo und sanfte Streicherbegleitung präsentiert.
1.4.1.4. MIIO
MIIO ist eine Mischform aus Dokumentation und szenischen Anteilen. In den
Interviews des dokumentarischen Bereichs werden die Risiken umfassender Datensammlung und gläserner Menschen aufgezeigt und diskutiert. Der szenische Anteil
beschäftigt sich mit dem fiktiven Handheldgerät MIIO, welches jegliche verfügbare
Daten über einen Menschen sinnvoll verknüpfen kann. Der Hauptcharakter wird
in seine anfängliche Glorifizierung des Tools verstrickt, da ihn das System plötzlich als Gefahr für andere interpretiert. Die Filmmusik tritt hier vor allem in den
szenischen Zwischenteilen auf. Die Ästhetik ist im retrofuturistischen Bereich á la
Blade Runner angelegt. Die Musik wird eher sphärisch eingesetzt und untermalt
oft flächig die Zeitraffersequenzen zwischen den Szenen.
1.4.2. Lesetechnische Hinweise
Um Doppeldeutigkeiten zu vermeiden, sind die in der Arbeit aufgeführten
Filme mit der Erscheinungsjahreszahl in Klammer gekennzeichnet.
8
Einleitung
Besprochene Szenen eines Films werden zusätzlich mit der Angabe des Startund Endzeitpunktes genannt. Das Format ist hierbei wie folgt:
Anfangszeit: (Stunde:)Minute:Sekunde - Endzeit: (Stunde:)Minute:Sekunde
1.4.3. Verwendete Methoden
Bei der vorliegenden Arbeit handelt es sich um eine Literaturarbeit. Daraus
folgend bilden die im Quellenverzeichnis auffindbaren Texte und Filme die Ausgangsbasis. Die Interpretation, Diskussion und Relation dieser Quellen ergibt in
ihrer kritischen und reflexiven Betrachtung den Kern dieser Arbeit.
9
Filmmusik: Introduktion und Begriffe
2
Filmmusik:
Introduktion und
Begriffe
10
Filmmusik: Introduktion und Begriffe
2.1. Bildton und Fremdton
Sprache als direkte Rede
Bildton
„Original“ - Geräusche
(effects)
Musik im Bild
(source music)
Musik als Begleitmusik
(non-diegetic music)
Fremdton
Geräusche ohne visuellen Rückhalt
(sounddesign)
Sprache als Kommentar
Abb. 1: Akustische Ereignisse im Film. Aufteilung Bildton und Fremdton. (vgl.
Bullerjahn 2001, S. 20)
Akustische Ereignisse im Film lassen sich nach dem in Abb. 1 ersichtlichen
Schema zwischen Bildton und Fremdton aufteilen. Wobei zu beachten ist, dass
die Grenzen zwischen den Ebenen fließend sind und Elemente auch gleichzeitig
11
Filmmusik: Introduktion und Begriffe
mehrere Aufgaben erfüllen können. Original-Geräusche können auch von Musik im
Bild kommen, wenn zum Beispiel während der Bild- und Tonaufnahme ein im Bild
sichtbares Radio eingeschalten wurde. Musik im Bild kann gleichzeitig auch die
Funktionen diegetischer Musik erfüllen und diegetische Musik kann auch nur aus
Geräuschen ohne visuellen Rückhalt bestehen. Die umgekehrte Verknüpfung der
Funktionen ist wiederum ebenso möglich. (vgl. Bullerjahn 2001, S. 20)
2.2. Diegetische und Nicht-Diegetische Filmmusik
Filmmusik lässt sich allgemein in zwei Teile aufspalten. Einerseits in die
diegetische Musik oder Musik im Bildton bzw. On, andererseits in die nicht-diegetische bzw. extradiegetische Musik oder Musik im Fremdton bzw. Off. (vgl. Brown
1994, S. 61; Bullerjahn 2001, 19f; Schneider 1990, S. 19)
Diegetische Musik ist Musik, deren
Schallquelle im Bild selbst vorkommt, also z.B. ein Radio, das einen Song spielt,
im Film sichtbar ist und bzw. oder für die Rezipienten und Rezipientinnen als
von dieser Quelle aus ertönend erkenntlich ist. Nicht-diegetisch ist die Musik, die
im umgangssprachlichen Gebrauch und auch in dieser Arbeit als Filmmusik bezeichnet wird. Musik, die nur die Rezipienten bzw. Rezipientinnen, aber nicht die
Akteure und Akteurinnen im Film wahrnehmen, also dramaturgisch zur Diegese
hinzugefügt wird. (vgl. Flückiger 2002, S. 38; Brown 1994, S. 61; Bullerjahn 2001, S. 19f)
Wie auch schon in Kapitel 2.1 beschrieben, können die Grenzen zwischen
diegetischer und nicht-diegetischer Musik verschwimmen und übertreten werden.
So zum Beispiel im Film Hanna (2011), wo ein Teil der Melodie von einigen Charakteren immer wieder pfeifend aufgegriffen wird.
Es stellt sich hier vor allem die Frage, woher die Musik kommt. Ist es ein
Ereignis, das niemandem bekannt ist, weder den Darstellern bzw. Darstellerinnen
noch den Rezipienten bzw. Rezipientinnen, oder kennt und erwartet das Publikum
das Ereignis bereits. (vgl. Baumann 2009, S. 29f) Die Unterscheidung zwischen extradiegetischer und diegetischer Musik kann jedoch übergangen werden, wenn die Musik
beide Zwecke erfüllt, also von den Charakteren im Film wahrnehmbar ist, jedoch
auch dramaturgische Funktionen erfüllt werden. (vgl. Brown 1994, S. 61 & 247)
12
Filmmusik: Introduktion und Begriffe
2.3. Allgemein Filmmusik
Laut Lissa (1965, 381) behaupten Filmtheoretiker und Filmtheoretikerinnen
oft, Musik im Film „höre“ man nicht, man bemerke nur das Fehlen von Musik,
wenn sie verschwindet. Das Auditive steht nämlich nicht im Zentrum der bewussten Aufnahmefähigkeit während eines Filmes. Doch gerade in diesem peripherem
Bewusstsein, liegt die Wirkungskraft von Filmmusik.
„Nicht ohne Grund werden ihr [Filmmusik] immer wichtigere Aufgaben von den Filmschaffenden übertragen.“ (Lissa 1965, S. 381)
Mit der Erfindung des Tonfilmes änderte sich die Beziehung zwischen Bild
und Ton drastisch. Die auditive Komponente umfasste plötzlich alle hörbaren
Elemente, arrangierte deren realistische Zuordnung zu den Bildern und übertraf
damals dadurch weitgehend die vormals rein musikalische Live-Begleitung. Die
Koppelung von Ton und Bild wurde, durch die nie zuvor dagewesene Synchronität,
die im Stummfilm nicht erreicht werden konnte, grundlegend verändert und die
Tonebene auf einen speziellen Bildablauf getrimmt. Spezielle Kompositionen für
einen Film entstanden zwar bereits in der Stummfilmära, die zusammengeschlossene Funktionsweise des Tonfilms ermöglichte jedoch ein dramaturgisches und zeitliches Zusammenspiel, das sich wesentlich komplexer als beim Stummfilm erweist.
Im weiteren Verlauf entwickelte sich das Verhältnis zwischen Ton und Bild von
einer illustrativen, kontinuierlichen Hintergrundbeschallung zu einer repräsentativen, eigenständigen Schicht, die auch nicht gezeigte Elemente des Bildes darstellen
konnte. Ein weiterer Verdienst des Erscheinens des Tonfilms ist auch die dramaturgische Entdeckung der Bedeutung von Stille, siehe Kapitel 5.6.9.
Ausgehend von einer ausschließlichen Begleitungsrolle wurde also eine aktive
Zusammenarbeit gegründet, die als Kombination ein eigenständiges Drittes ergab,
das audiovisuelle Gesamtwerk, welches oft die eigentliche Botschaft mitträgt. Wie
zum Beispiel im dramaturgischen Kontrapunkt von Musik und Ton.
13
Filmmusik: Introduktion und Begriffe
„Die These des Visuellen und die Antithese des Auditiven führen auf dialektische Weise
zur Synthese, zum Kommentar.“ (Lissa 1965, S. 106).
Es wurde nach der völligen Synchronität zu Beginn auch wieder eine freiere
Form gefunden, die den Schichten innerhalb der Dramaturgie abwechselnde Dominanz zuordnet. Während eine Schicht im Hintergrund liegt, führt die andere
die Handlung weiter, oder auch beide Schichten zwei verschiedene Elemente der
Handlung. (vgl. Lissa 1965, S. 102ff)
Filmmusik lässt sich weder einer bestimmten musikalischen Gattung noch
einem gewissen Stil zuordnen und „entzieht sich jedem Versuch einer sinnhaltigen
Definition“. (Schneider 1990, S. 19) Jeder beliebige Klang kann zu Filmmusik werden,
wenn er dramaturgisch eingesetzt wird. Filmmusik lässt sich jedoch in drei Kategorien bezüglich ihres Kompositionsprozesses aufteilen. Die eigentliche Filmmusik,
also die speziell für einen Film komponierten Klänge. Die Archivmusik, welche also
auf Vorrat komponiert wird und später zu einem passenden Bild hinzugefügt wird.
Als drittes Element wird die so genannte „Nicht-Filmmusik“ angeführt und meint
dabei präexistente Musik, die in kompilierter Weise im Film landet. (vgl. Schneider
1990, S. 19)
Wie zum Beispiel der Einsatz von Musik von unter anderem György Li-
geti, Richard Strauss und Johann Strauß im Film 2001: A Space Odyssey (1968).
Besonders bekannt für den Einsatz kompilierter Soundtracks ist Quentin Tarantino, der sich einer eklektischen Musikauswahl in seinen Filmen (Reservoir Dogs
(1992), Pulp Fiction (1994), Jackie Brown (1997), …) bedient.
Was aber ist der eigentliche Zweck von Filmmusik und wodurch wird sie
definiert? David Raksin schreibt dazu: „to help realize the meaning of a film“.
(Prendergast 1992, S. 213)
Auch Kalinak (2010, S. XIII & 4) definiert Filmmusik über ihre
Charakteristik Emotionen auszudrücken und die Interpretation des Sinns eines
Films zu lenken, Umgebungen zu etablieren und die Aufmerksamkeiten zu lenken,
Handlungsmotive der Charaktere zu verdeutlichen und einen unzusammenhängenden Bilderfluss vereinen. Filmmusik hilft auch eine emotionale Bindung zu den
dargestellten Charakteren und Handlungen aufzubauen. Durch diese emotionale
Involvierung wird der Film direkter und echter empfunden und die Empathie mit
den Charakteren gestärkt.
14
Filmmusik: Introduktion und Begriffe
La Motte-Haber (1980, S. 190) schreibt, dass die Musik den Abbau von IchFunktionen fördere, also die Illusion der Kinorealität unterstütze. Strawinsky wiederum stellt die These auf, dass Filmmusik nur „bemaltes Papier“ ist. Eine musikalische Tapete, die sich diskret zu verhalten hat. (vgl. Thiel 1981, S. 15) Filmmusik ist
zwar, wie auch Thiel (1981, S. 17) später schreibt, eine sich unterordnende Funktion
im Gesamtfilm. Kalinak (2010, S. 18) vergleicht dies jedoch mit dem was Barthes in
seinem Essay Rhetorik des Bildes (1967) unter Verankerung versteht. Die Musik
verstärkt also eine der vom Bild ausgelösten Interpretationen. Gorbman sieht die
Musik als großes Netz, welches um den schwebenden visuellen Sinn geworfen wird.
(vgl. Kalinak 2010, S. 18)
Rózsa sieht die primäre Funktion von Musik im Film darin,
den psychologischen Sinn einer Szene zu komplettieren. (vgl. Brown 1994, S. 271) Über
Filmmusik zu schreiben ist immer eine sehr schwierige Angelegenheit, wie auch
Schneider (1990, S. 20) anmerkt. Oft wird die Betrachtung nur auf die rein musikalischen Aspekte beschränkt. Ausgehend von der rein musikalischen Perspektive
werden jedoch die zentralen Charakteristika der Musik im Klangbild des Films und
dem Verhältnis zur visuellen Schicht außen vor gelassen. Was zu keiner korrekten
Aussage über die Qualität und Eigenheit der Filmmusik führen kann. Erst durch
ein Miteinbeziehen der restlichen Schichten des Films ist eine Analyse möglich,
siehe Kapitel 5.4. Die Gemeinsamkeiten des Films und der Musik sind bereits in
der ähnlichen Terminologie begründet. Begrifflichkeiten wie Rhythmus, Tempo,
Periodik, Steigerung, Polyphonie, Pause, Crescendo und Dichte werden in der Musiktheorie wie in der Filmtheorie verwendet. Stilmittel wie Auf- und Abblenden
benutzen beide Formen. (vgl. Schneider 1990, S. 20)
2.4. Film ist Massenkunst
Zu Beginn des Tonfilms wurde der Filmsound vor allem vom Sound der Symphonie Orchester und des Klaviers dominiert. In der autonomen Musik ebenfalls
sehr präsent, entsprach der Kinobesuch auch einem kleinen Konzertsaalbesuch,
wenn ein Filmorchester live zum Film spielte. Die technisch reproduzierte Begleitung im Tonfilm verliert dieses Live-Erlebnis, und damit auch das, was Walter
Benjamin (1963, S. 17) als Aura bezeichnete. Es überrascht also nicht, dass Live-
15
Filmmusik: Introduktion und Begriffe
Aufführungen zu Filmen auch jetzt noch immer wieder als einzigartiges Erlebnis
durchgeführt wurden. (vgl. Brown 1994, S. 55 & 60) So führt zum Beispiel die Indierockband Naked Lunch die von ihnen komponierte Filmmusik für Universalove (2008)
immer wieder live zum Film auf. (vgl. Sondermeyer 2010; ARGE Kultur Salzburg 2012)
Die Struktur der klassischen Filmmusiksymphonien hat ihre Wurzeln klar in
der Romantik. Das unbewusste und „rauschhafte“ dieser Epoche, harmoniert mit
den Eigenheiten und Anforderungen der traditionellen Kinomusik. (vgl. Schneider
1997, S. 198)
Die Zeit der gesellschaftlichen Elite und der so genannten Hochkultur, deren
Werte Adorno und Eisler in ihrem 1947 erstmals erschienen Werk „Komposition
für den Film“ noch politisch einforderten, ist spätestens seit den 90er Jahren vorbei. Theater, Oper und klassische Konzerte sind der Massenkunst gewichen, deren
zentrales Medium der Film ist. (vgl. Kinsky-Weinfurter 2001, S. 13) Film ist vor allem in
Form des Spielfilms ein sehr populäres Gut. Das zentrale, dominierende Element
im Film ist fast immer der Mensch und das interessiert das Publikum immer am
meisten. (vgl. Lissa 1965, S. 383)
„Die meisten Kino- und Fernsehfilme richten sich an ein Massenpublikum“,
schreibt Bullerjahn. (2001, S. 124) Was natürlich zur Folge hat, dass diese Filme verkaufsorientiert und kommerziell arbeiten. Alles im kommerziellen Unterhaltungsfilm ist darauf getrimmt, den Film in der Zielgruppe attraktiver zu machen. (vgl.
Kreuzer 2001, S. 115)
Die Filmmusik ist deshalb im populären Spielfilm ebenso eine
Funktion der Verkaufsförderung und dieser unterstellt.
2.5. Wirkung von Filmmusik
Musik steht im regulären Spielfilm immer im Dienste des Films. Nur im Musikvideo, Musikfilm oder bei künstlerischen Filmprojekten kann sie eine absolut
dominierende Funktion erhalten.
„Jeder Film fordert einen anderen Einsatz, andere Schwerpunkte, eine neue Auseinandersetzung.“ (Elias 2009, S. 54)
16
Filmmusik: Introduktion und Begriffe
Die exakte Wirkung von Musik im Film ist schwierig zu beurteilen, weil
Wirkungsforschung immer eine stark subjektive Einschätzung der untersuchten
Probanden und Probandinnen erfordert. Eine absolute allgemeingültige Wirkung
von Musik bzw. einzelnen musikalischen Bausteinen ist deshalb weitgehend undefiniert. Einzig klischeehafte Verbindungen, wie in Kapitel 5.5 näher ausgeführt wird,
verfügen über eine relativ stabile Verknüpfung zwischen Musik und ausgelöster
Emotion.
Musik wird meist konsumiert, ohne sich deren Inhalt bewusst zu sein. Musikwissenschaftliche Wirkungsanalysen sind voll von Floskeln wie „-.. keine eindeutigen Erkenntnisse..“, „-möglicherweise könnte..“, „.. dürfen keineswegs als gesichert
gelten..“ und so weiter, schreibt Hans P. Ströer (2009, S. 155).
„Jedes Musikstück wirkt auf jeden Menschen anders. Und nicht nur das, auch ein Mensch
empfindet nicht immer gleich, wenn er ein bestimmtes Musikstück mehrmals in verschiedenen Lebenssituationen höre.“ (Ströer, 2009, S. 155)
Der Sinn der Filmmusik entfaltet sich jedoch immer in ihrer Funktion und
nicht in ihren musikimmanenten Kriterien. (vgl. Kloppenburg, 2000, S. 24) Es ist auch
zu berücksichtigen, dass jedes Filmgenre andere Bedingungen an ihre zugehörige
Filmmusik stellt. Filmgenre-übergreifende Regeln zum Umgang mit Filmmusik
sind nicht realisierbar, da immer ein Genre ein anderes hervorheben oder negativ
bewerten ließe. (vgl. Kreuzer, 2001, S. 116)
17
Entwicklung von Filmmusik
3
Entwicklung von
Filmmusik
18
Entwicklung von Filmmusik
3.1. Allgemeine Filmmusikentwicklung im Tonfilm
Der laute störende Projektor, die Angst der Kinobesucher und Kinobesucherinnen im dunklen Saal. Es werden viele Gründe für das erste Einführen von
Musik zum eigentlich nur bildhaften Medium angeführt. Aber Musik vermittelt
vor allem die dritte Dimension, die den geisterhaft lautlosen Schatten auf der
Leinwand Realität einhaucht. (vgl. Schneider 1990, S. 19) „Bewegung war schon immer
mit akustischen Eindrücken verknüpft und vollzog sich nie in künstlicher Lautlosigkeit;“ (Schneider 1990, S. 19)
Musik ersetzte also sämtliche Elemente, die bei der Aufnahme verloren
gingen und bei der Präsentation fehlten: Luftdruck, Temperatur, Feuchtigkeit,
Raumgefühl, Geruch, oder der Eindruck der lokalen tageszeitlichen Grundstimmung. Musik war vor allem ein atmosphärisches Element, das den Eindruck „realer Lebendigkeit“ im Film erzeugen sollte, die durch die stumme bildliche Präsentation nicht dargestellt werden konnte und die Präsentation vervollständigte. (vgl.
Adorno/Eisler 1996, S.89f; Bullerjahn 2001, S. 157; Schneider 1990, S. 19f)
Heute stellt Musik
meist das dar, was Worte und Geräusche nicht können, ein Vergleich könnte also
mit dem Chor in der griechischen Tragödie gezogen werden. (vgl. Russell/Young 2001,
S. 10)
Zu Beginn wurde bei Actionszenen Rossinis „Wilhelm-tell-Ouvertüre“ am
Klavier nachgespielt, romantische Sequenzen wurden von Tschaikowskis „Symphonie Pathetique“ oder Wagners „Liebeslied“ aus Tristan und Isolde aufgeführt.
Die erste originale Filmmusik wurde von Camille Saint-Saens verfasst, für die
Verfilmung des Theaterstückes „L’Assassinat du Duc de Guise.“ Die Idee der
Originalkomposition für einen Film setzt sich jedoch zu Beginn noch nicht durch,
vor allem aus Kostengründen. Es wurden weiterhin bevorzugt die vergleichsweise
finanziell günstigeren und einfacheren Notensammlungen zur musikalischen Begleitung genutzt. (vgl. Russell/Young 2001, S. 10)
Erst mit der Etablierung des Tonfilms wurde die Elite der europäischen
Komponisten und Komponistinnen nach Hollywood eingeflogen, um die ersten
großen Filmmusiken zu komponieren. Auf diesem Weg wurde klassische Musik
nach Amerika importiert, die zuvor im Allgemeinen kein hohes Ansehen genoss,
19
Entwicklung von Filmmusik
da Amerika sich tendenziell von der traditionellen europäischen Hochkultur abgrenzte. Max Steiner wurde zum Paradebeispiel der klassischen Hollywoodmanier in der Anfangszeit. Mit seiner Musik für Symphony of Six Million zeigte er
die Möglichkeiten einer speziellen dramaturgischen Begleitung auf. Die Musik
zeigte eine derartige Wirkung, dass kurz darauf jedes Studio mit einer dezidierten
Musikabteilung aufwartete. (vgl. Brown 1994, S. 111; Russell/Young 2001, S. 11) Mit Steiners
Komposition für King Kong und die weiße Frau wurde der Grundstein für den typischen Hollywoodsound gelegt. Eine abgeschwächte Leitmotivgrundstruktur, vgl.
Kapitel 4.2.3, gepaart mit wiedererkennbaren Melodien und einer an die Romantik
des 19. Jahrhunderts angelehnte Klangpalette schuf eine Schablone für viele darauf
folgende Hollywood Kompositionen, die bis heute noch großen Einfluss ausübt. (vgl.
Russell/Young 2001, S. 11)
Mit der Entdeckung des finanziell lukrativen Hitparadenpotentials von
Soundtracks durch Filme wie Zwölf Uhr Mittags in den 1950er Jahren, fühlten sich
einige der zuvor aus Europa eingewanderten Komponisten und Komponistinnen
(Rósza, Herrmann, …) nicht mehr künstlerisch wertgeschätzt und suchten wieder
Arbeit im weniger dem Kassenschlagerrausch verfallenem Europa. (vgl. Russell/Young
2001, S. 14f)
In den 1960er Jahren erfolgte ein weiterer Wechsel der Komponisten-
klasse. Alteingesessene Komponisten und Komponistinnen aus den Anfängen des
Hollywoodsounds wurden zusehends ausgegliedert und neue junge Komponisten
und Komponistinnen, die vor allem der Populärmusik entstammten, bekamen einen Spielraum. Der Orchestersound wurde verstärkt aufgebrochen und mit populären Beat- und Rock-Formationen erweitert. Da die reinen Orchestersounds an
einem Stagnationspunkt angekommen waren und die polystilistischen Anforderungen nicht mehr erfüllen konnten. (vgl. Russell/Young 2001, S. 75f; Thiel 1981, S. 103) Vor
allem im Musikfilm wird mit Filmen wie Love me Tender (1956) und Double Trouble (1967) mit Elvis Presley und A Hard Day‘s Night (1964) und Yellow Submarine (1968) mit The Beatles der Einfluss von Beatmusik auf den Film ersichtlich.
Auch bei Musicalverfilmungen lässt sich eine Tendenz von klassischen Musikeinflüssen, zum Beispiel Merry Poppins (1964) und The Sound of Music (1965), hin
zu Beatmusik beeinflussten Werken, zum Beispiel Jesus Christ Superstar (1973)
und Hair (1979), erkennen. The Graduate (1967) wurde nicht zuletzt durch Simon
20
Entwicklung von Filmmusik
und Garfunkel’s Songs ein beträchtlicher Hit. Ein weiteres Beispiel ist Jack Nitzsche, der mit Einer flog übers Kuckucksnest eine stilistisch vielfältige, mit der zu
Hilfenahme von Singenden Sägen, Mundharmoniken, Hawaiigitarren, Marimbas
und Flöten, und dramaturgisch wirksame Musik ablieferte. Nach dem Ausbruch in
die experimentalen Gefilde erreichte John Williams mit seinen Musiken für Jaws
und The Towering Inferno und spätestens mit Star Wars die Rückkehr der traditionellen Kinosymphonik, die sich auch bis heute noch immer in Variationen groß
durchsetzt. (vgl. Thiel 1981, S. 196 & 198f)
Ökonomische Faktoren beeinflussen ab diesem Zeitpunkt wieder vermehrt
die Art der Filmmusik. Ob sie schablonenartig komponiert wird, oder neue innovative Kompositionen kreiert werden. Die fehlende Originalität in manchen Kinomusiken lässt sich deshalb nicht immer auf eine unzureichende Arbeit des Komponisten bzw. der Komponistin zurückführen, oft sind auch einfach nur die äußeren
finanziellen Umstände ausschlaggebend. (vgl. Thiel 1981, S. 255) Wirtschaftliche und
technische Entscheidungen lenken schon immer die Geschichte der Filmmusik. Seit
der Begründung des Tonfilms werden entweder populäre Song-Untermalungen produziert, um die Soundtrackverkäufe auszunutzen, oder unterschwellige Musik verwendet, um die Wirkung des Films auf das Publikum zu steigern. (vgl. Kreuzer 2001, S.
8)
Kommerzielle Hintergedanken stehen also in beiderlei Fällen als Entscheidungs-
grundlage im Vordergrund, vgl. Kapitel 2.4.
3.2. Elektronische Filmmusik
H. Matzke erkannte 1931 folgendes: „Der Zusammenprall von Musik und
Technik in der Gegenwart muss überdies von besonderen ästhetischen Folgen begleitet sein.“ (Matzke 1931, zit. n. Thiel 1981, S. 21) Schneider (2009, 144f) schreibt dazu,
dass Filmmusik eine direkte Funktion der technologischen Entwicklungen ist. Als
Beispiel kann das 1960 entwickelte transportable Magnet-Tonband gesehen werden, das sofort die Dokumentarfilm-Ästhetik veränderte und den politischen Autorenfilm und die Nouvelle Vague begründete. Auch Thiel (1981, S. 20f) führt an,
dass die technischen Umstände die Entwicklung von Musik schon immer sehr stark
beeinflusst hatten, früher in Form der Architektonik der Kirchen und Auffüh-
21
Entwicklung von Filmmusik
rungssäle und vor allem durch die verschiedenen Notations- und Reproduktionsverfahren, später in Form der Aufzeichnungs- und Wiedergabegeräte. Insbesondere
in der zweiten Hälfte des 20. Jahrhunderts fanden sich in diesem Bereich enorme
Weiterentwicklungen, von der Kassette zur CD bis hin zum MP3-Player. Bereits
von Beginn an kann eine enge Wechselbeziehung zwischen Technik und Ästhetik
wahrgenommen werden. Neue Klangideale waren oft die Folge einer neuen technologischen Entwicklung, die Technik war also nie eine rein neutrale Basis.
Die Grundsteine zur elektronischen Musik wurden von Russolo in seinem
Manifest L‘arte dei Rumori (Die Kunst des Lärms) 1913 gelegt. Er verwendete
Lärmmaschinen und generell mechanisch, technische Laute zur Erzeugung von damals neuartiger Musik. Er inspirierte bereits 1913 mit seinen Werken einige Künstler in den späterfolgenden Genres der konkreten Musik und Glitch-Musik zu einer
Weiterführung des Klangs ins Abstrakte. (vgl. Cox/Warner 2004, S. 10f; Kahn 1999, S. 57)
Der Beginn der elektronischen Klangkunst war oft von Naturwissenschaftlern
und Naturwissenschaftlerinnen, Akustikern und Akustikerinnen, Mathematikern
und Mathematikerinnen, und Radiotechnikern und Radiotechnikerinnen geprägt,
weniger von Künstlern und Künstlerinnen, und Musikern und Musikerinnen per se.
(vgl. Thiel 1981, S. 24)
Obwohl die auditiven Experimente oft nur einen mechanischen
Formalismus aufweisen, sind sie trotzdem von großem Interesse für die Erstellung
einer spezifischen filmischen Musik. (vgl. Thiel 1981, S. 24) Als zentrales Werk ist hier
das von Le Corbusier kuratierte und Varèse komponierte Stück Poème Electroniqué hervorzuheben, das in Iannis Xenakis Phillips Pavillion bei der Weltausstellung 1958 Ton, Bild, Architektur und Licht zusammenführte. (vgl. Hoffer 2012, S. 278f)
Erste Versuche die Klangpalette wesentlich mittels elektronisch generierter
Klänge auszuweiten wurden von Werner Meyer-Eppler und Herbert Eimert 1949
im Studio für elektronische Musik des WDR in Köln getätigt. (vgl. Lissa 1965, S.
292)
Zur selben Zeit wurde auch in Paris in einem ähnlichen Studio des RTF die
konkrete Musik von Pierre Schaeffer und Pierre Henry entwickelt, die mittels existierendem Klangmaterial und Geräuschen collageartig „Musik“ zusammenfügten.
(vgl. Kahn 1999, S. 138f)
Diverse Experimente der Klangmodifizierung wurden durch-
geführt. Die Möglichkeiten und Ausdruckscharakteristiken von Aufeinanderschichtungen, Beschleunigungen, Verlangsamungen und Reversierung der Aufnahmen
22
Entwicklung von Filmmusik
wurden erforscht und genutzt. Die Präparierungen des Klangmaterials wurden mit
folgenden Zielen durchgeführt: plastischeren Klang kreieren, größere Klangschärfe
erreichen, Klangfarbe vernebeln, völlig neue Klangqualität erzielen, neue Raumqualität ermöglichen. (vgl. Lissa 1965, S. 152f & 292)
Elektronische und konkrete Musik eignen sich laut Lissa (1965, S. 293) aus
folgenden drei Gründen für die Verwendung im Film: Erstens benutzt Film schon
seit Anbeginn Geräusche und Lauteffekte, die nicht nur realistische Darstellung,
sondern auch Ausdrucksträger sind. Zweitens wird im Film schon länger mit präpariertem Klangmaterial gearbeitet, der naturalistische Ausdruck der traditionellen Klangfarben wurde also bereits mehrfach umgangen. Drittens sind die ersten
Versuche mit der Aufnahmetechnik zu experimentieren, die in der konkreten und
elektronischen Musik gemündet haben, gewissermaßen im Film gestartet.
Da der Ausdruck elektronischer Musik völlig neuartig und fremd war, wurde
diese auch in derartigen Situationen eingesetzt. Vor allem im Science-Fiction und
Weltraumbereich ertönten sehr früh elektronische Klänge. (vgl. Lissa 1965, 296)
Die ersten populären Anfänge elektronischer Filmmusik tätigte Rózsa mit
dem prägnanten Einsatz eines Theremins bei Spellbound (1945) und The Lost
Weekend (1945). Nach Rózsas Musik wurde das Theremin zum Sound der Stunde.
Vor allem Science-Fiction- und Horrorfilme wurden vermehrt mit dem Theremin
bespielt. (vgl. Kalinak 2010, 76, Ruschkowski 1998, S. 35)
1956 erstellte der japanische Komponist Akira Ifukube elektronische Klänge mittels eines Taperecorders für den Film Godzilla. Im selben Jahr wurde die
erste pure elektronische Musik bei Forbidden Planet eingesetzt. Louis und Bebe
Barron komponierten eine derart neuartige Musik für den Film, dass sie auch als
„elektronische Tonalität“ bezeichnet wurde. (vgl. Kalinak 2010, S. 76; Russell/Young 2001,
S. 13)
Bei der Kompositionstechnik lässt sich eine enge Bindung zur konzertanten
Musik von Karlheinz Stockhausen erkennen, der ebenfalls in die elektroakustische
Richtung forschte. Die Verwendung der derartig modernen und auch künstlerisch
neuen Musik war sehr beeinflussend, denn so konnte ein breites Publikum in die
Entwicklungen der E-Musik eingeführt werden, ohne dass dieses zuvor einen Bezug
dazu hatte. Filmmusik hat auch für viele die ersten Kontakte mit seriellen Kompositionsweisen dargestellt, wie zum Beispiel im Film Jenseits von Eden (1955). Die
23
Entwicklung von Filmmusik
Klangsphären von György Ligeti wurden durch den Film 2001: A Space Odyssey
bekannt gemacht. (vgl. Russell/Young 2001, S. 13)
1968 erbrachte Wendy Carlos mit Hilfe des Moog-Synthesizers dann den populär erfolgreichen Beweis, dass die Synthesizer nicht nur Klangeffekte herstellen
können.
„I tried to avoid gratuitous obsession with only dissonance. I tried to make music that
was not ugly.“ - Wendy Carlos (Holmes 2002, S. 157)
Mit der LP Switched-On Bach, einer Neuinterpretation von Bachkompositionen von Synthesizern gespielt, zeigte sie, dass die Moogs auch als vollständiges
musikalisches Instrument im klassischen Sinne eingesetzt werden können. (vgl. Ruschkowski 1998, S. 112f) Im
Jahr 1971 komponierte sie für Stanley Kubrick die Filmmusik
für A Clockwork Orange in einem ähnlichen elektronisch klassischen Stil.
Gewichtigen Einfluss auf den Verlauf der Popularität elektronischer Filmmusik hatte 1977 die Popgruppe Tangerine Dream. 1967 in Berlin gegründet, waren
sie zehn Jahre später mit ihren Synthesizersongs in Europa, Amerika und Japan
sehr bekannt. Die Musiken für die Filme Sorcerer (1977), Thief (1980), Vision
Quest (1985) und The Man Inside (1989) wurden hauptsächlich minimalistisch
komponiert. Einfache Ostinati im Bass, Klavier oder Synthesizer und stetig auffächernde Klangräume sind die Hauptelemente der entstandenen Scores. Subtilere
Phasen bestehen zumeist nur aus in sich selbst oszillierenden Akkorden gespielt
von Synthesizern. Auffällig ist jedoch, dass die Stücke oft sehr ähnlich zur autonomen Musik sind und den Bezug zum Film wenig punktuell, sondern eher atmosphärisch suchen. Allgemein entwickeln sich infolge des Gebrauchs von Synthesizern und Samplern mehr atmosphärische Scores als zuvor. Anstatt einer exakten
Bildentsprechung zu folgen, werden langsam bewegte, subtile Musiken komponiert.
(vgl. Kreuzer 2001, S. 107 & 110)
Ab Giorgio Moroder’s Musik für den 1978 erschienen Film Midnight Express zeigt sich ein Umschwung zum vergrößerten Einsatz elektronischer Musik für
Mainstreamfilme. (vgl. Prendergast 1992, S. 304) Eine der technisch avanciertesten und
gleichzeitig auch erfolgreichsten elektronischen Filmmusiken ist die von Vangelis
24
Entwicklung von Filmmusik
produzierte Musik für Blade Runner (1982). Vangelis, der schon mit Chariots
of Fire (1981) einen großen Erfolg feiern konnte, zeigte abseits des autonomen
Synthie-Pop ein Klangbild, das eine erfolgreiche Färbung des Films mit Hilfe der
elektronischen Musik erzielte, die sich aus verschiedenen Synthesizern, verfremdeten Stimmen, Saxophonen und atmosphärischen Geräuschen zusammensetzte. (vgl.
Kalinak 2010, S. 76; Kreuzer 2001, S. 108; Prendergast 1992, S. 305)
Ausgehend von der Ent-
wicklung des Sampling und Sequencing verändert sich die elektronische Musik weg
vom reinen Klangexperiment zu einer einfach einsetzbaren digitalisierten Form.
Insbesondere die Einführung des MIDI Standards 1983 stellte den entscheidenden
Schritt für eine komfortable Handhabung, aber auch die Entlassung vieler Studiomusiker und Studiomusikerinnen, dar. (vgl. Kalinak 2010, S. 76; Kreuzer 2001, S. 107) Laut
Brown (1994, S. 266) und Kalinak (2010, S. 76) ist es durch die Entwicklungen der
elektronischen Musik auch wesentlich einfacher geworden Filmmusik ohne großes
Training zu erstellen. So komponiert John Carpenter, der eigentlich kein Musiker
ist, seine Filmmusiken selbst, wie zum Beispiel für das 1978 erschienene Halloween.
Außerdem wird die Zusammenarbeit zwischen Regisseur bzw. Regisseurin und
Komponist bzw. Komponistin durch das Sampling vereinfacht, da schon vor der
Aufnahme mit dem großen Orchester, ein finaler Klang simuliert werden kann, der
sozusagen ein akustisches Polaroid darstellt. (vgl. Kreuzer 2001, S. 109)
Jerry Goldsmith benutzt elektronische Klänge und verknüpft diese mit dem
klassischen Orchester. Elektronische Sounds werden eingesetzt, bei Klängen, die
er mit naturalistischen Instrumenten nicht erzielen könnte. Er schreibt dazu, dass
er seit fünfundzwanzig Jahren elektronische Klänge verwendet, er sie aber nie als
Ersatz für das Orchester gesehen hat, sondern als zusätzlichen Teil des Sinfonieorchesters anerkennen will. (vgl. Karlin/Wright 2004, 370)
Diese Mischproduktionen von Orchester und elektronischen Komponenten
wird durch die verfeinerten Techniken des Sampling ermöglicht, die die Qualität
der elektronisch simulierten Instrumente und die Intonationsmöglichkeiten auf ein
mit akustischen Instrumenten vergleichbares Niveau bringen. Diese pseudoakustischen elektronischen Produktionen überleben heute vor allem im Fernsehen oder in
Produktionen bei denen die finanziellen Mittel für originale Orchesteraufnahmen
fehlen, jedoch eine symphonische Musik angestrebt wird. (vgl. Kreuzer 2001, 109)
25
Entwicklung von Filmmusik
Hans Zimmer verwendet beispielsweise einen Stil, der zwar die symphonische Orchesterpalette benutzt, jedoch die Möglichkeiten der elektronischen Musik
erkennt. Mit den elektronischen Instrumenten wird nicht versucht, das pseudoakustische nachzubilden, sondern ein neuer ästhetischer Weg begangen, der die
elektronischen Elemente eigenständig einsetzt. Hans Zimmer, Danny Elfmann,
Clint Mansell und Alan Silvestri beweisen alle diesen sorglosen Umgang mit dem
akustischen und elektronischen Material. Alle vier haben ihre Wurzeln nicht im
klassischen Bereich, sondern entstammen der Pop/Rock-Szene. Die orchestrale
Komponente wurde meist auto-didaktisch dazugelernt und popmusikalische und
klassische Idiome werden unbeschwert zusammengemischt. Die Sampling-Technologie löste sich von der pseudoakustischen Komponente durch die Vielzahl an
möglichen Klangmodulationen ab, die weit über die Möglichkeiten von normalen
Musikinstrumenten hinauszielten. Unnatürlich wirkende Spielweisen gesampelter
Naturinstrumente erzeugen eine völlig eigene Charakteristik. So kann ein ChorKlang eines Sample-Programms einen völlig sterilen Akkordklang erzeugen, was
die Assoziation eines artifiziell abstrahierten Menschlichen ermöglicht. Ein menschlicher Chor könnte nie derartig sauber Intonieren und eine ähnliche Qualität erzeugen. (vgl. Kreuzer 2001, 109f)
3.3. Kritik und Einsatzbereiche der elektronischen
Filmmusik
Im Vorwort zu Prendergasts Filmmusic a negleted Art bemängelt William
Kraft (1992, S. XX) die Reduzierung auf das Elektronische, die Entlassung von talentierten Studiomusikern und Studiomusikerinnen und die Kürzung von Kosten
durch die elektronischen Möglichkeiten, die jedoch für ihn auch automatisch den
Verlust von Qualität bedeutet.
„We have even witnessed the creation of a segment of the current generation of electronic composers, who are unable to notate music, let alone know what true composition
and orchestration are about.“ (Kraft 1992, S. XX)
26
Entwicklung von Filmmusik
Das Auftauchen technischer Innovationen bewirkt natürlich auch immer eine
Aufteilung in zwei gespaltene Lager. Der Fortschrittsglaube steht gegen die Tradition. Laut Kreuzer (2001, S. 111) bewundern die einen die Erweiterung und die neuen
Möglichkeiten, während die anderen den Verlust „echter“ musikalischer Ideen, „echter“ Kompositionsweisen und „echten“ Musizierens bemängeln.
Wie auch schon bei der Einführung anderer technischer Fortschritte, lässt
sich jedoch feststellen, dass zu Beginn der Entwicklung oft die Technik um der
Technik willen eingesetzt wird. Grenzen werden ausgelotet und Möglichkeiten erkannt. Erst im zweiten Schritt wird daraus eine stimmige Ästhetik ausgelesen, die
abseits technischer Spielereien die neuen Aspekte integriert. (vgl. Kreuzer 2001, S. 111)
Auch Schneider (1997, S. 83f) spricht von der Gefahr eine „l’art pour l’art”-Ästhetik
mit elektronischen Klängen zu generieren. Da real existierende Klänge immer einen festen psychologischen und gesellschaftlichen Bezug zur Wirklichkeit haben,
während elektronische Klänge sehr schnell abstrakt und unwirklich klingen können.
Der reduzierte Kostenfaktor hat natürlich einen entscheidenden Einfluss auf
die Entwicklung und Verbreitung elektronischer Musik gespielt. Die Reproduktion
akustischer Instrumente ermöglichte es den Komponisten und Komponistinnen
ohne Orchesterkosten die gesamte Instrumentenpalette auszunutzen, allerdings bis
heute noch mit qualitativen Einschränkungen. Ausschlaggebend für die Verbreitung war jedoch neben den monetären Vorteilen auch die Verwendung der elektronischen Elemente im Sound der populären Musik. Synthesizersounds dominierten,
wie die E-Gitarre in den 1950ern und 60er Jahren, die Popmusik der 1980er und
90er. Der Einfluss daraus musste also auch auf die Filmmusik überschwappen.
Laut David Kurtz ist vor allem zu bemerken, dass die junge Generation der 1990er
Jahren die erste ist, die sich mit Musik, die auf elektronischem Wege manipuliert
wurde, mehr identifiziere als mit live gespielter Musik. (vgl. Prendergast 1992, 301f)
Der Einsatz von elektronischen Komponenten kann wie bereits erwähnt in
pseudoakustische und wirklich originelle elektronische Instrumente eingeteilt werden. Die Replikation von akustischen Instrumenten ist laut David Kurtz eine Sackgasse.
27
Entwicklung von Filmmusik
„If you want the sound of trombones, you’ll be far ahead of the game by hiring trombone
players“. (vgl. Prendergast 1992, 304f)
Auch Jens-Peter Osterdorf entsagt den billigen Synthesizerproduktionen, die
im, vor allem Fernseh-, Film nur Nachbildung des Originals sein sollen, da hier laut
ihm die Musik meist völlig nebensächlich ist und generell nicht auf die Qualität geachtet wird. (vgl. Schneider 1990, S. 255) Diese Generalisierung ist allerdings als negativ
eingefärbte Übertreibung von Osterdorf anzusehen. Die Werke von John Carpenter
haben gezeigt, dass auch mit geringen Mitteln eine funktionierende elektronische
Filmmusik erstellt werden kann.
Allerdings hat im Allgemeinen nur die Verwendung von Synthesizern, auf
Grund ihrer Klangmöglichkeiten und nicht zur Nachbildung akustischer Instrumente, kreatives Potenzial und im Film auf Dauer musikalischen Sinn. (vgl. Prendergast 1992, S. 304f)
Elektronische Klänge ermöglichen es die Limitationen natürlicher
Instrumente zu umgehen, Zeitdehnungen und Modulationen können eine gewisse
Irrealität ausdrücken, was vor allem Science-Fiction und spannungsorientierten
Filmen zu Gute kommt. (vgl. Schneider 1997, S. 207)
Kurtz beschreibt auch, dass bei elektronischer Musik generell mehr Zeit
in der kreativen Phase verwendet werden kann und dadurch mehr Experimente
durchgeführt werden können. Vor allem fallen finanzielle Entscheidungen bezüglich des Einsatzes mehrerer oder weniger Instrumente vollständig weg. Der Entscheidungsprozess ist dadurch kreativer ausgelegt, als finanziell orientiert. William
Goldstein gesteht auch, dass für ihn elektronische Musik wesentlich persönlicher
ist, als akustische, da er bei der elektronischen jeglichen Aspekt selbst kontrollieren
kann und nach genau seinen Vorstellungen anpassen kann, während bei einer Orchesteraufnahme immer die Persönlichkeit des Orchesters mitgetragen wird. Auch
das direkte Experimentieren mit Sound ermöglicht für ihn neue Wege, die rein mit
Papier und Stift nicht erreichbar wären. Das Experimentieren verlangsamt jedoch
auch die Arbeitsweise, wenn nicht zielgerichtet gearbeitet wird, da die Möglichkeiten endlos sind. (vgl. Prendergast 1992, S. 304ff)
Auch Schneider (1997, S. 208f) schreibt, dass die Verwendung elektronischer
Klangerzeuger, bei intensiver Auseinandersetzung, weder billiger noch schneller
28
Entwicklung von Filmmusik
als die Nutzung akustischer Instrumente sein kann, wenn nicht einfach die vorprogrammierten Einstellungen benutzt werden. Die Bereitschaft sich näher mit
der Klangprogrammierung auseinanderzusetzen ist jedoch bei vielen Filmkomponisten und Filmkomponistinnen unterschiedlich. Zur Produktion elektronischer
Filmmusik werden von elaborierten Großstudios bis hin zu Standardkeyboards
der Unterhaltungsindustrie eingesetzt. Viele Komponisten und Komponistinnen
lassen die Programmierung ihrer Klänge auch von dezidierten Tonmeistern und
Tonmeisterinnen oder Klangtüftlern und Klangtüftlerinnen ausarbeiten und geben
lediglich die gewünschte Ästhetik vor. Wobei sich hier das Sprechen über Klang
schwierig gestaltet. Kategorisierungen wie „string”-, „brass”-, „glass”-, „voiceähnlicher“, „metallic”- und „noise”-sound sind hier von Vorteil. Weitere Adjektive wären: Hell, dunkel, weich, hart, scharf, dicht, sphärisch, modulierend, verklingend,
starr oder kratzig. Auch Beispiele bereits existierender Musiken werden gerne als
Orientierung genutzt. Bei eher klangeffekthaftem Gebrauch elektronischer Musik
lässt sich auch noch immer die aus 1931 stammende semantische Kategorisierung
der BBC (1931, S. 194ff) anwenden. Die sechs Kategorien unterteilen sich in: 1. ein
realistischer, bestätigender Effekt, 2. ein realistischer, evozierender Effekt, 3. ein
symbolischer, evozierender Effekt, 4. ein konventionalisierter Effekt, 5. ein impressionistischer Effekt und 6. Musik als Effekt.
Schneider deutet des Weiteren auf das Fehlen einer spezifischen Aura elektronischer Klänge hin, die bei akustischen Instrumenten schon allein durch das individuelle Spielen und dessen Einmaligkeit entsteht. Das künstliche Nachbilden dieser
Aura des Unverwechselbaren und Einmaligen unterscheidet oft schnelle billige Imitate von qualitativ hochwertigeren Schöpfungen. (vgl. Schneider 1990, S. 256; Schneider
1997, S. 207)
Auch für Jerry Gerber (Gerber/Prager o.J.) ist der wichtigste Schritt, nach
der Komposition und dem Einprogrammieren in den Computer das Hinzufügen der
verschiedenen Möglichkeiten des Ausdrucks, mit Hilfe verschiedener Eingabegeräte: zum Beispiel einem Blaswandler für Blasinstrumente, einen Schlagzeugcontroller zum Einspielen von perkussiven Elementen und so weiter. Dadurch kann der
Ausdruck und das Einspielen realistischer anmuten und die persönliche Aura beim
simulieren akustischer Instrumente verbessert werden. Auch Chion (1994, S. 116) be-
29
Entwicklung von Filmmusik
schreibt den Effekt fehlerhafter Instrumente und Intonationen, die das Publikum
einfacher als Präsenz in der gezeigten Umgebung aufnimmt.
Diese individuelle Aura wird vor allem von Fehlern und menschlichen Schwächen definiert, meint Jürgen Knieper. Diese Schwächen vermisst Knieper in der
elektronischen Musik. Jeder Ton kann exakt platziert und intoniert werden. Fehlt
ein menschlicher Charakter vollkommen, kann dies, wie bereits in Kapitel 3.2
erwähnt, eine gewünschte Ästhetik sein, in den meisten Fällen ist es jedoch ein
qualitativer Mangel und keine Stärke. (vgl. Schneider 1990, S. 26) 1
3.4. Zusammenfassung
Die historische Entwicklung elektronischer Musik für den Film ist also sehr
intuitiv geschehen. Elektronische und modifizierte Klangelemente fanden ihren Ursprung im Umfeld des Bewegtbildes, die Verbindung zum Film ist bereits im Ansatz enthalten. Mit der Verleihung der Oscars für Giorgio Moroders Musik für Midnight Express 1978 und Vangelis Musik zu Chariots of Fire im Jahr 1981 wurden
auch erstmals die populäre Wertschätzung elektronischer Musik im Film bezeugt.
(vgl. Academy of Motion Pictures Arts and Science, 2012a & 2012b)
Die Beurteilung elektroni-
scher Filmmusiken ist immer zweigeteilt, die einen beschränken sich auf die traditionelle, ihrer Meinung nach kompositorisch hochwertige Seite, die anderen erkennen
die neuen Möglichkeiten und nutzen diese. Wird jedoch nur die Technik um der
Technik Willen eingesetzt, wird auch das Ergebnis zwar vielleicht technisch schön
sein, aber ohne wirkliche emotionale Funktionalität. Beim Einsatz elektronischer
Musik ist vor allem zu beachten, die Aura oder Seele der Musik nicht zu verlieren.
Eine technisch saubere Lösung ist oft nicht die zielführendste, wie auch Schneider
(1990, S. 26; 1997 S. 207)
mehrmals erwähnt, da die menschliche Imperfektion die indi-
viduelle Aura mitbringen.
1
Die bewusste Hinweisung auf die technologischen Rahmenbedingungen einer digitalen Produktion wird seit den späten 1990ern im Musikgenre Glitch thematisiert. Die Ästhetisierung des digitalen
und elektronischen Fehlers steht im Fokus des Musikgenres, welches oft einen sehr experimentellen
und weniger musikalischen Charakter aufweist und damit wieder auf die eher technikorientierten Anfänge elektronischer Musik zurückweist. (vgl. Evens 121f)
30
Die Komposition. Ein Prozess
4
Die Komposition.
Ein Prozess
31
Die Komposition. Ein Prozess
„Musik ist die Kunst, durch Töne Empfindungen auszudrücken“, schreibt
Heinrich Christoph Koch bereits 1802 in seinem Musikalischen Lexikon. (Koch 1802,
zit. n. Thiel 1981, S. 89)
Die Umsetzung dieses Grundsatzes ist eine der Pflichten ei-
nes guten Filmmusikkomponisten bzw. einer guten Filmmusikkomponistin. Filmmusikkomposition ist im Vergleich zu Regie und Schauspiel, eine in der Öffentlichkeit eher weniger beachtete Teilkomponente. Dementsprechend sind auch die
Komponisten und Komponistinnen und ihre Musik nicht die Ersten, die bei einer
Rezension oder Analyse genannt werden. (vgl. Thiel 1981, S. 9 & 89) „Die Rolle des
Komponisten ist eine dienende“, schreibt Bullerjahn (2001, S. 12). Den Wünschen
des Regisseurs bzw. der Regisseurin gilt es zu entsprechen. Die Bilder sind meist
schon vormontiert. Der Komponist bzw. die Komponistin fügt sich im Regelfall in
die fertige Filmkomposition ein, ohne große Änderungen des Bildes beeinflussen zu
können. (vgl. Bullerjahn 2001, S. 12f)
Dem Autor stellt sich die Frage, in wie weit Musiker und Musikerinnen
aus der elektronischen populären Musik die Aufgabenstellungen eines traditionellen Filmmusikkomponisten bzw. einer Filmmusikkomponistin erfüllen können und
welche Anforderungen an diese gestellt werden.
4.1. Stil einer Filmmusikkomposition
Bei der Filmmusik benötigt oft jeder Film einen anderen kompositorischen
Zugang, der Komponist bzw. die Komponistin muss also einen Stilpluralismus beherrschen, um für jeden Film einen geeigneten individuellen Stil zu kreieren. (vgl.
Lissa 1965, S. 298)
So lange ein einheitlicher Gesamtstil für einen Film gefunden wird,
wird die Musik als stimmig für diesen einzelnen Film angesehen. Dieser Stil muss
konsequent den ganzen Film durchgesetzt werden, da ansonsten die Kontinuität
des Films gestört wird und die Empfindung des Films als Einheit zerbricht. (vgl.
Kreuzer 2001, S. 129)
Das Aufrechterhalten eines einheitlichen Stils innerhalb eines
Filmes ist durch die verschiedenen Aufgaben der Musik gegenüber dem Bild beeinträchtigt. Vor allem wenn im Film diegetische Musik auftritt, gestaltet es sich als
schwierig Kontinuität mit der extradiegetischen Musik zu erhalten. Der Auftritt
verschiedener geschichtlicher Epochen ist ebenfalls nur komplex zu meistern, hier
32
Die Komposition. Ein Prozess
kann ein geteiltes Thema oder Leitmotiv über alle Stile hinweg zur zumindest
inhaltlichen Vereinheitlichung verhelfen. Ähnlich dem Stilpluralismus der verschiedenen Genregattungen des Films selbst hat auch die Filmmusik kein einheitliches
Stilbewusstsein. Obwohl seit einem Jahrhundert Tonfilme produziert werden, kann
kein einziger Stil herausgebildet werden, wie es in der autonomen Musik der Fall
ist. Der Stil hängt immer vom jeweiligen Inhalt der Handlung und der Erzählweise
ab. Ein großer Teil der Filmmusik bedient sich neo-romantischer Klischees, vor
allem beim Gebrauch des dazugehörigen Orchesterstandards. Diese Klischees werden jedoch mit einer Vielzahl von anderen Einflüssen vermischt. Beachtenswert ist
hierbei, dass die Neuartigkeit und Modernität der verwendeten Stile keine Wertkriterien darstellen. Einzig die Verbindung zum Film ist das Qualitätsmerkmal. Vor
allem ist zu beobachten: je enger die Bindung von Musik und Film, desto geringer
die musikalische Autonomie und Eigenheit. (vgl. Lissa 1965, S. 299f)
Die Spezifik des Ausdrucks der Musik im Film ist immer durch den visuellen Faktor eingeschränkt. Des Weiteren sind im Film meist wesentlich kürzere
Abschnitte zu komponieren, als in der autonomen Musik. Es entsteht ein skizzenartiger und aphoristischer Charakter, welcher nicht weiter ausgeführt werden kann.
Die Motive und Ausführungen sind dadurch natürlich beeinflusst und durch die
fehlende Zeit zur weiteren Evolution in ihrer Komplexität oft eingeschränkt. Der
dramaturgische Sinn wird jedoch, wie bereits beschrieben, nicht aus dem musikalischen Ablauf gewonnen, sondern aus der Beiordnung der restlichen Elemente zur
Musik. (vgl. Lissa 1965, S. 365)
Auf Grund der speziellen Funktionalität von Filmmusik lässt sie auch radikalere klangliche Mittel als populäre autonome Musik zu. Durch die Sinngebung im
Bild kann die Musik völlig frei und ungewöhnlich arbeiten, obwohl das Publikum
nur den Durchschnittshörer bzw. die Durchschnittshörerin repräsentiert, wird hier,
anders als in der modernen Kunstmusik, die Musik trotzdem verstanden. Das Bild
erklärt die Musik. Die Präsentation ganz neuartiger und fremder Töne im Film
erweitert auch die Hörgewohnheit des Publikums und der Kontakt zu moderner
Musik, die ähnliche Mittel nutzt, wird erleichtert. (vgl. Lissa 1965, S. 301) Wie zum
Beispiel das Thema für die britische Serie Doctor Who, das von Delia Derbyshire
33
Die Komposition. Ein Prozess
1962 elektronisch umgesetzt wurde und das erste elektronische Thema einer Fernsehsendung wurde. (vgl. Wrench 2008)
Neue fremdartige Töne wurden beim ersten Einsatz elektronischer Musik
erlebt. Mittlerweile hat die Elektronik jedoch in den Mainstream Einzug gefunden
und ist vor allem in der Popmusik nicht mehr weg zu denken. Der Erstkontakt fand
aber, wie auch bei anderen neu erschienenen Musikkünsten im 20. Jahrhundert, für
die meisten Rezipienten und Rezipientinnen im Kinobereich, z.B. bei Forbidden
Planet (1956), statt. Die stilistische Varianz in der Filmmusik beschreibt sehr gut,
dass im Prinzip jegliche Musik, wenn sie mit dem Bild kongruiert, als Filmmusik
geeignet sein kann. Elektronische Musik ist in sich selbst bereits in einem großen
Spektrum vorhanden, eine passende Zuordnung einer der ästhetischen Ausprägungen elektronischer Musik zu einem Film sollte deshalb immer möglich sein.
4.2. Filmische Kompositionsarten
Die Komposition von zur Gesamtdramaturgie korrespondierender Musik
lässt sich innerhalb der Entwicklungsgeschichte zu drei vorherrschenden Techniken bezüglich des Einsatzes der Musik gegenüber dem Bildgeschehen einteilen.
Die deskriptive Technik schränkt sich auf ein möglichst getreues Darstellen des
Bildinhalts ein. Bei der Mood-Technik wird versucht den emotionalen Gehalt einer Szene wiederzugeben. Als bewährte Kompositionstechnik ist die Motivtechnik
(auch Leitmotivtechnik genannt) die dritte oft genutzte Technik zur musikalischen
Begleitung. Zur Vervollständigung wird auch noch eine vierte Kompositionstechnik, die Bausteintechnik, aufgeführt, die allerdings in den meisten Fachliteraturen
auf Grund der geringen Popularität keine gesonderte Erwähnung findet. (vgl. Kloppenburg 2000, S. 41)
4.2.1. Deskriptive Technik
Sie wird auch Bildillustration, „underscoring“ oder „Mickey Mousing“ genannt. Bei der deskriptiven Kompositionstechnik wird versucht, mit akustischen
Mitteln den bildlichen Inhalt (Bewegungselemente, Licht- und Raumwirkungen,
34
Die Komposition. Ein Prozess
Schallereignisse der Bildaussage) möglichst synchron und eindeutig zu illustrieren. (vgl. Thiel 1981, S. 65) Schon zur Nickelodeonperiode2 (ca. 1900-1914) begleiteten
neben den üblichen Kinopianisten und -pianistinnen auch Schlagzeugspieler und
-spielerinnen den Film, um mit verschiedenen Schlagwerken Wind-, Donner-, und
Regengeräusche oder Schüsse, Ohrfeigen, Pferdegetrappel und Eisenbahnrattern
zu erzeugen. (vgl. Lek 1987, zit. n. Bullerjahn 2001, S. 77) Diese Synchronität von Musik
und Bild lässt sich später auf die deskriptive Musik weiterführen. Walt Disney verwendete diese Art von Untermalung in seinen frühen Animationswerken, weshalb
sich auch der Begriff Mickey Mousing eingeprägt hat. Aaron Coplan kritisiert die
übermäßige direkte Verlinkung von Bild und Ton:
„[Beim Mickey Mousing ...] wird, wo immer es nur ausführbar ist, alles verdeutlicht, was
auf der Leinwand geschieht. Der Schauspieler kann seine Augenbrauen nicht hochziehen,
ohne dass die ihm die Musik dabei hilft“ (Thiel 1981, S. 65f)
Auch Miklós Rózsa äußert sich nicht begeistert von dieser Art einen Film zu
vertonen:
„I intensly dislike it. One of the reasons i did not want to come to hollywood was that i
thought that was what you had to do there.“ (Brown 1994, S. 273)
Die übertriebene Verdoppelung von Bild und Ton führt im Film meist zu
einer ablehnenden Haltung des Publikums. (vgl. Bullerjahn 2001, S. 77) Heutzutage wird
diese Form zu einem großen Teil nur mehr bei Animationsfilmen eingesetzt, wo die
ohnehin fehlende Realität durch die Überzeichnung nicht gestört wird. (vgl. Thiel
1981, S. 66)
2
Nickelodeons, im Deutschen auch Ladenkino genannt, boten neben Theater, Gesangs- und
Musikdarbietungen auch die ersten Bewegtbildaufführungen an und stellen die ersten Kleinkinos dar.
(vgl. Prokop 1995, S. 38)
35
Die Komposition. Ein Prozess
4.2.2. Mood Technik
Bei der so genannten Mood Technik wird nicht der Bildinhalt illustrierend
dargestellt, sondern eine bestätigende Bildinterpretation und -einstimmung angestrebt. (vgl. Thiel 1981, S. 66) Es wird versucht den Filmszenen musikalische Stimmungen hinzuzufügen (vgl. Faulstich 2002, S. 139), „die thematisch mehr oder minder
unabhängig sind.“ (Pauli 1978, S. 17) Als Begründer dieser Kompositionsweise wird
Alfred Newman bezeichnet. Er orientierte sich mehr an der Kompilationstechnik,
bekannt aus der Stummfilmzeit, als an der direkten Übersetzung der Filmebene
in die musikalische. (vgl. Bullerjahn 2001, S. 83) Ein weiterer Komponist, der sich dieser Technik früh bediente ist Bernard Herrmann, zum Beispiel bei der Mordszene
in Psycho. (vgl. Thiel 1981, S. 66) Bei der Mood-Technik wird die Befindlichkeit der
Protagonisten und Protagonistinnen, und bzw. oder ein eher statischer Gefühlsausdruck vermittelt. (vgl. Bullerjahn 2001, S. 83) Die moderne Variation dieser Technik
benutzt jedoch vor allem „hochgradig assoziativ besetzte musikalische Reizvokabel,
die isoliert punktuell (ohne melodische oder kontrapunktische Bindung) eingesetzt
und rezipiert werden“, kritisiert Thiel (1981, S. 66) den unüberlegten Musikeinsatz
mancher Komponisten, der sich nur wiederholt rezipierter Klischees, vgl. Kapitel
5.5, bedient.
4.2.3. Motiv Technik
Auch bekannt als Leitmotivtechnik, hat der „hollywoodsche“ Einsatz nur eine
geringe Ähnlichkeit mit der eigentlichen Wagnerschen Idee eines Leitmotivs. Bei
Wagner stellt das Leitmotiv noch ein symbolisches, mythisches Zusatzelement dar,
das den tieferen Sinn der Gestalt repräsentieren soll. (vgl. Brown 1994, S. 99) Wagner
war zwar nicht der erste, der diese Technik einsetzte, er perfektionierte sie jedoch
und hob die kurzen Motivelemente durch ihren verwobenen, verflochtenen Einsatz
zu Satzbildungselementen empor. (vgl. Bullerjahn 2001, S. 88) Im Film ist laut Eisler die
Leitmotivfunktion nur mehr ein „musikalischer Kammerdiener, der seinen Herrn
mit bedeutsamer Miene vorstellt, während den Prominenten ohnehin jeder kennt.“
(Adorno/Eisler 1996, S. 22)
Bereits ab den 1950er Jahren wendet sich Hollywood ten-
36
Die Komposition. Ein Prozess
denziell eher von der Leitmotivtechnik ab. Jerry Goldsmith führte 1998 aus, dass
ein Filmbesucher bzw. eine Filmbesucherin auf Grund des involvierenden Bildmaterials die Aufmerksamkeit nicht auf alle musikalischen Details richten kann:
„Ich glaube nicht so sehr an den Leitmotivansatz der Filmkomposition, weil ich nicht
glaube, dass die Zuschauerschaft genug Zeit hat, sich so viel musikalisches Material anzueignen. Ihre Aufmerksamkeit sollte auf das Drama auf der Leinwand gerichtet sein und
Musik sollte peripher eingesetzt werden. Im Grunde geht es in der Filmmusik um Thema
und Variationen. Sie sollte nicht rhapsodisch sein, aber sie solle in dieser Art strukturiert
sein.“ (Karlin/Tilford 1995, Beiheft S. 34, zit. n. Kreuzer 2001, S. 194)
4.2.4. Baukastentechnik
Als Kompositionstechnik ist auch die Baukastentechnik oder auch Montagebzw. Ornamenttechnik bekannt. Hier werden kleinste elementare Bausteine, vor allem „vollständig harmonisierte Einzeltakt Zellen, oder eintaktige rhythmische oder
melodische Motiv-Zellen“ repetitiv zu vier- oder achttaktigen Mustern verknüpft.
Diese Muster werden abermals baukastenartig zu einer vollständigen Komposition
zusammengeführt, ähnlich der Methodik des Filmschnitts. Die Musik entspricht
bei dieser Methode dem Bild nicht direkt, sondern knüpft eher an den großformalen Aufbau des Films an. Oft wird die Musik auch vor dem Bild kombiniert. Die
Musik steht deshalb sehr autonom da und wird auch oft als eigenständige Konzertmusik präsentiert. (vgl. Bullerjahn 2001, S. 93)
4.3. Anforderungen an den Komponisten bzw. die
Komponistin
Lissa (1965, S. 369) führt Chatschaturjan’s acht Postulate auf, denen ein Filmmusikkomponist bzw. eine Filmmusikkomponistin für eine erfolgreiche Komposition Beachtung schenken soll.
• Analysieren und erforschen des Inhalts, der Art des Filmes und des soziales Milieu, sowie die Analyse der Charaktere.
37
Die Komposition. Ein Prozess
• Eine spezifische und konkrete kontrastreiche musikalische Gestaltungsweise, der einzelnen Charaktere.
• Erarbeiten der wichtigen Knotenpunkte der Dramaturgie, die Musik einfordern, sowie erforschen der Dynamik und Richtung jeder Szene.
• Erkunden der zu untermalenden Szenen, die keine reine illustrative Untermalung benötigen, sondern eine eigene Aussage in der Musik tätigen
können.
• Entwickeln eines Bewusstseins für die dramaturgische Aussage der Musik,
kontrapunktisch kommentierend oder synchron paraphrasierend.
• Kenntnis einer Vielzahl an Formen, Gattungen, Musikstile, Folkloretraditionen, historischer Stile und so weiter.
• Überblick über die Technik der Tonaufzeichnen und vor allem deren Möglichkeiten und Grenzen.
• Einstellung auf eine kurze und direkte Aussage der Musik.
Lissa (1965, S. 369) erweitert diese Liste noch um einen Punkt: Die Entwicklung
eines Bewusstseins für die psychologischen Akzente und visuellen Werte im Bild,
also Kontraste, Licht und Schatten, Schärfe und Verschleierungen, aber auch für
den Rhythmus des Schnitts. Kontraste in einer Schicht müssen entweder verstärkt
oder bewusst von dem Komponisten bzw. der Komponistin ausgeglichen werden.
Der Komponist bzw. die Komponistin muss also die Ganzheit des Filmes
betrachten und analysieren und daraus die Hauptelemente der musikalischen Gestaltung definieren, da er immer genau das Ausdrücken muss, was die restlichen
Ebenen erfordern. (vgl. Lissa 1965, S. 365)
Bis auf Punkt sechs fällt in Chatschaturjan’s Liste auf, dass hauptsächlich
filmtheoretische und emotionale Bezüge gefordert sind und nur wenig Musikwissen
gefragt ist. Dies kommt natürlich Quereinsteigern und Quereinsteigerinnen, die
kein ausgereiftes Kompositionsstudium hinter sich haben, zu gute. The Chemical
Brothers, die mit Hanna (2011) ihre erste Filmmusik darlegten, studierten beide
Geschichte (vgl. Gabriella (NY Rock) 2003), Trent Reznor, der bereits mehrere Filmmusiken geschrieben hat, Computer Engineering. (vgl. Onofrio 2007, S. 387) Beide weisen jedoch einen langjährig geübten Umgang mit ihrer eigenständigen autonomen Musik
auf. Das traditionelle Studium klassischer Komposition erscheint also kein Muss.
38
Die Komposition. Ein Prozess
Franglen erwähnt jedoch, dass er schon oft erlebt hat, dass Musiker und
Musikerinnen ohne klassische Musikausbildung durchaus ein Desaster verursachen
können. Dies passiert dann, wenn sie die Spezifik des Films nicht verstehen und
einen autonomen Track und keine Begleitung des Films komponieren. (vgl. Pensado/
Trawick 2012)
4.4. Bezug Regie und Musikkomposition
Oft ist auch nicht ersichtlich, ob der Einsatz der Filmmusik wirklich dem
Komponisten bzw. der Komponistin entspringt, oder der Regisseur bzw. die Regisseurin bereits im Vorhinein die Art und Weise festgelegt hat und der Komponist
bzw. die Komponistin nur rein ausführt. Oppenheim wünscht sich deshalb eine
gewisse musikalische Grundbildung für Regisseure und Regisseurinnen, damit diese
nicht die Filmmusik in der Endentscheidung zum Negativen verändern. (vgl. Kreuzer
2001, S. 128)
Auch David Raksin stellt fest, dass sehr viele Regisseure und Regis-
seurinnen nicht musikalisch sind und deshalb davor Angst haben, was die Musik
mit ihren Bildern machen könnte. (vgl. Brown 1994, S. 285) Franglen erzählt aber auch
von einer gegenteiligen Arbeit mit James Cameron bei Avatar (2009), der zwei
vollständige Musiken von jeweils 9 Minuten Länge verwerfen ließ und erst mit dem
dritten vollständigen Entwurf zufrieden war. Was schließlich auch zur besten Lösung für die Szene geführt hat. (vgl. Pensado/Trawick 2012)
Brown (1994, S. 145) schreibt, dass die Beziehung zwischen Regisseur bzw.
Regisseurin und Komponist bzw. Komponistin eine sehr essentielle ist und die
Verständigung und Interaktion zwischen den Schichten hier an einem Scheidepunkt
steht. Erwähnenswerte und über mehrere Filme hinweg erfolgreich zusammenarbeitende Paarungen sind hier Sergei Prokofiev mit Sergei Eisenstein, Bernard
Herrmann mit Alfred Hitchcock, Clint Mansell mit Darren Aronofsky und Danny
Elfmann mit Tim Burton.
Die beiden Posten können jedoch auch von einer einzigen Person umgesetzt
werden. Die dadurch entstehende totale Komposition wie in den Filmen von John
Carpenter, Clint Eastwood, Mauricio Kagel, Robert Rodriguez und Tom Tykwer
39
Die Komposition. Ein Prozess
hat durch die übergreifende Rolle Kontrolle auf beide künstlerischen Ausprägungen des Films. (vgl. Hillebrand 1996; Weir 2011)
4.5. Persönliche Handschrift
Nur durch die Betrachtung vieler Filme eines Filmkomponisten bzw. einer
Filmkomponistin ist möglicherweise ein persönlicher Stil erkennbar, der repräsentativ für diese Person ist. Oft ist dies der Hang zu einem gewissen Genre, Instrumentierungsart, Klangstrukturen und Harmonisierungsprinzipien. (vgl. Kreuzer 2001,
S. 129)
In möglichst vielen verschiedenen Stilarten arbeiten zu können gilt als Ma-
xime für die meisten Komponisten und Komponistinnen, viele entwickeln aber eine
relativ feste Kompositionstechnik, die sich herausdefiniert. (vgl. Schneider 1990, S. 260f)
Lissa (1965, S. 371) beschreibt drei Kriterien, den individuellen Stil eines Filmkomponisten bzw. einer Filmkomponistin einzuteilen.
• Die Auswahl der Filme und vor allem der Genres (epische, psychologische,
fantastische, realistische Filme).
• Die Art, wie die Musik zur visuellen Schicht in Beziehung steht.
• Die verwendeten musikalischen Mittel, die allerdings wie schon beschrieben, stark vom Film beeinflusst werden.
Der kompositorische Stil ist also anders definiert als bei der autonomen Musik,
da der persönliche Stil des Komponisten bzw. der Komponistin nicht einfach ohne
Handschrift des Bildes durchgezogen werden kann. Der Komponist bzw. die Komponistin kann also nur in einem sehr eingeschränkten Prozentsatz er bzw. sie selbst
sein. (vgl. Lissa 1965, S.306) Auch Christine Aufderhaar (2009, S. 18) schreibt, dass persönliche Vorlieben in den Schatten gestellt werden, eine persönliche Handschrift
jedoch erkennbar sein sollte.
40
Die Komposition. Ein Prozess
4.6. Arbeitsweise
Der Reiz für viele Komponisten und Komponistinnen in die Filmmusik zu
gehen ist einerseits der monetäre, da Filmmusik im professionellen Bereich immer
eine bezahlte Auftragskomposition darstellt. Andererseits gibt Film die Möglichkeit sich auszutoben und Richtungen einzuschlagen, die außerhalb des Films nicht
funktionieren oder kommerziell möglich wären, wie es zum Beispiel Howard Shore
zu Beginn seiner Filmkarriere gemacht hatte. (vgl. Dohmen/Dürbeck 2009, S. 42f; Shore
1999, S. 1f; Thiel 1981, S. 88f)
Finanziell motivierte Komponisten und Komponistinnen,
die nur wegen der monetären Anreize zur Filmmusik wechseln, verkennen jedoch
laut Thiel oft die Spezifik der Filmmusik. Wenn sie nie nach der Erforschung der
Besonderheiten des Tonfilms streben und diese auch nicht aufgreifen, werden sie
immer nur von außen den Film bespielen, aber nicht mit den inneren Elementen
des Films arbeiten. (vgl. Thiel 1981, S. 88f)
Howard Shore spricht im Interview mit Brown auch davon, dass Jazz Musik
eine große Ähnlichkeit zur Arbeitsweise von Filmmusik hat. Die Ablösung von
traditionellen klassizistischen Idiomen eröffnet dabei das Spielfeld für improvisatorische Skizzen, die weiter verarbeitet werden können. (vgl. Brown 1994,S. 341) Auch
Lemberg (2009, S. 60) und Schneider (1997, S. 154) schreiben, dass die Improvisation
und das freie agogische Spiel zum Bild zur Findung von Ideen und Ansätzen eine
legitime Arbeitsweise ist, die vor allem bei Klavierparts sehr gut funktioniert.
Kloppenburg (2000, S. 24) erklärt die Nähe zum Jazz und zur Improvisation durch
die geschichtliche Entwicklung von Filmmusik, die zu Stummfilmzeiten am Klavier
ebenfalls live improvisiert wurde. Auch die Kompilation unterschiedlichster Musikstücke zu späterer Zeit entspricht bereits der Öffnung der Bandbreite musikalischer Formen, die in der jetzigen Formenvielfalt geendet hat. Kloppenburg spricht
in diesem Zusammenhang auch von einem „Unstil“ der Filmmusik, da sie sich alle
Stile gleichermaßen einverleibt, aber nicht durch die Stile der autonomen Musik
definiert wird. Populäre Zitate, Stile und Genres werden immer wieder im Film
wiederverwertet und aufgegriffen. (vgl. Kloppenburg 2000, S. 24)
Wobei hier auch festgestellt werden kann: je klarer Musik sich einem aktuellen und modernen Zeitstil anpasst, desto schneller unterliegt sie einem klaren
41
Die Komposition. Ein Prozess
Alterungsprozess. Jeder Sound und jede Melodieführung ist einem historischen
oder aktuellen Stil zuordenbar. Je fragmentarischer und primitiver eine Komposition ausgeführt wird, desto langlebiger und zeitloser wird sie. Vor allem die Untermalung historischer Inhalte mit aktuellen modernen Stilen ergibt Probleme.
Die Beziehung zwischen damals und heute würde zwar beim Erscheinen des Films
funktionieren, einige Jahre später würde der Bezug zwischen zwei historischen
Stilen jedoch nicht mehr dasselbe aussagen. Zum Beispiel beim Film Paarungen
(1967) von Michael Verhoeven, bei dem die Filmhandlung im Jahr 1900 spielt, die
Musik allerdings auf die 1970er Jahre datiert werden kann. Der aktuelle Bezug zur
Musik aus dieser Zeit hat sich jedoch so grundlegend verändert, dass sich die Aussage des Films mitverändert. (vgl. Schneider 1990, S. 261f) Ebenso kann der Film Marie
Antoinette (2006) von Sofia Coppola aufgeführt werden, bei dem der Soundtrack
der Ästhetik der 1980er Jahren entspricht, die Handlung allerdings im 19. Jahrhundert spielt, was bei einer Rezeption in einigen Jahren zu Zuordnungsproblemen
führen kann.
So genanntes Expertenhören sollte von Komponisten und Komponistinnen
bei der Konsumation von Filmmusik ebenfalls vermieden werden, da sie von der expressiven Seite her betrachtet werden sollte, nicht von der musikanalytischen. (vgl.
Lemberg 2009, S. 66)
Auch Yewdall (2003, S. 403) schreibt, dass Filmmusikkomposition
nicht zu sehr intellektualisiert werden darf, da ansonsten beim Überanalysieren die
Gefahr auftritt, nicht die Gefühle direkt zu vermitteln, sondern sich darauf zu reduzieren, das zu übermitteln, was man denkt, dass das Publikum empfinden wird.
Auch Schneider (1997, S. 22f) und Shore (1999, S. 3) bestätigen, dass Filmmusikkomposition ein sehr intuitiver Vorgang ist und nicht zu sehr intellektuell funktioniert.
Sie ist eher eine traumartige Arbeit als ein bewusstes und zielstrebiges Arbeiten.
Beim ersten Betrachten einer Szene, bekommt Howard Shore (1999, S. 3f)
schon ein gewisses instinktives Gefühl, dass er danach sofort in Musik umsetzen
muss. Jerry Goldsmith dazu:
„Wenn ich mich hinsetze und etwas schreibe, kann ich nicht erklären, was ich tue oder
warum. Es geschieht einfach. Es ist eine Sache des Gefühls. [...] Je länger ich darüber
nachdenke, desto mehr Schwierigkeiten bekomme ich.“ (Russel/Young 2001, S. 69)
42
Die Komposition. Ein Prozess
Auch Konstantin Wecker bestätigt, dass das Komponieren ein emotionaler
Prozess ist, die Melodien kommen von selbst zum Bild. (vgl. Schneider 1990, S. 160) Erst
im zweiten Schritt werden die Ideen ausformuliert und auf verschiedene Stimmen
aufgeteilt und instrumentiert. (vgl. Schneider 1997, S. 22f; Shore 1999, S. 3f)
Shore (1999, S. 4) lässt die Ideen deshalb einfach fließen, zeichnet alles auf
und lässt sich in diesem ersten Prozess der Ideenfindung nicht einschränken. Erst
danach kann der analytische Teil beginnen, bei dem modifiziert, reduziert und weggelassen wird. Für ihn ist generell das Weglassen und die Reduktion, bei der Musik
wie beim Bildmaterial, die grundlegende Arbeitsweise des Films. Auch Dohme und
Dürbeck (2009, S. 40) bestätigen, dass es nicht schwierig ist etwas zu komponieren.
Die überflüssigen Noten weg zu lassen und sich auf das Wesentliche zu konzentrieren, ist der eigentliche Prozess, wie auch schon Johannes Brahms sagte. „So wenig
wie möglich, so viel wie nötig!“, lautet hier die Devise.
Dieser Grundsatz wurde vor allem von La Monte Young, Steve Reich, Philip
Glass und Terry Riley im Musikstil der Minimal Music hochgehalten. (vgl. Potter
2002, S. 1f)
Philip Glass setzte diese Musikart des reduzierten repetitiven Kompo-
nierens später in mehreren Filmen ein, zum Beispiel im experimentellen Film Koyaanisqatsi (1982), aber auch im Mainstream Film bei The Hours (2002) und The
Illusionist (2006). Gus van Sant hat den minimalistischen Grundsatz mit seinem
Film Gerry (2002) in Sachen Filmmusik durchgeführt und verwendet nur an zwei
Stellen Musik, die von Arvo Pärt stammt und selbst wiederum zur Minimal Music
zählt. Durch den sehr geringen Einsatz der Musik in dem 103 minütigen Film wirkt
die Musik verstärkt aus der restlichen Stille heraus, vgl. Kapitel 5.6.9.
Des Weiteren ist es auf Grund der intuitiven Arbeitsweise für einen Filmkomponisten bzw. einer Filmkomponistin oft wichtiger sich in einen Filmstoff emotional hineinversetzen zu können, als eine perfekte Kompositionstechnik zu beherrschen. Was natürlich einen Quereinstieg aus jeglichen musikalischen Richtungen
erleichtert, vor allem den Umstieg aus der populären Musik, die sich ebenfalls zu
einem großen Teil mit Emotionen auseinandersetzt. (vgl. Schneider 1990, S. 21)
Schneider (1997, S. 75) schreibt der Filmmusik ihre Kraft genau diesem intuitiven Prozess zu, da die Filmmusik „die Präsenz des Augenblicks“ brauche und „eine
Dominanz des Emotional-Inhaltlichen vor jeglichem Rational-Strukturellen“ benö-
43
Die Komposition. Ein Prozess
tige. Von einem Kritiker 1923 bereits als dilettantische Wassersuppe bezeichnet,
ist die empfundene Nähe zum Trivialen oft durch das rein analytische Hören von
Filmmusik gegeben. (vgl. Prox 1979, S. 12) So stellt sich auch Aaron Copland die Frage,
warum Filmmusik nicht auch immer auf dem musikalischen Niveau von Konzertmusik sein sollte. (vgl. Thomas 1995, S. 24) Genau im Ausnutzen des Trivialen, des Primitiven, der Zwischenwerte, des Geräuschhaften, der Modulation der Klangfarben,
des nicht mehr aufschreibbaren notierten Klanges liegt laut Schneider (1997, S. 80f)
jedoch die Ausgangsposition für eine erfolgreiche Filmmusik, die „eine Begegnung
mit dem Primitiven, dem Fremden, dem Naiven, dem Ursprünglichen, dem massenpsychologisch Wirksamen“ auslöst, was in der klassischen Konzertmusik kein
Ziel ist.
Howard Shore (1999, S. 1f) nutzte als Beispiel das Filmgeschäft um seine eigenen musikalischen Ideen auszuarbeiten, die in seiner Rock-Band und der LiveBegleitung für Saturday Night Live keinen Platz hatten. Shore ist von Zeit zu Zeit
immer mehr zur Filmkomposition gewandert, die Mitwirkung von regulären Musikern und Musikerinnen bei Filmkompositionen ist jedoch kein Einzelfall.
Brophy (2001, S. 31) schreibt allerdings, dass er dabei oft die Gefahr sieht, dass
die Künstler und Künstlerinnen vergessen Künstler und Künstlerinnen zu sein und
versuchen, traditionelle Filmkomponisten und Filmkomponistinnen zu sein, welche
nicht das umsetzen, was sie eigentlich können, sondern das produzieren, was sie
denken, dass sie müssten.
4.7. Zusammenfassung
Die von Lissa und Chatschaturjan in Kapitel 4.3 beschriebenen Anforderungen an einen Filmkomponisten bzw. eine Filmkomponistin sind zwar schon relativ
betagt, jedoch auf Grund ihrer Generalität immer noch aktuell. Die wesentlichen
Ansprüche an die Fähigkeiten richten sich nicht an die technischen Fähigkeiten
sondern vermehrt an die emotionale Intelligenz und den Bildbezug des Komponisten bzw. der Komponistin. Auch die von Lemberg (2009, S. 60), Schneider (1997, S.
154)
und Shore (1999. S. 3) beschriebene intuitive Kompositionsweise stellt ebenfalls
eher weniger die technischen und mehr die instinktiven Fähigkeiten in den Vor-
44
Die Komposition. Ein Prozess
dergrund. Die Voraussetzungen sind also für einen nicht klassisch ausgebildeten
Filmkomponisten bzw. ausgebildete Filmkomponistin erreichbar und ausfüllbar.
Einzig die emotionale und intuitive Verbindung zur Filmebene muss besonders
erfasst sein.
Bezüglich der Kompositionsart kann mit Hilfe von elektronischer Musik
ebenfalls jegliche Art umgesetzt werden. Eine komplexe Leitmotivik im Wagnerschen Sinne ist jedoch nicht üblich. Die Mood Technik wird grundsätzlich bevorzugt gehandhabt.
45
Filmmusikalische Charakteristiken
5
Filmmusikalische
Charakteristiken
46
Filmmusikalische Charakteristiken
5.1. Ohr vs. Auge
„Das Bild konkretisiert die Musik. Die Musik verallgemeinert das Bild.“ (Schneider 1990,
S. 69)
Filmmusik hat immer in Abgleichung mit den anderen Schichten der Dramaturgie zu stehen. Farbe, Bildgestaltung, Bildausschnitt, Dialog, Geräusche, Schauspiel und so weiter. Der größte Dialog findet jedoch im Allgemeinen zwischen Bild
und Ton statt, auf visueller und auditiver Schicht bzw. salopp ausgedrückt auf Augen und Ohren. Hören entspricht laut Schneider (1990, S. 64ff) dem Fühlen, demnach
die unbewusste Interaktion mit der Umwelt. Sehen hingegen verbindet Schneider
mit dem Denken, also die bewusste Interaktion mit der Umwelt.
„Darum wohnt der akustischen Wahrnehmung als solcher unvergleichlich mehr als der
optischen ein Moment von altertümlicher Kollektivität inne.“ (Adorno/Eisler 1996, S. 41)
Dieselben Geräusche rund um eine Person herum, werden von den umgebenden Personen ebenfalls wahrgenommen, was eine kollektiv gleiche Wahrnehmungsmöglichkeit ergibt. Es werden jedoch nie alle Informationen der akustischen
Umwelt bewusst aufgenommen, die Wahrnehmung findet nie 1:1 statt. Es wird
immer gefiltert und die Aufmerksamkeiten auf verschiedene akustische Ebenen im
Film gelenkt, weswegen keine vollständig kollektiv gleiche Wahrnehmung stattfindet. (vgl. Bruhn 1993, S. 445f)
Sehen ist wiederum generell individuell gelenkt und „schafft Distanz“. Des
Weiteren bedeutet etwas sehen und bewusst wahrnehmen immer auch, etwas anderes nicht sehen zu können und nicht wahrzunehmen. Das Ohr ist im Vergleich
ein 360° orientierter Sinn, der alles rundum aufzeichnen kann, während Sehen
immer nur einen kleinen Teil der Welt analysiert. (vgl. Schneider 1990, S. 64ff) Seine
Beweglichkeit ermöglicht es dem Auge gezielt zu arbeiten, es ist ein aktives, auch
verschließbares Sinnesorgan, das spezifische Informationen, die bewusst gestaltet
sind, liefert. Im Vergleich dazu ist das Ohr eher passiver Natur, unbeweglich,
47
Filmmusikalische Charakteristiken
nicht verschließbar und weder gezielt noch gerichtet. Es liefert, mit Ausnahme von
Sprache, unspezifische Informationen, die der gesamten Umgebung entspringen.
Während das Auge ein „hochorganisiertes Organ“ ist, sprechen Adorno/Eisler (1996,
S.43)
dem Ohr etwas „dösendes, dumpfes“ zu. Das Ohr besitzt eine geringere Über-
tragungskapazität zum Großhirn, ist dafür sehr eng mit dem Thalamus und limbischen System verbunden, was eine rationale Verarbeitung im Großhirn umgeht
und eine direkte expressive Wirkung von Tönen zulässt. Während das Sehen über
den objektiven Zustand der Umwelt informiert, liefert das Hören die Hintergrundinformationen, das Innenleben der Menschen, Stimmungen und Gedankenwelten.
(vgl. Kreuzer 2001, S. 123; Schneider 1990, S. 64ff; Schneider 1997, S. 31ff)
Der Thalamus und das limbische System erzeugen die affektive Färbung unserer Wahrnehmung, sie sind also für den Gefühlsgehalt verantwortlich, während
das Großhirn das analytische Denken ausführt. (Birbaumer & Schmidt 1991, S. 320, zit. n.
Bullerjahn 2001, S. 118)
In sogenannten Assoziationskernen, das sind sensorische Relaissysteme im
Thalamus, entstehen die verschiedenen Stimmungen und Gefühle. Der Hörsinn
ist auch eines der wichtigsten Warnsysteme. So wird er bei der Entwicklung des
menschlichen Fötus bereits an zweiter Stelle nach dem Gleichgewichtssinn ausgebildet. (vgl. Bullerjahn 2001, S. 103 & 119) Selbst bei Schlaf oder Ablenkung lässt sich
nachweislich körperliche Reaktion auf Musikbeschallung feststellen. (vgl. Tauchnitz
2001, S. 86)
Musik kann buchstäblich ins Blut gehen. Wissenschaftliche Untersuchungen
bezeugen Änderungen im vegetativen Nervensystem, ausgelöst durch die Beschallung mit Musik. Musik kann laut Kreuzer (2001, S. 123), Schneider (1997, S. 47f) und
Destunis (1958, zit. n. Von Rosenstiel 1993, S.160) folgende Parameter ändern:
• Pulsfrequenz
• Atemfrequenz
• Blutdruck
• Muskelspannungen
• Elektrizität der Haut / Änderung des galvanischen Hautwiderstands
48
Filmmusikalische Charakteristiken
• verengt oder weitet die feinen Kapillargefäße (wobei eine Weitung durch
Entspannung und dem vermehrtem Blutdurchfluss einem Wärmegefühl
entspricht)
• Verdauungstätigkeit
• Hormonhaushalt (z.B. Adrenalin)
• EEG-Ströme im Gehirn
Schneider (1997, S. 31) begründet die musikalische Unmittelbarkeit im Archaischen, das durch die Dumpfheit bzw. dem Dösenden, das dem Ohr nachgesagt
wird, entsteht. Deswegen sehen Adorno / Eisler (1996, S. 43f) auch durch die Musik
die Möglichkeit Irrationalität in den Film zu bringen, welche ein Produkt der Vergnügungsindustrie ist und umgangen werden sollte. Durch die direkte Koppelung
der Rezeption von Musik mit den Zentren im Gehirn, die Gefühle erzeugen und
der nicht vorhandenen Verschließbarkeit des Ohres, wird Filmmusik auch bei unbewusster Rezeption als wirkungsvoll angesehen. Die unbewussten Bestandteile
der menschlichen Kommunikation, wie Mimik und Gestik, können also mit der
Rolle der Musik im Film verglichen werden. Es zählt nicht unbedingt die direkte
und bewusste Botschaft, sondern wie etwas gezeigt wird und wie diese Botschaft
musikalisch untermalt wird. (vgl. Kreuzer 2001, S. 123 & 125)
Für Schneider (1990, S. 71 & 73; 1997, S. 48) sind genau diese direkten körperlichen Wirkungen der Musik für die Filmmusik essentiell, da die Filmmusik nie rein
auf der „intellektuellen Ebene des strukturellen Hörens“ rezipiert wird, sondern im
vegetativen System. Da das Bewusstsein, also das analytische Denken, mit Bild
und Dialog ausgelastet ist, die der Rezipient bzw. die Rezipientin bewusst und
absichtlich wahrnimmt, kann das Ohr quasi unbemerkt im emotionalen Bereich
arbeiten. Wird die Musik bewusst und strukturell analysierend gehört, tritt dieser
Effekt und die geschilderten vegetativen Veränderungen nicht auf, auch die AlphaWellen-Supression, also die Verlagerung der Hirnstromaktivitäten vom Großhirn
zum Hirnstamm, wie es beim emotionalen Hören auftritt, ist nicht nachvollziehbar.
Die bevorzugte unbewusste Wahrnehmung sollte jedoch nicht darauf rückschließen lassen, dass die Filmmusik dadurch weniger wertgeschätzt wird.
49
Filmmusikalische Charakteristiken
„Je unbewusster Musik wirkt, desto mehr kann sie den Bildbetrachter in einem vom Filmemacher gewünschten Sinne konditionieren und seine Rezeption des Bildes stimulieren“
(Schneider 1990, S. 72)
Der Film als relativ junge Kunstform ist in seiner Art und Weise direkt und
sinnlich. Während die meisten anderen darstellenden Kunstformen einen kulturellen Diskurs und Rezeptionsvorbildung benötigen, kann ein Film relativ frei von
diesen Eintrittsschranken agieren, was ihn auch deshalb sehr ambivalent zwischen
Massenkultur und Kunst einordnet. Das Zielpublikum von Filmen ist eben kein
besonders im Kunstdiskurs geschultes, sondern die heterogene Masse, vgl Kapitel
2.4. Deshalb erreicht der klassische Kinofilm das Publikum eben auch bei den archetypischen Zuständen (Liebe, Hass, Schuld, Vertrauen, Angst), Instinkten, Trieben, Sehnsüchten und regressiven Wünschen (vgl. Schneider 1997, S. 77) Obwohl, genau
wie Träume, der Film nur imaginär ist, wird dennoch ein stark beeinflussendes
Realitätsgefühl erzeugt, worin laut Schneider (1990, S. 66) auch die „epochale Kraft
der Filmkunst“ liegt.
Auch die Lautstärke beeinflusst die Wahrnehmung der Musik. Bei Lautstärken von unter 65 Phon, kann der Hörer die Aufnahme der auditiven Information
bewusst ablehnen. Über 65 Phon erzeugt die Musik jedoch auch bei bewusster
Verschließung gegenüber der Musik starke vegetative Auswirkungen. (vgl. Schneider
1990, S. 66)
5.2. Bild vs. Ton
„Im Film dominiert natürlich die visuelle Schicht, das Bild; die Musik ist hier dieser
Schicht völlig unterworfen, bildet aber mit ihr eine viel stärkere Einheit als in anderen
synthetischen Künsten und zwar eine Einheit dialektischen Typs, denn erst beide gemeinsam bilden die Ganzheit höheren Grades.“ (Lissa 1965, S. 20)
Während das Bild konkretisiert, verallgemeinert die Musik, eine Meinung,
die Lissa (1965, S. 117) und auch Schneider (1990, S. 69) vertreten. Es sollte also keine
50
Filmmusikalische Charakteristiken
Gegenüberstellung von Bild gegen Ton geben, da die beiden immer zusammenarbeiten und synthetisch rezipiert werden.
Die Dominanz des Bildes bei eher handlungsorientierten Filmteilen ist laut
Schneider (1990, S. 69) jedoch präsent. Ebenfalls zeigt sich eine Dominanz der Musik bei lyrischen Filmszenen. Dies zeigte sich auch bei der Arbeit des Autors an
dem Film Neben meinem Bruder. In der sehr lyrischen und wortlosen Sequenz der
Diagnose im Krankenhaus (40:33-42:44) ist die Musik vollständig im Vordergrund
und dominiert so das Bild und die vollständig stummen restlichen Elemente der
Tonebene. In dem Film MIIO wurde Musik ebenfalls nur in den lyrischen Teilen
des Films eingesetzt. Die wortlosen Zwischenschnitte, welche die Technologisierung
und Distanzierung des Menschen darstellen, werden immer von Musik dominiert,
während die dokumentarischen Sequenzen völlig Musik los bleiben.
BILD

MUSIK
• zeitliche Anordnung
• zeitliche Anordnung
• Ausdruck
• Ausdruck
• Filmgenre
• Musikgenre
• Handlungsträger
Relation
• Motive
• Spannungsbogen
• Spannungsbogen
• filmische Parameter
• musikalische Parameter
• Eindeutigkeitsgrad
• Eindeutigkeitsgrad
• Informationsdichte
• Informationsdichte
Abb. 2: Relation der Gestaltungselemente von Bild und Musik. (vgl. Bullerjahn 2001,
S. 139)
51
Filmmusikalische Charakteristiken
„Das Moment der Bewegung, des Ablaufs und der Veränderung in der Zeit“
ist das gemeinsame Element von Bewegtbild und Ton. (Bullerjahn 2001, 47) Diese
Übereinstimmungen, siehe Abb. 2, führen zur problemlosen Verknüpfung im Film.
In der Kombination des Tonfilms muss auf die gestalterischen Mittel beider Elemente geachtet werden. Die Elemente Spannungsbogen und Informationsdichte
können jeweils im völligen Gegensatz oder in Übereinstimmung zueinander stehen
und können so paraphrasieren oder kontrapunktieren.
„Bild und Ton sind so eng miteinander verschmolzen, dass beides durch das jeweils
andere funktioniert. Es gibt keine Trennung von ich sehe im Bild und ich höre auf der
Tonspur. Stattdessen ergibt sich das ich fühle, ich erlebe, aus der großen Summe der
Bild-Ton-Kombinationen.“ (Millar/Reisz 2009, S. 126)
Die Wahrnehmung des Films beim Rezipienten bzw. der Rezipientin wird
immer ganzheitlich stattfinden, die einzelnen Elemente von Bild, Dialog, Geräusch
und Musik verschwimmen bei der Wahrnehmung zu einer Einheit. Die Trennbarkeit der Wirkung von Filmmusik und der Gesamtwirkung des Filmes ist nicht vorhanden. (vgl. Bullerjahn 2001, S. 13) Die Erforschung der Tonebene muss diese Einheit
als solche erkennen und die Elemente dürfen nicht nur einzeln analysiert werden.
So spricht Pauli (1981, S. 56) auch von einer Majorisierung der Sinne untereinander,
beim Auftreten von mehreren Sinneseindrücken zum selben Zeitpunkt. So riecht
man einen anbrennenden Toast beim Frühstück mit lauter Musik später, als bei
nicht vorhandener Musik. Sinneseindrücke majorisieren sich aber nicht nur, sie
überlagern sich auch. Einzelne Elemente können losgelöst vom Gesamtbild einen
„ausgeprägten Aussagewert“ haben. In der Resynthese, vor dem Hintergrund der
anderen Schichten, können sie jedoch als völlig unsinnig erscheinen. (vgl. Kreuzer 2001,
S. 127)
Die Komposition von Bild und Ton stellt eine neue Einheit dar. Der Ton
ist nicht nur eine harmonische Ergänzung, sondern ein integraler Bestandteil des
Bildes. Er verbindet den Fluss der Bilder. (vgl. Chion 1994, S. 47)
Die vollständig synchrone Verarbeitung und Verknüpfung von partikulären
Einheiten von Bild und Ton wird im Bereich der audiovisuellen Kunst durchexerziert. Hier werden in kontrollierter Weise, meist mit Hilfe eines Computers, die
52
Filmmusikalische Charakteristiken
Elemente Bild und Ton reaktiv als Teil einer Performance gegenseitig gesteuert
und vertreten in der Bearbeitung der einzelnen elementaren Bauteile (Frames und
Bits) die vollständige Verknüpfung von Ton und Bild. Vergleiche hierzu die audiovisuellen Arbeiten von Granular Synthesis (Modell 5) (vgl. Granular Synthesis o.J.),
Ryoji Ikeda (datamatics, cyclo.) (vgl. Ryoji Ikeda 2010) und Alva Noto (unitxt, cyclo.,
Inset) (vgl. Alva Noto o.J.). Das Ziel dieser künstlerischen audiovisuellen Arbeiten liegt
hier durch die Verschmelzung und Koppelung von Bild und Ton die kognitiv untrennbare Verarbeitung aufzuzeigen, die Frage, wie eine Sinnesebene in die andere
übersetzt werden kann, zu beantworten und die Intermedialität des Mediums zu
analysieren. (vgl. Föllmer/Gerlach o.J.)
5.3. Geräusch vs. Musik
Die gesamte mögliche Energie, die der Tonebene eines Filmes zur Verfügung
steht, stellt David Yewdall (2003, S. 401) als Kreisdiagramm vor, das aus folgenden
drei Elementen besteht: Musik, Soundeffekte und Dialog. Drängt eines der Elemente in den Vordergrund, steht für die anderen umso weniger Energie zur Verfügung.
Der Dialog steht als zentrales Element, außer in künstlerisch stilisiert konzipierten
Szenen, immer an der Spitze der Hierarchie der Tonebene. Die Geräusche konkurrieren deshalb direkt mit der Musik. (vgl. Chion 1994, S. 6; Yewdall 2003, S. 401)
Bei einer sachlich realistischen Geräuschkulisse findet sich nur sehr wenig
Platz für die dramaturgische Musik. Da das Klangbild bereits von den Geräuschen
überfüllt wird, kann sich die Musik in ihrer Wirkung nicht zur Geltung bringen. (vgl
Kreuzer 2001, S. 119)
Diese Art der Geräuschkulisse ist vor allem in deutschen Film-
und Fernsehproduktionen häufig, vorwiegend im so genannten Neuen Deutschen
Film, wo gezielt auf einen realistischen Ausdruck hingearbeitet wurde. Eine Unterordnung der Geräusche durch die Musik resultiert in einem Zustand der Irrealität.
Ein realistisches Ergebnis wird durch die Dominanz der Geräusche gegenüber der
Musik erzeugt. (vgl Schneider 1990, S. 34; Schneider 1997, S. 64)
„Es gibt einen ganzen Fächer von Möglichkeiten des Spiels zwischen Musik, Geräusch,
Bild, Akustik und Ton. Manchmal ist ein Geräusch viel besser als Musik. Da ist z.B.
53
Filmmusikalische Charakteristiken
ein gezogenes Streichholz ganz toll. Ich lasse so etwas am liebsten im stummen Raum
passieren, - auch wenn Autos durch das Bild fahren. Man muss stilisiert arbeiten, nicht
die Wirklichkeit nachahmen.“ - Maran Gosov (Schneider 1990, S. 34)
Im Unterschied zur Musik nehmen wir bei einzeln auftretenden Geräuschen
immer eine Synchronität zu einer zugehörigen Schallquelle wahr. Abstrakte Geräusche gibt es deshalb nicht, sie implizieren immer eine Bewegung und Materialität.
(vgl. Bullerjahn 2001, S. 26) Vertraute
Geräusche können auch dauerhafte Verbindungen
mit den visuellen Gegenstücken eingehen und diese so völlig ersetzen und informative Funktionen übernehmen. (vgl. Bullerjahn 2001, S. 23; Lissa 1965, S. 61) Jean-Luc
Godard versuchte wiederum diese Bindung von Bild und Ton aufzubrechen und
lässt diese Einheiten in seinen Filmen immer wieder auseinanderdriften. Geräusche
übertönen Dialoge, überschnelle Blenden zeigen bewusst auf den Tonschnitt hin
und Musik wird irritierend und emotional, inhaltlich widersprüchlich eingesetzt.
(vgl. Föllmer/Gerlach o.J.)
Mischdramaturgie bedeutet laut Schneider: „Wer hört wie und was? Aus welcher Perspektive soll gemischt werden?“ (Schneider 1997, S. 17) Die Musik repräsentiert
sozusagen die Realität des Filmhelden bzw. der Filmheldin. Wenn der Filmheld
bzw. die Filmheldin „traurig“ ist, muss diese Traurigkeit auch akustisch präsent
sein. Die äußere Realität der Geräusche rundum verschwindet daraufhin und das
Innere, die Gefühlswelt, wandert in den Vordergrund. (vgl. Schneider 1997, S. 15f) Ein
ähnliches emotionales Sounddesign tritt beim Film Apocalypse Now (1979) von
Francis Ford Coppola auf. Hier verschmilzt in der Eingangssequenz der Deckenventilator mit Hubschraubergeräuschen, der allerdings nur in den Gedanken des
Protagonisten existent ist. (vgl. Welsh/Phillips/Hill 2010, S. 179) Auch im Film Reservoir
Dogs (1992) kann in der Sequenz in der Herrentoilette eine ähnliche Übertragung
von Geräuschen festgestellt werden. Hier wird der gewöhnliche Handtrockner mit
einem Flugzeugstartgeräusch akustisch untermalt, der die Szene vollkommen aus
der Realität trägt und durch den Einsatz einer Zeitlupe noch intensiviert wird.
Eine wichtige Unterscheidung zwischen komponieren von autonomer Musik
und von Musik für einen Film besteht auch in der notwendigen Interaktion mit
den anderen Ebenen des Tons. Wie schon zu Beginn des Kapitels erwähnt teilen
54
Filmmusikalische Charakteristiken
sich Geräusch und Musik einen großen Anteil des übrig gebliebenen Spektrums.
Deshalb ist eine enge Zusammenarbeit mit den Sounddesignern und Sounddesignerinnen sehr von Vorteil, wie auch Christin Aufderhaar (2009, S. 19) schreibt. Sie empfiehlt die Musik so bald wie möglich mit den Sounddesignern und Sounddesignerinnen abzusprechen, damit die Musik und die Geräusche aufeinander abgestimmt
werden können. Womöglich können auch Elemente des Sounddesigns in der Musik
aufgegriffen werden, oder umgekehrt, die Musik in das Sounddesign einfließen.
Wobei es oft möglich ist, die Geräusche und die Musik nicht genau abgrenzen
zu können. Geräusche werden oftmals in einer Art benutzt, die man als musikalisch
bezeichnen kann. Ebenso kann die Filmmusik, ähnlich der konkreten Musik, sehr
geräuschhaft auftreten. (vgl. Bullerjahn 2001, S. 23) Yewdall (2003, S. 399) geht sogar so
weit, dass er Musik als organisierte Geräusche definiert und Geräusche als unorganisierte Musik. Puristen und Puristinnen wünschen jedoch eine saubere Trennung
von Musik und Geräuschen. Nikos Mamangakis geht so weit, dass er, wenn gute
Geräusche vorhanden sind, keine Musik macht. Wenn starke Geräusche vorhanden
sind, benötigt man keine Musik und man muss aufpassen, dass es nicht wie in einer Seifenoper klingt. (vgl. Schneider 1990, S. 33) Diese musiklose Methode wurde im
gesamten Thriller No Country For Old Men (2007) eingesetzt. Das subtile Sounddesign und die klar definierte Geräuschkulisse reichen aus, um die Spannung des
Films zu halten. (vgl. Lim 2008)
Schneider (1990, S. 35) erwähnt hierzu, dass bei Szenen, bei denen Musik konstant im Hintergrund steht, auf Geräusche gänzlich verzichtet werden kann. Im
Film Neben meinem Bruder wird in der Sequenz im Krankenhaus (40:33-42:44)
ebenso vollständig auf Geräusche und Dialoge verzichtet. Einzig die Musik ertönt
und vermittelt die innere Reaktion des Protagonisten auf die Umgebung. Die restlichen auditiven Elemente waren hier aus der emotionalen Perspektive überflüssig.
Elektronische Musik eignet sich vor allem durch ihre Unzahl an Klangmöglichkeiten als einsetzbares tonmalerisches Substitut für die Geräuschebene. Modulierte natürliche oder elektronische Klänge sind zum Beispiel im Horrorgenre fast
immer anzutreffen. Im Gegensatz zu akustischen Klängen besitzen elektronische
keine in sich gegebene Materialität, da kein physisches Gegenüber besteht. Der geräuschhafte Einsatz elektronischer Musik steht deshalb, bezogen auf die Materiali-
55
Filmmusikalische Charakteristiken
tät, immer im Vergleich zu naturalistischen Klängen, deren Physikalität sie jedoch
nicht erreichen können, vgl. Kapitel 3.3.
5.4. Filmmusik als funktionale Musik
5.4.1. Filmmusik ist keine autonome Musik
„Eine nur ihren eigenen Gesetzen unterworfene Musik gerät mit den spezifischen Anforderungen, die der Film hinsichtlich Länge, Tempo, Rhythmus und Stimmung an sie
stellt, zwangsläufig in Widerspruch. Andererseits ermöglicht natürlich erst die Einsicht
in die Eigengesetzlichkeit der Musik ihren optimalen dramaturgischen Einsatz.“ (Thiel
1981, S. 55)
Wie Thiel im eingehenden Zitat schreibt, ist rein autonome Musik im Normalfall nicht für den Einsatz als diegetische Filmmusik geeignet. Die eigenen musikimmanenten Strukturen die in Kapitel 5.6 erklärt wurden, sind zwar zur Kategorisierung und Analyse interessant, die Funktionalität des Soundtracks wird jedoch
von anderen Charakteristiken beeinflusst, die durch die inhaltlichen und formalen
Anforderungen des Films gestellt werden. (vgl. Thiel 2001, S. 49) Thiel schreibt weiter, dass diese „Gebrauchsmusik“ eben nicht mit denselben Kriterien messbar ist
wie Konzertmusik. Die Analyse mit klassischen musikwissenschaftlichen Methoden
scheitert an den dramaturgischen, kompositionstechnischen und ästhetischen Eigenheiten der Filmmusik, da die vorgegebenen Bewertungsgrundlagen für andere
Ausgangssituationen entwickelt wurden.
Die Kriterien der autonomen Musik führen immer zu einer negativen Bewertung von Filmmusik, da die Spezifik des Tonfilms nicht beachtet wird. Filmmusik
ist eine Form der funktionalen oder angewandten Musik, ähnlich der Hörspiel
oder Bühnenmusik. Das Bestreben der Filmmusik geht über die musikimmanenten
Funktionen hinaus, was durch die abnormale Rezeptionssituation bereits illustriert
wird, und entfaltet ihren Sinn erst im Zusammenhang mit den Bildern bzw. in
56
Filmmusikalische Charakteristiken
ihren Leistungen für das Publikum und die Handlung. (vgl. de la Motte-Haber / Emons
1980, S. 81; Kreuzer 2001, S. 127; Thiel 1981, S. 16f)
Filmmusik ist laut Schneider (1990, S. 21) eine unakademische Kunst. Sie ist
eine situative Musik, die immer zu menschlichen Situationen, Stimmungen oder
sozialen Kontexten in Bezug steht. Diese Relation ist der europäisch zentrierten
Kunstmusik eher fern.
Einen reinen Filmmusikhörer bzw. eine reine Filmmusikhörerin trifft man
nur selten im Kino an, Filmzuseher und Filmzuseherin ist eher die richtige Bezeichnung für das Publikum des Tonfilms. Durch diese Unterscheidung werden
viele filmmusikalische Eigenheiten ausgelöst und führen bei Nichtbeachtung zu
Fehlurteilen bezüglich der Qualität der Musik, da Filmmusik immer unter Einbezug der Entstehungssituation bewertet werden muss. (vgl. Chion 1994, S. XXVI; Kreuzer
2001, S. 128; Thiel 1981, S. 16)
Ansonsten tritt, wie bei dem bekannten Soziologen Al-
phons Silbermann, eine generell abwertende Reaktion von Filmmusik auf, da sie
für ihn zum Beispiel keine echte (autonome) Musik sei. (vgl. Thiel 1981, S. 17) Auch
Rudolf Arnheims behauptet, dass nur schlechte, triviale Musik im Film Wirkung
erziele und deshalb auf jegliche Musik im Film verzichtet werden solle. (vgl. Kreuzer
2001, S. 128)
Ein weiteres bekanntes Zitat ist die Kritik der Zeitschrift „Film-Ton-
Kunst“ 1923 der Aufführung eines Films mit einer Orchesterbegleitung in Berlin.
Der Kritiker schreibt, dass die Aufführung nichts anderes als drei einfache Akkorde
beinhaltete, die je nach dramaturgischem Verlauf an- und abschwellten. Das Publikum applaudierte begeistert, der Kritiker beanstandete vehement die „musikalische
Wassersuppe“, die das Orchester fabriziert hatte. (vgl. Prox 1979, S. 12)
„Konzertmusik ist voller Geheimnisse; Brahms z. B. erschließt sich dem Hörer nur durch
langes Nachdenken. Filmmusik hingegen muss sich sofort und unmissverständlich zu
erkennen geben, weil sie [...] nur einmal gehört wird - von einem Publikum, das obendrein unvorbereitet ist und nicht ins Kino kommt um Musik zu hören.” (Keller 1995, zit.
n. Kloppenburg 2000, S. 56)
Miklós Rózsa erörterte ebenfalls, dass die Wirkung von Filmmusik unmittelbar sein muss und das Erschließen der Musik nicht durch wiederholtes Hören
57
Filmmusikalische Charakteristiken
allmählich auftreten kann. (vgl. Kreuzer 2001, S. 128) Selbst Adorno/Eisler (1996, S.
208)
sind der Ansicht, dass gute Filmmusik alles sofort sichtbar an der Oberfläche
leistet. Strawinsky erörtert, dass Filmmusik nicht als Musik wichtig sei, sondern
im Bezug zum Film, weshalb bessere Komponisten und Komponistinnen nicht automatisch bessere Filmmusiken kreieren können. (vgl. Craft 1961, S. 12; zit. n. Schneider
1990, S. 21)
Filmmusik tritt im Unterschied zur Konzertmusik ohne den sie umschließenden ästhetischen Diskurs auf, ohne Konzertführer oder Biographieinformationen
zum Komponisten bzw. zur Komponistin, ohne Verweise auf epochale Bedingungen und ohne Einbettung in eine Konzertkultur, schreibt Jörg Lemberg (2009, S.
68).
Die Musik tritt also völlig ungeschminkt auf und eröffnet sich ungeschützt
dem Publikum. Deshalb muss Filmmusik auch mehr Anstrengungen in Richtung
Direktheit zu Tage legen, da die Musik prompt wirken muss. (vgl. Lemberg 2009, S. 68)
5.4.2. Ziele und Funktionen
Kracauer unterscheidet drei zentrale Funktionen, die kommentierende Musik, aktuelle Musik und Musik als Kristallisationskern, wobei hier Parallelismus
und Kontrapunkt unterschieden wird. (vgl. Kloppenburg 2000, S. 50) Kracauer spricht
auch über die strukturierende Wirkung von Filmmusik. Sie leitet die Aufmerksamkeit des Zuhörers und lässt etwa Licht, durch ein gleichzeitiges Summen, heller
erscheinen. Filmmusik, nutzt diesen Effekt und erzeugt Strukturen, wo vorher
keine vorhanden waren. Musik lässt die Rezipienten bzw. Rezipientinnen Zusammenhänge erkennen.
„Gespenstische Schatten, flüchtig wie Wolken, werden so zu verlässlichen Figuren.“ (Kracauer 1971, S. 188)
Für Gorbman ist eines der wichtigsten Ziele, die die Filmmusik zu erfüllen hat, die Einlullung der Rezipienten und Rezipientinnen. Sind diese weniger
wachsam, sind sie auch weniger kritisch. Ähnlich einer Hypnose, wird also selbst
in Filmen mit realistischem Charakter Musik eingesetzt, um von der technischen
58
Filmmusikalische Charakteristiken
Natur des Films abzulenken und die Fiktion zu unterstützen. Die Musik liefert
eine speziell für den Zuhörer bzw. Zuhörerin hinzugefügte Komponente, die nur
diese hören und die Charaktere im Film nicht. Die Fabel wird also zur Fantasie
des Rezipienten bzw. der Rezipientin. Des Weiteren wird auch die Anfälligkeit für
Suggestionen erhöht, deshalb wird die Filmmusik auch mit Hypnose verglichen,
die beide eine Art Trance erzeugen, in der die Zeit anders verstreicht. Filmmusik
verringert die Schwelle etwas als Wahrheit anzunehmen und ist deshalb in dieser
Funktion unverzichtbar für das Kino. (vgl. Gorbman 1987, S. 5f) Dies bestätigt sich in
dem erhöhten Musikbedarf irrealer Inhalte (Fantasy, Horror, …), im Vergleich zu
realistischen. (vgl. Schneider 1997, S. 65)
„Wir Komponisten sind es, die die Gefühle jedes Publikums dirigieren.“ (John Barry nach
Wördehoff 1996, S. 47, zit. n. Kloppenburg 2000, S. 49)
Wie auch Gorbman schon erkannt hat, ist Filmmusik für Leonard Rosenman
ein heimlicher Überreder. Sie wird eingesetzt, um Emotionen zu evozieren und er
schreibt ihr eine persuasive und katalysatorische Funktion zu. (vgl. Thomas 1995, S.
351)
Laut Bullerjahn (2001, S. 188) ist die Hauptgestaltung der Filmmusik die Emoti-
onalisierung der Zuseher. Die Ursache findet sich in der Ähnlichkeit zwischen musikalischer und vokaler Sprache, sowie die „grundsätzliche Fähigkeit der Musik zur
Stimmungsbeeinflussung“. Aber nicht nur die Musik allein gestaltet die emotionale
Wirkung eines Films mit, auch „Kameraperspektive, Größe des Bildausschnitts,
Objekt und Kamerabewegungen, Schnittfrequenz, Beleuchtung oder allgemein die
Farbgestaltung tragen zu einer subtilen emotionalen Wirkung bei“. Oft wird die
musikalische Emotionalisierung aber zu plump und offensichtlich eingesetzt. Strawinsky vergleicht es mit einem billigen Parfum, das Erregung bewirken soll. (vgl.
Schneider 1990, S. 67f)
Die Grundlage zur emotionalen Wirkungsweise von Musik ist das „affektive
Gedächtnis“. Erinnerungen werden immer im Zusammenhang mit Stimmungen
und Emotionen abgespeichert. Ruft man diese Stimmungen oder Emotionen wieder hervor, wird auch der Zugang zu den Erinnerungen erleichtert. Werden dramaturgische Schlüsselszenen mit einer Musik unterlegt, die bereits mit einer anderen
59
Filmmusikalische Charakteristiken
Szene verknüpft ist, werden die Emotionen aus der Einen in die Andere überfließen. (vgl. Schneider 1990, S. 67; Wulff 2010, S. 130)
Die Musik muss also semantisiert werden. Bild- und Handlungsverlauf projezieren ein Bedeutungspotential auf die musikalischen Elemente und nach und nach
entsteht eine unbewusste, semantische Koppelung, so dass mit dem musikalischen
Element am Schluss eine Emotion fest verknüpft ist. (vgl. Bullerjahn 2001, S. 145; Schneider 1997, S. 27)
Musikalische Strukturen (Melodie, Rhythmus und Harmonie) sind vom zeitlichen Verlauf, menschlichen Gefühlen und Stimmungen sehr ähnlich. In der Emotionstheorie wird eine Stimmung als schwach gegliederter, diffuser und emotionaler
Grundzustand definiert, der über einen langen Zeitraum stabil bleibt. Als langfristige Tönung liefert die Stimmung einen Filter für die einzelnen Wahrnehmungen.
Dies lässt sich mit Rhythmus und Harmonie bei der Begleitung vergleichen. Ein
Gefühl „ist ein zeitlich klar gegliederter Ablauf (mit Anwachsen, Abschwellen, Klimax, verschiedenen Intensitäten und Schüben)“, der akut und aktuell ist und selten
länger als einige Sekunden dauert und sich immer auf Personen, Dinge oder Ereignisse bezieht. Gefühle sind in diesem Fall ähnlich der Melodie oder einer Tonfolge
im Allgemeinen. (vgl. Bullerjahn 2001, S. 189)
Der Aufbau von Musik kann also nach Schneider folgendermaßen gegliedert
sein:
„Über eine Grundstimmung von ‚Nervosität‘ (in der Begleitung) [kann] eine ‚Angst‘ (in
der Melodiestimme) plötzlich ansteigen, langsam verebben und sich dabei in ein sehr
langsam aufkeimendes Liebesgefühl ändern.“ (Schneider 1997, S. 32f)
Bei der Vermittlung von Emotionen mit Musik muss jedoch hinzugefügt werden, dass nur Emotionen evoziert werden können, die der Hörer bzw. die Hörerin
bereits kennt. Ohne ein tiefes Trauergefühl vorher schon empfunden zu haben kann
ein Hörer bzw. eine Hörerin kein solches Gefühl bei einem Requiem nachvollziehen.
Musik erzeugt also nur Scheingefühle, die nicht wirklich existieren. Dadurch vollzieht sich nur eine „Als-ob-Kommunikation“. (vgl. Bullerjahn 2001, S. 199)
60
Filmmusikalische Charakteristiken
5.4.3. Kritik an der populären Filmmusik
Durch die Einfachheit und Direktheit von Filmmusik, die sie benötigt, um
im Publikum die gewünschte emotionale Wirkung beim ersten Hören zu erzielen,
kommt sie oft unter Beschuss. Die Kritik aus der Perspektive der Hochkultur heraus ist weiterhin für aktuelle Musik relevant, da sich auch Heutzutage essentielle
Kernpunkte der Filmmusik nicht verändert haben, wie eben die Wirkungseigenschaften.
In einem der zentralen Kritikerwerke von Adorno und Eisler, „Komposition
für den Film“, wird vor allem auf das warenästhetische und manipulierende Moment in der Filmmusik eingegangen und dieses kritisiert. (vgl. Bullerjahn 2001, S. 15)
Adorno und Eisler fordern hier vor allem mehr Sachlichkeit im Film und dessen
Filmmusik, „um eine Entspannung des Kinozuschauers zu verhindern, die er aufgrund der entfremdeten Arbeitsbedingungen der spätkapitalistischen Gesellschaft
zum Hinwegtäuschen über soziale Kälte benötige“. (Kreuzer 2001, S. 116f) Kreuzer
(2001, S. 116f)
kritisiert, dass diese Forderung etwas eigensinnig wirkt, wenn man
bedenkt, dass genau der zentrale Kern eines populären Spielfilms die Unterhaltung ist, welche von den Rezipienten bzw. Rezipientinnen als eine Besänftigung
und Ablenkung vom Arbeitsalltag verstanden wird. Adorno und Eisler kritisieren
laut Kreuzer über den Umweg der Filmmusik die kapitalistische Einstellung von
Hollywood. Nicht die Kompositionstechnik, Beschaffenheit der Musik oder eine
inkonsequente Machart sind die eigentlichen Auslöser der negativen Beurteilungen
durch die beiden Kritiker, sondern deren ideologische Weltsicht und die pragmatische Arbeitsweise der Filmkomponisten. (vgl. Kreuzer 2001, S. 116)
„Die Autoren kritisieren einen kulturellen Nährboden, den sie nicht mögen, anhand von
dessen filmmusikalischen Auswüchsen, ohne aber übergreifende Wertmaßstäbe zur Beurteilung dieser Auswüchse in der Hand zu haben oder diese zumindest prämissenhaft zu
benennen.“ (Kreuzer 2001, S. 116)
61
Filmmusikalische Charakteristiken
Eines der Ziele laut Adorno und Eisler ist es eben nicht, wie der heute übliche Ansatz von Filmmusik, Publikumsnähe und emotionale Bindung zum Film zu
erzeugen. Sie fordern im Gegensatz dazu auf, Distanz bei dem Zuseher bzw. der
Zuseherin aufzubauen. Die Identifikation mit den Filmcharakteren ist also ebenfalls als negativ zu betrachten, was dazu führt, das Adorno und Eisler eine emotional stimmige Tonmischung und eine emotional führende Filmmusik ablehnen, da
hier ebenfalls die Aufmerksamkeit des Publikums gelenkt wird. Adorno und Eisler
lehnen Filmmusik jedoch nicht gänzlich ab, was einem vollkommenen Realismus,
ohne jegliche Lenkung des Rezipienten bzw. der Rezipientin, ähnlich der Dogma
95-Bewegung, nahe kommen würde. Dramaturgische Musik führt jedoch den Zuseher bzw. die Zuseherin immer, auf Musik verzichten wollen Adorno und Eisler
hingegen auch nicht. Dieser Widerspruch, zeigt die theoretisch starre Sichtweise
der Autoren, die in der Realität nicht wirklich umsetzbar ist. (vgl. Kreuzer 2001, S. 119)
Auch Lissa (1965, S. 11f) kritisiert Adorno und Eisler, da sie ihrer Meinung
nach die falsche Blickrichtung annehmen. Sie analysieren nicht hauptsächlich die
dramaturgische Funktion der Filmmusik, sondern wie auch viele andere Kritiker,
die nicht auf die Spezifik der Filmmusik eingehen, die Musik hinsichtlich der Maßstäbe autonomer Musik. Eisenstein schreibt dazu, dass die Aufgabe von Musik
nicht die Steigerung der Wirkung eines Films ist, sondern Emotion mittels der
Musik übermittelt werden soll, die mit den anderen Ebenen des Films nicht dargestellt werden können. (vgl. Thiel 1981, S. 56) Kreuzer spinnt diese Maxime noch weiter:
„Es geht in erster Linie darum, durch Musik Wirkung zu steigern, was oft durch
das Ausdrücken von Emotionen, die mit anderen Mitteln nicht darstellbar sind,
erreicht werde.“ (Kreuzer 199, S. 56)
Schneider (2009, S. 149) bestätigt jedoch den sich zur Zeit bewahrheitenden,
von Adorno und Eisler beschriebenen, affirmativen Charakter der Kulturindustrie.
Filmmusik wird also Filmmusik immer ähnlicher. Dies ist zu einem großen Teil
eine Folge des Einsatzes von Temptracks. Die Temptracks sind bei sehr vielen Produktionen die selben. Einige aktuelle Standards sind, Jerry Goldsmiths Musik für
Basic Instinct (1992), Hans Zimmers Musik für The Thin Red Line (1998), John
Williams Musik für Harry Potter (2001) und Hans Zimmers und James Newton
Howards Musik für die Batman - The Dark Knight Trilogie (2005, 2008 & 2012).
62
Filmmusikalische Charakteristiken
Insbesondere die Introsequenz von Batman wird laut Schneider aktuell in einer
Vielzahl von anderen filmischen Projekten, teilweise offensichtlich ähnlich nachgeahmt.
Auch George Antheil erkennt 1973, dass der Musikgeschmack des Publikums, durch ihre immer wieder wiederholte Rezeption, geformt wird, ohne dass das
Publikum diesen Prozess bemerken würde. Durch die erhöhte und sich aufbauende
unbewusste Kenntnis der bereits gehörten Filmmusiken, wird Filmmusik laut Antheil zu einer verständlichen Sprache, die das Publikum dann einfacher entziffern
kann. (vgl. Bullerjahn 2001, S. 153)
Eine atypische Filmmusik, die eben nicht dem symphonischen Hollywoodstandard entspricht, kann so eine besonders hohe Wirkung erzielen, da sie die
Aufmerksamkeit der Rezipienten und Rezipientinnen vermehrt einfordert, da diese
nicht die Eingliederung in die schon vorgefertigten Reaktionen vornehmen können.
Wege abseits der typischen Hollywoodsounds entfernen sich deshalb vom traditionellen Kinosymphonikorchester und schlagen eine Richtung zur nicht-orchestralen
Instrumentation oder zu verschiedenen Mischformen ein. Eine Auswahl erwähnenswerter Beispiele aus dem Populärkino wären hierzu:
• American Beauty (1999, Musik von Thomas Newman): Mix aus verschiedenem, oft fernöstlichem Schlagwerk und anderen Soloinstrumenten. Sehr
komplexer und abwechslungsreicher Einsatz der Instrumente.
• Requiem for a Dream (2000, Musik von Clint Mansell): Atypischer Einsatz eines Streichquartetts mit elektronischen Einflüssen.
• Brokeback Mountain (2005, Musik von Gustavo Santaolalla): Für ein Liebesdrama eine sehr einfache und bodenständige Musikauswahl. Zentrales
Element: eine Steelguitar.
• Babel (2006, Musik von Gustavo Santaolalla): untypische, reduzierte, ethnische Musik für ein komplexes Drama
• Little Miss Sunshine (2006, Musik von Mychael Danna & DeVotchKa):
Einsatz einer Rockband anstatt eines Orchesters. Sehr gute Übereinstimmung mit dem Gesamteindruck des Roadmovies.
• The Fountain (2006, Musik von Clint Mansell & Mogwai): Die Kombination aus Post-Rock und Symphonik ergibt einen sehr epischen Soundtrack.
63
Filmmusikalische Charakteristiken
• Michael Clayton (2007, Musik von James N. Howard): Ähnlich wie The
Hurt Locker ein sehr flächiger Klangteppich, der sehr untypisch für das
Actiongenre ist.
• The Hurt Locker (2008, Musik von Marco Beltrami & Buck Sanders): sehr
ruhige und trotzdem intensive Musik, die aus flächigen Drones besteht;
untypisch für das Actiongenre.
• The Social Network (2010, Musik von Trent Reznor & Atticus Ross): Ein
elektronisch, rockiger Soundtrack, der oft mit Drones und subtilen Layern
arbeitet.
5.5. Klischees
Die in Kapitel 2.5 besprochenen vorgefertigten Reaktionen der Rezipienten
und Rezipientinnen auf gewisse wiederholt auftretende Elemente in der Filmmusik, führen zur Bildung von Klischees, deren Einsatz teilweise sehr simpel ist,
um eine gewünschte Wirkung zu erzielen. Lissa (1965, S. 370) vertritt die Meinung,
dass bestimmte Elemente der Rhythmik, Agogik, Instrumentation und Ausdruck
der Emotionen bei der Melodie sich zu Klischees herausgebildet haben und jede
wiederholte Anwendung des Klischees dieses bestätigt. Aber nicht nur in der Filmmusik liegt die Entstehung solcher Klischees, bereits in der Oper, Vokal- und programmatischen Orchestermusik hat die häufige Verwendung gewisser musikalischer
Strukturen zur Herausbildung verschiedener gefestigter Gedankenverbindungen geführt. Die verschiedenen Typen an Liebes-, Gewitter-, Sturm - oder Verfolgungsmusiken können starke stilistische Unterschiede aufweisen, aber verwenden meist
übergreifend bei einigen Gestaltungselementen einen gewissen einheitlichen Typus,
welcher der Hörtradition des Publikums bekannt ist. (vgl. Thiel 1981, S. 91) Verschiedene Instrumente sind durch ihre Verwendung historisch bereits an gewisse emotionale Ausdrücke gebunden, siehe Tabellen Instrumente und Gefühlsqualitäten,
siehe Tab. 1 und Tab. 2.
64
Filmmusikalische Charakteristiken
interessante
Kombination
Beweglichkeit
als „Schifferklavier“ klischeegebunden. Durch aparte Registrierung
aber sehr variabel. Elektrisch mit
Fußpedalen zur Klangverfremdung
mit Mundharmonika zur harmonischen Stützung,
besonders bei
„HandwedelVibrato“
ziemlich
Jazz
Rußland,
Folkore
mittelhohe Melodien, Klang zwischen Banjo und Mandoline, Einzeltöne, klischeegebunden
zur Ergänzung der sehr
Rhythmusgruppe
mit Congas
Bongos
(zwei aneinander)
Urwald
zwei hand- und fingergespielte,
zur Ergänzung der sehr
unterschiedlich hohe Trommeln, sehr Rhythmusgruppe
hoch und etwas tiefer, stimmbar.
mit Congas
Für schnelle, aufgeregte Soli
Cembalo
Barock
leises, aber scharf anreissendes, bei
Dämpfer tupfendes „altes“ Tasteninstrument mit farbverändernden
Koppel-Registern für barocke Wirkungen oder intime Rhythmen
mit gestoppter
E-Gitarre
sehr
Jazz
Bouzouki
Griechenland, Folklore
im Tremolo klischeegebunden wie
Mandoline, Ton nur größer und
nachklingender, Solo
in Terzen mit 2
Saxophonen
mittel
Conga
(meist 2)
Lateinamerika
sehr unterschiedliche mittelhelle bis
dunkle Klangfarbe, je nach Schlagen
mit Händen und Fingern. Zusatz zu
Latin- oder Modern-Rhythmen
bei „Soft-Sound“
ergänzend mit
HiHat (Besen)
sehr
Dudelsack
Schottland
laut, durchdringend, nasal, liegender Unterton (Bordun), einfache
Melodien
mit Oboen und
Englisch Horn
ziemlich
Englisch
Horn
Norden, Eis, scharf, melodiös, etwas traurig bei
Schnee
langen Tönen, tiefere Lage, classicSoli
Solo bei tiefem
oder sehr hohem
Streicher-Background
nicht
sehr
Hawai-Gitarre
Südsee
Mittelhoch, rutschende einfach Akkorde. Südsee-Soli und Begleitung.
Auch Western (Nashville-) Sound
mit Südsee- oder
Western-Rhythmus (E-Gitarre,
E-Baß)
wenig
Horn (Waldhorn)
Jagd, Postkutsche,
Wald und
Feld
mittelhoch bis tief, sehr weich, indirekt, Soli klischeegebunden, einfache
Melodien
mit Celli für
Melodien oder
Posaunensatz als
„Weichmacher“
mittel
Kastagnetten
Spanien
Klischeegebunden, Für Rhythmus
mit Akustik-Gitarre
einmal ganz kurz
mti HiHat (offen)
mittel
Kirchenorgel
Kirche,
Sonntag,
Hochzeit,
Trauer
von ganz tief bis ganz hoch, luftangeblasene Orgelpfeifen. Moderne
Kirchenorgeln mit aparten SonderRegistern, für barocke Musik große
Klangteppiche, feierliche Begebenheiten
möglichst Solo
oder mit Rhythmusgruppe
oben
sehr,
unten
wenig
Klarinette
Bayerische
Volksmusik
großer Tonumfang, Soli Oldtime und Oberstimme im
modern, melodiös, lustig, hohe Lage Klarinettensatz
schrill
(Glenn Miller)
Instrumente Klischee
Klang und Verwendbarkeit
Akkordeon
Paris (Musette), Hafen (Stimmung),
Volksmusik
Balalaika
sehr
Jazz
65
Filmmusikalische Charakteristiken
Instrumente Klischee
Klang und Verwendbarkeit
interessante
Kombination
Beweglichkeit
KonzertGitarre
Spanien,
Folklore,
Classic
mittelhoch bist tief, zarte, leise Melodien, harter und weicher Zupfton,
Liedbegleitung
mit Gesang oder
als Zusatz zur
Rhythmusgruppe
ziemlich
Mandoline
Italien, Mit- hohe silbrige Melodien, im Tremolo
telmeer
klischeegebunden. Einzeltöne apart
für kurze Melodien intimen Charakters
mit E-Baß oder
Cembalo
beweglich
Mundharmo- Wasser,
nika (auch
Segeln, das
Blues-Harp) Lied vom
Tod, Blues
mittel bis hoch, silbrig, Solo melodiös, auch akkordisch, für WesternRhythm. Rock und BeatrhythmusZusatz
mit Harfe für
intime Melodien,
Blues-Harp mit
Western-Gitarre
mittel
Jazz
Pan-Flöte
Folklore
offener, mittelhoher, etwas pfeifender Ton, einfachste Melodien, Solo
mit Synthesizer
zur Verstärkung
wenig
Sitar
Indien
jammernder Drahtklang, klischeegebunden, Chorus für modern-Sound
mit Tabla für
Folklore
mittel
Jazz
Tam Tam
Orient,
Asien
großer, tief schmetterndern, lange
nachklingender Gong. Für große
bedeutende Effekte und Schüsse
mit Pauken
nicht, da
Einzelschläge
Trompete
Militär,
Blasmusik,
Dixieland,
Zirkus
offen geblasen strahlend, signalhaft,
mittel bis hoch, gestopft mit verschiedenen Dämpfern (scharf, weich,
Glas, Wau-Wau), Soli sentimental
oder Jazz, führend im Blechsatz
á 3 bis á 5 im
Satz, gestopft
auch mit EGitarre
beweglich
Jazz
Tuba
Blasmusik,
Volksmusik
sehr tief, weich, wattig, laut. BaßVerstärkung, tiefe Gags
mit Pauken
wenig
Zither
Bayerneigenständiges Soloinstrument, EinAlpen, der
bis zweistimmiges Melodien mit
dritte Mann Eigenbegleitung, klischeegebunden
mit Folkloreinstrumenten
mäßigbeweglich
Tab. 1: Klischees der Instrumentation (Wüsthoff 1978, S. 38f)
Instrumente
Hohes Register
Mittleres Register
Tiefes Register
Flöte
breit ausschweifend, szenisch, hell und freundlich
romantisch, feinfühlig
geheimnisvoll, unterschwellig
Altflöte
Baßflöte
gebrechlich (abzuraten!)
dramatisch, geheimnisvoll,
verhängnisvoll
dramatisch, schwächlich, schicksalsschwer
Oboe
dünn, klagend
ergreifend, zuversichtlich,
humorvoll
dramatisch, ungewiß
Englischhorn
dünn, flehend
stark, einsam, ahnungsvoll
dunkel, leuchtend
Fagott
dünn, klagend
kraftvoll, melodiös, geheimnisvoll, dramatisch
dramatisch, launig
Kontrafagott
abzuraten!
geringe Wirkung
rätselhaft, angstvoll,
seltsam, düster
B-Klarinette
kräftig, bejahend
melodiös, romantisch
dunkel, warm
66
Filmmusikalische Charakteristiken
Instrumente
Hohes Register
Mittleres Register
Tiefes Register
BaßKlarinette
klagend, singend
warm
dramatisch, düster,
freundlich
KontrabaßKlarinette
geringe Wirkung
geheimnisvoll, spannend
melodramatisch,
drohend
Horn
zuversichtlich, kraftvoll
warm, drängend
spannend-intensiv
Trompete
heldenhaft, kräftig, unabhängig, bejahend
melodiös, kraftvoll, eigenwillig
dramatisch, sehnsüchtig
Posaune
melodiös, schwerfällig
stark, dramatisch
dunkel, melodramatisch, schwermütig
Violinen
glänzend, melodiös, zurück- warm, romantisch, leidenhaltend
schaftlich
dunkel, dramatisch,
grämlich
Bratschen
dünn, melodiös
warm, sanft, sehnsüchtig
dunkel, dramatisch
Violoncelli
eindrucksvoll, gefühlsvoll
warm, klangvoll
dramatisch, bejahend
Tab. 2: Musikinstrumente und ihre Gefühlsqualitäten (Skiles 1976, S. 70, zit. n. Bullerjahn 2001, S. 88)
Das Wissen der Rezipienten und Rezipientinnen um die Bedeutung der Klischees kann gezielt genutzt werden, vor allem bei der Erzeugung von Spannung.
Durch unmissverständliche und eindeutige Klischees kann selbst bei einer romantischen Szene im Bild, wenn sich ein Paar küsst, durch einen atonalen Streichercluster bereits das Unheil angekündigt werden. Die Diskrepanz zwischen der Aussage
von Ton und Bild erzeugt bereits automatisch durch die ästhetischen Qualitäten
eine Vorahnung, dass hier etwas nicht stimmen könnte. Ebenso kann eine beruhigende Filmmusik zu einer gezeigten tickenden Zeitbombe durch den Kontrast
die Wirkung verstärken. Durch die Klischeeverbindung der Streichercluster mit
Spannung, wird die Verbindung von Kuss und Begleitung noch weiter intensiviert.
(vgl. Kreuzer 2001, S. 121f)
Adorno und Eisler (1996, S.34) sehen hier jedoch die exakt
gegenteilige Wirkung, nämlich dass die beabsichtigte Wirkung einer psychologischen Doppelsinnigkeit folgt. Während der Rezipient bzw. die Rezipientin sofort
beim Ertönen einer kontradiktorischen klischeehaften Musik erkennt, dass etwas
schreckliches angekündigt wird, reduziert dieses Erkennen für Adorno und Eisler
auch gleichzeitig, durch die Fixierung der Erwartungen, die erzeugte Spannung
wieder auf ein Minimum.
Laut de la Motte-Haber (1980, S. 210) gewinnen Zitate vor allem durch das kurze Aha-Erlebnis, das dem Publikum widerfährt, an Reiz und Wirkung, wenn es die
Anspielung erkennt, da sie dadurch schon einen Wissensvorsprung gegenüber den
67
Filmmusikalische Charakteristiken
Charakteren im Film haben. Der ästhetische Anspruch von Zitaten und Klischees
ist für de la Motte-Haber jedoch fragwürdig, da ein Vorwissen des Publikums vorausgesetzt wird und sie auch sehr einfach zur qualitativen Reduktion führen, die
zu einem Preisen des schon Dagewesenen und Weglassen von neuen Ideen verfällt.
Schneider (1997, S. 53) schreibt, dass der große Vorteil beim Einsatz bekannter
Versatzstücke, die Entlehnung der Aura des Renommierten und Großartigen ist.
Er kritisiert jedoch ebenso, dass Kunst, die sich Klischees bedient nur affirmativ
ist und niemals etwas erzeugen kann, was nicht bereits Alle wissen. Der Komponist
bzw. die Komponistin muss hier einen Spagat zwischen Vorhersehbarkeit und der
Unterwanderung dieser bewältigen, um dem ewigen Kreislauf des Wiederkäuens
des Bekannten zu entgehen.
Eine Annahme, die auf der linguistischen Rezeptionstheorie basiert, besagt,
dass „musikalische Gestalt nur durch ihr stetiges Wiederauftreten ausdrucksvoll“
wird und entsagt der Musik jegliche Kraft autonom direkt eine Wirkung zu erzeugen. (vgl. Kreuzer S. 123) Die Neuschaffung von Klischees und musikalischen Bedeutungen werden durch diese Theorie zur Willkür degradiert, da dadurch jedes
beliebige musikalische Element in gleichem Maße zur Untermalung benutzt werden
könnte und dieses dadurch eine bestimmte Bedeutung annehmen würde. (vgl. Kreuzer 2001, S. 126)
Eine absolute Aussage dazu kann laut Kreuzer (2001, S. 126) nicht
getätigt werden, da man nie sicher sein kann, „ob ein vorgefundenes Musikelement
direkt wirkt, oder sich als klischeehafter Bedeutungsträger etabliert hat.“ Die Wirkung von Filmmusik kann demnach nie vollständig untersucht werden, wenn die
Subjektivität außen vorgelassen wird. Subjektivität sollte jedoch in jeder genauen
Analyse nicht zugelassen werden, weshalb die meisten Analysen auf „minuziöses InBeziehung-Setzen von Musik- und Filmsyntax sowie strukturaler Textforschung“
beruhen. (vgl. Kreuzer 2001, S. 126)
5.6. Musikdramaturgische Gestaltungselemente
„Ein Begreifen von Filmmusik setzt ein Begreifen von Film voraus, und eine vernünftige
Annäherung an die Sache ist anders prinzipiell nicht möglich. Ein Begreifen von Film
68
Filmmusikalische Charakteristiken
wiederum verlangt, dessen spezifische Ausdrucksmittel und ihren Syntax ins Bewusstsein
heben.“ (Rügner 1988, S.5)
Wie jede Musik lässt sich auch Filmmusik durch ihre allgemeinen musikalischen Parameter definieren, dazu zählen unter anderem Melodik, Harmonik, Dynamik, Rhythmik, Tempo, Tongeschlecht und Klangfarbe. (vgl. Bullerjahn 2001, S. 127,
Faulstich 2002, S. 138)
Im Folgenden werden die wesentlichen musikdramaturgischen
Gestaltungselemente auf ihre Relevanz und Eigenheit bei der Nutzung in der Filmmusik, vor allem auch speziell in der elektronischen Filmmusik, analysiert.
5.6.1. Melodie und Motiv
„Die Melodie ist [...] gegliederte Gestalt. Melodie ist bewusste Formung von Zeit und
Raum mit gemessenen Längen und Kürzen sowie distinkten Tonhöhen.“ (Schneider 1997,
S. 185)
Auch als „hohe Schule“ der Musik bezeichnet, begibt sich die Melodie immer
an die Oberfläche der Musik. Melodie organisiert eine fixe Notenanzahl in ein wiedererkennbares Muster und hat zumeist wenig Probleme die Aufmerksamkeit des
Zuhörers bzw. der Zuhörerin zu erlangen und trägt viel zur Hörbarkeit der Musik
bei. (vgl. Brown 1994, S. 154; Schneider 1997, S. 185) Sie wirkt am direktesten zur Charakterisierung von offensichtlichen, extrovertierten Emotionen (offener Schmerz, Jubel,
Freude, Trauer, Happy End), Personen, Situationen und nationaler - gesellschaftlicher Merkmale. (vgl. Bullerjahn 2001, S.127; Schneider 1997, S. 185)
John Barry führt zum Thema Melodie aus: „I love working with melody. I think if you
can capture something in the simplest possible way, which is what melody is, then you’re
halfway there“. Randy Newman hat ebenfalls eine Neigung Melodien einzusetzen „I believe in melody. Maybe there are places where you don’t want it, but I don’t know where
they’d be.“ (Kalinak 2010, S. 11)
69
Filmmusikalische Charakteristiken
Besonders wirksam ist die Melodie in formal geschlossenen Liedern, so Lissa
(1965, S. 265).
Die strukturellen Bedürfnisse einer Melodie lassen sich jedoch nicht
einschränkungslos mit den strukturellen Gegebenheiten des Films vereinen. Um
eines der Probleme einer konkreten musikalischen Form, siehe Kapitel 5.6.2, zu
umgehen, setzt David Raksin beispielsweise auf das Komponieren völlig asymmetrischer Melodien, die aus individuellen Zählzeiten und Taktarten zusammengesetzt
sind. In eine komplett andere Richtung schwenkt Bernard Herrmann, der in seinen
Arbeiten Melodie beinah vollständig ausradiert hat. (vgl. Brown 1994, S. 154)
Im Vergleich zur Melodie sind Motive nur kurze Bausteine, aus denen sich
eine Melodie zusammenfügt. Während die Melodie eine in sich geschlossene Zeitgestalt besitzt, die Schneider (1997, S. 185) als ballistische Kurve bezeichnet, besitzt das Motiv oftmals keine zeitliche Bestimmung. Die häufig kurzen motivischen
Phrasen lassen sich einfach als flexible Bausteine in der Gesamtmusik integrieren.
Große Formen und Gestaltungselemente gewähren meist seltener eine einwandfreie
Verbindung mit dem Fluss der Bilder. (vgl. Brown 1994, S. 154)
Das Motiv, von Schneider (1997, S. 185) als kurzer emotionaler Reflex bezeichnet, ist als willenloser Baustein frei aneinandergereiht, umgekehrt, fortgesponnen
oder fragmentiert verwendbar. Zur Andeutung von beiläufigen und nebensächlichen Aussagen eignet sich ein Motiv durch seine hohe Flexibilität, die es seiner
zeitlichen Unbestimmtheit verdankt.
„Es lässt sich schnell abrufen, um an einem syncpoint kurz anzuklingen und wieder vergessen, von Harmonien und Rhythmen ‚weggespült‘ zu werden.“ (Schneider 1997, S. 185)
Christine Aufderhaars Arbeiten sind ebenfalls wesentlich mit Motiven gefüllt. Sie versucht sich auf wenige bestimmende Elemente einzuschränken und mit
diesen dann bausteinhaft einen Gesamtbogen zu kreieren. (vgl. Aufderhaar 2009, S. 18)
Der spezifische kompositionstechnische Einsatz von Motiven als Leitmotiv wird in
Kapitel 4.2.3 erklärt.
In der elektronischen Musik sind melodische Elemente nicht anders zu handhaben als bei symphonischer Kinomusik. Einzelne Elemente können melodische
oder begleitende Funktionen übernehmen und diese ineinander verknüpfen. Wie in
70
Filmmusikalische Charakteristiken
jeglicher Musik erhöht eine eingängige Melodie den Wiedererkennungswert. Auffallend ist eine große Anzahl im Wesentlichen melodiefreier, eher drone-lastiger
Arbeiten, die unbemerkt mehr atmosphärisch als punktuell arbeiten. Als aktuelle
Beispiele wären hier Cliff Martinez für Drive (2011), Marco Beltrami und Buck
Sanders für The Hurt Locker (2008) und Trent Reznor und Atticus Ross für The
Social Network (2010) zu nennen. Die Textur ist bei diesen atmosphärischen Filmmusik wichtiger als einzelne melodische oder motivische Bausteine. Die einzelnen
klanglichen Qualitäten der Flächen und Rhythmen bilden hier sozusagen das wiederholt auftretende Motiv, vgl. der Einsatz eines Cristal Baschet bei Drive und die
langgezogenen modulierenden Streicher- und Flötenklängen bei The Hurt Locker.
Es ist jedoch anzumerken, dass auch motivische Fragmente eingesetzt werden, wie
zum Beispiel die sechs-tönige Klaviermelodie in The Social Network, die wiederholt
aufgegriffen wird.
Die Filmmusik von The Chemical Brothers für den Film Hanna (2011) weist
wiederum eine einfache kinderartige Zirkusmelodie und ein Glockenspiel auf, die
beide immer wieder auf unterschiedliche Art und Weise aufgegriffen werden. Insbesondere ist hier auch das wiederholte pfeifende Aufgreifen der Melodie von einem
der Akteure auffallend. Die Verschmelzung von diegetischer und extradiegetischer
Musik tritt hier völlig unscheinbar auf.
5.6.2. Musikalische Struktur und Form
„ ‚The structure of myths can be revealed through a musical score‘. - Levi Strauss“ (Brown
1994, S. 97)
Als Pflicht und Grundvoraussetzung von Filmmusik beschreibt Thiel (1981,
S. 88)
die Unterwerfung der Musik durch die filmische Dramaturgie. Auch Rügner
formulierte 1988, dass die filmmusikalische Gesamtform ein Produkt der wesentlichen Gesichtspunkte der filmischen Dramaturgie und der Erwartungshaltungen
des Filmpublikums darstellt und diese Form vom Komponisten bzw. von einer
Komponistin in Bezug auf Thema und Fabel, Stil und Handlungslinie in der Musik
71
Filmmusikalische Charakteristiken
materialisiert werden muss. (vgl. Bullerjahn 2001, S. 13) Die Struktur des Filmes muss
sich innerhalb aller Teile aufeinander beziehen. Eine maßgeschneiderte Komposition reicht nicht allein, die Filmmusik muss von der Dramaturgie umschlossen
werden. „Eine Aufreihung unverbundener Stücke tut’s nicht.“ (vgl. Jerry Goldsmith in
Thomas 1995, S. 321)
Kreuzer (2001, S. 191) und Rosenman (Burt 1995, S. 5) sehen generell
die filmmusikalische Struktur nicht mehr als Musikform an, sondern stellen sie
eher einer literarischen Form wie dem Drehbuch gegenüber. Die Form wird nämlich nicht durch musikalisch autonome Faktoren bestimmt und darf auch nicht in
musikimmanenten Kategorien gedacht werden, sondern entspringt gänzlich dem
Film. Die Fabel wird also zum zentralen Ankerpunkt für die Form der Musik, nur
innerhalb des Fabelverlaufs erlangt die Filmmusik die Dimension des Vorhers und
Nachhers. (vgl. Schneider 1990, S. 22) Weniger die Gestalt der Musik selbst, sondern die
dramaturgische Richtigkeit, also die Stimmigkeit des Musikeinsatzes, ergibt den
filmmusikalischen Zusammenhang. (vgl. Schneider 1990, S. 63) Die musikalische Form
muss nicht nur durch musikimmanentes Reflektieren erlangt werden, sondern im
Zusammenhang mit den weiteren Ebenen des Gesamtkunstwerks (Bildinhalt, Bildbewegung, Farben, Helligkeitswerte, Bildgestaltung, schauspielerischer Ausdruck,
Dialog, Geräusche, Atmosphären und Musik). Diese Ebenen müssen alle im Bezug
zur Filmmusik und untereinander dramaturgisch verwoben einen Gesamtbogen
spannen. Die Story wird wechselnd von Schicht zu Schicht erzählt. Jede Schicht ist
also nur fragmentarisch ein Teil des Gesamten. (vgl. Schneider 1997, S. 63f)
Dies bedingt eine biegsame und wendige Kompositionstechnik. Sonatenhauptsatz, Fugenexposition oder ABA-Formen können diese Flexibilität nicht
bereitstellen. Motivvariationen oder Melodiemetamorphosen sind dafür eher geeignet. Die sehr kurze Entfaltungszeit, die aktuelle Filme der Musik gewähren,
führt zu einer Abwertung der musikimmanenten formalen Funktionen und zu einer
Dominanz der Anschauung der Gesamtform. Diese Kompositionsweise beinhaltet
zwar eine geringe musikalische Substanz, erzielt jedoch die gewünschte Wirkung
im dramaturgischen Ganzen. (vgl. Thiel 1981, S. 98) Auch Franglen findet Gefallen an
der freien Form, die abseits des vier Viertel Taktes funktioniert. Das lebendige Atmen von Texturen und Takten eröffnet eine Vielzahl kreativer Möglichkeiten. (vgl.
Pensado/Trawick 2012)
72
Filmmusikalische Charakteristiken
Kurze geschlossene Formen, wie etwa Lieder, Songs und Tänze können im
Film erscheinen, andere bewährte Strukturen sind jedoch bedeutungslos. Als Beispiel funktioniert das im Sonatensatz übliche Reprisen Prinzip im Film generell
nicht, also die Wiederaufnahme eines thematischen Materials beim Beenden eines
Stückes. Die Funktion der Reprise und auch der Durchführung bedingt in der autonomen Musik das aufmerksame Hören des musikalischen Fortgangs, diese Konzentration ist während des Films jedoch nur auf ein Minimum eingeschränkt. (vgl.
Lissa 1965, S. 258)
Auch periodische Strukturen, wie im Lied oder Chorsatz, können
meist nicht ihre volle Form verwirklichen, außer die visuelle Ebene ordnet sich der
Musik unter und wird passend zum Rhythmus der Tonebene geschnitten, oder wie
im Trickfilm das Bild vollständig zur Musik synchronisiert. (vgl. Lissa 1967, S. 268) Die
Beschränkungen, bei Liedern und Melodien immer die acht- oder sechzehntaktige
Phrase durchzukomponieren, hat Bernard Herrmann davon abgewandt, diese zu
benutzen und auf seine kurzen wiedererkennbaren Motivtechniken wie bei Der
weiße Hai (1975) umzustellen. (vgl. Brown 1994, S. 42)
„Once you start, you’ve got to finish - eight or sixteen bars. Otherwise, the audience
doesn’t know what the hell it’s all about“. - Bernard Herrmann (Brown 1994, S. 42)
Das Variationsprinzip, also die den veränderten Situationen angepasste Verarbeitung und Wiederholung eines thematischen Materials, lässt sich hingegen
ohne Probleme mit der Gesamtform des Films verbinden. (vgl. Lissa 1967, S. 258)
Der klassische Formenkanon musikalischer Gattungen, wie zum Beispiel
Fuge, Sonate, Rondo und achttaktige Liedperiode, wird im Film auf Grund der
filmspezifischen und bildabhängigen Ausprägungen allerdings weitgehend zurückgelassen. Die Filmmusik eröffnet somit, laut Thiel (1981, S. 12), als relativ junge
Kunstform eine Großzahl an möglichen Entwicklungen zukunftsträchtiger Wirkungsmechanismen zu entwickeln, welche, außerhalb der aus anderen Gestaltungsformen mitgenommenen Strukturen, auf originellere und aussagekräftigere BildTon-Beziehungen stoßen. Lissa (1965, S. 272) spricht hierzu von einer musikalischen
Form, die nicht im Sinne der Formen der autonomen Musik steht. Die musikalische
73
Filmmusikalische Charakteristiken
Form entsteht aus dem Ergebnis ihrer Funktion gegenüber dem gesamten Filmwerk und darf nicht von der visuellen Ebene entkoppelt besprochen werden.
Schneider (1990, S. 259f) führt dazu folgende vier spezielle Formen für Filmmusik auf:
• „Gestische Expressionsform”: Hier wird im Sinne einer musikalischen Prosa gearbeitet. Die Musik setzt sich hier vollkommen mit dem Ausdruck
der Szene auseinander, wobei keine „gebundene Form“ entsteht und Form
im musikalischen Sinne auch nicht gestalterisch mitgedacht wird.
• „Flächen”: Die Filmmusik wird hier als ruhender, stehender Klang oder
als rotierende oder pulsierende Fläche in den Hintergrund gestellt. Die
Filmmusik besitzt in dieser Art und Weise eine gewisse Tapetenfunktion.
Vielseitig einsetzbar sind diese atmosphärischen („Atmos”) Stimmungsbasen sehr häufig im Einsatz.
• „allgemeine Formkriterien“: Diese sind selbst bei den formlosen Flächen
und Gesten einsetzbar und gliedern sich aus einerseits der Aufeinanderfolge von „locker gefügten“ und „fester gefügten Teilen“, die ein gewisses
formales Atmen darstellen und anderseits aus dynamischen Crescendound Decrescendoformen.
• „Offene Form”: Die Ausführung von Elementen der Filmmusik ist sehr
oft nur fragmentarisch und unvollständig. Musiken denen etwas „fehlt“
verbinden sich einfacher mit den Bildern, als in sich geschlossene Werke.
Durch die strukturellen Abwesenheiten klammert sich die Musik förmlich
an die restliche Dramaturgie des Films, um dort ihren Sinn zu erlangen
und konstituiert so eine tiefere Beziehung als formal geschlossene Werke.
Im Bezug zur offenen Form führt Schneider (1990, S. 20) weiter aus, dass konventionelle Kriterien (interessante Melodik, Harmonik, Rhythmik) für den Film nicht
relevant sind und dem filmischen Zusammenspiel eher entgegenwirken. Elementare
musikalische Bruchstücke können jedoch große Effektivität besitzen, da die Aufmerksamkeit auf weitere aussagekräftige Elemente des Films geführt werden kann.
Musikalische Komponenten, wie zum Beispiel Einsätze oder Höhepunkte, sind
schon immer maßgeblich von der Dramaturgie des Films vorbestimmt, die Formlosigkeit, wie bereits auch in der Programmmusik des 19. Jahrhunderts, bezieht sich
74
Filmmusikalische Charakteristiken
vollständig auf die innere Bewegung und die Psychologie des Filmmaterials. (vgl.
Schneider 1990, S. 258)
Die Ablegung konventioneller Formkriterien lässt sich vor allem bei der Verwendung experimenteller Elektronik beobachten. Obwohl der Soundtrack von Hanna (2011) häufig sehr beatorientiert ist, fallen auch einige Stellen auf, die sich von
dieser geraden Zeitorientiertheit ablösen und sich frei schwebend, unfertig präsentieren. Vor allem die von Schneider als Flächen beschriebenen Klänge sind in der
elektronischen Musik, oft auch Drone genannt, sehr beliebt, wie auch im Kapitel
5.6.1 beschrieben. Der Score zu The Hurt Locker (2008) besteht vollkommen aus
nur in Kombination mit dem Bild lesbaren klangmalerischen Crescendo- und Decrescendoformen. Die Aneinanderschichtungen verschiedener oszillierender Klänge
befreit sich völlig von gängigen Formstrukturen, nur die Dimension des Jetzt bleibt
relevant (vgl. 06:45-07:34, 12:35-14:51, 22:58-25:11, …).
Im Film MIIO wird im Musiktake 11 (14:44-15:32) eine rein gestische Expressionsform eingesetzt. Vor allem im Rhythmus entsteht ein unregelmäßiges Gebilde ohne fixe Taktart. Die Bilder fixieren jedoch den Inhalt der Musik. Diese
lässt sich auch gleichzeitig in die sogenannte offene Form eingliedern, da sie ohne
die Bilder durch ihren instabilen Rhythmus nicht bestehen könnte. Flächen sind
in der elektronischen Musik die am häufigsten auffindbare musikalische Form. Im
Film Neben meinem Bruder finden sich einige dieser Layersounds, die subtil im
Hintergrund eine gewisse unruhige Stimmung erzeugen. Der Film Neben meinem
Bruder enthält in der bereits erwähnten Sequenz im Krankenhaus (40:33-42:44)
Musik in einer geschlossenen Form. Auf Grund der starren A-A-B Form entstanden
Probleme mit Timing und Synchronisation, die beim Einsatz einer offenen Form
nicht auftreten.
5.6.3. Harmonik
Laut Jörg Lemberg (2009, S. 67) stellt die Harmonik die eigentliche Essenz der
Musik dar. In einer von ihm angefertigten Testreihe wurde ein Werbespot zehn Mal
mit verschiedenen Variationen desselben Themas unterlegt, bei dem jeweils nur ein
Parameter (Tempo, Umkehrung ...) verändert wurde. Die deutlichste Veränderung
75
Filmmusikalische Charakteristiken
der Aussage des Clips fand bei der Manipulation der Harmonik statt. Deshalb kritisiert er auch Adorno und Eislers Aussagen, dissonante Klänge an zärtlichen und
harmonischen Stellen einzusetzen. Da dies, um die korrekte Intention des Films
herauszulesen, die Auseinandersetzung des Publikums mit dem ästhetischen musikalischen Diskurs des 20. Jahrhunderts voraussetzen würde. Diese Voraussetzung
ist jedoch nicht generalisierend annehmbar.
Die klassische Harmonielehre wurde generell im 20. Jahrhundert auch in der
autonomen Musik grundlegend erweitert. Die eine Richtung machte sich völlig frei
von jeglichen harmonischen Bezügen und richteten ihr Hauptaugenmerk auf die
Physikalität des Geräuschs an sich (Russolo, Schaeffer, Cage,…) (vgl. Vowinckel 1995,
S. 29 & 76f),
die andere erweiterte die klassische Harmonik von ihrem Bezug zum
einzelnen Ton oder löste sie vollends atonal auf (Schönberg, Messiaen, Stockhausen, Ligeti,…) (vgl. Hünermann 2004, S. 25, 46, 99 & 129; Kolleritsch 1987, S. 14).
In der darauffolgenden, vermehrt rhythmusorientierten, elektronischen Popmusik der Disco-, Synthpop- und Technoära, der Grundlagen aktueller elektronischer Tanzmusik, wird Harmonik meist nur nebensächlich praktiziert, vgl. Donna
Summer: I Feel Love (1977), Supermax: Love Machine (1977) und Kraftwerk:
Mensch-Maschine (1978) & Computerwelt (1981). Komplexe Akkordfolgen werden
der Betonung von Rhythmus, Bass und Klang untergestellt.
Lissa (1965, S. 266) sieht die Harmonik im Film „nicht nur als Grundierung,
Begleitung der Melodie“. Die Harmonik charakterisiert auch selbstständig dramaturgische Elemente und illustriert auch bereits als alleiniges Mittel das Bild, wie
etwa als eigenständiger dissonanter Akkord, der nicht in den musikalischen Ablauf
mit eingebunden werden muss.
Die Funktionsweise von Melodik und Rhythmik transformiert sich bei der
filmischen Nutzung im Vergleich zur autonomen Musik nicht wesentlich, bei der
Harmonik stellt Lissa jedoch Abwandlungen fest. Insbesondere der harmonische
Stilpluralismus innerhalb eines Filmes ist bei autonomer Musik eher ungewöhnlich.
Im Film aber, wenn von der Dramaturgie eingefordert, nicht unüblich. Harmonische Methoden, wie zum Beispiel die Modulation in der Kadenzharmonik, haben
im Film ebenfalls keinen Wert. Die fehlende Zeit für Phasen der Stabilisierung der
neuen Tonart ermöglicht sehr selten eine vollständig durchgeführte Modulation.
76
Filmmusikalische Charakteristiken
Durch die ständigen kurzen Einsätze der Musik, die durch die Bilder getrennt keine harmonischen Übergänge benötigen, ist die Modulation von einem Tonmaterial
zum nächsten auch im Wesentlichen meist nicht erforderlich. (vgl. Kloppenburg 2000, S.
34; Lissa 1965, S. 266)
Die traditionelle Harmonielehre ist bei aktuellen elektronischen Produktionen nicht in dem Ausmaß wie in der traditionellen Kinosymphonik von Bedeutung.
In der elektronischen Filmmusik wird Harmonik unterschiedlich bedacht: Flächige Klänge, wie im Film The Hurt Locker (2008), zeichnen clusterartige Klänge
nach. Die klassische und romantische Harmonielehre wird nur peripher miteinbezogen. Der sich steigernde Klang an sich ist das Hauptelement und steht völlig frei
von jeglichem harmonischem Modulationsdrang (vgl. 18:33-20:30). Diese flächigen
Klangsphären pendeln auch in gewisser Weise zwischen Sounddesign und Musik
hin und her. Insbesondere der wiederholte Einsatz von Flugzeugüberfluggeräuschen
an dramaturgisch spannungsgeladenen Szenen während eines Musikeinsatzes steht
stark an der Grenze zwischen Geräusch, Sounddesign und geräuschhafter Musik
(vgl. 06:03-06:07, 39:27-39:40).
Popmusik- oder beatbasierte elektronische Musik als Filmmusik, wie im Film
Hanna (2011), arbeitet mit einer, für diese Musik übliche, repetitiven und beatorientierten Charakteristik, die wenig Wert auf komplexe Harmonik legt und Rhythmus und Klang in den Vordergrund stellt. (vgl. 18:03-19:37, 24:30-27:21)
5.6.4. Dynamik
Dynamik, also die Lautstärkeunterschiede innerhalb eines Stückes, in der
Filmmusik ist anders zu handhaben als bei autonomer Musik. Die dynamischen
Differenzierungen sind auf Grund der anderen Ebenen des Tons (Dialog, Geräusche) oft stark eingeschränkt, deshalb werden dynamische Mängel gerne mit Hilfe
einer abwechselnden Instrumentierung überzeichnet. (vgl. Lissa 1965, S. 266) Adorno/
Eisler (1996, S. 36f) bemängelten die zu ihrer Zeit auftretende Standardisierung der
dynamischen Unterschiede zu einem gleichbleibenden Mezzoforte. Die Stärke eines
dreifachen Fortissimos und Schwäche eines doppelten Pianissimos gehen verloren.
Die Tendenz immer lauter und mit wenig dynamischen Unterschieden zu produzie-
77
Filmmusikalische Charakteristiken
ren, findet in der aktuellen Popmusik, unter dem Begriff „Loudness War“ zusammengefasst, Einzug. Aktuelle Kinofilmmusik arbeitet jedoch, dank der erweiterten
technischen Möglichkeiten, oftmals wieder mit einem vollen Dynamikumfang.
Folgende Einsatzmöglichkeiten für den Einsatz von Dynamik gibt es laut
Lissa (1965, S. 167):
• Repräsentation des Vordergrunds, Hintergrunds, oder der nichtgezeigten
Räume im Film.
• Darstellung der Bewegung und Bewegungsrichtung, d.h., die Verschiebung der Schallquelle im Bild, oder des Aufnahmepunkts zur Schallquelle.
• Änderung der Dynamik durch Auftreten einer neuen auditiven Ebene, die
dramaturgisch wichtiger ist, also zum Beispiel Einsetzen eines Dialogs.
• Steuerung der Aufmerksamkeit des Publikums durch dynamische Akzente
oder das Erlöschen der Dynamik.
Die grundlegenden die Dynamik beeinflussenden Elemente, wie von Lissa
aufgeführt, sind auch genauso in der elektronischen Filmmusik auffindbar. Insbesondere wird die Dynamik Großteils aber nicht von der Musik selbst beeinflusst,
sondern von den anderen Ebenen des Tonfilms, wie auch Yewdall (2003, S. 401) in
seinem Kreisdiagrammvergleich beschreibt. Die hier beschriebene Dynamik steht
jedoch nur für die innerdynamischen Prozesse innerhalb der Musik. Die Gesamtdynamik kann hingegen in der Mischung noch grundlegend verändert werden.
5.6.5. Rhythmus
„Den Rhythmus einer Sache zu erkennen, heißt nämlich so viel wie: die Identität wahrnehmen.“ (Schneider 1997, S. 139)
Rhythmus tritt als Begrifflichkeit nicht nur in der Musik auf, auch in Tanz,
Dichtkunst, Bildhauerei, Malerei, Regie und Videoschnitt wird vom Rhythmus
gesprochen. (vgl. Schneider 1997, S. 139) Rhythmus ist die zeitliche Organisation in der
Musik. Die Basis, der immer gleiche oder ähnliche Schlag (Beat), tritt in aufeinander beziehbaren Zeitabschnitten als Puls auf. (vgl. Kalinak 2010, S. 12f; Schneider 1990,
78
Filmmusikalische Charakteristiken
S. 32)
Rhythmus stellt immer Struktur und Gliederung bereit. (vgl. Schneider, 1990,
S. 32)
In Bezug auf Filmmusik sind Rhythmik und die Metrik sehr stark von den
Eigenschaften der betreffenden Szenen abhängig. Das gewählte Schnitttempo und
die Bewegung im Bild beeinflussen maßgeblich die rhythmischen Eigenschaften der
Musik. (vgl. Lissa 1965, S. 265f)
Rhythmus, als körperliche Eigenschaft, steht dem Takt als abstrakte Leistung des Denkens gegenüber. Takt sei tote Ordnung, schreibt Schneider (1997, S.
144),
während Rhythmus flexibel und naturgemäß nie identisch sei (siehe: Atmen,
täglich wechselnder Sonnenstand...), ist Takt ein Produkt des mechanistischen
Zeitalters. Uhren, Metronome, Motoren und Computer realisieren Takt produzierend die Idealvorstellung der Maschine.
René Descartes schreibt dazu in seinem 1618 erschienen Compendium musicae: „Rhythmus ist in der abendländischen Musik so entkörperlicht, dass wir eine zeitliche Gestalt
ohne den normativen Hintergrund des Taktes nicht auffassen können.“ (Schneider 1997,
S. 144)
Im Filmischen wird der Rhythmus als Folge der Bewegung bezeichnet. Das
Ziel soll laut Erdmann ein Gesamtrhythmus des Films sein, der sich aus dem sogenannten großen Rhythmus (das „Auf und Nieder der Handlung”) und dem kleinen
Rhythmus (der szenische Bewegungsrhythmus) zusammensetzt. (vgl. Bullerjahn 2001,
S. 50)
Der spezifische optische Rhythmus setzt sich aus folgenden drei Elementen
zusammen: 1.) Die Dauer einer Einstellung (Schnitt) 2.) Die interne Bewegung
im Bildgeschehen (Inszenierung) 3.) Die Bewegung der Kamera (Fahrt, Schwenk,
Zoom usw.). (vgl. Schneider 1997, S. 147)
Die Addition des optischen und musikalischen Rhythmus ist ein komplexes
Unterfangen. Der Schnitt eines Filmes ist sehr sensibel von jedem Einzelbild abhängig und die Musik beeinflusst diesen zeitlichen Ablauf vollständig, je nachdem
ob sie einige Felder nach vorne oder eben nach hinten gerückt wird, verändert sich
der gesamte filmische Rhythmus. (vgl. Schneider 1990, S. 121) Passt der musikalische
Rhythmus nicht zum optischen Rhythmus, kann er diesen auseinanderbrechen und
zerstören. Erkennt der Komponist den inneren Rhythmus einer filmischen Szene,
79
Filmmusikalische Charakteristiken
kann er die Musik zu ihm in Beziehung und den optischen und musikalischen
Rhythmus in Dialog setzen. (vgl. Schneider 1997, S. 148) Hier sei hervorzuheben, dass
eine „gerade“ Musik den Schnitt eher bewusst wahrnehmen lässt, als eine „krumme“. Fällt ein einzelner Schnitt auf eine betonte Taktzeit, wird auch der Schnitt
hervorgehoben und nimmt der Montage den durchgehenden Fluss. „Krumme“ Musik tarnt den Schnitt und beirrt die Bewegung des Bildes nicht. (vgl. Schneider 1997,
S. 151)
Auch Sergei Eisenstein und Sergei Prokofiev stellte sich immer wieder die
Komplexität des filmischen und auditiven Rhythmus in den Weg. Meist war keiner
der Beiden dafür zu begeistern, als erster einen Rhythmus zu bestimmen. Dass der
musikalische Rhythmus vor dem filmischen definiert wird, ist jedoch meist nicht
der Regelfall. (vgl. Brown 1994, S. 162)
Als klangliches Abbild des „ewigen Jetzts“ ist die in den 1960er Jahren entwickelte Minimal Music für einen ständig anhaltenden Polyrhythmus bekannt, der
sich durch die Wiederholungsmuster in fortlaufenden minimalen Veränderungen
ergibt. Die musikalische Gliederung gibt keine dominierende Rhythmik mehr vor.
In Kombination mit Bildmaterial ergibt sich dadurch eine harmonierende Zusammenarbeit, wie zum Beispiel von Michael Nyman in Das Piano (1993), da der optische Rhythmus immer mit dem quasi zeit- und raumlosen musikalischen Rhythmus
übereintreffen wird. (vgl. Schneider 1997, S. 167)
Visueller und auditiver Rhythmus beim Einsatz elektronischer Musik sind
insbesondere bei der Visualisierung von Musik im Livekontext von Relevanz. Hier
wird im Regelfall die vollständige Synchronisation der beiden Rhythmen angestrebt. Rhythmus ist vor allem in der beatorientierten Musik die maßgebliche Charakteristik, in der elektronischen Tanzmusik umso mehr, vgl. Kapitel 5.6.3. Beatorientierte elektronische Soundtracks wie bei Hanna (2011) fallen deshalb Großteils
unter die, von Schneider als „gerade“ Musik bezeichnete, Kategorie (vgl. Kampfszene U-Bahnstation: 1:06:08-1:07:10). Je beatlastiger die Musik, desto mehr wird
der visuelle Rhythmus dominiert und dieser muss sich meist dem auditiven unterwerfen, um nicht vom Beat der Musik unterbrochen zu werden. Im Schnitt entsteht
deshalb beim Einsatz von beatorientierter elektronischer Musik eine Videoclipästhetik, bei der nur nach Takt der Musik geschnitten wird und wenig auf den visuellen Rhythmus geachtet werden kann, dass ist jedoch im Spielfilm auf Dauer nicht
80
Filmmusikalische Charakteristiken
zu halten. Eine rhythmisch freiere Form in der Musik ist deshalb von Vorteil, um
dieser absoluten Dominanz zu entgehen. Experimentellere elektronische Filmmusiken weisen deshalb, wenn sie von einem durchgehenden Rhythmus freigestellt sind,
keine Zusammenstöße mit dem visuellen Rhythmus auf.
Der Kurzfilm Kleines Püppchen Teddybär beinhaltet eine Szene (16:5717:29), in der das titelgebende Kinderlied in seiner Gesamtform vorgetragen wird.
Hier wurde beim ersten Anlegen zum Bild sofort klar, dass die Melodie in einer
rhythmisch durchgehend strukturierten Form nicht mit dem Fluss der Bewegungen
funktioniert, weil sich der Hauptcharakter apathisch, stockend und getragen bewegt. Das freie Einspielen, wobei sich die Agogik frei atmend zum Bild verändert,
führt hier jedoch zum sofortigen Zusammenschluss mit der visuellen Ebene.
Im Film MIIO unterlegte der Autor eine Sequenz, in der der Hauptcharakter
desorientiert durch die Stadt streift (23:28-24:51), mit schneller, beatorientierter
Musik die dem Genres IDM/Glitch entspringt. Das Bild wurde hier passend zur
Musik geschnitten, der visuelle Rhythmus ordnet sich dem auditiven unter. Die
entstehende Videoclipästhetik ist für die lyrische Passage passend, da die auditive
Ebene nur aus der Musik besteht. Sie würde jedoch über die Gesamtdauer des
Films nicht funktionieren.
5.6.6. Tempo
Wie der musikalische Rhythmus zum visuellen, steht auch das musikalische
Tempo im direkten Bezug zum Gesamttempo, bestehend aus den gezeigten Bewegungen und dem Schnitt. (vgl. Bullerjahn 2001, S. 51) Änderungen des musikalischen
Tempos wirken laut Schneider (1997, S. 145) äußerst effektvoll um dramaturgische
Stimmungsschwankungen plastisch erlebbar zu machen. Äußerst schnelle Tempi,
können wie auch bei rasanter Clubmusik, den Körper bis zur Belastungsgrenze
beanspruchen. Vor allem die Verbindung mit komplexer Rhythmik und extremen
Lautstärken kann diesen Effekt weiter steigern.
Sehr langsame Tempi vermitteln den Charakter von Statik und „schmerzhafte Langsamkeit“. Elektronische Mittel ermöglichen hierbei noch langsamere Tempi
als sie mit akustischen Techniken machbar sind. Die extrem gedehnten Tempi sind
81
Filmmusikalische Charakteristiken
vor allem bei den flächigen elektronischen Musiken beobachtbar. Klänge werden
über eine lange Dauer gehalten.
Schnelle Musik verlangsamt jedoch grundsätzlich das Tempo des Bildes,
während langsame Musik die Zeit im Film beschleunigt. (vgl. Bode/Müller 2010, S. 97)
Oft wird sehr schnelle hektische Musik bei aktionsreichen Szenen benützt, was
jedoch nicht zwingend die erwünschte intensivierende Leistung erbringt, sondern
oftmals eher das Gegenteil hervorrufen kann.
Der Einsatz von extrem gedehnten Tempi, bzw. völlig tempofreier Musik, bei
actionreichen Stellen, wie zum Beispiel The Hurt Locker, intensivieren die geladene
Spannung während den Bombenentschärfungen und beschleunigen die Schnitte wie
auch die Bewegungen im Bild (vgl. 08:01-08:35, 18:33-20:30)
Beatorientierte Musik ist oft mit hohen Tempi versehen. Drum‘n‘Bass oder
andere schnelle Techno-Derivate wirken als Filmmusik deshalb die Bewegungen
im Bild verlangsamend als beschleunigend. Im Film Hanna werden Actionsequenzen oft mit elektronischer Tanzmusik unterlegt, diese beschleunigt jedoch nicht
die Handlungen, sondern wirkt hier tendenziell gegen die intendierte Wirkung
und verlangsamt bzw. ordnet die Kampfszenen (vgl. Kampfszene U-Bahnstation:
1:06:08-1:07:10).
Im Film Pi (1998) unterlegt Clint Mansell die Psychose des Hauptcharakters hauptsächlich mit experimenteller elektronischer Musik aus dem Drum and
Bass und IDM Genre. Das durchgehend hohe Tempo der Musik löst hier eine, den
gesamten Film andauernde, Unruhe aus, welche durch die harten und schnellen
Schnitte der Bilder verstärkt werden.
5.6.7. Sound
„Von mehreren Filmkomponisten ist bekannt, dass die Suche nach dem geeigneten Klang
am Beginn ihrer Materialsammlung steht: Der Ausgangspunkt kann eine typische Summstimme, oder das Timbre eines Ensembles, ein charakteristisch gespieltes Instrument, ein
synthetischer Sound, ein musikalisierbares Geräusch (etwa das Echolot in Klaus Doldin-
82
Filmmusikalische Charakteristiken
gers Filmmusik zu Das Boot) oder ein archaisches Element der ethnischen Musik (ob
Rhythmus, Satzart oder Musikinstrument) sein.“ (Schneider 1997, S. 191)
Auch Lissa (1965, S. 265) schreibt, dass in einzelner Klang oder Sound oft wesentlich mehr wert ist, als eine perfekte geschlossene Form, insofern er eine funktionelle filmische Wirkung erfüllt. Klang präsentiert sich, im Kontrast zur sich zeitlich
entwickelnden Melodie, prompt und unverzüglich und hat dadurch die Fähigkeit,
trotz der fehlenden Aufmerksamkeit des Filmpublikums erkennbar zu bleiben und
sich in dessen Gedanken fest zu haken. (vgl. Thiel 1981, S. 29) Auch Schneider (1990,
S. 257)
weist darauf hin, dass ein vollständiges Thema nie so schnell erfasst werden
kann, wie ein prägnanter Klang, der schon nach Sekunden wiedererkennbar ist.
Ein gängiges Thema benötigt dazu acht oder sechzehn Takte, bis es vollständig
aufgefasst werden kann.
Die Klangfarbe und der Klang selbst sind Charakteristiken, die zwei gleiche
Instrumente oder Stimmen voneinander unterscheidbar machen. Klangfarbe ist
im westlichen Musikverständnis vor allem im popmusikalischen Bereich relevant.
Im klassischen Musikgebrauch wird versucht, jedes gleiche Instrument mit einem
möglichst einheitlichen Klang zu versehen. In der Popmusik ist das Ziel jedoch
eine einzigartige Klangfarbe zu erreichen. Die Differenzierung der Stimmen von
zum Beispiel Mariah Carey und Pink, oder der unterschiedlichen Gitarrensounds
im Rock’n’Roll, ist essentiell für den Erfolg und die Einzigartigkeit der Künstler
und Künstlerinnen, die bewusst forciert wird. (vgl. Kalinak 2010, S. 13) In den 40er und
50er Jahren wurde der spezielle Sound noch durch die Instrumentierung geprägt,
durch die veränderten technischen Möglichkeiten bestimmen seit den 1960er Jahren jedoch Klangmodulationen, Hallanteile und spezifische Mischungsverhältnisse
den Sound eines Künstlers bzw. einer Künstlerin. So wie ein Popinterpret bzw. eine
Popinterpretin einen eigenen Sound entwickelt, hat auch jede Filmmusik mittlerweile ihren eigenen Sound. Diese Entwicklung wurde vor allem durch den Einbezug
elektronischer Musik im Film ermöglicht. Martin Böttcher bestätigt, dass allein
durch einen speziellen Sound schon eine enorme Stimmung erzeugt werden kann.
Motive oder Themen stellen dagegen die großen Durchbrüche in der Musik dar.
(vgl. Schneider 1990, S. 257)
83
Filmmusikalische Charakteristiken
Piet Klok vergleicht Sound mit „das Atmen, das Niesen, das Magenknurren. Eine Komposition, Melodieführung wie Reden und Sätze.“ (Schneider 1990, S. 257)
Hans Loeper führt die Wirkungskraft eines eigenständigen Sounds auf das
nicht sehr umfassende Musikverständnis der breiten Masse zurück. Vor allem mit
dem Erscheinen des Pop-Sounds hat sich gezeigt, dass der Inhalt nicht mehr vorrangig und der Sound die Hauptattraktivität wurde. (vgl. Schneider 1990, S. 258)
Klang ist sozusagen das atomare Element der Musik. Es kann phänomenologisch nicht mehr segmentiert werden. Physisch setzt sich ein Klang durch sein
individuelles Obertonspektrum zusammen, das mit Hilfe einer Spektralanalyse offengelegt werden kann. Eine Fourier Analyse kann detailliert jeden Formanten und
Oberton aufschlüsseln. Die Assoziation „dunkel-hell“ bei einem Crescendo lässt sich
auf die Intensitäten der Obertöne zurückführen. Beim Crescendo ist dabei zum
Beispiel bei Blechblasinstrumenten eine strahlende Aufhellung hörbar, die auf eine
Stärkung der Obertöne zurückzuführen ist. Die Wirkungskraft von Klang ist jedoch völlig archaisch. Klang ist ohne Zeitstruktur, nur im Moment vorhanden und
die „Gegenwart eines physischen Seins“. Während einem Motiv oder einer Melodie
eine gestische und zeitliche Intention innewohnt, die nach vorne und außen treibt,
entwickelt der Klang durch sein „einfach Dasein“ seine spezielle Kraft und bohrt
sich durch sein Auf-der-Stelle-Treten in das Unterbewusstsein. (vgl. Schneider 1997, S.
185ff)
Mit der Aufzeichnung von Musik auf Papier durch die Notation wird zwar
Tonhöhe, Rhythmus und Taktwert aufgezeichnet, die Essenz der Musik geht jedoch
verloren. Die Klangfarbe, oder auch Klangfarbenmodulation, kann nicht dargestellt
werden. Das Vernachlässigen der körperbezogenen Aspekte führt zu einem Verlust
der subjektiven Energie der Musik und der emotionalen Aussage. Eben diese subjektive Energie muss ein Filmkomponist bzw. eine Filmkomponistin in die Musik
zurückbringen, um die verlorene Körperlichkeit wieder zu gewinnen. (vgl. Schneider
1997, S. 20 & 82f)
Schneider (1997, S. 91) führt in diesem Zusammenhang auch aus: „Je
archaischer seine [Filmkomponist] Musik, um so geeigneter ist sie als Filmmusik.”
Besonders archaisch klingen für Schneider (1997, S. 100) zum Beispiel völlig
ungeordnete Schläge der Musik ohne periodische Voraussagbarkeit, oder rhyth-
84
Filmmusikalische Charakteristiken
muslose diffuse Klangbänder (liegende Bässe, Klangbänder (Bordune), statische
Klangfelder (ein in monotones Pulsieren aufgelöster Klang) und Clusterflächen).
Genau wie bei der Popmusik ist auch bei der elektronischen Musik Klang
das zentrale Element. Durch die endlosen Möglichkeiten verschiedene Klänge zu
erzeugen, steht sehr oft die Findung des geeigneten Klanges zu Beginn der Komposition. Teilweise ist sie auch der einzige Teil der Komposition, da auch bei der
elektronischen Musik, wie von Lissa beschrieben, ein einzeln ertönender Klang oft
mehr aussagen kann, als eine voll ausgeführte Komposition. Statische Klangfelder finden sich bei den bereits mehrfach erwähnten elektronischen Droneflächen
wieder. Hier ist meist weder die Harmonik, noch die Rhythmik oder Melodik von
Bedeutung. Nur der vorhandene Klang definiert die Aussage der Musik. Der Klang
und die Spielart sind sehr definierende ästhetische Parameter der elektronischen
Musik. Die Möglichkeiten Klang elektronisch zu verändern und zu erzeugen sind
zahlreich, beinahe endlos. Bei der Komposition von Filmmusik von Popmusikern
und Popmusikerinnen fällt jedoch auf, dass sehr oft die ästhetische Klangqualität
der autonomen Produktionen den Klängen der Filmmusik gleicht. Das ist natürlich
oft erwünscht, wenn The Chemical Brothers für Hanna (2011) gebucht werden,
erwartet man kein klassisches Symphonieorchester. Die Möglichkeiten außerhalb
des eigenen Spielfelds sollten hier jedoch nie übersehen werden, oftmals ist eine
andersartig gestaltete Musik wirksamer, als es die Einschränkung in der eigenen
Klangwelt sein kann. Dies ist auch bei den ersten Versuchen des Autors, Musik für
den Film Neben meinem Bruder zu komponieren, aufgetreten. Die Klangästhetik
der ersten Produktionsskizzen war zwar in der Eigenästhetik funktionierend, der
Film erforderte jedoch eine völlig andere Klangwelt. Jeder Film erfordert um die
richtige Aussage zu bestärken, bei elektronischen wie auch symphonischen Produktionen, eine spezielle Klangwelt, die mit der Dramaturgie kongruiert.
85
Filmmusikalische Charakteristiken
5.6.8. Instrumentation
5.6.8.1. Historische Entwicklung der Orchesterinstrumentation
In der Wiener Klassik wurde der erste klassische Orchesterstandard begründet. Er umfasste: zwei Flöten, zwei Oboen, zwei Klarinetten, zwei Fagotte, zwei
Hörner, Pauken und Streicher (aufgeteilt in Violine 1 und 2, Viola, Violoncello und Kontrabass). (vgl. Hugill 2002a) In der Romantik im 19. Jahrhundert wurde
dieser Standard unter anderem durch Richard Wagner um andere Instrumente
erweitert, zum Beispiel Tuba, Bass-Klarinette, Englischhorn und ein erweitertes
Schlagwerk. Zum Ende der Romantik hin waren die Orchesterbesetzungen am
größten, beispielsweise mit vier Flöten und vier Oboen, was bei Mahler üblich war.
(vgl Hugill 2002b)
Anfang des 20. Jahrhunderts wurden erste Schritte zur Individu-
alisierung der Instrumentation gesetzt. Stravinsky komponierte ein Concerto für
Klavier und Blasinstrumente und setzte die Anfänge für eine Individualisierung der
Instrumentation. (vgl. Hugill 2002c) Die Klangfindung wird im 20. Jahrhundert bedeutungsvoller als Kompositionstechniken wie Kontrapunkt oder Melodieführung.
(vgl. Schneider 1997, S. 198f)
Insbesondere die postseriellen Klangflächenkompositionen
von György Ligeti und Krzysztof Penderecki in den 1960er Jahren sind Produkte
dieser Tendenz. (vgl. Kolleritsch 1987, S. 179) Dem physikalischen Studium des Klangs
im Serialismus, was einem De-Komponieren glich, folgte ein Zusammenfügen (sozusagen wieder der Weg zum Komponieren) dieser einzelnen Klänge mit Hilfe von
fortgeschrittenen Instrumentationstechniken. (vgl. Schneider 1997, S. 199)
5.6.8.2. Filmmusikalisch historische Instrumentation
Für Franz Waxmann ist die Farbigkeit der Orchestrierung wichtiger als die
Melodie. (vgl. Thomas 1995, S. 46) In der symphonischen Filmmusik hat sich bei größeren Produktionen, laut Schneider (1990, S. 38), die spätromantische Vierer-Orchesterpalette als traditionelles Arbeitsmittel entwickelt. Mit Mehrspuraufnahmen
kann auch mit weniger als der Vollbesetzung aufgenommen werden. Kriterien für
86
Filmmusikalische Charakteristiken
die Instrumentation sind hier vor allem das Räumliche, die Lautstärkenintensität
und der gewünschte Orchesterklang.
Für Heiner Goebbels spielt die Dimensionierung der Instrumente eine tragende Rolle. Die Räumlichkeit im Film sollte mit der Instrumentierung übereinstimmen. So wird ein großes Orchester bei einem kleinen Film, der in einem Keller
spielt, fehl am Platz sein. (vgl. Schneider 1990, S. 38)
Brown (1994, S. 59) schreibt hierzu jedoch, dass mit zunehmender Größe des
Filmmusikensembles, die Musik immer unsichtbarer wird. Durch die Vollbesetzung
im Symphonieorchester verschwindet das Orchester in sich selbst durch die Vielzahl an verschiedenen Klangfarben und der Größe des Klangs. Je größer das Orchester, desto umfassender ist das Potential der Musik ins Unbewusste zu wandern.
Eine Vorstellungsmöglichkeit für die Arbeit des Instrumentierens ist ein Arrangieren von Klangfarben, da jedes Instrument bereits einen gewissen Ausdruckscharakter mit sich bringt, der sich in der klassischen und romantischen Musik entwickelt hat. Eine grobe Einteilung setzt Streichinstrumente für lyrische, Holzbläser
für pastorale und Blechbläser für heroische Situationen ein. (vgl. Lissa 1965, S. 288;
Schneider 1997, S. 199)
Eine dauerhafte leitmotivische Bindung von einzelnen Filmfi-
guren und einzelnen Instrumenten erweist sich als sehr zuverlässig. Die Mundharmonika eignet sich gut für einen kleinen Jungen, robustere bäuerliche Charaktere
harmonieren sehr gut mit einer Basstuba, der bürgerliche Dandy verträgt sich
gut mit einem Klavier. Neue Koppelungen, abseits der alten Klischees, erweisen
sich allerdings immer als frisch und innovativ und sind laut Schneider empfehlenswerter. (vgl. Schneider 1997, S. 65) Unkonventionelle Instrumentierungen wurden
zum Beispiel von Mancini im Film Der unheimliche Besucher (1971) benutzt. Ein
Kammerorchester ohne Streicher, dafür mit zwölf Holzbläsern, einer Orgel, zwei
Klaviere und zwei, um einen Viertelton verstimmte, Cembalos ergeben einen sehr
dissonanten und unwirklichen Klang, der die Eigenschaften des Hauptcharakters
wiedergibt. Auch der Einsatz von Elementen der konkreten Musik als Instrumentierung (gestimmte Aluminiumschüsseln, eine über einen Gong gestreifte Triangel,
...) verschafft Jerry Goldsmith in Planet der Affen (1968) eine einzigartige Stimmung. (vgl. Brown 1994, S. 178)
87
Filmmusikalische Charakteristiken
5.6.8.3. Elektronische Instrumentierung
Die Instrumentierung elektronischer Werke fällt anders aus als bei akustischen. Bei rein elektronischer Ästhetik wird im Prinzip nur in Klangfarben gedacht, nicht in Instrumenten. Ein Basslaut kann in vielfach modulierten Varianten
generiert werden. Die Ästhetik des Klangs steht vor der Ästhetik einer bestimmten
Standardinstrumentierung. Kurtz erwähnt hierbei, dass bestimmte Synthesizertypen bestimmte Klangqualitäten verwirklichen können. Auch Goldstein schreibt,
dass die Wahl des Synthesizers die Möglichkeiten der Klanggenerierung stark beeinflusst. (vgl. Prendergast 1992, S. 307) Aktuell ist jedoch, wie Simon Franglen beschreibt,
die Technik so ausgereift, dass auf keine Hardwaregeräte mehr zurückgegriffen
werden muss. Franglen nutzt einen Computer, der mit genügend Rechenleistung
ausgerüstet, alle eigenständigen Hardwaresynthesizer ersetzen kann. Ein voll ausgerüstetes Studio kann sich aktuell also auf einen Computer und eine geeignete
Abhöranlage beschränken. (vgl. Pensado/Trawick 2012) Franglen nutzte als Beispiel für
den elektronischen Bereich des Scores von Avatar unter anderem Elemente der
Komplete Suite von Native Instruments und Plugins von Spectrasonics und Soundtoys. (vgl. Levine 2011)
Spätestens mit dem Aufkommen modularer Soundprogrammierungsumgebungen wie Pure Data, Max/MSP und Reaktor erscheint das Feld der Möglichkeiten noch weiter und die Anzahl der verschiedenen Klänge endlos. Für technisch
interessierte und versierte Komponisten besteht in dieser Variante ein schier unendliches Klangpotential.
Laut Kloppenburg (2000, S. 36) bewirkt eine durchdachte Instrumentation expressive Eindeutigkeit. Die Hervorhebung einzelner Instrumente gegenüber gleichklingender Streichersounds stellt sich als effektiv heraus, wie zum Beispiel Bernard
Herrmann mit der Hervorhebung einer Bassflöte oder eines gedämpften Horns
beweist. Dasselbe kann zur elektronischen Instrumentation weitergedacht werden.
Ein durchdachter Klangraum, der einzelne Elemente hervorhebt, wirkt anders als
88
Filmmusikalische Charakteristiken
eine reine Wall of Sound Ästhetik, bei der alles gleichstark hervortritt und keine
Akzente gesetzt werden.
David Yewdall (2003, S. 401) weist darauf hin, dass die gewählte Instrumentation immer mit dem Klang und Frequenzraum der Soundeffekte abgestimmt werden
muss. Eine Filmszene, die von Bassinstrumenten begleitet wird, sollte zum Beispiel
keinen Vulkanausbruch beinhalten, der ebenfalls im tieftönigen Bereich akustisch
präsent sein wird. Eine Absprache mit den Sounddesignern ist also immer notwendig, siehe auch Kapitel 5.3.
Der Autor hatte bei seinen bisherigen elektronischen Filmkompositionen
festgestellt, dass es von Vorteil ist im Vorfeld über Moods und Beispieltracks die
Klangästhetik der gewünschten Musik ungefähr mit dem Regisseur bzw. der Regisseurin einzuschränken. Dadurch wird ein eingegrenztes Arbeitsgebiet definiert,
dass ein endloses Experimentieren verhindert. Zu beachten ist dabei jedoch, dass
der Kreativprozess dadurch nicht eingeschränkt werden darf. So wurde z.B. beim
Film Neben meinem Bruder im Vorproduktionsstadium eine Ästhetik festgelegt,
die in Richtung experimentelle aber sanfte Elektronik ging, im Endstadium hat
sich jedoch eine klassischere Klavier und Streicherkombination als zum Filminhalt
passender erwiesen.
5.6.9. Stille
„ ‚Für Kafka ist das Schweigen eine noch schrecklichere Waffe als der Gesang‘, schreibt
Berendt (1985, 33). Kafka prägte auch den Begriff der Dröhnenden Stille.“ (Flückiger
2002, S. 231)
Stille kann sehr unterschiedliche Funktionen im Film ausführen. Eine drastische Spannungssteigerung kann jedoch in jeder ihrer Einsatzmöglichkeiten verzeichnet werden. (vgl. Lissa 1965, S. 242) In den Anfangszeiten des Tonfilms, vor allem
in der Stummfilmzeit, wurde eine pausenlose Begleitung durch Musik durchgeführt, erst Komponisten und Komponistinnen wie zum Beispiel Bernard Herrmann
89
Filmmusikalische Charakteristiken
präzisierten die Musik in ihrem Einsatz. Musiklose Passagen sind genauso wichtig
wie Szenen mit Musik, schreibt Elmer Bernstein. (vgl. Russell/Young 2001, S. 43)
Stille kann jedoch nicht ohne ihrem Gegenüber, dem Klang, stehen. Stille
hat nur Wirkung, wenn davor ein akustischer Laut jeglicher Art aufgetreten ist.
(vgl. Lissa 1965, S. 242)
„Stille hat nur dort Bedeutung, wo es auch laut sein könnte.
Wo eine Absicht dabei ist“, schreibt Bela Balázs 1930. (vgl. Flückiger 2002, S. 233) Dies
bestätigt auch Zbigniew Preisner. (vgl. Russell/Young 2001, S. 165) Chion (vgl. 1994, S.
67)
beschreibt die Stille als das Negativ der vorher auftretenden Geräusche, das
Produkt des Kontrastes. Für einen Komponisten bzw. eine Komponistin ist es
deshalb wichtig, den Einsatz von Musik präzise zu halten, wie auch in Kapitel 5.7
beschrieben wird. Max Steiner nennt diese Fähigkeit als eine der wichtigsten bei
einer Filmkomposition. (vgl. Thomas 1995, S. 76)
Während laut Schneider (1997, S. 191f) laute Klänge das Publikum schnell
desensibilisieren, liegt in dem Leisen und der Stille eine große Wirkungskraft, die
das Publikum in den Film hineinzieht. Laute Musik distanziert die Besucher vom
Film. Exzessive Lautstärken sind laut Flückiger (2002, S. 243) überdurchschnittlich
oft mit Aggression und Anspannung konnotiert, also Kampfszenen, Showdowns
und Verfolgungsjagden. Einzig dominant euphorische Montagen werden bei positiver emotionaler Aussage mit lauter Musik versetzt.
Im deutschsprachigen Raum sind vor allem durch die Dogma 95-Bewegung
vermehrt gänzlich musiklose Filme produziert worden, die auch mit einem puristischen Original-Ton funktionieren. (vgl. Aufderhaar 2009, S. 22) Der völlig realistisch
intendierte Eindruck dieser Filmgattung ist jedoch in Sachen Musiklosigkeit nicht
direkt auf die oft lyrischen Anforderungen der Filme des Populärkinos übertragbar. Im Film No Country For Old Men (2007) wird, durch die fast vollständige
Abwesenheit von Musik, die Spannung und Intensität der Szenen gesteigert. Die
ansonsten im Thriller übliche Spannungsmusik wird hier durch eine subtile, fesselnde Geräuschebene ersetzt, die durch die erdrückende Stille das Publikum auf
jedes akustische Ereignis, wie annähernde Schritte oder Schüsse, verstärkt reagieren lässt. (vgl. Lim 2008) Stille bedeutet im Film eben kein akustisches Loch ohne
jegliches akustisches Signal, sondern die Reduktion auf minimale Elemente der
Geräuschebenen: Windrauschen, Umgebungsgeräusche, Zikadenzirpen oder Ähn-
90
Filmmusikalische Charakteristiken
liches. Die Geräuschmikroskopie sensibilisiert das Publikum und intensiviert die
Reaktion auf darauffolgende laute akustische Ereignisse. (vgl. Keller 2000, S. 144)
Ein dramatischer Effekt kann deshalb auch Musik aus einer langen Stille
heraus sein. Christin Aufderhaar (2009, S. 22), spricht von völlig eigenständigen
Stücken, die vollständig als intensives geschlossenes Musikstück durchinszeniert
werden und eine große Wirkung erzielen. Schneider (1997, S. 16) führt hierzu eine
Szene aus Cyrano de Bergerac auf, die die Emotionalität des sterbenden Christian
auf diesem Wege übermittelt. Auch in Gus van Sants Film Gerry (2002) wird dieser Effekt genutzt. Die den gesamten Film andauernde Musiklosigkeit wird nur an
zwei Stellen aufgebrochen, in der die als Gesamtstück auftretende Musik dadurch
umso intensiver wirkt.
5.7. Timing
In einem Großteil der Fälle entsteht die Filmmusik nach Beendigung des
Roh- oder Feinschnitts. Nach der Besichtigung des geschnittenen Materials durch
meist den Filmkomponisten bzw. die Filmkomponistin und den Regisseur bzw.
die Regisseurin in der so genannten Spotting Session, werden die mit Musik zu
untermalenden Stellen endgültig festgelegt. (Kloppenburg 2000, S. 38) Dabei ist es laut
Max Steiner die wichtigste Eigenschaft eines Komponisten beurteilen zu können
„wann und wo Musik nötig ist, wo sie beginnen und enden muß.“ (Thomas 1995, S. 76)
Die durchschnittliche Anzahl an Musiktakes pro Film liegt bei ca. 10 bis 20 Takes.
Besonders musikliebend oder melodramatisch werden Filme mit 20 bis 30 Takes
wahrgenommen. Auch über 30 Takes treten selten, aber doch auf. (vgl. Schneider
1990, S. 266)
Ob ein Film eher trocken, bildbetont (äußerlich und realistisch) oder
musiklastig (psychisch und innenorientiert) sein soll, muss bereits im Vorhinein
festgelegt werden. Eine Gesamtmusikdauer von circa 25 bis 50 Prozen der Filmgesamtlänge wird als durchschnittlich angesehen. Verschiedene Genres geben hier jedoch auch verschiedene Verteilungen vor, so sind irreale Stoffe (Märchen, Fantasy,
Horror) meist musikbedürftiger und politische oder realistische Materialien karger
mit Musik verziert. In der anfänglichen Konzeption muss auch die Dichte der
Musik über die Gesamtfilmlänge festgelegt werden. So wird im ersten Drittel, der
91
Filmmusikalische Charakteristiken
Exposition, oft mehr Musik benötigt, um Stimmungen zu begründen und die Charaktere plastischer zu präsentieren. Gegen Ende des Films, nach der Etablierung
der Handlungsstränge, wird meist weniger Musik benötigt. (vgl. Schneider 1997, S. 65)
Der Einsatz der Musik, also der Beginn und Ende eines Takes, ist sehr bezeichnend. Meist setzt die Filmmusik in Verbindung mit einer neuen Räumlichkeit, Person, Stimmung, Kameraeinstellung oder Handlungsstrang ein. (vgl. Schneider
1997, S. 66)
Ein harter Einstieg der Musik mit Akzentuierung gibt dem Film einen
dynamischen Charakter. Bullerjahn (2001, S. 169) erklärt dies mit einer einsetzenden Orientierungsfunktion, die durch plötzlich beginnend oder abreißende Musik
hervorgerufen wird. Die Reaktion erhöht die Wachsamkeit und die Neugierde, da
das Publikum bereits durch seine mediale Schulung weiß, dass die Ursache für die
musikalische Abruptheit im Bild zu finden sein muss. Das abrupte Aufhören der
Musik „weist wie der Doppelpunkt in der Schriftsprache auf das Kommende hin“.
(vgl. Schneider 1997, S. 66f)
Diese Eigenheit wird auch bei den Trailern und Intros für
Fernsehserien oder Nachrichtensendungen genutzt, um die Aufmerksamkeit auf das
Bildgeschehen zu lenken. (vgl. Bullerjahn 2001, S. 169)
Jens-Peter Ostendorf postulierte: „Musik muss unmerklich kommen und gehen, als wäre sie im Film immer da.“ (vgl. Schneider 1990, S. 132) Er nutzt diesen zusätzlichen Effekt der gesteigerten Aufmerksamkeit also nicht. Bei einem allmählichen
unbemerkten Erscheinen oder Aufhören der Musik wird sie wesentlich unbewusster
konsumiert und die Aufmerksamkeit des Publikums nicht zusätzlich gelenkt. (vgl.
Schneider 1997, S. 66f)
5.8. Synchronität von Bild und Musik
Zur exakten Zusammenarbeit von Musik- und Bildebene werden so genannte
Synchronpunkte (syncpoints, cue points) definiert. Diese definieren präzise Zeitpunkte, an denen Umschwünge, Akzente oder Ähnliches in der Musikebene passieren. (vgl. Schneider 1997, S. 21) Entspricht die völlige Übereinstimmung von Bild und
Ton der „Videoclip-Ästhetik“ unserer Zeit, trägt sie jedoch auch immer die Gefahr
mit sich, in das geringgeschätzte Mickey Mousing abzudriften. Obwohl sie sicherlich ein schwierig zu erreichendes Kriterium ist, stellt eine perfekte Synchronisati-
92
Filmmusikalische Charakteristiken
on noch kein Qualitätskriterium dar. Oft passiert es, dass Musik im Schnitt oder
Ähnlichem ein oder zwei Sekunden nach vorne oder hinten geschoben wird. Eine
nur durch ihre exakte Synchronisation funktionierende Musik verliert damit sofort
ihre Bedeutung. (vgl. Schneider 1997, S. 155)
Laut Lissa (1965, S. 370) muss jede „Filmmusik so elastisch sein, dass in jedem
Augenblick eine musikalische Episode verlängert oder verkürzt werden kann, falls
die Montage der visuellen Schicht diese verlangt“. (Lissa 1965, S. 370)
„Bei mir hat sich die Gewissheit eingeschlichen, dass autonome Musikalität (ein gutes
Thema, freies Ausschwingen eines Klanges, das Nachspüren einer rhythmischen Eigengesetzlichkeit, das freie Beenden einer Spannungslinie) einer Filmmusik besser bekommt,
als das sklavische Nachzeichnen von Schnitten und Bildakzenten.“ (Schneider 1997, S. 155)
Adorno/Eisler (1996, S. 151) und Thiel (1981, S. 95) sprechen von einer labilen
Kompositionsweise, die vollendetes Synchronisieren mit einem lebendigen autonomen Vortrag verbindet.
Synchronitätspunke sind zum Beispiel trotzdem zu beachten, wenn ein Szenenwechsel während eines Musiktakes stattfindet, da die Musik hierauf sehr präzise
interagieren muss. Bei aktionsreichen Filmstellen, mit hoher Dichte von syncpoints,
wird nicht jeder davon berücksichtigt werden können. Deshalb hilft in solchen Situationen, „die Akzente der großen Bewegungsabläufe und der wichtigen Schnitte zu
berechnen und für alle schnelleren Bewegungen Musik mit rhythmischen dichten
Abläufen anzubieten“. (Schneider 1997, S. 155) Die Musik ergibt mit ihren schnellen
Bewegungen dann automatisch die benötigte Synchronität.
Hinsichtlich der Synchronität zum Bild muss auch überlegt werden, ob bei
der Aufnahme des Materials mit so genanntem Click-Track gespielt wird oder
ohne. Schneider beschreibt die Vorteile des agogischen Atmens des Orchesters bei
free timing (also ohne Click-Track) als mit einer besonderen unverwechselbaren
Aura versehen. Bei Musiken mit großem Schlagwerkanteil kann das Spielen zum
Click jedoch adäquater sein. Beim Free Timing wird meist zu einer Filmprojektion
live gespielt, um syncpoints, also Akzente und Übergänge, korrekt bespielen zu
können. Dies verursacht jedoch hohe Mehrkosten und lenkt den Blick der Musiker
93
Filmmusikalische Charakteristiken
und Musikerinnen von dem Dirigenten bzw. der Dirigentin ab. (vgl. Schneider 1997, S.
162)
Elektronische Musik hat im Bezug zur Synchronität durch ihre rein technische Produktionsweise am Computer die Möglichkeit, immer völlig synchron
zum Bild zu arbeiten. Freies Einspielen eines Orchesters mit Clicktracks ist nicht
notwendig, vor allem wenn die Klangerzeugung direkt im Computer, basierend auf
MIDI-Eingaben oder ähnlichen Formaten, stattfindet.
„For example, I love the way that you can ‚touch‘ a note in the score and see the video
automatically jump to the frame that is in sync with that note. Then, if you want to, you
can move your note to the frame that you want it to hit.“ - David Hirschfelder (Sound
on Sound 1994)
Die völlige Synchronität ist jedoch vor allem bei beatorientierter Musik,
wie sie die elektronische Musik sehr oft ist, ein Problem. Das Resultat einer nachträglich komponierten, starren, gleichtaktigen, rhythmusorientierten Musik ist in
Kombination mit dem visuellen Rhythmus zwar zu einigen Bezügen passend, in der
Gesamtsequenz meist jedoch schwierig einzugliedern. Hier ist die einzige Möglichkeit, Bild und Ton völlig zu synchronisieren, das Bild im Nachhinein zu verändern.
Die dadurch entstehende Videoclipästhetik ist jedoch nicht für jede Szene empfehlenswert. Rhythmusfreie und agogisch atmende Klangflächen und Musiken haben
hier generell einen großen Vorteil. Sie können frei auf das Bild reagieren und sind
nicht an den auditiven Eigenrhythmus gebunden.
5.9. Zusammenfassung
Die Bild-Ton-Beziehung hat auf Grund der unterschiedlichen Rezeptionsweisen der einzelnen Ebenen die Möglichkeit einerseits die analytische und andererseits die emotionale Seite des Gehirns mit einzubeziehen. Die Gemeinsamkeiten
von Bild und Ton als zeitbasierte und dramaturgische Medien führen zu einer
synthetischen Wahrnehmung, die nicht ohne den Gesamtkontext analysiert werden
darf. Die Analyse der Tonspur im Bezug zum Bild hat gezeigt, dass elektronische
94
Filmmusikalische Charakteristiken
Filmmusik oftmals mit den Geräuschen kongruiert und das Sounddesign großes
Potenzial zur Zusammenarbeit bereitstellt.
Elektronische Musik kann grob in texturbasiert (Drones) und rhythmusbasiert (Beatmusik) eingeteilt werden. Die Analyse der musikalischen Gestaltungsmerkmale hat dabei gezeigt, dass die rhythmusbasierte Musik Einschränkungen
im Einsatz aufweist. Sie ist weniger flexibel als flächige Klänge und verändert
durch ihren prägnanten Rhythmus den visuellen Schnitt möglicherweise ins Negative. Flächige Texturen können flexibler auf Syncpoints reagieren und direkter
mit dem Bild interagieren. Zusammengefasst sind die Möglichkeiten elektronischer
und symphonischer Musik jedoch äquivalent. Einzig der ästhetische Unterschied
der Klangqualitäten fällt drastisch aus und muss zum Gesamtkonzept des Films
passen. Die Entscheidung welche Musik eingesetzt wird, sollte deshalb immer von
den Bedürfnissen des Films ausgehen, wie im folgenden Conclusio genauer erörtert
wird.
95
Conclusio
6
Conclusio
96
Quellen
„Wer über Filmmusik schreibt, fischt – klipp und klar gesagt – in trüben Gewässern“.
(Pauli 1981, S. 37)
Dieses Problem hat sich auch dem Autor beim Verfassen dieser Arbeit gestellt. Es gibt zwar einen Grundkanon von mehreren Autoren und Autorinnen,
die verschiedene Filmmusiken analysieren und Funktionen und Möglichkeiten aufzeigen. Die Problematik ist hierbei jedoch oft, dass ein Großteil der Autoren und
Autorinnen nur dem musikalischen Zweig entstammen (vgl. Prendergast, Kreuzer
und andere), weswegen die eigentliche Synthese aus Musik und Ton nur aus dem
Blickwinkel der autonomen Musik analysiert wird, was aber zu keiner umfassenden
Aussage der spezifischen Verbindung zwischen auditiver und visueller Ebene führt.
Die Verbindung zwischen auditiver und visueller Schicht ist aber das Hauptelement
der Funktionalität von Filmmusik. Bullerjahn (2001, S. 141) führt eine vorgelagerte
getrennte Analyse von Bild und Musik an. Zuerst sollen alle musikalischen Parameter, der funktionale Zusammenhang zwischen Bild und Musik und die resultierende
Gesamtaussage erfasst werden. Danach kann erst die Bewertung „der erfüllten
oder unterlassenen filmmusikalischen Konventionen materialstilistischer Gegebenheiten“ durchgeführt werden. Bei der isolierten Betrachtung eines Musikstückes im
Vorhinein, in Bezug auf seine musikimmanenten Strukturen, wird dies nicht zur
Analyse im filmischen Bereich eingesetzt, sondern nur um die Form im Vorhinein
zu begreifen. (vgl. Kreuzer 2001, S. 128) Eine Gesamtbeurteilung von Filmmusik muss
daraus folgend immer in der Verbindung zum Bild und der Dramaturgie, ohne
perspektivische Einschränkungen, stehen.
Die grundlegende Frage, die mit dieser Arbeit erforscht wurde, beschäftigt
sich mit den Unterschieden beim Einsatz symphonischer Filmmusiken und elektronischer, bzw. deshalb nicht-orchestraler Filmmusiken. Dabei haben sich folgendes
Ergebnisse herauskristallisiert: Melodie und Motive treten bei der symphonischen
Musik, gleich wie bei der elektronischen Musik, auf. Eine eingängige Melodie kann
den Wiedererkennungswert stark erhöhen. In der elektronisch erzeugten Filmmusik lässt sich jedoch ähnlich zu den Arbeiten Bernhard Herrmanns eine Ablösung
vom Melodischen und eine starke Tendenz zu flächigen Drones und abstrakten
Klangfolgen erkennen. Der Klang bzw. Sound selbst als Ausdrucksqualität ist in
97
Quellen
der elektronischen Musik wesentlich wichtiger als in der symphonischen. Ähnlich
zur Popmusik stellt die individuelle Klangästhetik eines der wichtigsten Merkmale
und Arbeitsmittel der elektronischen Filmmusik dar. Was in der symphonischen
Musik die Findung der passenden Instrumentation darstellt, ist in der elektronischen die Suche nach den richtigen Klängen. Hier stellt sich ein Unterschied zur
symphonischen Musik dar, bei der der Sound immer nach einem, zwar möglicherweise individuell instrumentierten, Orchester klingt, jedoch keine spezifische
Soundästhetik erwünscht ist. Elektronische Musik, wenn sie sich hauptsächlich nur
aus Klang ohne harmonischen Bezug zusammensetzt, streift in diesem Zusammenhang an der Grenze zum Sounddesign. Eine Unterscheidung dieser Beiden ist oft
nicht vollständig möglich. Ein ausgereiftes Sounddesign kann hierbei Filmmusik
bei passenden Sequenzen gänzlich obsolet machen und selbst als konkrete Musik
auftreten. Bei der Wahl einer speziellen elektronischen Klangästhetik ist jedoch
zu beachten, dass diese noch mehr datiert als z. B. ein gewählter Kompositionsstil
in der symphonischen. Der filmmusikalische Einsatz brandaktueller Trends in der
elektronischen Musik ist also immer zu hinterfragen, da diese im Regelfall schon
nach kurzer Zeit wieder vom nächsten Trend überholt sind und den Film schneller
altern lassen (vgl. z.B. Lola Rennt (1998)). Symphonische Musik weist hier Großteils eine längere „Halbwertszeit“ auf.
Die bereits erwähnte flächige elektronische Musik bringt Vorteile für das
Zusammentreffen von visuellem und auditivem Rhythmus. Ein stark definierter
Rhythmus in der Filmmusik dominiert das Bild voll und ganz und stört dabei den
visuellen Rhythmus, mehr als er mit diesem zusammenarbeitet. Vor allem dann,
wenn das Bild nicht direkt zur Musik passend geschnitten wird, was aber über eine
längere Sequenz hinweg im Spielfilm zu einer ästhetisch nicht sinnvollen Lösung
führt. Elektronische Tanzmusik basiert auf einem geraden, repetitiven Rhythmus,
sie ist deshalb für viele Sequenzen im Film nicht geeignet. Die hohen Tempi in der
elektronischen Tanzmusik wirken bei ihrem autonomen Einsatz des Weiteren sehr
intensivierend und körperbezogen, kombiniert mit der visuellen Ebene fällt jedoch
auf, dass sie hier die Zeitwahrnehmung nicht beschleunigen, sondern verlangsamen,
was den Einsatz bei Actionsequenzen oft ad absurdum führt. Hier empfiehlt es sich
oftmals die Musikebene bei intensiven Szenen beruhigt zu halten und dem Sound-
98
Quellen
design Platz zur Entfaltung zu geben (vgl. No Country for Old Men (2007), Drive
(2011), …). Generell ist eine intensive Zusammenarbeit mit den restlichen Abteilungen der Tonproduktion (Sounddesign, Mischung, Tonschnitt, …) zu empfehlen,
da häufig in der Kooperation mit den anderen Ebenen des Tons ein stimmigeres
Gesamtbild entstehen kann.
Die Analyse der einzelnen musikdramaturgischen Gestaltungselemente hat
also im Gesamten zusammenfassend ergeben, dass keinerlei gravierende Unterschiede im Einsatz zwischen symphonischer und elektronischer Musik auftreten.
Einzig die ästhetischen Qualitäten der jeweiligen Stilistiken unterscheiden sich
stark. Es kann aber jegliche kompositorische Anforderung mit beiderlei Mitteln
realisiert werden.
Filmmusik zu komponieren ist ein sehr intuitiver und emotionaler Prozess.
Filmmusikkomponisten und -komponistinnen arbeiten deshalb oft mit nicht dermaßen komplexen Methoden wie ihre Kollegen und Kolleginnen aus der autonomen symphonischen Musik. Die persönlichen Voraussetzungen für die Filmmusikkomposition deuten allesamt daraufhin, dass die besten autonomen Komponisten
und Komponistinnen nicht automatisch auch die besten Filmmusiken schreiben
können. Durch den großen emotionalen Einfühlungsbedarf und die Eingliederung
in die Rahmenbedingungen, wie Dramaturgie, Schnitt oder Bildinhalte, bestehen
auch trivialere Musiken im Film als in der autonomen Musik. Dies begünstigt natürlich den Einstieg zur Filmmusik aus der Popmusik, da in der Popmusik auch der
emotionale Ausdruck stark fokussiert wird. Bei einer fehlenden kompositorischen
Grundausbildung schränkt sich jedoch der mögliche Stil einer Filmmusik stark ein.
Jeder Film erfordert im Optimalfall eine spezifische Stilrichtung, die die gewünschte Aussage unterstützt. Einen bestimmten Stilpluralismus zu beherrschen hilft deshalb auch in anderen Stilen, als dem persönlich präferierten, mögliche Chancen zu
erkennen, da der persönliche Musikstil eines Komponisten bzw. einer Komponistin
nicht immer zu jeglichen Filminhalten passt. Die Verbindung der Musik zum Film
muss immer vor persönlichen musikalischen Stilpräferenzen stehen!
Die aktuellen technischen Entwicklungen und die Möglichkeiten elektronische Musik zu gestalten schreiten rasant voran. Vor allem die Samplingtechnologie
hat sich stark verfeinert und eine beinah realistische, bzw. für Laien nicht mehr zu
99
Quellen
unterscheidende, Simulation akustischer Instrumente ist möglich. Dennoch ist das
Einspielen mit Originalinstrumenten zu empfehlen, da jeder Instrumentalist neben
der individuellen Färbung auch weitere Spieltechniken weit abseits der gesampelten Klänge mitbringen kann. Insbesondere experimentelle Einsätze und Spielweisen
akustischer Instrumente sind nur mit Originalinstrumenten möglich. Vorgefertigte
Samples schränken in diesem Bereich die Kreativität stark ein. Bei der Erzeugung
originärer elektronischer Klänge ist es von Bedeutung, bereits im Vorhinein ein
gewünschtes Klangkonzept zu entwickeln, da ansonsten endlos nach neuen Klängen
geforscht werden kann. Eine zielorientierte und wenig experimentierfreudige Arbeitsweise ist deshalb im zeitlich meist knapp bemessenen Filmgenre oft vonnöten.
Die in Kapitel 1.1.3 beschriebene Tendenz der Oscarverleihungen, elektronische bzw. jegliche nicht-orchestrale Musiken verstärkt zu berücksichtigen, wird sich
in den nächsten Jahren voraussichtlich weiter fortführen. Dies beeinflusst wiederum die Entscheidungsträger des Hollywoodfilms vermehrt diese einzusetzen, da sie
sich als ökonomisch rentable Alternative bestärken. Deshalb werden, rein aus der
kapitalistischen Perspektive gesehen, in Zukunft wohl vermehrt Filme mit Musik
abseits der klassischen Hollywoodsymphonik finanziell gefördert werden. Erfolge
wie die Musiken für The Social Network (2010) und The Girl with the Dragon
Tattoo (2011) von Trent Reznor und Atticus Ross haben sicher auch andere zeitgenössische Musiker aus dem Popkanon auf den Geschmack gebracht, für den Film
zu komponieren. Zu beachten ist hier jedoch wieder, dass die Stilistik der besagten
Filmmusiken der Industrial-Rockmusiker stark dem persönlichen Musikstil ihrer
autonomen Musiken entspricht. Eine Untermalung jeglicher Filminhalte ist ihnen,
auf Grund der bereits durch das Genre eingeschränkten Aussagekraft der Musik,
nicht möglich.
Die Entscheidung, ob symphonische, elektronische oder überhaupt Musik
eingesetzt wird, ist immer den Bedürfnissen des Films zu überlassen. Finanziellen, persönlich motivierten oder stilistisch eingegrenzten Forderungen darf deshalb
nicht stattgegeben werden. Nicht jeder Film harmoniert mit rein elektronischer
Musik und nicht jede Ästhetik ist mit symphonischer Musik realisierbar. Die Bildton-Synthese und Funktion des Films steht immer im Vordergrund des Klang-
100
Quellen
konzepts. Der Film und dessen Dramaturgie entscheidet deshalb welche Musik
eingesetzt werden sollte!
101
Quellen
Quellen
102
Quellen
Literaturverzeichnis
Adorno, Theodor W. / Eisler, Hanns (1996): Komposition für den Film, Neuauflage, Hamburg: Europäische Verlagsanstalt
Aufderhaar, Christine (2009): Fuga improvisata. In: Ottersbach, Béatrice /
Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 10-24
Baumann, Gerd (2009): Settembrini und Naphta. In: Ottersbach, Béatrice /
Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 26-30
Benjamin, Walter (1963): Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Frankfurt a. M.: Suhrkamp
Birbaumer, Niels / Schmidt, Robert F. (1991): Biologische Psychologie, Berlin:
Springer
Bode, Andreas / Müller, Christoph (2010): Mit Medienmusik erfolgreich in der
Kreativwirtschaft: Ein praxisorientierter Leitfaden für die professionelle Musiknutzung in der Kreativwirtschaft, München: Musikmarkt GmbH & Co KG
British Broadcasting Company (1931): BBC Yearbook, London: British Broadcasting Company
Brophy, Philip / Eagger, Fiona / Giarrusso, Vince (2001): Mallboy: a case
study of sound and music for an australian feature. In: Brophy, Philip (Hg.): Cinesonic: Experiencing the soundtrack, North Ryde: Australian Film Television and
Radio School, S. 19-40
Brown, Royal S. (1994): Overtones and Undertones: reading film music, Berkeley
and Los Angeles: University of California Press
103
Quellen
Bruhn, Herbert (1993): Tonpsychologie - Gehörpsychologie - Musikpsychologie.
In: Bruhn, Herbert / Oerter, Rolf / Rösing, Helmut (Hg.): Musikpsychologie: Ein
Handbuch, Reinbek b. Hamburg: Rowohlt. S. 439-451
Bullerjahn, Claudia (2001): Grundlagen der Wirkung von Filmmusik, Augsburg:
Wißner
Burt, George (1995): The Art of Film Music, Boston: Northeastern University
Press
Chion, Michel (1994): Audio-Vision: Sound on Screen, New York, NY: Columbia
University Press
Cox, Christoph / Warner, Daniel (2004): Audio Culture: Readings in Modern
Music, London: Continuum
Craft, Robert (1961): Igor Strawinsky. Gespräche mit Robert Craft, Zürich: Atlantis
Destunis, Georg (1958): Beiträge zur Frage der Musikeinwirkung auf die zwischenhierngesteuerten Funktionen des Kindes. In: Teirich, H. (Hg.): Musik in der
Medizin, Stuttgart: Fischer, S. 54-67.
Dohmen, René / Dürbeck, Joachim (2009): Wie eine chemische Reaktion. In:
Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz:
UVK, S. 32-44
Elias, Karim Sebastian (2009): Der Weg, für den man sich entscheidet. Ein Werkstattgespräch mit Beatrice Ottersbach. In: Ottersbach, Béatrice / Schadt, Thomas
(Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 46-56
104
Quellen
Emons, Hans / De la Motte–Haber, Helga (1980): Filmmusik: eine systematische Beschreibung, München: C. Hanser
Evens, Aden (2005): Sound Ideas: Music, Machines and Experiences, Minneapolis, MN: Univerity of Minnesota Press
Faulstich, Werner (2002): Grundkurs Filmanalyse, München: Wilhelm Fink Verlag GmbH & Co KG
Flückiger, Barbara (2002): Sound Design: die virtuelle Klangwelt des Films, 2.
Aufl., Marburg: Schüren
Hillebrand, Christiane (1996): Film als totale Komposition: Analyse und Vergleiche der Filme Mauricio Kagels, Frankfurt a. M.: P. Lang
Hoffer, Charles (2012): Music Listening Today, 4. Aufl., Boston, MA: Cengage
Learning
Holmes, Thom (2002): Electronic and Experimental Music, 2. Aufl., New York,
NY: Routledge
Hünermann, Tobias (2004): Kompositorische Stationen des 20. Jahrhunderts:
Debussy, Webern, Messiaen, Boulez, Cage, Ligeti, Höller, Bayle, Münster: Lit
Verlag Münster
Gorbman, Claudia (1987): Unheard Melodies: Narrative Film Music, Bloomington: Indiana University Press
Kahn, Douglas (1999): Noise, Water, Meat: a history of sound in the arts, Cambridge, MA: MIT Press
105
Quellen
Kalinak, Kathryn M. (2010): film music: a very short introduction, Oxford: Oxford University Press
Karlin, Fred / Wright, Rayburn (2004): On the track: a guide to contemporary
film scoring, New York, NY: Routledge
Keller, Matthias (2000): Stars and Sounds: Filmmusik - die dritte Kinodimension, Kassel: Bärenreiter
Kinsky-Weinfurter, Gottfried (2001): Das Verschwinden der Hochkultur. In:
Neubauer, Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in
Film und Fernsehen, Hamburg: von Bockel, S. 9-23
Kloppenburg, Josef (2000): Filmmusik. Stil–Technik–Verfahren–Funktionen. In:
Kloppenburg, Josef (Hg.): Musik multimedial - Filmmusik, Videoclip, Fernsehen,
Laaber: Laaber, S. 21-56
Korte, Helmut (1988): Systematische Filmanalyse als interdisziplinäres Programm.
In: Zeitschrift für Literaturwissenschaft und Linguistik, Beiheft Nr. 15, Göttingen,
S. 166-183
Kolleritsch, Otto (1987): György Ligeti: Personalstil, Avantgardismus, Popularität, Wien: Universal Edition
Kracauer, Siegfried (1971): Theorie des Films, Frankfurt a. M.: Suhrkamp
Kraft, William (1992): Foreword to the Second Edition, by William Kraft. In:
Prendergast, Roy M.: Filmmusic: a neglected art: a critical study of music in films,
New York, NY: W. W. Norton & Co
Kreuzer, Anselm C. (2001): Filmmusik: Geschichte und Analyse, Frankfurt a.
M.: Lang
106
Quellen
Lemberg, Jörg (2009): Apologia. In: Ottersbach, Béatrice / Schadt, Thomas
(Hg.): Filmmusik-Bekenntnisse, Konstanz: UVK, S. 58-81
Levy, Emanuel (2003): All about Oscar: the history of politics of the Academy
Awards, New York, NY: Continuum
Lissa, Zofia (1965): Ästhetik der Filmmusik, Berlin: Henschel
Millar, Gavin/Reisz, Karel (2009): The Technique of Film Editing, 2. Aufl., Oxford: Focal Press
Onofrio, Jan (2007): Pennsylvania Biographical Dictionary - Third Edition, St.
Clair Shores MI: Somerset Publishers Inc.
Pauli, Hansjörg (1976): Filmmusik: Ein historisch-kritischer Abriß. In: Schmidt,
Hans-Christian (Hg.): Musik in den Massenmedien Rundfunk und Fernsehen. Perspektiven und Materialien, Mainz: Schott, S. 91-119
Pauli, Hansjörg (1981): Filmmusik: Stummfilm, Stuttgart: Klett-Cotta
Potter, Keith (2002): Four Music Minimalists: La Monte Young, Terry Riley,
Steve Reich, Philip Glass, Cambridge, UK: Cambridge University Press
Prendergast, Roy M. (1992): Filmmusic: a neglected art: a critical study of music
in films, New York, NY: W. W. Norton & Co
Prokop, Dieter (1995): Medien-Macht und Massen-Wirkung, Freiburg: Rombach
Prox, Lothar (1979): Perspektiven einer Wiederaufarbeitung von Stummfilmmusik, In:Stiftung Deutsche Kinematik: Stummfilmmusik gestern und heute: Beitr.
u. Interviews anlässl. e. Symposiums im Kino Arsenal am 9. Juni 1979 in Berlin,
Berlin: Spiess
107
Quellen
Ruschkowski, André (1998): Elektronische Klänge und musikalische Entdeckungen, überarbeitete Aufl., Stuttgart: Reclam
Russell, Mark / Young, James (2001): screencraft: film music, Reinbek bei Hamburg: Rowohlt
Rügner, Ulrich (1988): Filmmusik in Deutschland zwischen 1924 und 1934, Hildesheim: Olm
Schneider, Enjott (2009): Geschichten erzählen mit Tönen und Bildern …. In:
Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz:
UVK, S. 134-152
Schneider, Norbert Jürgen (1990): Handbuch Filmmusik Bd. 1: Musikdramaturgie im neuen deutschen Film, 2. Auflage, München: Ölschläger
Schneider, Enjott (1997): Komponieren für Film und Fernsehen : ein Handbuch,
Mainz: Schott
Shore, Howard (1999): Composing with a very wide palette. In: Brophy, Philip
(Hg.): Cinesonic: the world of sound in film, North Ryde: Australian Film Television and Radio School, S. 1-14
Skiles, Marlin (1976): Music scoring for TV & motion pictures, Blue Ridge Summons, PA: TAB Books
Ströer, Hans Peter (2009): Just do something and then see what happens…. In:
Ottersbach, Béatrice / Schadt, Thomas (Hg.): Filmmusik-Bekenntnisse, Konstanz:
UVK, S. 154-165
108
Quellen
Tauchnitz, Jürgen (2001): Musik in der Werbung. State of the art. In: Neubauer,
Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in Film und
Fernsehen, Hamburg: von Bockel, S. 83-104
Thiel, Wolfgang (1981): Filmmusik in Geschichte und Gegenwart, Berlin: Henschel
Thiel, Wolfgang (2001): Integrale Filmmusik. Ein Thesenpapier. In: Neubauer,
Jan / Wenzel, Silke (Hg.): Nebensache Musik: Beiträge zur Musik in Film und
Fernsehen, Hamburg: von Bockel, S. 47-52
Thomas, Tony (1995): Filmmusik: Die großen Filmkomponisten - ihre Kunst und
ihre Technik, München: Wilhelm Heyne
Van der Lek, Robbert (1987): Filmmusikgeschichte in systematischer Darstellung. Ein Entwurf. In: Archiv für Musikwissenschaft 44 (1987). Stuttgart: Franz
Steiner Verlag, S. 216-239.
Von Rosenstiel, Lutz (1993): Musik und Arbeit. In: Bruhn, Herbert / Oerter,
Rolf / Rösing, Helmut (Hg.): Musikpsychologie: Ein Handbuch, Reinbek b. Hamburg: Rowohlt. S. 157-168
Vowinckel, Antje (1995): Collagen im Hörspiel: Die Entwicklungen einer radiophonen Kunst, Würzburg: Königshausen & Neumann
Welsh, James M. / Phillips, Gene D. / Hill, Rodney F. (2010): The Francis Ford
Coppola Encyclopedia, Plymouth, UK: Scarecrow Press
Wördehoff, Thomas (1995): Schreib mir das Lied vom Tod. In: Die Weltwoche,
15. Februar 1995, Zürich, S. 47
Wulff, Hans J. (2010): Arten der Perspektivität und Semantisierung der Musik. Am besonderen Beispiel der Bedeutungs-Aufladung eines Liedes in THREE
109
Quellen
SEASONS (SAIGON STORIES, USA/Vietnam 1999, Tony Bui). In: Heidt, Guido / Krohn, Tarek / et al. (Hg.): Kieler Beiträge zur Filmmusikforschung Ausgabe
6, November 2010, Kiel: Kieler Gesellschaft für Musikforschung, S. 124-136
Wüsthoff, Klaus (1978): Die Rolle der Musik in der Film-, Funk- und Fernsehwerbung: mit einer Instrumententabelle der Gebrauchsmusik, einer Einführung in
die Studiopraxis und Kompositionsanleitungen für Werbespots. Unter Mitarbeit von
Gisela Wüsthoff, Berlin: Merseburger
Yewdall, David L. (2003): Practical Art of Motion Picture Sound, 2. Aufl., Amsterdam: Focal Press
110
Quellen
Internet
Academy of Motion Pictures Arts and Science (2012): The 51st Academy Awards (1979) Nominees and Winners, Online unter: http://www.oscars.org/
awards/academyawards/legacy/ceremony/51st-winners.html, Abgerufen am 5. März
2012
Academy of Motion Pictures Arts and Science (2012): The 54th Academy Awards (1982) Nominees and Winners, Online unter: http://www.oscars.org/
awards/academyawards/legacy/ceremony/54th-winners.html, Abgerufen am 5. März
2012
ARGE Kultur Salzburg (2012): ARGEkultur Salzburg :: Veranstaltungen ::
Naked Lunch „Universalove“ :: 11.03.2012:, Online unter http://www.argekultur.at/
Ars/Arge/Event/EventDetails.aspx?EventID=10588, Abgerufen am 18. März 2012
Awards and Shows (o.J.): Oscar Award for Best Original Score – Academy
Awards for Original Music Score, Online unter: http://www.awardsandshows.com/
features/best-original-score-20.html, Abgerufen am 16. März 2012
Bytesmaster (2010): Oscars: Quotes, Online unter: http://bytesdaily.blogspot.
com/2010/03/oscars-quotes.html, Abgerufen am 18. März 2012
Cahill, Matt (2011): And the award goes to, Online unter: http://ryeberg.com/
curated-videos/and-the-award-goes-to/, Abgerufen am 18. März 2012
Chrisafulli, Chuck (2006): Score One for Originality. Online unter: http://www.
craigarmstrongonline.com/additions/article_02.htm, Abgerufen am 14. März 2012
111
Quellen
Föllmer, Golo / Gerlach, Julia (o.J.): Audiovisionen, Online unter: http://www.
medienkunstnetz.de/themen/bild-ton-relationen/audiovisionen/print/, Abgerufen am
23. März 2012
Gabriella (NY Rock) (2003): Interview: Tom Rowlands of The Chemical Brothers (NY Rock), Online unter: www.nyrock.com/chemical.htm, Abgerufen am 2.
März 2012
Gerber, Jerry / Prager, Michael (o.J.): The Unreal Orchestra, Online unter:
http://www.jerrygerber.com/unrealorchestra.htm, Abgerufen am 10. März 2012
Granular Synthesis (o.J.): GRANULAR~SYNTHESIS / Modell 5, Online unter: http://www.granularsynthesis.info/ns/?goto=modell%205, Abgerufen am 11.
März 2012
Hugill, Andrew (2002a): The Orchestra: A User‘s Manual: Classical, Online unter:
http://andrewhugill.com/manuals/orchclassical.html, Abgerufen am 12. März 2012
Hugill, Andrew (2002b): The Orchestra: A User‘s Manual: The Orchestra in the
19th Century, Online unter: http://andrewhugill.com/manuals/orch19thC.html, Abgerufen am 12. März 2012
Hugill, Andrew (2002c): The Orchestra: A User‘s Manual: The Orchestra in the
20th Century, Online unter: http://andrewhugill.com/manuals/orch20thC.html, Abgerufen am 12. März 2012
Ikeda, Ryoji (2010): ryoji ikeda [ datamatics, Online unter http://www.ryojiikeda.
com/project/datamatics/, Abgerufen am 11. März 2012
Levine, Mike (2011): Simon Franglen: Q&A, Online unter http://www.emusician.
com/engineers-producers/0989/simon-franglen-qa/138171, Abgerufen am 12. März
2012
112
Quellen
Lim, Dennis (2008): Exploiting Sound, Exploring Silence, Online unter http://
www.nytimes.com/2008/01/06/movies/awardsseason/06lim.html?pagewanted=all,
Abgerufen am 13. März 2012
Noto, Alva (o.J.): alva noto | Audio, Online unter http://www.alvanoto.
com/?a1=audio, Abgerufen am 11. März 2012
Sondermeyer, Juliane (2010): Naked Lunch: Naked Lunch spielt Live-Musik zum
Film: „Universalove“ (motor.de Interview):, Online unter: http://www.motor.de/
motormeinung/motor.de/naked_lunch_universalove_naked_lunch_spielt_live_musik_zum_film.html, Abgerufen am 18. März 2012
Sound on Sound (1994): David Hirschfelder: Scoring An Oscar for Elizabeth,
Online unter: http://www.soundonsound.com/sos/apr99/articles/hirxchfelder.htm,
Abgerufen am 10. März 2012
Weir, William (2011): Clint Eastwood Is a Great Director. Is He a Good Composer?, Online unter: http://www.slate.com/blogs/browbeat/2011/11/09/clint_eastwood_john_carpenter_and_other_director_composers.html, Abgerufen am 10.
März 2012
WhoWonWhen (o.J.): Who Won Original Score Oscars (Academy Award Winner), Online unter: http://www.whowonwhen.com/entertainment/academy_awards/
original-score.php, Abgerufen am 16. März 2012
Wrench, Nigel (2008): BBC News | Entertainment | Lost Tapes of Dr. Who composer, Online unter: http://news.bbc.co.uk/2/hi/entertainment/7512072.stm, Abgerufen am 10. März 2012
113
Quellen
Audioquellen
Keller, Michael (1995): Sounds of Cinema: Spielarten der Filmmusik, 4 CD-Rom,
München: TR-Verlagsunion
Videoquellen
Karlin, Fred / Tilford, Ron H. (1995): Film Music Masters - Jerry Goldsmith,
VHS Video mit Beiheft, USA: Karlin/Tilford Production
Pensado, Dave / Trawick, Herb (2012): Pensado’s Place Episode 57: Simon Franglen, Internetvideo, Online unter http://www.youtube.com/watch?v=WHtJyl8Mb30,
aufgerufen am 1. März 2012
114
Quellen
Abbildungsverzeichnis
Abb. 1: Akustische Ereignisse im Film. Aufteilung Bildton und Fremdton. (vgl.
Bullerjahn 2001, S. 20)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Abb. 2: Relation der Gestaltungselemente von Bild und Musik. (vgl. Bullerjahn 2001,
S. 139) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
115
Quellen
Tabellenverzeichnis
Tab. 1: Klischees der Instrumentation (Wüsthoff 1978, S. 38f) . . . . . . . . . . . . . . . . 66
Tab. 2: Musikinstrumente und ihre Gefühlsqualitäten (Skiles 1976, S. 70, zit. n. Bullerjahn 2001, S. 88)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
116
Herunterladen