Diplomarbeit Bildbezogene Musikproduktion

Werbung
Hochschule für Film und Fernsehen „Konrad Wolf“– Potsdam Babelsberg
Studiengang Ton
Diplomarbeit
Bildbezogene Musikproduktion
Erstgutachter: Stephan Köthe
Zweitgutachter: Prof. Armin Pommeranz
Vorgelegt von: Bettina Bertók
Geboren am: 30.10.1986
Studiengang: Ton
Beginn der Arbeit: 1.3.2012
Abgabe der Arbeit: 26.10.2012
Kurzinhalt
Bildbezogene Musikproduktionen für verschiedene Zielmedien verlangen unterschiedliche Herangehensweisen. Dabei sind an das Zielmedium sowohl inhaltliche als auch
technische Anforderungen sowie Hörgewohnheiten des Zielpublikums gekoppelt.
Diese Arbeit untersucht und vergleicht die medienspezifischen Produktionsabläufe
von orchestralen Filmmusik- und Konzertproduktionen. Dabei werden die einzelnen
Rollen und Phasen ausführlich erläutert. Zahlreiche persönliche Gespräche mit
etablierten Tonmeistern geben Auskunft über Vorgehensweisen und Erfahrungen bei
professionellen bildbezogenen Musikproduktionen.
Im Anschluss werden die verschiedenen Produktionsweisen auch mit autonomen,
nicht bildbezogenen Musikproduktionen verglichen.
Vorwort
"Bei der Arbeit des Tonmeisters bei der bildbezogenen Musikaufnahme geht es wie in
anderen Gewerken darum, gleichzeitig künstlerische, technische und organisatorische
Anforderungen zu erfüllen, die sich aus dem Werk selber ergeben.
Ausgangspunkt ist die Idee zu einem Werk bzw. ein Bild vor Augen. Die sich daraus
ergebende Wahl der Mittel ist durch die inhaltliche Fragestellung des Werkes bestimmt.
So fordert die Dramaturgie eines Films, die zugrunde liegende Geschichte, eine
bestimmte Art von Filmmusik und deren Einsatz, bzw. eine bestimmte Produktionsweise. Genauso bildet die von einer Band präsentierte Live-Show erst die Grundlage
für eine spätere DVD–Produktion.
Zur konkreten Umsetzung eines Werkes treten dann beim Aufbau eines praktikablen
Arbeitsablaufs oder der Wahl einer bestimmten Technologie, die entscheidenden
Fragen nach dem Zielformat und der späteren Wiedergabesituation hinzu - immer
eingedenk der nicht unrelevanten ästhetischen Konventionen und wirtschaftlichen
Zwänge. Denn die Frage lautet fast immer – wen soll das Werk, auf welchem Wege
möglichst wirkungsvoll erreichen und das zu vertretbaren Kosten? Das gilt für
Filmmusik im Kino, für eine Konzert-DVD für das Heimkino oder dem „Public
Viewing“ der Berliner Philharmoniker. So ergeben sich die Unterschiede, und aber
auch viele Gemeinsamkeiten im Produktionsprozess bei verschiedenen Endformaten
und Zielgruppen.
Was für den Tonmeister bleibt, ob bei der Aufnahme, der Mischung oder dem
Mastering - um komplexe Einzelinformationen zu einem konsumierbaren Gesamtbild
formen zu können, braucht man das Bild vor Augen, das Detail in der Hand und das
Zielformat im Sinn..."
Stephan Köthe, persönliches Gespräch vom 01.08.2012
III
Inhalt
Vorwort....................................................................................................................................... III
Einleitung...................................................................................................................................... 1
A. Filmmusikproduktion ........................................................................................................ 3
1 Zum Wesen der Filmmusik .......................................................................................... 3
1.1 Entstehungsgeschichte ........................................................................................... 3
1.1.1 Musik vor dem 20. Jahrhundert .............................................................. 4
1.1.2 Filmmusik zur Stummfilmzeit................................................................. 4
1.1.3 Filmmusik ab 1927...................................................................................... 6
1.1.4 Bildsynchrone Musikproduktion ab 1930 ............................................. 8
1.2 Dramaturgische Funktionen der Filmmusik ..................................................... 9
2 Vorgaben durch das Zielmedium .............................................................................12
2.1 Wiedergabe im Kino .............................................................................................13
2.2 Veränderte Anforderungen an die Heimwiedergabe.................................... 15
2.3 Filmmusik auf Soundtrack-CD...........................................................................16
3 Produktionsablauf bei der Erstellung einer orchestralen Filmmusik ............17
3.1 Rollenverteilung bei der Filmmusikproduktion.............................................18
3.1.1 Regie ............................................................................................................18
3.1.2 Produktion ................................................................................................. 19
3.1.3 Komposition ..............................................................................................19
3.1.4 Musiker ....................................................................................................... 20
3.1.5 Music Editor ..............................................................................................20
3.1.6 Organisatorische Aufnahmeleitung .....................................................22
3.1.7 Tonregie ...................................................................................................... 22
3.1.8 Recording Engineer..................................................................................23
3.1.9 Workstation-Operator .............................................................................23
3.1.10 Filmmusik-Mischtonmeister .................................................................. 24
3.2 Aufnahmevorbereitung........................................................................................25
3.2.1 Kompositionsdepartment ....................................................................... 25
3.2.2 Zeitliche Planung......................................................................................26
3.2.3 Besetzung ................................................................................................... 27
3.3 Tontechnische Umsetzung ..................................................................................28
3.3.1 Mikrofonie.................................................................................................. 28
3.3.2 Organisation der Signale......................................................................... 30
3.3.2.1 Aufnahmesession ....................................................................... 30
3.3.2.2 Aufnahmesystem ....................................................................... 31
3.3.2.3 Spurbelegungsplan .................................................................... 32
3.4 Aufnahme................................................................................................................32
3.4.1 Arbeit mit den Musikern ........................................................................ 33
3.4.2 Bildsynchrone Produktion...................................................................... 33
3.4.3 Aufnahme in Sections..............................................................................34
3.4.4 Dopplungen und Overdubs ................................................................... 35
3.4.5 Vorteile der computerbasierten Aufnahme ........................................ 35
3.4.6 Dokumentation .........................................................................................36
3.5 Schnitt.......................................................................................................................38
IV
3.6 Musik-Mischung.................................................................................................... 38
3.6.1 Mischungsvorbereitung .......................................................................... 39
3.6.2 Laufzeitkorrektur .....................................................................................40
3.6.3 Klangfarbe .................................................................................................. 43
3.6.4 Dynamik ..................................................................................................... 44
3.6.5 Balance zwischen Hauptsystem und Stützmikrofonen ...................44
3.6.6 Räumlichkeit..............................................................................................46
3.6.7 Besonderheiten des Tonformats............................................................47
3.6.8 Dialog und Effekte bei der Musikmischung....................................... 49
3.6.9 Auslieferung der Mischung ................................................................... 49
3.7 Film-Mischung ....................................................................................................... 51
3.7.1 Verwendung stereofoner Musik ...........................................................52
3.7.2 Positionierung von Musik im diegetischen Raum ............................53
B. Konzertproduktionen ....................................................................................................... 54
1 Inhaltliche Besonderheiten von Konzertproduktionen ..................................... 54
2 Anforderungen des Zielmediums ............................................................................55
2.1 Übertragung............................................................................................................55
2.2 Mitschnitt ................................................................................................................56
3 Produktionsablauf ........................................................................................................ 57
3.1 Rollenverteilung .................................................................................................... 57
3.1.1 Redaktion ................................................................................................... 58
3.1.2 Technische Leitung ..................................................................................58
3.1.3 Drahtlostechnik.........................................................................................58
3.2 Vorbereitung...........................................................................................................59
3.2.1 Organisatorische Planung ...................................................................... 60
3.2.2 Technische Vorüberlegungen ................................................................60
3.2.3 Synchronisation zum Bild....................................................................... 64
3.2.4 Übertragungswagen ................................................................................65
3.2.5 Mikrofonie.................................................................................................. 67
3.2.6 Proben und Soundcheck ......................................................................... 69
3.3 Aufnahme................................................................................................................70
3.4 Postproduktion ...................................................................................................... 70
3.4.1 Nachträgliche Aufnahmen ..................................................................... 71
3.4.2 Schnitt.......................................................................................................... 71
3.5 Mischung .................................................................................................................72
C. Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen
mit und ohne Bildbezug................................................................................................... 74
1 Inhalt und Ästhetik ...................................................................................................... 74
2 Unterschiedliche Zielmedien und Wiedergabesituationen...............................76
3 Praktische Umsetzung ................................................................................................. 79
3.1
3.2
3.3
3.4
3.5
3.6
3.7
Rollenverteilung in den medienspezifischen Produktionsstrukturen....... 79
Vorbereitung...........................................................................................................80
Aufnahmeraum und Besetzung ......................................................................... 81
Synchronisation zum Bild....................................................................................83
Mikrofonie...............................................................................................................84
Schnitt.......................................................................................................................86
Mischung .................................................................................................................87
D. Schlussbetrachtung ...........................................................................................................89
V
Anhang ........................................................................................................................................ 90
Literaturverzeichnis .......................................................................................................... 90
Abbildungsverzeichnis .................................................................................................... 93
Gespräche.............................................................................................................................94
Bernd Wefelmeyer ......................................................................................................... 94
Michael Schubert............................................................................................................98
Peter Fuchs ....................................................................................................................106
Bernhard Albrecht .......................................................................................................110
Martin Steyer ................................................................................................................114
Dick Bernstein...............................................................................................................116
Stephan Köthe ..............................................................................................................117
Eidesstattliche Erklärung...............................................................................................123
Danksagung.......................................................................................................................124
VI
Einleitung
Einleitung
Bildbezogene Musikproduktion bewegt sich im Spannungsfeld zwischen Videoclip
und Übertragungen aus der Metropolitan Opera New York im Kino. Sie ist in
zahlreichen Bereichen zu finden. In Kinofilmen und im Fernsehen ist es die Filmmusik,
welche die Bedeutung der Bilder beeinflusst und verschiedenartige Interpretationen
ermöglicht. Inszenierungen der Metropolitan Opera (MET) werden in Kinos weltweit
übertragen, aber auch Konzertübertragungen finden im Fernsehen regelmäßig statt.
Pop- und Rock-Konzertproduktionen verschiedener Bands und musikalischer Genres
werden zum Beispiel auf Tape.tv live und kostenlos im Internet angeboten während
man auf YouTube überwiegend private Eindrücke von Konzertbesuchern betrachten
kann. Aber auch Konzertmitschnitte, die auf DVD respektive Blu-Ray Disc vertrieben
werden oder Musik in Computerspielen gehören in den Bereich bildbezogener
Musikproduktionen.
Bei all diesen Produktionen stellt sich die Fragen nach dem Zielpublikum und dessen
genutztem Wiedergabemedium, denn die Wiedergabesituation, für die ein bestimmtes
Endprodukt produziert wird, stellt die Vorgaben und Anforderungen, die während
der Musikproduktion beachtet werden müssen. Nur wenn das Zielmedium bekannt
ist, können bewusst die richtigen Entscheidungen, z.B. zur optimalen Positionierung
der Mikrofone, Dynamik der Mischung oder Nutzung des Center-Lautsprechers,
getroffen werden. Darüber hinaus müssen (besonders bei einer Mischung in 5.1) die
verschiedenen Normen, welche die Qualität und Aufstellung der Lautsprecher
festlegen, berücksichtigt werden.
Die anspruchsvollste Aufgabe jedoch ist die Verbindung von technischen und
musikalischen Kenntnissen mit der Fähigkeit, die Wünsche des Regisseurs oder
Musikers erkennen und erfüllen zu können.
Diese Diplomarbeit beschreibt das Tätigkeitsfeld eines Tonmeisters bei bildbezogenen
Musikproduktionen in allen Projektphasen. Dabei wird überwiegend Bezug zu
orchestralen Filmmusikaufnahmen genommen. Leider sind literarische Quellen über
die Arbeitsweisen bei der Aufnahme von Filmmusik recht rar. Daher wurden durch
Gespräche mit Tonmeistern, die mit diesem Thema beschäftigt sind, Informationen
über die Vorgehensweisen bei professionellen Filmmusikproduktionen gesammelt.
Zusätzlich sollen Beispiele aus eigener Erfahrung die verschiedenen Problematiken
verdeutlichen.
1
Einleitung
Die vorliegende Arbeit ist in drei Teile A, B und C gegliedert. Teil A behandelt die
Filmmusikproduktion am Beispiel orchestraler Filmmusik. Begonnen wird mit einem
Blick in die Geschichte. Zunächst soll erläutert werden, welchen Ursprung und welche
Entwicklung die Filmmusik erfahren hat. Danach werden ihre Eigenschaften und
Funktionen aufgezählt und erklärt, wie diese Einfluss auf Erzählstrukturen nehmen.
Anschließend werden die Vorgaben und Anforderungen der möglichen Zielmedien
von Filmproduktionen beleuchtet. Den Schwerpunkt jedoch setzt die Beschreibung der
einzelnen Stationen einer orchestralen Filmmusikproduktion.
Im Teil B wird der Bereich der Konzertproduktion betrachtet. Auch hier werden
sowohl inhaltliche Gesichtspunkte, Anforderungen des Zielmediums sowie Besonderheiten bei der Umsetzung geschildert, vor allem die Schwierigkeiten, die sich bei der
Mikrofonierung ergeben.
Anschließend werden im Teil C unterschiedliche medienspezifische Produktionsstrukturen miteinander verglichen sowie die Unterschiede und Gemeinsamkeiten herausgearbeitet.
Dabei
werden
auch
Kriterien
autonomer
Musikproduktionen
(CD-
Produktionen) mit einbezogen.
Die geführten persönlichen Gespräche, Telefonate und eMails, die als Quellen
herangezogen wurden, sind im Anhang zu finden.
2
Filmmusikproduktion
A.
Filmmusikproduktion
Fast jeder Film enthält Musik. Manchmal werden bereits existierende Stücke verwendet, doch häufiger wird eine Musik neu komponiert, damit die Handlungen des Films
optimal unterstrichen und eine weitere Ebene in der Erzählstruktur hergestellt werden
kann. Es ist auch in vielen Fällen finanziell günstiger für die Produzenten, alle
relevanten Rechte und Lizenzen, die für eine kommerzielle Auswertung und Vervielfältigung des Filmes notwendig sind, bereits vertraglich mit dem Filmmusikkomponisten auszuhandeln. Die Rechteinhaber ausfindig zu machen und deren Lizenzen teuer
zu erwerben, ist oft aufwändiger, als eine komplett neue Musik zu produzieren.
Das folgende Kapitel befasst sich mit der Entwicklung und den inhaltlichen Funktionen von Filmmusik, den durch das Zielmedium auferlegten Anforderungen an die
Musikproduktion, den hierarchischen Strukturen während des Produktionsprozesses
anhand einer orchestralen Filmmusikproduktion sowie die praktische Umsetzung
dieser.
1 Zum Wesen der Filmmusik
Um einen Film herzustellen, müssen zahlreiche Gewerke zusammenarbeiten.
Verschiedene Künste, die überwiegend älter sind als das Medium Film, verbinden sich
zu einem Gesamtkunstwerk. Schauspiel und Regie wirkten bereits im Theater, Maler
studierten in ihren Arbeiten Bildgestaltung und die Wirkung des Lichts, Autoren,
Architekten und Schneider schufen Geschichten, Gebäude und Gewänder. All diese
Gewerke waren vor der Herausbildung des Filmhandwerks vergleichsweise autonom
in ihrer künstlerischen Entfaltung, doch im Film arbeiten diese Künste gemeinsam
daran, eine Geschichte zu erzählen. Auch die Filmmusik stellt in diesem Gesamtkunstwerk lediglich ein einzelnes, wenn auch tragendes, Element der Erzählung dar.
1.1 Entstehungsgeschichte
Um die Bedeutung und Funktion von Filmmusik zu verstehen, müssen einige
Zusammenhänge in der Entwicklung und Entstehung beleuchtet werden. In den
folgenden Abschnitten werden die wichtigsten geschichtlichen Gegebenheiten
aufgezeigt.
3
Filmmusikproduktion
1.1.1 Musik vor dem 20. Jahrhundert
Musik ist bereits seit der Antike ein das Schauspiel begleitendes Element. Der
griechische Chor beispielsweise fungierte als allwissender Erzähler und drückte die
Gefühle der Hauptfiguren aus, die diese nicht selbst aussprechen konnten.
Bis ins späte 18. Jahrhundert wurde noch keine Spartentrennung zwischen Sprechtheater, Oper und Konzert vorgenommen, sondern es gab gleitende Übergänge1. In
Goethes Faust I sollten etwa 40-50% der Aufführungsdauer musikalisch untermalt
werden, während Faust II sogar als Oper im Stile Mozarts angedacht war2. Die Gründe
hierfür liegen darin, dass Emotionen über Musik ebenso gut dargestellt werden
konnten, wie mit dem gesprochenen Wort. Besonders die Darstellung übernatürlicher
Schauplätze und Figuren schienen ohne musikalische Untermalung unmöglich. Im
Theater wurde Bühnenmusik auf oder hinter der Bühne zur Vermittlung der Stimmung oder den auf der Bühne dargestellten Handlungen gespielt.
Im 19. Jahrhundert gewann die Sinfonische Dichtung an Bedeutung. Dabei wurden
Landschaften (Sibelius „Finlandia“, Strauss „Alpensinfonie“), Gemälde (Rachmaninov
„Die Toteninsel“, Mussorgski „Bilder einer Ausstellung“) oder literarische Vorlagen (Liszt
„Dante-Sinfonie“) mit musikalischen Mitteln beschrieben. Bei dieser Form der Programmmusik richtete sich die musikalische Form nach dem inhaltlichen Thema der
Vorlage. Die musikalische Nachempfindung, wie sie in der Filmmusik üblich ist, war
bereits bekannt.
1.1.2 Filmmusik zur Stummfilmzeit
Die ersten Filme wurden auf Jahrmärkten vorgeführt. Deshalb zielte die musikalische
Untermalung auf eine „möglichst wirkungsvolle“ Darbietung für das Publikum.
Etablierte Assoziationen, wie „zärtliche Geigen [...] für die ewigen Sehnsüchte der Liebe, das
Schmettern der Trompeten [für] Glanz und Festlichkeit, und das dunkle Tremolo der Kontrabässe [bei] drohender Gefahr“ wurden wie aus autonomen Musikwerken bekannt bei der
Präsentation von Filmen genutzt3.
1
2
3
Karl-Heinz Göttert, „Der Ton vor dem Tonfilm“ [SO05]
Hans-Peter Bayersdörfer, „Stimmen – Klänge – Töne“ [SKT02]
Peter Rabenalt, „Dramaturgie der Filmmusik“, Seite 8 [DF86]
4
Filmmusikproduktion
Ein weiterer Grund für die musikalische Untermalung während der Filmvorführungen
war, dass das laute Rattern des Projektors übertönt werden sollte. Der abgedunkelte
Raum und die „geisterhaften Schatten“, wie Adorno die Darsteller auf der Leinwand
beschrieb, die keine Geräusche von sich gaben, mussten eine unheimliche Wirkung auf
das unerfahrene Publikum gehabt haben. Durch die Verwendung von Musik sollte
eine freundlichere Atmosphäre und ein lebensnaher Eindruck erweckt werden.
Zunächst gab es keine musikalischen Verbindlichkeiten, Vorgaben oder Beschränkungen seitens der Filmindustrie. Über die Auswahl der Musik entschieden meist die
Spielstätten, wodurch die Publikumsrezeption je nach Spielort variieren konnte1.
Zunächst wurden Werke der romantischen Sinfonik gespielt, da dies die aktuelle
Musik während der Jahrhundertwende war. Später wurden Kinotheken in Umlauf
gebracht. Das waren Karteikarten mit Musikstücken, die zu der jeweiligen Stimmung
oder Emotion vom Kinopianisten oder –orchester gespielt werden konnten. Dabei hing
die Qualität der Interpretation von den Musikern ab. In ländlichen Gegenden waren es
meist Kirchenmusiker oder klavierspielende Lehrer, die bei der Filmbegleitung ihr
hauptberufliches Repertoire nutzten, auch wenn diese nicht den Erfordernissen der
Szenen entsprachen. In Kracauers Buch „Theorie des Films“2 beschreibt er einen
Kinopianisten, der meist unter Alkoholeinfluss stand.
„Manchmal – vielleicht unter dem Einfluß eines leichteren Rausches – improvisierte er
frei, als hätte er das Bedürfnis, die vagen Erinnerungen und stets wechselnden Stimmungen auszudrücken, die der Alkohol in ihm hervorrief; bei anderen Gelegenheiten befand er sich in einem solchen Zustand der Betäubung, daß er ein paar beliebte Schlager
wieder und wieder spielte [...]. So war es keineswegs ungewöhnlich, daß etwa in einem
Film, den ich gerade sah, fröhliche Melodien in dem Augenblick ertönten, als der empörte Graf seine treulose Frau aus dem Haus warf, und daß ein Trauermarsch die blaugefärbte Szene ihrer schließlichen Versöhnung untermalte. Dieser Mangel jeglicher Beziehung zwischen den musikalischen Themen und der Handlung die sie unterstützen sollten, war mein ganzes Entzücken, denn er ließ mich die Filmhandlung in einem neuen,
unerwarteten Licht sehen [...]“.
Dieser Zufall beschreibt anschaulich die Unterscheidung zwischen paraphrasierender
und kontrapunktierender Musik.
1
2
Manuel Gervin und Matthias Bückle, „Lexikon der Filmmusik“ [LXF12]
Siegfried Kracauer, „Theorie des Films“, Seite 190 [TF64]
5
Filmmusikproduktion
Eine weitere Quelle1 zeugt von einer Weise der musikalischen Untermalung, die dem
heutigen Underscoring nicht unähnlich ist:
Ein viertelstündiger Film wurde von dem Orchester eines Berliner Lichtspieltheaters
vor kurzem durch nichts anderes begleitet, als durch drei einfache Akkorde, die bloß je
nach dem Gange der Handlung anschwellten oder wieder nachließen, drei einfache Akkorde ein und derselben Tonleiter. Die Zuschauer waren vollauf zufrieden, sie merkten
gar nicht, welche musikalische Wassersuppe ihnen eben vorgesetzt wurde, und sie taten, was im Kino eigentlich noch nicht gebräuchlich ist, sie applaudierten der Musik.“
1909 begann die Filmindustrie musikalische Richtlinien und Empfehlungen in
tabellarischer Form den Filmrollen beizulegen. Diese informierten darüber, in welcher
Szene das Stück welches Komponisten, mit Titel und Opuszahl, zu spielen sei. Die
Noten selbst lagen jedoch nicht bei. Deshalb überwogen Klavier-, Salon- und Konzertmusiken, da der Besitz der entsprechenden Noten bei den meisten Musikern vorausgesetzt werden konnte [LXF12].
1.1.3 Filmmusik ab 1927
Mit der Einführung des Tonfilms verschwanden die Kinoorchester, da die Kinobetreiber lieber in eine Umrüstung ihrer Säle investierten, als weiterhin die laufenden Kosten
der vielen Musiker zu tragen [LXF12].
Anfangs gab es große Schwierigkeiten bei der Synchronisation von Bild und Ton. Diese
war erst mit dem Lichtton- und Magnettonverfahren möglich. Doch der frühe Tonfilm
brachte noch weitere Probleme mit sich. Die Filmemacher befürchteten, dass das
Publikum die Musik nur dann annehmen würde, wenn auch Musiker zu sehen waren.
Musik ohne eine visuelle Bestätigung wurde als Irritation für den Zuschauer eingeschätzt. Deshalb wurde zunächst mindestens ein einzelner Geiger im Bild gezeigt,
wenn ein musikalischer Einsatz erfolgen sollte.
„Es ging darum, den Zuschauer nicht zu verwirren, seine Aufmerksamkeit nicht dadurch abzulenken, dass er sich bemühte herauszubekommen, wo die Quelle der Musik
[...] liegt und mit welchem Recht sie erklingt ...“2
1
2
Zitiert aus Film-Ton-Kunst, 6. Jahrgang, Nr. 3, 1923, Seite 32 nach: „Stummfilmmusik gestern und heute“, Seite 12 aus
dem Buch von Peter Rabenalt, „Dramaturgie der Filmmusik“, aus „Theorie und Praxis des Films ; 3/1986“ [DF86]
Alicja Helman, „Probleme der Musik im Film“, Seite 101 [FM65]
6
Filmmusikproduktion
Aus technischen Gründen war die Aufnahme von symphonischen Orchestern kaum zu
bewältigen, so dass zunächst kleinere, akustisch präsentere Besetzungen wie Blaskapellen oder Jazzensembles
bevorzugt wurden. Teilweise
wurde an der Entwicklung
von
Mikrofoninstrumenten,
wie der Strohgeige, gearbeitet1. Diese
wurden jedoch
schon bald eingestellt, da die
Entwicklung der AufnahmeAbb. 1 Foto einer Strohgeige
technik schneller voranging.
Die Schwingungen der Saite wurden mit einem Hebel auf
eine Membran übertragen, welche über den Metalltrichter
Luftschwingungen an die Umgebung abgab.
Urheber: Christophe Monié
Mit der Machtübernahme der Nationalsozialisten erfuhr Hollywood einen regen
Zustrom von europäischen, romantisch geprägten Komponisten, und die verbesserte
Tontechnik machte den Weg für orchestrale Filmmusik gangbar.
Auch der jüdische Komponist Erich Korngold emigrierte 1934 von Wien nach
Hollywood und war stark an der Entwicklung von Regelungen bei der Filmmusikproduktion beteiligt. Er nutzte Wagners Leitmotivtechniken, um nun Personen statt
Situationen zu charakterisieren und schaffte es, anstelle einer illustrativen eine
affirmative Musik zu komponieren2. Er verstärkte das Bewusstsein für dramaturgische
Funktionen der Musik im Film. Um Dialoge und Melodien zeitlich aufeinander
abzustimmen, griff er sogar in die Regie ein. Während der Dreharbeiten spielte er seine
Musik am Klavier ein, damit die Schauspieler auf sie reagieren konnten. Zudem
achtete er bei der Instrumentierung darauf, dass die Tonhöhen der Sprechstimmen
ausgespart wurden. Sollte am Ende die Musik nicht in einer adäquaten Lautstärke
erklingen, ließ er sie lieber weg.
In der Zeit zwischen „The Jazz Singer“ (1927) und „Singing in the rain“ (1952) hatte
sich die Filmindustrie häufig auf Stoffe konzentriert, die Geschichten von Musikern
erzählten3. Die Produktion von Musikfilmen war sicher ein Grund dafür, dass sich der
Filmmusikstil stark am Musical, der Operette und der Revue orientierte und musikalisch wenig weiter entwickelte.
1
2
3
Wolfgang Thiel, „Filmmusik in Geschichte und Gegenwart“, Seite 148 [FG81]
Für eine eingehende Auseinandersetzung über das Schaffen Korngolds verweise ich auf die Diplomarbeit von
Wiebke Maderlechner „Von Richard Strauss zu Errol Flynn“ [DAWM]
Peter Rabenalt, „Die auditiven Gestaltungsmittel in der Film- und Fernsehkunst“, Seite 44 [AG82]
7
Filmmusikproduktion
Als in den 50er Jahren die amerikanische Filmwirtschaft unter der Verbreitung des
Fernsehens litt, wurde versucht, das Publikum mit neuer Musik, also Jazz-, Beat- oder
Popmusik, wieder in die Kinos zu locken. Zu dieser Zeit etablierte sich auch der
Einsatz von Titelmelodien, deren Vermarktung auf Tonträgern bis heute einen neuen
Markt erschloss. Das nun überwiegend jugendliche Kinopublikum identifizierte sich in
den 60er und 70er Jahren mit der Rock- und Beatmusik1, auch weil sie das Sinnbild des
Lebensgefühls einer Generation darstellte [DF86, S. 73].
John Williams erneuerte mit seiner Komposition für den Film „Star Wars“ die
Bedeutung des symphonischen Orchesters in der Filmmusik. Heute verbinden
Komponisten wie Hans Zimmer, David Arnold oder Howard Shore den klassischen
Orchestersound mit elektronischen Instrumenten, Synthesizern und ethnischem
Schlagwerk.
1.1.4 Bildsynchrone Musikproduktion ab 1930
Anfang der 30er Jahre entwickelte sich die Notwendigkeit bei Cartoon-Produktionen,
die Synchronität von Bild und Musik genauestens einzuhalten. Die Komponisten der
MGM- und Disney-Studios Scott Bradley und Carl Stalling führten das ClicktrackVerfahren ein. Max Steiner übernahm dieses Verfahren 1935 erstmals bei der Produktion des Spielfilms „The Informer“ [LXF12].
In das Magnetband oder in den Magnettonstreifen des Films wurden Löcher gestanzt,
um einen hörbaren Click zu erzeugen. Wann immer ein auf diese Weise beschädigtes
Band am Wiedergabekopf des Magnetbandgerätes entlanggeführt wurde, entstand ein
impulshaftes, breitbandiges Geräusch, welches den Musikern wie ein Metronom bei
der Orientierung zum Tempo diente.
In sogenannten Clickbooks wurde tabellarisch festgehalten, nach wie vielen Perforationslöchern ein Loch gestanzt werden musste, um ein bestimmtes Tempo zu erzeugen2.
Bis der Einsatz computerbasierter Aufnahmeverfahren etabliert war, wurden die
Tabellen intensiv genutzt.
Eine andere Variante um einen Clicktrack zu erstellen, war die Aufnahme eines
Schlagzeugers, der den Click mit seinen Drumsticks erzeugte. Diesem wurde das
Tempo vom Komponisten vordirigiert, welcher dabei die Einhaltung seiner notierten
Synchronpunkte mit einer Stoppuhr überprüfte3.
1
2
3
Der beispiellose Erfolg der Beatles spielt laut Rabenalt mit eine Rolle bei der gesteigerten Verwendung von
Beatmusik in Filmen ab 1960.
Norbert Jürgen Schneider, „Komponieren für Film und Fernsehen“, Seite 160 [KF97]
persönliches Gespräch mit Bernd Wefelmeyer [GBWe]
8
Filmmusikproduktion
Zu dieser Zeit entwickelte sich auch eine Methode, das Tempo anhand eines optischen
Clicks zu halten. Alfred Newman erfand in den 1930ern das System mit Punches und
Streamers, weshalb es auch als Newman-System bekannt wurde. Mit einem Bleistift
wurden Löcher in den Film gestanzt, die bei der Projektion als weiße Lichtblitze
sichtbar wurden. Um einen Streamer zu erzeugen, wurden 48 Bilder (was einer Dauer
von zwei Sekunden entspricht) vor dem Synchronpunkt mit einer Emulsion behandelt,
die eine lange, diagonal verlaufende Linie erzeugte. Dadurch sah es im laufenden
Betrieb so aus, als würde sich eine weiße Linie von links nach rechts über das Bild
bewegen.
Abb. 2 Darstellung eines Streamers auf einem Filmstreifen
Es wurden seit Beginn des Tonfilms verschiedene Verfahren entwickelt, um Musik
synchron zum Bild aufzunehmen.
1.2 Dramaturgische Funktionen der Filmmusik
Filmmusik ist eine Gebrauchsmusik, die sich in ihrer Bedeutung nicht auf sich selbst
beschränken kann. Oder anders ausgedrückt:
„Das ständige Vorhandensein eines visuellen Korrelativs und der Kontext von Vorgängen und Handlungen, Dialogen und Situationen grenzt den Assoziationsspielraum für
die Realisierung der musikalischen Inhalte im Unterschied zur autonomen Musikrezeption ein. Daher kann der Inhalt der Filmmusik nicht allein aus ihrer Gestaltqualität
heraus bestimmt werden, sondern aus ihrem Zusammentreffen mit den beigeordneten
komplexen audiovisuellen Erlebnisformen. Filmmusik ist somit ein Genre der angewanden Musik die auf einen außer ihr liegenden Zweck gerichtet ist.“ [AG82, S. 40].
Daher sind musikalische, qualitative und formale Parameter in der Musik nur in
Verbindung mit dem Bild von Bedeutung.
In der Abhandlung von Alicja Helman über die „Hauptrichtungen der Musikentwicklung
im modernen Film“ steht:
„Die Praxis des modernen Films führt dazu, dass die wesentlichen Funktionen der Musik nicht so sehr von ihrem selbstständigen Wert abhängen als vielmehr von der Situation, in die sie einbezogen ist, denn sie unterstreicht die Bedeutung, die die einzelnen
Teile des Werkes dem Ganzen gegenüber zu erfüllen haben.“ [FM65, S 116].
9
Filmmusikproduktion
Peter Rabenalt sagt, der Wert einer Filmmusik darf „hauptsächlich in ihrer dramaturgischen Funktion gesucht werden“[DF86, S. 22].
Zum einen soll sich die Musik an den „Urimpuls des Films“1 anlehnen und die Empfindungen der Figuren auf passende Weise unterstreichen. Andererseits benötigt die
Musik zeitliche Strukturen, um eine inhaltliche Form zu erhalten.
Filmmusik wird in der Regel in Verbindung mit dem Bild betrachtet, so dass der
Komponist davon befreit ist, den Aufbau seines Werkes erklären zu müssen2. Vielmehr
ist es seine Aufgabe, Empfindungen der Figuren und Handlungsverläufe zu unterstützen, damit der Zuschauer diese besser versteht. Musik artikuliert sich nicht in kurzen
Silben, sondern über Melodiebögen und kann daher über einen größeren Zeitraum
verstanden werden.
Musik kann dem Publikum den Zugang zum Film erleichtern, indem sie eine Kollektivierung, die Erzeugung eines „Wir“-Gefühls anregt. Um dieses zu erreichen, muss der
Komponist „eine gemeinsame Sprache“ mit dem Zuschauer nutzen, d.h. dass er keine zu
umfangreiche musikalische Vorbildung abverlangen sollte [GBWe]. Diese erzwungene
„Einfachheit“ wird schon von Wolfgang Thiel sehr kritisch betrachtet. Er schreibt:
„[...] Regisseure [...] fordern vom Komponisten oft die gelungene Quadratur des Kreises, nämlich eine Musik, die gleicherweise experimentell und populär, modern und eingängig sei.“ [FG81, S. 10].
Zahlreiche Musikwissenschaftler (H. J. Pauli, Z. Lissa, C. Bullerjahn) und Komponisten
(H. Eisler, N. J. Schneider) haben sich intensiv mit Filmmusik und ihren möglichen
Funktionen auseinandergesetzt. Verschiedene Systematisierungsversuche wurden
angestellt und teilweise wieder verworfen, weil sie nicht alle Aspekte der musikalischen Aussagekraft objektiv darstellen konnten.
Das am meisten verwendete, jedoch wieder zurückgezogene Modell der drei Formen
von Filmmusik3, unterscheidet zwischen einer paraphrasierenden, einer polarisierenden und einer kontrapunktierenden musikalischen Wirkung, d.h. dass sich die Musik
entweder aus der Szene ableitet, sie Bildern ohne eindeutige Aussage eine spezifische
Bedeutung aufsetzt oder einen Widerspruch zur filmischen Darstellung einbringt4.
1
2
3
4
persönliches Gespräch mit Martin Steyer [GMSt]
persönliches Gespräch mit Bernd Wefelmeyer, [GBWe]
Modell des Schweizer Musikwissenschaftlers Hansjörg Pauli, 1976 veröffentlicht und 1994 zurück gezogen
Als Beispiel für den kontrapunktischen Einsatz von Musik sei hierbei eine Szene des Dokumentarfilms „Bowling for
Columbine“ von Michael Moore genannt. Während der Song „What a wonderful world“ gesungen von Louis
Armstrong erklingt, zeigt Moore grausame Bilder des Krieges. Gleichzeitig wirkt die Musik gerade durch ihren
kontrapunktischen Einsatz polarisierend.
10
Filmmusikproduktion
Einige gemeinsame Ansichten, wie die Unterscheidung zwischen einer diegetischen
und einer non-diegetischen Musik, konnten sich aber halten. Dabei wird unterschieden, ob die Komposition zur Realität der erzählten Welt gehört, wie die Musik aus
einem spielenden Radio, oder nicht. Rabenalt spricht von zwei auditiven Schichten
[DF86, S. 42], wobei sich die erste auditive Schicht im Handlungsraum befindet
(Dialog, Atmos, Foleys, Radiomusik) und die zweite auditive Schicht für innere
Monologe und funktionale Musik vorhergesehen ist. Auch die Bezeichnung einer
extradiegetischen und einer intradiegetischen Schicht ist gebräuchlich.
Nicht selten werden musikalische Repetitionen, Ostinato, oder Sequenzfiguren
genutzt, um die Dauer einer Szene überbrücken zu können. Gerade dieser Technik
wird eine unnütze Redundanz, eine „Patternwirtschaft“ 1 vorgeworfen. Der Komponist
Enjott Schneider erklärt in seinem Buch „Komponieren für Film und Fernsehen“ sehr
bildhaft, weshalb er diesen Vorwurf nicht nachvollziehen kann. Er veranlasst den
Leser, sich eine Pappel-Allee vorzustellen, die aus nur einem einzigen Baum besteht.
Da weitere Bäume keine zusätzlichen Informationen brächten, könne man sich diese ja
dazu denken [KF97, S. 146]. Repetitionen sind wichtig und vermitteln das Gefühl einer
körperlichen Lebendigkeit. Von „blutleeren“ Analysen hält Schneider wenig und
verweist auf repetitive Elemente in Werken von Bach (C-Dur-Präludium), Ravel
(Boléro) und Beethoven (5. Symphonie).
Bild und Musik „potenzieren gegenseitig ihre Wirkung“ 2. Der Bild-Ton-Beziehung wird
heute eine große Bedeutung zugesprochen. Aus der Wahrnehmungspsychologie ist
bekannt, dass es im Gehirn zu einer besonderen Verknüpfung akustischer und
visueller Elemente kommt. EEG-Untersuchungen unterstützen die Behauptung, dass
multimodale Integrationen sogar überadditive neuronale Reaktionen hervorrufen
können3. Dies bedeutet, dass zeitgleiche akustische und visuelle Informationen eine
höhere Wirkung beim Zuschauer bewirken, als sie es separat könnten.
Bild und Ton im Film sind fragmentarische Informationen und werden als Einheit
wahrgenommen. Kausale Sinnzusammenhänge werden nur dann als real akzeptiert,
wenn sie eigenen Erfahrungen aus dem individuellen, täglichen Leben nicht widersprechen.
Außerdem beeinflussen Tempo und Rhythmus unweigerlich den Organismus.
Herzschlag und Atemfrequenz passen sich an das Tempo an, was sogar zur Änderung
des Blutdrucks und der Muskelspannung führen kann [KF97, S. 47]. Die Musik von
1
2
3
Zitat Armin Pommeranz
Enjott Schneider, „Komponieren für Film und Fernsehen“, Seite 8 [KF97]
Siehe Steffen Lepa und Christian Floto „Audio-Vision als Konstruktion“, Seite 350 aus Harro Segeberg, „Sound. Zur
Technologie und Ästhetik des Akustischen in den Medien“ [SO05]
11
Filmmusikproduktion
Hans Zimmer (z.B. in den Filmen „Inception“, „Sherlock Holmes“ und „Batman – The
Dark Knight Rises“) erzeugt mit ihren treibenden Rhythmen über die Länge des Films
ein vom Komponisten beabsichtigtes unterschwelliges Gefühl der Spannung. Das
Publikum soll permanent in die Welt des Films hineingezogen werden1.
Underscoring ist eine Kompositionstechnik, die sich dieser Eigenschaften bedient und
akustisch eine emotionale Verstärkung beim Publikum erzeugt, indem sie paraphrasierend Bewegungen und Begebenheiten im Film illustriert. In zahlreichen Horrorfilmen
wurde diese Technik angewendet. Ein passendes Beispiel stellt die Musik von Jerry
Goldsmith für „The Omen“ dar.
Über Filmmusik lassen sich soziale Milieus sowie zeitliche Epochen klar darstellen und
etablieren, wobei auch hier wieder ein gewisses Maß an Erfahrung an das Publikum
gestellt wird.
Leitmotivisch lassen sich Personen charakterisieren, so hat beispielsweise Max Steiner
in „Vom Winde verweht“ für jede Hauptfigur ein Thema komponiert, welches er immer
dann nutzte, wenn die jeweilige Person auftrat, an sie erinnert wurde oder eine andere
gedankliche Assoziation hervorgerufen werden sollte [DF86, S. 84].
Der Komponist kann mit seiner Arbeit Bildschnitte verdecken oder akzentuieren.
Gleichzeitig kann er die Wahrnehmung des Zuschauers beeinflussen, indem er
filmische Zeit verkürzt oder verlängert.
Durch die verschiedenen Herangehensweisen und Techniken bei der Filmmusikkomposition kann bei Filmen eine besondere Verknüpfung zwischen Bild, Handlung und
Musik entstehen.
2 Vorgaben durch das Zielmedium
Die Auswahl des Zielmediums wirkt sich auf die gesamte Struktur einer Musikproduktion aus. Filmmusikproduktionen sind in erster Linie, abgesehen von Stereoproduktionen für das Fernsehen, auf die Wiedergabe in 5.1 im Kino ausgelegt. Allerdings
stellt der nachfolgende Vertrieb der Musik auf einer stereofonen Soundtrack-CD und
vor allem der Verkauf der DVD oder Blu-ray Discs einen wichtigen Teil der Einnahmen dar. Daher müssen die Aufnahmen bereits so angelegt sein, dass sowohl eine
Mischung im Kino als auch eine klanglich kompaktere Version für die Konsumenten
zuhause erstellt werden kann.
1
Quelle: Soundworks Collection zu „The Dark Knight Rises“ http://soundworkscollection.com/darkknightrises
[WWW06]
12
Filmmusikproduktion
Abb. 3 Vom Konsumenten tolerierter Dynamikumfang in verschiedenen Wiedergabeumgebungen nach Bob Katz
Mit der Festlegung des Zielformats entscheidet sich unter anderem die Art des
verwendeten zwei- oder dreikanaligen Hauptmikrofonsystems. Außerdem wird der
Einsatz von Raummikrofonen durch die Anzahl der im Zielformat vorhandenen
Surround-Kanäle entscheidend beeinflusst. Ist beispielsweise eine Mischung in 7.1
geplant, können schon bei der Aufnahme durch das Aufstellen mehrerer Raummikrofone Signale für die vier Surround-Kanäle generiert werden. Die hauptsächlich
vorherrschenden Wiedergabesituationen werden nun kurz beleuchtet.
2.1 Wiedergabe im Kino
Die meisten Kinos ermöglichen dem Publikum eine Filmvorführung, die weitgehend
den Vorstellungen der Filmschaffenden entspricht. Obwohl das Dolby DigitalVerfahren eine Systemdynamik von über 90dB1 gestatten würde, umfasst die übliche
Programmdynamik im Kino, aufgrund des durch das Publikum verursachten
Grundgeräusches, etwa 62dB2. Damit bietet die Audiowiedergabe im Kino den
größtmöglichen Dynamikumfang für Filme.
1
2
http://www.akustische-medien.de/texte/zmm_tontechnik98.htm [WWW04]
Bob Katz „Mastering Audio“, S. 173 [MA07]
13
Filmmusikproduktion
Der Frequenzgang des Wiedergabesystems im jeweiligen Kinosaal wird gemessen und
an die sogenannte X-Kurve angepasst. Diese besagt, dass Frequenzen unterhalb 60Hz
bis zu 5dB bei 20Hz und oberhalb 2kHz mit 3dB pro Oktave abfallen müssen. Die XKurve wurde aufgrund der in Hörtests ermittelten Empfindung des Menschen, die
einen linearen Frequenzgang in großen Sälen als höhenlastig beschreibt, entwickelt. Je
nach Größe des Kinosaals werden modifizierte X-Kurven empfohlen1. In THX
zertifizierten Kinosälen wird aufgrund der Spezifikationen eine ähnliche Anpassung
des Frequenzgangs vorgenommen.
Die Beschallungsanlage in Kinos mit Dolby Digital 5.1 Tonsystem ist so aufgebaut,
dass das Publikum über drei Frontlautsprecher (Links, Center, Rechts), einen Subwoofer (für LFE2) und zwei Reihen seitlicher und rückseitiger Surround-Lautsprecher (für
den linken und rechten Surround-Kanal) beschallt wird. Zur gleichmäßigen Beschallung größerer Säle werden in der Regel Hornlautsprecher genutzt. Aufgrund ihrer
Bauweise entstehen Resonanzen der Luftsäule im Trichter, deren Rückwirkung auf das
Antriebssystem zu einem hohen Klirrfaktor führt3. Die Bauweise ist auch ein Grund für
den typischen Kinoklang, welcher mit einer Anhebung der Frequenzen bei ca. 3kHz
einhergeht4.
Für die Wiedergabe der Surround-Kanäle werden mehrere Lautsprecher zusammengefasst und geben das gleiche Surround-Signal wieder. Die gleichzeitige Wiedergabe
dieser erzeugt eine ungenauere Abbildung, als sie mit diskret angesteuerten Lautsprechern realisiert werden könnte. Außerdem sind die anzutreffenden SurroundLautsprecher in vielen Kinos nicht in der Lage, das gesamte Frequenzspektrum
wiederzugeben, da Dolby Stereo lediglich einen linearen Frequenzgang der Lautsprecher in ihrem Wiedergabebereich erfordert, nicht aber einen Frequenzumfang von
20Hz bis 20kHz, welchen das in der Regel verwendete Dolby Digital-Tonsystem bieten
könnte. Die Verwendung eines bandbegrenzten Surround-Kanals hing mit der
besseren Kanaltrennung im früher verwendeten Dolby Stereo-Verfahren zusammen5.
Zusätzlich erfolgt im Kino eine Absenkung des Pegels der Surround-Lautsprecher um
3dB, damit „beide Surround-Kanäle zusammen die gleiche Energie abstrahlen wie ein
Hauptkanal“ [AE07, S.767].
Die besondere Wiedergabesituation in den Kinos muss bei der Erstellung der 5.1 oder
Mehrkanalmischung berücksichtigt werden.
1
2
3
4
5
Andreas Friesecke „Die Audio-Enzyklopädie“ Seite 106 [AE07]
LFE: Low Frequency Effect; tieffrequente Signalanteile, die meist bei Soundeffekten genutzt werden
Wolfgang Ahnert und Frank Steffen „Beschallungstechnik“ Seite 112 [BT93]
siehe Datenblatt des JBL Lautsprechers 5672 http://www.audiopro.de/live/jbl_40768_DEU_AP.html [WWW18]
Die Bandbegrenzung der Surround-Lautsprecher im Dolby Stereo Tonsystem beläuft sich auf 150Hz – 7kHz, Michael
Dickreiter, „Handbuch der Tonstudiotechnik“, Seite 897, [HT08]
14
Filmmusikproduktion
Weitere mögliche Wiedergabesysteme im Kino sind DTS und SDDS. Zu den neueren
Kinotonformaten gehören Dolby Surround 7.1, mit einer zusätzlichen Aufteilung der
äußeren und inneren Surround-Kanäle, oder Dolby Atmos1, welches unter anderem
über einen Kinoprozessor die in den Metadaten des DCP2 gespeicherten Toninformationen an das jeweilig eingebaute Wiedergabesystem anpasst. Dolby Atmos erfordert für
die Wiedergabe der Surround-Signale ebenfalls Lautsprecher mit vollem Frequenzumfang sowie zusätzliche Subwoofer für den hinteren Bereich. Die SurroundLautsprecher können einzeln angesteuert werden. Eine weitere Neuerung stellt die
Verwendung von Deckenlautsprechern dar. Wie viele Kinobetreiber jedoch die
Investitionen für eine Umstellung ihrer Tonanlage aufbringen werden, bleibt abzuwarten.
Die technischen Parameter der Audiofiles bei Filmproduktionen sind eine Abtastrate
von 48kHz und eine Auflösung von 24Bit in Pulse Code Modulation (PCM) mit einer
Datenrate von 6912kbit/s für sechs Kanäle. Im Kino erfolgt die Wiedergabe bei Dolby
Digital jedoch datenkomprimiert mit einer Datenrate von 320kbit/s.
2.2 Veränderte Anforderungen an die Heimwiedergabe
Einen großen Teil der Einnahmen bei Filmproduktionen erfolgt über den DVD bzw.
Blu-ray Disc-Vertrieb für die Heimwiedergabe. Die wesentlichen akustischen Unterschiede, zwischen der Betrachtung eines Films im Kino oder zu Hause, resultieren aus
dem Wiedergaberaum und dem Wiedergabesystem. Die Programmdynamik in
Wohnungen umfasst etwa 35dB [MA07], da über benachbarte Räume Störgeräusche
einwirken und die Wahrnehmung leiser Signale erschweren können. Gleichzeitig
sollen benachbarte Räume nicht mit zu hohen Pegeln beschallt werden.
In der Regel werden Filme stereofon wiedergegeben, da nur wenige Haushalte über
ein 5.1 Soundsystem verfügen. Im Fall einer stereofonen Wiedergabe einer mehrkanaligen Mischung erfolgt im DVD-Player automatisch ein Downmix3, welcher über die
beiden eingebauten Lautsprecher des Fernsehers ausgegeben wird. Das Datenformat
für Ton auf DVDs ist das datenreduzierte AC3, welches zusätzlich Metadaten für die
Wiedergabe enthält. Diese beinhalten Angaben darüber, wie die Surround-Kanäle,
Center und LFE den Wiedergabelautsprechern zugemischt werden sollen. Die gesamte
1
2
3
Im DCP für Dolby Atmos werden zusätzliche Metadaten sogenannter Beds und Objects hinterlegt, die Auskunft
darüber geben, ob ein Signal einem bestimmten Kanal (z.B.: Dialog für den Center-Lautsprecher - Bed) oder eine
räumliche Position zugewiesen wurde (z.B.: Bewegung eines Signals aus dem mittleren Surround über rechts in die
Front - Object), die vom Dolby Prozessor an das jeweilig eingebaute Tonsystem skaliert werden muss.
http://investor.dolby.com/releasedetail.cfm?ReleaseID=666401 [WWW03]
DCP: Digital Cinema Package; Distributionsformat für digitales Kino
falls keine dezidierte Stereoversion auf der DVD vorliegt.
15
Filmmusikproduktion
Dynamik wird ober- und unterhalb einer gewählten Dialoglautstärke, des „DialNorm“ 1 Levels, eingeschränkt. Dies geschieht durch eine Kompression und Limitierung der Audiosignale über die sogenannte Dynamic Range Control (DRC). Bei
plötzlichen Pegelsprüngen können in Folge dieser Regelvorgänge Artefakte auftreten.
Der Downmix entspricht somit nicht der Originalmischung, sondern wird automatisiert an die Wiedergabesituation zu Hause angepasst. Selten werden zusätzliche
Stereomischungen für die DVD erstellt. Für die Übertragung der Tonsignale bei AC3
wird eine Datenrate von 384 bis 448kbit/s verwendet.
Ein großer Unsicherheitsfaktor stellt die Auswahl und Aufstellung der Lautsprecher,
stereofon oder 5.1, bei den Konsumenten zu Hause dar. Es kann weder davon
ausgegangen werden, dass die Lautsprecher anhand der entsprechenden Normen
aufgestellt wurden, noch dass sie einen linearen Frequenzgang aufweisen.
2.3 Filmmusik auf Soundtrack-CD
Der Verkauf von Musiken aus aktuellen Filmen etablierte sich in den 1950er Jahren
(siehe A 1.1.3 [DF86, S. 73]). Bis heute setzen die Produktionsfirmen den Vertrieb der
Soundtrack-CD fort. Als Soundtrack wird eigentlich die Tonspur auf dem Filmstreifen
bezeichnet, welche die gesamte Mischung, also auch Dialog und Effekte beinhaltet.
Auf der käuflichen Soundtrack-CD finden sich jedoch nur die Songs und der Score, die
im Film verwendet wurden. Bei diesem Zielmedium ändert sich allerdings nicht nur
die wiedergabeseitige Programmdynamik, sondern auch das Motiv der Rezeption.
Während die Musik im Film Handlungen, Wendungen und Charakterzüge unterstreicht und als Teil des Gesamtwerkes nicht fortwährend im Vordergrund stehen und
zusammen mit Dialog und Effekten eine Einheit bilden muss, steht sie auf der
Soundtrack-CD frei. Die Mischung auf dem Tonträger wird in der Regel aus den
während der Musikmischung erstellten Stems angefertigt. Musikalische Aspekte, wie
die Balance von rhythmischen, melodiösen oder solistischen Passagen werden ohne
visuelle Komponente anders betrachtet. Häufig wird der Musikmischung für die
Soundtrack-CD eine stärkere Ausprägung des Raumeindrucks und mehr Brillanz
durch Anhebung der höheren Frequenzen hinzugefügt2.
1
2
der DialNorm Wert wird in die Metadaten der AC3 editiert
persönliches Gespräch mit Michael Schubert, [GMSc]
16
Filmmusikproduktion
Die Daten auf einer Audio-CD sind grundsätzlich stereofon und müssen den Spezifikationen des Red Book1 entsprechen. Diese erfordern, dass die Musik mit einer Abtastrate
von 44,1kHz und einer Auflösung von 16Bit dargestellt wird.
3 Produktionsablauf bei der Erstellung einer orchestralen
Filmmusik
Nachdem die verschiedenen Zielmedien betrachtet wurden, sollen nun die strukturellen Zusammenhänge beleuchtet werden, die bei der Produktion einer orchestralen
Filmmusik zu beachten sind.
Abb. 4 Projektphasen einer Filmmusikproduktion
Zur Umsetzung der Filmmusikproduktion werden im Folgenden die spezifischen
Rollen und Phasen erklärt.
1
Die Spezifikationen des Red Book wurden 1980 von Sony und Philips festgelegt.
17
Filmmusikproduktion
3.1 Rollenverteilung bei der Filmmusikproduktion
Zu Beginn der Planung einer Filmmusikproduktion steht die Bildung eines Teams, um
die unterschiedlichen Aufgaben fachgerecht vorbereiten und durchführen zu können.
Abb. 5 Aufgaben von Ton und Komposition bei einer Filmmusikproduktion; Darstellung als
Matrixorganisation
Im Folgenden werden die Posten einer Filmmusikproduktion erläutert. Die unterschiedlichen Aufgaben des Tonmeisters werden dabei voneinander gelöst betrachtet,
da sie nicht zwingend von einer einzigen Person durchgeführt werden müssen,
obwohl dies bei kleineren und mittleren Produktionen häufig der Fall ist.
3.1.1 Regie
Die Hauptaufgabe der Regisseurin oder des Regisseurs ist die Interpretation des
Drehbuchs. Sie übernimmt die künstlerische Gesamtleitung der Produktion und lässt
sich bei der Umsetzung der kreativen Visionen von den jeweiligen Leitern der
Gewerke unterstützen. Sie behält den Gesamtblick über die künstlerische Gestaltung
der Produktion und muss darauf achten, dass auch die Beiträge der Mitarbeiter, wie
Schauspiel, Montage, Sounddesign und Musik, ins Gesamtkonzept passen. Schlussendlich liegt es in der Verantwortlichkeit der Regie, dass am Ende ein ästhetisch und
künstlerisch stimmiges Resultat vorliegt, welches auch einen wirtschaftlichen Erfolg
verspricht.
18
Filmmusikproduktion
3.1.2 Produktion
Bei jedem Filmprojekt gibt es eine Produktionsfirma, deren Mitarbeiter sich um die
komplette Organisation aller Produktionsschritte und aller Gewerke kümmern. Sie
sind in der Regel die Ersten an der Produktion eines Filmes beteiligten Personen,
sichern die Finanzierung und akquirieren die nötigen Fördergelder. Sie stellen
detaillierte Zeitpläne für die einzelnen Drehtage, den Schnitt, die Tonpostproduktion
samt Filmmusikaufnahme, Farbkorrektur und Mischung auf und handeln mit allen
beteiligten Schauspielern, Assistenten, Kameramännern, Lichtleuten, Kostüm- und
Maskenbildnern,
Tongestaltern,
den
Verantwortlichen
für
das
Set,
das
Script/Continuity, Catering, Besitzer von Unterkünften und Verleihern für diverse
technische Gerätschaften und Fahrzeugen und vielen weiteren Mitwirkenden Verträge
aus. Wenn ein Gewerk zusätzliche Ressourcen benötigt, müssen die Produzenten
kalkulieren, ob dafür noch genügend Budget zur Verfügung steht. Nicht selten wird
während der Dreharbeiten ein zu großer Teil des Etats ausgegeben, so dass in der
Postproduktion kein Geld mehr für unvorhergesehene Mehrkosten vorhanden ist, oder
dass an bereits geplanten Produktionsmitteln gespart werden muss.
Um alle Bereiche ausreichend zu betreuen, arbeiten oft mehrere Produzenten an einem
Projekt.
3.1.3 Komposition
Die Komponistin oder der Komponist ist die erste Person, die den nahezu fertigen Film
zu sehen bekommt und die Wirkung des Gesamtwerkes noch entscheidend verändern
kann1. Nachdem das Buch geschrieben, die Dreharbeiten abgeschlossen und in der
Regel der Bildschnitt zu großen Teilen angefertigt wurde, können durch die Wirkung
der Musik Stimmungen und Wahrnehmungen verändert werden. In Absprache mit
dem Regisseur wird ein musikalisches Konzept entwickelt, welches sich in das
dramaturgische Gesamtbild des Films einfügt. Oft werden die Layouts mit gesampelten Instrumenten vorbereitet, um allen Entscheidungsträgern bereits vor den Aufnahmen mit echten Musikern einen Eindruck von der Komposition zu vermitteln.
Sobald der Musik seitens der Produktion und Regie zugestimmt wird, beginnen die
Komponisten mit der Anfertigung der Partituren und der Einzelstimmen für jeden
Cue 2. Dabei kann es vorkommen, dass sie einen Arrangeur oder einen erfahrenen
Orchestrator einsetzen, der die Instrumentierung ihrer musikalischen Idee umsetzt.
1
2
Quelle: Zitat von James Horner im Vortrag von Dick Bernstein während der EFA 2012 an der HFF
Cue – Bezeichnung für einen Musikeinsatz im Film
19
Filmmusikproduktion
Bisweilen hat sich sogar ein kleiner Industriezweig mit Firmen herausgebildet, die für
anfallende Aufgaben, wie die Erstellung von Notenmaterial, Notensatz und Orchestration (Music Preparation), gebucht werden können.
Bei der Erstellung der Noten ist ein hohes Maß an Sorgfalt gefordert, da eventuelle
Fehler erst bei der Aufnahme auffallen. Sie sind nicht nur peinlich für die Komponisten
sondern auch zeitraubend und bergen die Gefahr, dass der organische Fluss der
Aufnahme durch den aufkommenden Stress gestört wird.
Die Komponisten sind verantwortlich für die Vorbereitung der Clicktracks und
Playbacks für jeden Cue, wofür sie die bereits erstellten Layouts nutzen können.
3.1.4 Musiker
Die Musiker, die für die Einspielung einer Filmmusik engagiert werden, müssen über
ausgesprochene Fähigkeiten im Blattspiel verfügen und sich dabei problemlos an das
Tempo des Clicktracks halten können. Viele Musiker spielen recht ungern mit
Kopfhörern, über die der Clicktrack wiedergegeben wird, denn auf diese Weise
können sie weder die Vibrationen ihres Instruments noch den Gesamtklang des
Orchesters wie gewohnt hören [KF97, S. 161]. Nur wenige Musiker können ohne
Übung auf Click spielen, deshalb werden oft spezielle Filmorchester engagiert, die
diese Produktionsweisen gewöhnt sind. Die Grundbesetzung entspricht einem
sinfonischen Orchester, bei dem je nach Bedarf Instrumentalisten weggelassen oder
hinzugefügt werden.
3.1.5 Music Editor
Die Rolle des Music Editors ist in der Regel nur bei US-amerikanischen Filmmusikproduktionen anzutreffen. Anders als vielleicht erwartet, ist er nicht nur für den Schnitt
der neu komponierten Filmmusik zuständig. Zu seinen Aufgaben gehört es, alle
musikalischen Einsätze, die im Film vorkommen könnten, zu erfassen und mit
vorläufigen Musikvorschlägen, sogenannten Temptracks, zu versehen. Diese sind bei
amerikanischen Hollywood-Produktionen meist sehr aufwändig gestaltet. Mitunter
werden für jede einzelne Kameraeinstellung passende Musiken anderer Filme
ausgesucht und zusammengefügt. Die Temptracks spielen eine wichtige Rolle, da sie
zu großen Teilen in den sogenannten Tempmixes1 verwendet werden. Diese Vorabmischungen aller Tonelemente eines Films dienen dazu, der Produktionsfirma einen
1
Dick Bernstein bei seinem Vortrag an der HFF im Rahmen der EFA 2012
20
Filmmusikproduktion
Eindruck des zu erwartenden Endergebnisses zu vermitteln. Auch wird die Probemischung für Testvorführungen mit Publikum verwendet, um Erkenntnisse über die
Wirkung des Films zu gewinnen und gegebenenfalls Änderungen vorzunehmen.
Während der Spotting Sessions mit dem Regisseur und dem Komponisten macht sich
der Music Editor ausführliche Notizen über sämtliche Einzelheiten musikalischer
Natur, die besprochen wurden. Diese Notizen fügt er seinen detaillierten Listen bei,
die alle Szenen, Bildeinstellungen und Dialoge mit genauer Angabe des Timecodes
und ihrer Länge beinhalten. Diese Listen waren früher von großer Bedeutung für den
Komponisten, da er kein Bild hatte zu dem er zuhause arbeiten konnte. Auch heute
noch sind sie von Vorteil, weil so der Music Editor auf bestimmte ihm wichtig
erscheinende Elemente im Film aufmerksam machen kann.
Die Temptracks dienen sowohl dem Regisseur als auch dem Komponisten als Vorlage,
wie bestimmte Szenen mit Musik funktionieren können. Außerdem fungiert der Music
Editor als Mittler zwischen beiden Gewerken, indem er die musikalischen Vorstellungen und Wünsche mit Hilfe ähnlicher Musik ausloten kann.
Des Weiteren ist er verantwortlich für die Erstellung funktionierender Pro ToolsSessions für die Aufnahme, die alle Clicktracks, Taktwechsel und Playbacks beinhalten.
Während der Filmmusikaufnahmen überprüft er, dass alle geplanten Dopplungen und
Overdubs aufgenommen werden und kein Cue übersehen wird. In extra dafür
erstellten Tabellen wird vermerkt, welche Passagen mit welchen Sections bereits
aufgenommen wurden.
Nach den Aufnahmen schneidet er die guten Takes aneinander, tauscht vereinzelte
falsche Noten aus und fügt alle weiteren Instrumente oder Chöre, die gegebenenfalls
anderwärtig aufgenommen wurden sowie synthetisch erzeugtes Klangmaterial
zusammen. Manchmal müssen aus finanziellen Gründen aus dem vorhandenen
Material völlig neue Cues erzeugt werden. Dick Bernstein, Music Editor aus den USA,
der viel mit James Horner zusammengearbeitet hat, musste für den Film „Apocalypto“
von Mel Gibson einige neue Cues auf diese Weise anfertigen.
Außerdem gehört es zu den Aufgaben des Music Editors, die vorgemischte Musik für
die Endmischung des Films vorzubereiten. Das bedeutet, dass alle Cues an der
richtigen Timecode-Position liegen und alle Stems korrekt beschriftet sind.
21
Filmmusikproduktion
Am Ende einer Produktion übernimmt der Music Editor die Archivierung und
Beschriftung aller Deliveries1 der neuen Filmmusik, damit sie ihm z.B. für Temptracks
zukünftiger Projekte aber auch zur Erstellung einer Musikliste zur Verfügung stehen.
3.1.6 Organisatorische Aufnahmeleitung
Die Aufnahmeleiterin ist verantwortlich für die Erstellung der Spuren-, Mikrofon- und
Belegungspläne, in Absprache mit dem Tonmeister sowie der Aufstellung eines
Zeitplans. In diesem wird festgelegt, wie viel Aufnahmezeit für jeden Cue zur
Verfügung steht, unter Berücksichtigung der Dauern für Aufbau, Abbau und Pausen.
Die Aufnahmeleiterin wird während der Aufnahme für die Einhaltung der Zeitpläne
sorgen. Bei kleineren und mittleren Produktionen muss der Tonmeister diese Aufgabe
zusätzlich übernehmen.
3.1.7 Tonregie
Aufgabe der Tonregie ist es, abhängig vom Musik- und Filmgenre, ein Mikrofonkonzept für die Aufnahme zu erarbeiten [GMSc]. Wichtig ist, dass alle Signale so aufgezeichnet werden, dass bei der späteren Mischung noch alle Gestaltungsmöglichkeiten
offen bleiben (siehe A 3.3.1).
Bei der klassischen Rollenaufteilung gibt es einen Tonregisseur (bzw. Tonmeister), der
die musikalischen Aspekte der Aufnahme überprüft. Dabei übernimmt er die Position
eines Vermittlers, indem er den Dirigenten die klanglichen Vorstellungen der
Komponisten formuliert [GSKö]. Dem Recording Engineer gibt er Anweisungen über
den Klang oder die Balance der Instrumente.
Der Tonregisseur entscheidet, wann eine Passage zufriedenstellend aufgenommen
wurde oder ob einzelne Stellen noch einmal wiederholt werden müssen. Dabei muss er
darauf achten, dass Abschnitte so gewählt werden, dass sie gut aneinander geschnitten
werden können (Ausklänge von vorhergehenden Takten müssen mitgespielt werden).
Des Weiteren müssen den Musikern gute Einstiegsmöglichkeiten in die zu spielenden
Stellen ermöglicht werden, wobei bei der Anzahl der Wiederholungen auch auf die
Kondition und emotionale Befindlichkeit der Musiker Rücksicht zu nehmen ist. All
dies geschieht in enger Absprache mit dem Dirigenten.
Seinen Schnittplan erstellt der Tonregisseur in der Partitur und vermerkt, welche Takes
brauchbar waren und vor allem, welche Übergänge noch aufgenommen werden
1
Delivery: verschiedene Ausspiele für jedes Endformat, z.B. 5.1 für Kino oder Stereo für TV
22
Filmmusikproduktion
müssen, damit später eine Kombination verschiedener Takes möglich ist. Außerdem
unterstützt er die Komponisten mit seiner Arbeit, indem er die Verantwortung dafür
übernimmt, dass am Ende der Session die Erstellung eines Schnitts ohne Spielfehler
sowie eine klanglich optimale Mischung möglich ist.
3.1.8 Recording Engineer
In der klassischen Rollenaufteilung war der Recording Engineer1 für die Bedienung der
komplizierten Technik verantwortlich. Nur er war befugt die Regler des Mischpultes
zu bedienen. Dafür folgte er den Anweisungen des Tonmeisters, welcher über eine
umfassende musikalische Vorbildung verfügte.
Vor der Aufnahmesession mikrofoniert er in Absprache mit dem Tonmeister die
verschiedenen Instrumente und richtet das Mischpult ein. Während der Aufnahme
muss der Recording Engineer eine Abhörmischung anfertigen, in der die Verhältnisse
der Instrumente untereinander stimmen. Dies ist einerseits wichtig, um den Komponisten einen Eindruck des zu erwartenden Endergebnisses zu vermitteln, andererseits
kann die Aufnahme auf diese Weise besser im Hinblick auf Spielfehler beurteilt
werden.
Er übernimmt gemeinsam mit seinem Workstation-Operator die Verantwortung dafür,
dass die Instrumente aller Cues technisch korrekt aufgezeichnet wurden.
Heutzutage werden die Aufgaben des Tonregisseurs und des Recording Engineers
meist in Personalunion - auch von Frauen - ausgeführt.
3.1.9 Workstation-Operator
Die Aufgaben des Workstation-Operators entsprechen denen der früheren „BandOperatrice“. Er versetzt die virtuellen Tonbandspuren in Aufnahmebereitschaft und
stellt sicher, dass alle Audiofiles richtig beschriftet in den entsprechenden Aufnahmeordnern abgespeichert werden. Während der Aufnahme muss er ständig überprüfen,
ob alle Signale in der Digitalen Audio Workstation2 (DAW) ankommen und darauf
achten, dass diese nicht übersteuern.
Werden Cues unterbrochen, weil die Musiker blättern müssen, oder nur einzelne
Phrasen Probleme bereiten, so dass in einem späteren Takt neu eingestiegen werden
1
2
Auf deutsch „Toningenieur“.
Digital Audio Workstation – digitaler Tonschnittplatz, z.B. Pro Tools, Nuendo; dabei werden Audiodateien wie
aufgenommene Bereiche auf einem Tonband dargestellt. Alle befragten Tonmeister verwenden fast ausschließlich
Pro Tools.
23
Filmmusikproduktion
soll, muss der Workstation-Operator die Aufnahme an der exakten Stelle in der Session
starten, damit es keine Unstimmigkeiten mit den Playbacks und Clicktracks gibt.
Sollen Overdubs oder einzelne Sections aufgenommen werden, muss er schnell die
entsprechenden Spuren duplizieren und aufnahmebereit schalten. Dabei muss er
beachten, dass die Namensgebung der Spuren für die Weiterverarbeitung der Musik
verständlich bleibt. Um all dies in kürzester Zeit zu bewerkstelligen, ist eine umfassende Kenntnis der verwendeten DAW Vorraussetzung.
Die größte Herausforderung stellt aber das hohe Maß an Konzentration dar, die
notwendig ist, um zwischen den vielen Gesprächen aller beteiligten und unbeteiligten
Personen im Regieraum, die wichtigen Einzelheiten, wie z.B. in welchem Takt
eingestiegen oder welcher Cue als nächstes aufgenommen werden soll, zu erfassen.
Neben der Beherrschung der Aufnahmetechnik ist ein gutes Gespür für den möglichen
weiteren Verlauf der Aufnahme notwendig.
3.1.10 Filmmusik-Mischtonmeister
Der Filmmusik-Mischtonmeister oder Mischtonmeisterin fügt alle vorhandenen
Musiktonspuren zu einem Gesamtwerk zusammen. Dabei arbeitet er überwiegend
zum Bild, damit anhand der Handlungsverläufe oder Synchronpunkte der Klang
passend gestaltet werden kann. Der kontrollierende Blick auf das Bild ermöglicht es
dem Tonmeister besser abzuwägen, welche dramaturgischen Elemente den Film
voranbringen. So können Klangeinstellungen wie Dynamik, Frequenzgang oder
Räumlichkeit besser dem visuellen Geschehen angepasst werden1. Dabei werden
Klangbeeinflussungen vorgenommen, die bei einer autonomen Musikproduktion des
Materials vielleicht nicht angewendet würden.
Oft muss sich die neu komponierte Musik stark an den im Schnitt genutzten
Temptracks orientieren [GPFu]. Um den klanglichen Vorstellungen des Komponisten
und des Regisseurs gerecht zu werden, sollte vor der Mischung bereits eine Beschäftigung mit den ausgewählten Layouts und Temptracks erfolgen. Dies kann der
Feststellung verwendeter Balanceeinstellungen und anderer Charakteristika dienen. In
Kommunikation mit dem Komponisten wird sich während der Arbeit auf ein
Klangbild geeinigt.
Häufig bestehen Filmmusiken aus einem Orchester und weiteren elektronischen
Elementen oder gesampelten Instrumenten [GPFu], wie zusätzliche Percussion, die
oftmals die Gestaltung des Orchesterklanges stark beeinflussen [GMSc]. Die elektroni-
1
persönliches Gespräch mit Peter Fuchs [GPFu]
24
Filmmusikproduktion
schen Sounds müssen mit dem aufgezeichneten Material klanglich verbunden werden.
Darin unterscheidet sich die Mischung einer Filmmusik grundlegend von der einer
CD-Produktion mit orchestraler Musik.
Eine weitere Besonderheit einer Filmmusikmischung ist die Tatsache, dass bei
Filmmusik lediglich ein Zwischenprodukt entsteht, welches dem Filmmischtonmeister
zugeliefert wird [GMSc]. Bei autonomer Musik dagegen entsteht in der Mischung das
Endergebnis des Produktionsprozesses1.
Neben einer einzigen sechskanaligen Musikmischung wird zusätzlich eine Stemmischung durchgeführt. Dies bedeutet, dass wichtige Elemente noch nicht endgültig
zusammengefügt werden, sondern weiterhin getrennt vorliegen.
Die gerade beschriebenen Rollen stellen eine Aufteilung der verschiedenen Arbeitsgebiete dar. Wie konkret eine Musikproduktion durchgeführt wird, ist von Fall zu Fall
verschieden. Es ist durchaus üblich, dass eine Person für mehrere Aufgaben verantwortlich ist.
3.2 Aufnahmevorbereitung
Die Koordination und Durchführung einer orchestralen Filmmusikaufnahme erfordert
eine gründliche Vorbereitung. Es entstehen hohe Kosten sowohl für die Musiker und
Tonmeister als auch Mietkosten für das Tonstudio oder den Aufnahmesaal. Außerdem
ist es gerade bei Projektorchestern nicht immer einfach, einen gemeinsamen Termin zu
vereinbaren. Aus diesem Grund sollte während der Aufnahmen keine Zeit für
technische Probleme verloren gehen, denn am Ende des Tages soll eine Musik
geschaffen worden sein, die den künstlerischen Anforderungen des Filmes genügt.
Um dies zu bewerkstelligen, gibt es sowohl Aufgaben, die im Vorfeld von den
zuständigen Komponisten als auch von den tontechnischen Betreuern durchgeführt
werden.
3.2.1 Kompositionsdepartment
Wie bereits unter A 3.1.3 angeführt, sind vor der Aufnahmesession einige Vorbereitungen seitens des Kompositionsdepartments zu treffen. Sind die musikalischen Layouts
abgenommen, beginnt die Komponistin oder der Komponist mit der Ausarbeitung der
Cues. Zwar sind Melodien und harmonische Wendungen bereits umrissen, doch
1
Vor Erstellung des Distributionsmediums (z.B. CD) erfolgt in der Regel das Mastering, bei dem normalerweise die
gesamte Mischung in Klang und Lautheit optimiert wird.
25
Filmmusikproduktion
manchmal ist die genaue Auswahl der Instrumente noch nicht geklärt. Dies geschieht
während der Instrumentation (oder auch Orchestration), dem Arrangement für das
Ensemble. Dies kann von Mitarbeitern des Komponisten, sogenannten Orchestratoren,
erledigt werden.
Hans Zimmer zum Beispiel schreibt Suiten für seine Filme, die bereits Motive, Themen
und die Auswahl der Instrumente beinhalten. Sein Team aus zahlreichen Komponisten
nutzt diese Basis, um für die jeweiligen Szenen des Filmes die Cues zu entwickeln.
Für den Aufnahmetermin müssen Noten erstellt werden, wobei in der Regel zunächst
die Partitur gesetzt wird. Die aufwändigere Arbeit ist es anschließend, die Einzelstimmen für alle Instrumente aus der Partitur zu fertigen.
Weitere wichtige Aufgabe des Kompositionsdepartments ist die Erstellung der nötigen
Playback- sowie Clicktrack-Spuren. Diese sind während der Aufnahme von großer
Bedeutung, da die neu aufzunehmenden Instrumente zeitlich zum Bild und den häufig
eingesetzten elektronischen Elementen passen müssen. Playback und Clicktrack sind
in eine zu verwendende Workstation-Session einzuarbeiten, wobei auch darauf
geachtet werden muss, dass alle Tempo- oder Taktwechsel sowohl in der Session als
auch in den Noten übereinstimmen. Häufig sind die Komponisten jedoch nicht
genügend mit der DAW vertraut, so dass der ausführende Tonmeister die Tracks in
die Session einarbeiten muss.
3.2.2 Zeitliche Planung
Ein genauer Zeitplan verschafft allen Beteiligten einen Überblick über die Anzahl der
Cues und deren instrumentale Anforderungen. Außerdem hilft er dabei genauer
abzuschätzen, wie viel Zeit für jeden Arbeitsschritt benötigt wird. Bei der Erstellung
eines Zeitplans müssen neben der eigentlichen Aufnahme auch die Dauern für Aufund Abbau einkalkuliert werden. Gelegentlich sind Umbauten zwischen den Besetzungen erforderlich.
Es bietet sich an, mit den Cues zu beginnen, welche die größte Besetzung und
demzufolge die meisten Musiker voraussetzen. Einspielungen von Soli sollten ans
Ende der Aufnahmesession oder an einem gesonderten Aufnahmetag durchgeführt
werden. Auf diese Weise kann man erhöhte oder unnötige Wartezeiten einzelner
Musiker verhindern.
26
Filmmusikproduktion
Abb. 6 Beispiel eines Zeitplans
Die Abbildung zeigt an, wie viele Musiker jeder Instrumentengruppe notwendig sind
und welche Besonderheit es evtl. gibt. Ein x bedeutet, dass die Instrumentengruppe
voll besetzt sein muss. Im dritten Cue z.B. werden drei Posaunen und eine vierte
Bassposaune benötigt. Die Musiker müssen unbedingt rechtzeitig informiert werden,
wenn Bauformen von Instrumenten benötigt werden, die nicht in die Standardbesetzung des Orchesters gehören, sonst kann es dazu kommen, dass ein erforderliches
Instrument am Aufnahmetag fehlt.
3.2.3 Besetzung
Bei Orchesteraufnahmen ist es wichtig im Vorfeld zu erfahren, welche Aufstellung
verwendet wird. Es gibt grundsätzlich zwei verschiedene Orchesteraufstellungen. Bei
der deutschen Aufstellung sitzen sich ersten und zweiten Violinen gegenüber, bei der
amerikanischen Aufstellung sitzen sie nebeneinander. Dies muss bei dem Aufbau der
Mikrofone berücksichtigt werden, um sich aufwändige Umbauten zu ersparen.
Bsp.:
Ein Tag vor den Aufnahmen mit einem 90-köpfigen Blasorchesters wurden die
Mikrofone anhand des besprochenen Sitzplanes aufgebaut. Am Aufnahmetag stellte sich
jedoch heraus, dass der Plan veraltet war und die Musiker eine andere Aufstellung beabsichtigten. Innerhalb einer Stunde mussten ca. 60 Mikrofone neu aufgestellt werden.
27
Filmmusikproduktion
3.3 Tontechnische Umsetzung
Die Wahl der Mikrofonie und die Überlegung zu Organisation der vielen
aufzunehmenden Signale gehört zu den tontechnischen Vorbereitungen einer
Aufnahme.
3.3.1 Mikrofonie
Mit der Wahl der Mikrofonstrategie kann der Tonmeister oder die Tonmeisterin einen
starken Einfluss auf den Klang nehmen. Sie ist meist abhängig vom Filmgenre, den
klanglichen Vorstellungen des Komponisten und den genretypischen Hörgewohnheiten des anvisierten Publikums [GSKö]. Grundsätzlich sollte aber auf eine Art und
Weise mikrofoniert werden, die in der Mischung alle Möglichkeiten zur Klangestaltung offen hält.
In der Regel wird bei Filmmusikaufnahmen ein Hauptmikrofonsystem mit zusätzlichen Stützmikrofonen verwendet. Häufig kommt dabei ein Decca-Tree 1 als Hauptsystem zum Einsatz. Es ist ursprünglich ein dreikanaliges, stereofones Hauptsystem2,
welches mit Hilfe des Center-Mikrofons eine breitere Basis zwischen linkem und
rechtem Hauptmikrofon ermöglichen sollte, ohne ein Mittenloch3 zu verursachen. Bei
5.1 Mischungen wird das Centersignal in der Regel dem Mittenlautsprecher zugeteilt.
Allerdings verursachen die Signale des nach vorne versetzten Center-Mikrofons, bei
der im Kino üblichen Aufstellung der Frontlautsprecher in einer Ebene, eine Überhöhung der Wahrnehmung des Mittenlautsprechers. Auch weitere dreikanalige
Hauptmikrofonsysteme 4, wie Stereo+C oder OCT (optimized cardioid triangle) werden
bei Filmmusikaufnahmen verwendet.
Bei der Aufnahme gewonnene Mittensignale verbessern die räumliche Tonempfindung entscheidend. Gerade bei größeren Leinwänden sorgt das Mittensignal für ein
ausgewogenes Klangbild [GPFu] und verhindert das Entstehen eines Mittenlochs.
Bereits 1958 wurde festgestellt, dass durch die Verwendung eines MittenLautsprechers die gleichen Pegel bei geringerer Ansteuerung der einzelnen Lautspre-
1
2
3
4
Alle befragten Tonmeister nutzen den Decca-Tree bei orchestralen Filmmusikaufnahmen. Der Tree ist eine
Hauptmikrofonanordnung mit 3 Kugelmikrofonen (L-C-R, mit ursprünglich M49 Mikrofonen von Neumann) und
zwei optionalen Outriggern (LL-RR).
Michael H. Gray, „The Birth of DECCA“, 1986, ARSC journal [ARSC86]
Das Mittenloch ist eine Bezeichnung dafür, dass aufgrund einer ungünstig gewählten Aufnahme- oder Wiedergabesituation in der Mitte zwischen den Lautsprechern schlecht Phantomschallquellen erzeugt werden können. Dadurch ist
eine genaue Ortung der Instrumente nicht mehr möglich.
Für eine eingehende Auseinandersetzung verweise ich auf die Diplomarbeit „LCR-Stereophonie im Kino“ von Stefan
Haberfeld [DASH]
28
Filmmusikproduktion
cher erzeugt werden können1. Da sich durch diese Nutzung das Grundgeräusch
verringert verbessert sich auch das Klangbild.
Bei der Verwendung von Stützmikrofonen kann unterschieden werden, ob einzelne
Instrumentengruppen über kleinere zwei- bis dreikanalige „Hauptsysteme“ oder jedes
Instrument mit einem noch näher aufgestellten Mikrofon aufgenommen werden. Dabei
fügen sich die in der Regel weiter entfernt aufgestellten und damit eine gesamte
Instrumentengruppe (Holz, Blech) abdeckenden Hauptsysteme besser in das Gesamtklangbild ein. Für eine explizite Augmentierung eines einzelnen Instruments kann das
direkte Mikrofonsignal genutzt werden. Beide Varianten der Mikrofonierung sind
gleichzeitig möglich.
Es kommt häufig vor, dass Stützmikrofone näher aufgestellt werden, als es bei
klassischen Aufnahmen üblich wäre. Besonders bei Filmszenen, die mit viel Action
verbunden sind, wird oft ein griffigerer und direkterer Klang gewünscht, der über eine
nahe Mikrofonierung hergestellt wird. Enjott Schneider erklärt hierzu:
„Die reale Subjektivität einer extrem nah aufgenommenen Stimme [...] ist in ihrer unkünstlichen Direktheit unschlagbar, weil psychologisch so er- und angreifend. Auf der
Filmleinwand finden wir ja das optische Gegenstück dazu: Der Filmstar wird dem Zuschauer so „nahe“ gebracht, dass jedes Lidschlagen, jede Träne, jedes Zittern einer
Hand zum großen emotionalen Ereignis wird.“ 2
Wenn ein flächiger Streicherklang erzeugt werden soll, rät Michael Schubert eher von
der starken Verwendung von Stützmikrofonen ab, „weil sie später Artefakte mit in die
Mischung bringen“ [GMSc].
Meist werden bei der Aufnahme eines Orchesterscores sowohl alle Instrumentengruppen über kleinere zwei- oder sogar dreikanalige Hauptsysteme (in den Air Studios in
London wird beispielsweise eine LCR-Stütze vor die Hörner aufgebaut3) als auch jedes
Pult bzw. Instrument mit einem Direktmikrofon gestützt. Mit den Stützen lassen sich
die Direktanteile der einzelnen Gruppen oder Instrumente im Verhältnis zum
Gesamtklang, welcher über das Hauptmikrofonsystem eingefangen wird, steuern.
Um Signale für die Surround-Lautsprecher im Kino zu generieren, werden in der Regel
Raummikrofone aufgebaut. Dabei sollte darauf geachtet werden, dass diese nicht zu
nah am Ensemble oder einer Ecke des Raumes aufgestellt werden, damit es nicht zu
Kammfiltereffekten oder Überhöhungen im Bassbereich kommt. Weiterhin sollte die
1
2
3
Fritz Trommer „Tontechnik“, Seite 60 [TT58]
N. J. Schneider, „Komponieren für Film und Fernsehen“, Seite 128 [KF97]
persönliches Gespräch mit Falco Duczmal
29
Filmmusikproduktion
Korrelation der Signale beachtet werden, um einen Umhüllungseffekt für den
Zuschauer zu generieren1.
Die aufgenommenen Signale der Raummikrofone können direkt verschiedenen
Surround-Kanälen zugewiesen werden. Für „Die Vermessung der Welt“ wurden bei der
Musikaufnahme sogar vier Raummikrofone aufgestellt. Damit standen, da der Film in
7.1 gemischt werden sollte2, für jeden der vier Surround-Kanäle dezidierte Signale zur
Verfügung.
Anders als bei autonomen orchestralen Musikproduktionen, kann es bei Filmmusikaufnahmen vorkommen, dass separate Mikrofone zur Erfassung tieffrequenter Signale
für den LFE-Kanal aufgebaut werden. Dabei haben sich verschiedene kreative
Ausführungen entwickelt. Grenzflächenmikrofone vor den Kontrabässen ermöglichen
aufgrund ihrer akustisch entwickelten Bauform eine hervorragende Wiedergabe tiefer
Frequenzen3. Weiterhin können Wassergallonen, in welchen Kugelmikrofone hängen,
im Aufnahmeraum verteilt werden, um ausgeprägte Tiefensignale zu erhalten4.
3.3.2 Organisation der Signale
Bei großen orchestralen Filmmusikproduktionen muss eine Vielzahl an Signalwegen
kontrolliert und organisiert werden. Daher ist es von Vorteil, sich zuvor mit der
technischen Umsetzung auseinanderzusetzen, um während der Aufnahme alle
Kapazitäten für die musikalische Umsetzung nutzen zu können. Unvorhergesehene
Probleme werden den Aufnahmetermin ohnehin zusätzlich belasten.
3.3.2.1
Aufnahmesession
Die Aufstellung der Mikrofone ist nur ein Teil der Vorüberlegungen und Vorbereitungen. Auch das Projekt in der, heutzutage fast ausnahmslos verwendeten, DAW muss
so eingerichtet werden, dass die Aufnahme ohne unerwartete Überraschungen
durchgeführt werden kann. Bei dem Babelsberger Filmorchester hat sich dafür eine
effiziente Verfahrensweise bewährt. Dem zuständigen Orchestrator oder Operator des
Komponisten wird eine Session ausgeliefert, in der die benötigten Aufnahmespuren
1
2
3
4
siehe Michael Dickreiter, „Handbuch der Tonstudiotechnik“, Seite 250 und folgende [HT08]
persönliches Gespräch mit Martin Steyer [GMSt]
siehe „Produktinformation GFM132-Grenzflächenmikrofon“ [CAT01]
persönliches Gespräch mit Falco Duczmal
30
Filmmusikproduktion
bereits mit dem vorgesehenen Routing ausgestattet und inaktiv geschaltet sind. Dies ist
notwendig, da sich die Belegung der Ein- und Ausgänge zu anderen Studios unterscheidet. Die verwendete DAW Pro Tools hat bisher die Eigenschaft, dass physikalisch
nicht vorhandene Ein- und Ausgänge, die in der Erstellung der Session in einer
anderen Arbeitsumgebung begründet sind, mit den Ein- und Ausgängen des gerade
vorhandenen Audiointerfaces belegt werden. Um dies zu vermeiden, müssen bei
Auslieferung der Ausgangs-Session die Aufnahmespuren inaktiv sein. Diese Defaultsession wird nun als Grundlage genutzt, um für jeden Cue eine separate Session
inklusive Bild, Clicktrack und aller Playbackspuren mit richtigem Timecode und
richtigen Taktzahlen zu erstellen. In die vorbereiteten Sessions werden dann die
Orchesterparts oder andere Instrumente direkt aufgezeichnet. Ziel ist es, dass die im
Aufnahmestudio wieder aktivierten Spuren sofort richtig geroutet und einsatzbereit
sind und nicht nochmals jeder Aufnahmespur der richtige Ein- und Ausgang zugewiesen werden muss1.
Die Spurbenennung unterliegt festen Konventionen. Da Pro Tools die Namen der
aufgenommenen Files anhand ihrer Spurbezeichnung vergibt, kann durch die
Auseinandersetzung mit einer günstigen Beschriftung im Anschluss viel Zeit eingespart werden. Als erstes wird ein Kürzel für den Film in die Spur gesetzt, damit die
Audiodatei später eindeutig zugeordnet werden kann, da es z.B. möglich ist, dass es
bereits mehrere Audiodateien mit der Bezeichnung „Violine 1“ gibt. Im Falle einer
unbeabsichtigten Verteilung der Aufnahmedateien in falsche Ordner oder eines
anderen Fehlers, ist eine unmissverständliche Beschriftung sehr wichtig. Dahinter folgt
die Nummer des Cues und abschließend die Bezeichnung des aufgezeichneten
Mikrofonsignals. Auf diese Weise lassen sich später alle Files komfortabel in jedem
Explorer oder Finder chronologisch und dem jeweiligen Projekt und Cue zugeordnet
anzeigen. Die Datei erhält dann den Namen: „Film_Cue_Instrument_Takenr“.
3.3.2.2
Aufnahmesystem
Da bei Filmmusikaufnahmen eine Vielzahl von Takes aufgenommen und umgehend
probehalber zusammengeschnitten werden sollen, empfiehlt sich die Arbeit mit einer
DAW. Die computerbasierte Aufnahme ist für diese Art der Musikproduktion fast
unumgänglich. Neben der besseren Übersicht der bereits aufgenommen Takes durch
die optische Darstellung in Form von Regions2, ermöglicht eine DAW zudem die
1
2
persönliches Gespräch mit Falco Duczmal
Region - Tondatei in Pro Tools
31
Filmmusikproduktion
unproblematische Beschriftung dieser1. Besonders nützlich ist die Möglichkeit, Schnitte
und Punch In's2 [PRT05] durchzuführen, ohne dabei destruktiv zu arbeiten.
Bei Filmorchesterproduktionen, die Aufnahmen in Sections oder Overdubs erfordern,
vereinfacht die grafische Oberfläche einer DAW die Arbeit enorm.
Im gesamten Filmbereich ist Pro Tools die am meisten verwendete DAW.
3.3.2.3
Spurbelegungsplan
Ein frühzeitig erstellter Spurplan erleichtert es, den Überblick über die aufzunehmenden Signale zu behalten. Hier kann eine Auflistung aller Instrumente und den ihnen
vorgesehenen Mikrofonen, die genaue Bestimmung der aufzuzeichnenden Signalwege
vereinfachen. Hinzu kommen Angaben über die Vorverstärkung mit oder ohne
Phantomspannung sowie der zu verwendenden Vorverstärker und Wandler. Zusätzlich lassen sich tabellarisch Informationen zu Multicorebelegungen, Stativgrößen oder
evtl. benötigte DI-Boxen und Adaptierungen notieren.
Die genaue Zuordnung aller Signalwege erleichtert auch den Aufbau, da einfache
Aufgaben, wie das Verkabeln der Mikrofone anhand eines eindeutigen Planes,
delegiert werden können.
Bsp.:
Für die Aufnahmen einiger Arien für den Film „Father, Son & holy Cow“ in der
Musikhochschule Hannover wurden im Vorfeld genaue Spurbelegungspläne erstellt.
Da aus organisatorischen Gründen nur zwei Stunden für den kompletten Aufbau einer
mobilen Regie sowie Mikrofonierung eines Barockorchesters und mehrerer Hauptmikrofonsysteme zur Verfügung standen, konnten dank des Belegungsplanes Regisseur und
Produzent bei der Verkabelung der Instrumentenmikrofone an die Stagebox des Multicorekabels helfen.
3.4 Aufnahme
Die Aufnahmen einer orchestralen Filmmusik laufen in der Regel sehr systematisch
und gut organisiert ab. In den folgenden Abschnitten werden wesentliche Merkmale,
die bei Filmmusikaufnahmen üblich sind, betrachtet.
1
2
Außerdem ist eine umfangreiche Bearbeitung mit Hilfe von Plugins möglich, sodass ohne Mischpult ein akzeptabler
Abhörmix erstellt werden kann.
Punch In – eine in Zeiten der analogen Aufzeichnungsgeräte relativ riskante Methode um fehlerhafte Passagen zu
korrigieren. Dabei wurden die Wiedergabespuren im geeigneten Moment aufnahmebereit geschaltet und für die
Dauer der notwendigen Verbesserung die vorherige Aufnahme überschrieben.
32
Filmmusikproduktion
3.4.1 Arbeit mit den Musikern
Die Kommunikation mit den Musikern übernimmt in den meisten Fällen der Dirigent,
dem über Kopfhörer die Wünsche und Bedenken des Komponisten und Tonmeisters
übermittelt werden, damit er diese für das Orchester übersetzt bzw. mit ihm umsetzt.
Da bei der Produktion von Filmmusik die Noten meist erst am Tag der Aufnahme zur
Verfügung stehen, muss der Dirigent sehr schnell die dramaturgische Bedeutung der
Musik erfassen. Im Vorfeld besteht für den Dirigenten kaum die Möglichkeit, die
Partitur durchzuarbeiten und zu interpretieren. Deshalb sagt der Komponist oft zu
Beginn der Aufnahmesession einige Worte zur Handlung und Bedeutung des Films,
um ein allgemeines Verständnis für die musikalische Empfindung bei den Musikern
aufzubauen. Nach ein- bis zweimaligem Durchspiel ist die Probezeit vorüber.
Manchmal gelangen aber bereits die allerersten Takes in den Film, ohne dass sie zuvor
geübt wurden.
3.4.2 Bildsynchrone Produktion
Der während der Aufnahme von Filmmusik wahrscheinlich größte Unterschied zur
Produktion autonomer orchestraler Musik ist die Verwendung eines Clicktracks.
Dieser sorgt dafür, dass die Komposition genau auf das Bild passt und wichtige
Synchronpunkte eingehalten werden. Außerdem sollen eventuelle Dopplungen, Soli
oder bereits mit Samples erstellte zusätzliche Playbackspuren zusammenpassen.
Würde das Orchester agogischer spielen, bestünde die Gefahr, dass das gesamte
musikalische Puzzle nicht mehr zusammenpasst. Trotzdem werden durchaus auch
Filmmusiken ohne ein durch ein Clicktrack vorgegebenes Tempo eingespielt.
Als Click wird ein regelmäßiges, impulshaftes Signal bezeichnet, welches im Gegensatz zu einem Metronom jedes beliebige Tempo und Tempoverläufe wiedergeben
kann. Dabei ist wichtig, dass ein prägnantes, helles Signal1 ohne Betonungen verwendet wird.
Es gibt verschiedene Möglichkeiten, Musikern und Dirigenten einen Click zuzuspielen:
Einerseits wird der Click im Tempo des jeweiligen Cues über Kopfhörer eingespielt.
Um ein Übersprechen des Clicks aus den Kopfhörern der Musiker während leiser
Passagen der Aufnahme zu vermeiden, sollte der Recording Engineer oder Workstation-Operator die Lautstärke des entsendeten Clicksignals dem dynamischen Spiel
des Ensembles anpassen. Bei lauten Abschnitten benötigen die Musiker einen erhöhten
Clickpegel, um ihn weiterhin wahrnehmen und das Tempo halten zu können.
1
Der spezifische Klang des Clicks resultiert vermutlich aus seiner Entstehung, siehe A 1.1.4.
33
Filmmusikproduktion
Eine andere Variante, um den bildsynchronen Verlauf einer Musik zu gewährleisten,
ist die Aufnahme mit einem optischen Click mit Punches und Streamers. An diesen
Bildzeichen kann man sich während des Dirigats orientieren und das Tempo der
musikalischen Darbietung steuern. Sie ermöglichen eine etwas freiere Zeiteinteilung
und ein agogischeres Zusammenspiel.
Die Firma ACS (Auricle Control Systems) hat Auricle, eine Software für Komponisten
und Dirigenten, entwickelt, die verschiedenartige Visualisierungen in das Arbeitsbild
einfügt. Mit verschiedenfarbigen Linien (Streamers), die sich über das Bild bewegen,
wird markiert, wann eine Phrase beginnt oder endet, ein Musikeinsatz eintreten, ein
Tempowechsel erfolgen oder ein bestimmter Synchronpunkt eingehalten werden soll.
Auf diese Weise wurden beispielsweise die Filmscores zu „Lord of the Rings“, „Casino
Royale“, „Avatar“ und „Mission Impossible“ eingespielt.
Auch Dick Bernstein hat mit seinem Bruder Bill und Freund Bob Badami eine Software
namens Streamline ausgearbeitet, mit der während der Proben für den nächsten Cue
sehr schnell Punches und Streamers in das Bild eingefügt werden können.
3.4.3 Aufnahme in Sections
Oft werden die Cues in sogenannten Sections1 aufgenommen, d.h. dass zunächst das
Stück gemeinsam mit allen Musikern geprobt und anschließen jede Instrumentengruppe einzeln aufgenommen wird. Es kommt allerdings auch vor, dass die Musiker
unterschiedlicher Sections an verschiedenen Aufnahmeterminen gebucht werden. Auf
diese Weise lässt sich das Übersprechen anderer Instrumentengruppen vermeiden.
Gerade bei amerikanischen Produktionen wird diese Methode der Musikaufnahme oft
angewendet.
Filmmusiken werden jedoch nicht grundsätzlich in Sections aufgenommen, weil viele
Komponisten lieber den Gesamtklang eines miteinander musizierenden Orchesters
erhalten möchten. Auch der Klang eines Orchesterkörpers ist mehr als nur die Summe
seiner Teile. Die organischen Tempo- und Intonationsschwankungen, die beim
Interagieren der verschiedenen Instrumentalisten automatisch entstehen, führen zu
einem lebendigen und trotzdem homogenen Orchestersound. Werden die Instrumentengruppen separat aufgenommen, fehlt den Musikern der Klangeindruck der
Gesamtkomposition und sie können so nur schwer ein Gefühl für funktionelle
harmonische Entwicklungen bekommen. Trotzdem ist es bei besonders schwierigen
Arrangements oder problematischen Stellen hilfreich die Konzentration während der
1
Section: Instrumentengruppe (z.B.: Blech, Streicher, Holz, Percussion)
34
Filmmusikproduktion
Aufnahme auf einzelne Sektionen zu bündeln, um später im Schnitt eine befriedigende
Version zu erstellen [GBWe].
3.4.4 Dopplungen und Overdubs
Eine weitere Besonderheit bei bildbezogenen Musikproduktionen ist die Aufnahme
von Dopplungen und Overdubs ganzer Orchestergruppen. Bei autonomen orchestralen Musikproduktionen kann es vorkommen, dass die Solisten ihre Passagen auf das
bereits produzierte Playback einspielen1.
Trotz technischer Schwierigkeiten wurden in der Filmmusikproduktion bereits sehr
früh Overdubs aufgenommen. Bernd Wefelmeyer berichtet, dass Sänger auf ¼ -Zoll
Band synchronisiert wurden, „wobei darauf zu achten war, dass das Band höchstens dreimal
neu bespielt wurde.“.
Bei der Aufnahme von Overdubs werden weitere musikalische Stimmen eingespielt,
die das Arrangement verdichten, wobei das Übersprechen unterbunden wird. Die
Methode durch Dopplung der Streicher- oder der Blechsektion ein größeres Orchester
hörbar zu machen, liegt im vorhandenen Budget begründet [GPFu].
3.4.5 Vorteile der computerbasierten Aufnahme
Bei der Aufnahme zeigt sich ein weiterer Vorteil, den die Erstellung isolierter Sessions
für jeden Cue mit sich bringt. Die Nutzung von Playlists vereinfacht die Organisation
der Aufnahmedateien, da den einzelnen Takes, bei geschickter Anwendung, die
richtige Nummer im Dateinamen angefügt wird. Auf diese Weise wird eine eindeutige
Zuordnung gewährleistet.
Zunächst werden für alle Aufnahmespuren oder den entsprechenden Sections neue
Playlists angelegt. Dies ist daran zu erkennen, dass dem angegebenen Spurnamen der
Wert .01 angefügt ist. In diese erste Playlist wird nun der erste Take aufgenommen.
Bevor der zweite Take aufgenommen wird, sollte eine weitere Playlist erstellt werden
usw. Auf diese Weise wird jeder Take in eine einzelne Playlist aufgenommen. Der
Vorteil dabei ist, dass alle Takes zeitlich zum richtigen Timecode und damit synchron
zum Click oder Playback eingespielt werden können. Dabei bleibt die Benennung der
Spuren, bis auf die Zahl des jeweiligen Takes, identisch. In die oberste oder auch
„nullte“ Playlist werden die besten Abschnitte aller Takes eingefügt.
1
eMail von Peter Fuchs [GPFu]
35
Filmmusikproduktion
3.4.6 Dokumentation
Es haben sich unterschiedliche Methoden entwickelt, wie während der Aufnahmen
Angaben über die bereits aufgenommenen Cues und deren Qualität notiert werden
können. Diese Mitschriften sind für den späteren Schnitt notwendig, da selten die Zeit
und das Personal zur Verfügung stehen, nochmals alle Takes durchzuhören.
Zum einen können für jeden Take Einzelheiten auf einem gesonderten Blatt festgehalten werden. Dabei wird zunächst notiert, um welchen Cue es sich handelt und welcher
Abschnitt aufgenommen wurde. Zusätzlich werden die Stellen oder Takte vermerkt,
die besonders gut oder nicht so gut eingespielt wurden. Diese Listen werden vom
Workstation-Operator, dem Tonmeister oder einer dafür bereit gestellten Person
angefertigt.
Abb. 7 Mitschriften auf gesondertem Blatt
Eine Methode, die von vielen Musiktonmeistern verwendet wird, ist das Markieren der
Qualität bestimmter Töne oder Passagen direkt in der Partitur. Am Anfangstakt des
Takes wird ein rechtsgeflügeltes Häkchen mit der Nummer des Takes gesetzt.
Beginnen weitere Takes in diesem Takt, werden einfach deren Nummern hinzugefügt.
Wird das Ende des Stückes während des Takes nicht erreicht, wird in dem Endtakt ein
linksgeflügeltes Häkchen mit eben der Takenummer gesetzt. Unbefriedigende
Abschnitte oder Noten werden kreisförmig umrandet und mit der laufenden Takenummer versehen, der ein Minus zugesetzt wird. Während der folgenden Takes muss
besonders darauf geachtet werden, dass die markierten Stellen korrekt eingespielt
werden. Ist das geschehen, wird der entsprechende Takt mit einem Plus und der
laufenden Takenummer vermerkt. Am Ende der Aufnahmesession liegt dann der
Schnittplan in der Partitur vor.
36
Filmmusikproduktion
Abb. 8 Notizen in der Partitur
Weiter ist es bei aufwändig arrangierten Musikproduktionen üblich, dass Tabellen für
die Aufnahmen vorbereitet werden. In die Zeilen werden die jeweiligen Cues, in die
Spalten die aufzunehmenden Instrumentengruppen, Dopplungen oder zusätzliche
Instrumente eingetragen. Wurde ein Cue mit den Musikern fertig eingespielt, kann das
entsprechende Feld gekennzeichnet werden. Am Ende der Aufnahmen kann sehr
schnell überprüft werden, ob alle Instrumente eingespielt wurden.
Abb. 9 Tabellen für aufgenommene Instrumente je Cue
Oft wird eine Kombination dieser Methoden bei Filmmusikaufnahmen mit Orchester
verwendet.
37
Filmmusikproduktion
3.5 Schnitt
Da während der Aufnahme bereits genau zum Timecode gearbeitet wurde, können die
ausgewählten Abschnitte schnell zusammengefügt werden. Dabei kommen Schwierigkeiten aufgrund von unterschiedlichen Tempi der Takes nicht vor. Auch die Suche
nach bestimmten Takten entfällt, da die Audiodaten in der Session immer an der
gleichen zeitlichen Position liegen. In der folgenden Abbildung sind alle Playlisten
sowie der Zusammenschnitt der Takeauswahl zu sehen.
Abb. 10 handlicher Schnitt mit Playlisten
Beim Schneiden von Filmmusik liegen die Schwierigkeiten weniger im aufwändigen
Zusammensetzen kurzer Abschnitte zahlreicher Takes, sondern in der Verflechtung
der verschiedenen Spuren der akustischen und elektronischen Instrumente.
3.6 Musik-Mischung
Die Mischung der Filmmusik kann als Vormischung betrachtet werden. Je nach
vorhandener Zeit kann detailliert auf die einzelnen Bestandteile des Scores eingegangen und diese bearbeitet werden. Ziel ist es, eine klanglich und dramaturgisch
schlüssige Mischung der Filmmusik zu erstellen. Eine wichtige Aufgabe des Musikmischtonmeisters oder der Musikmischtonmeisterin ist es einzelne Teile der Filmmusik
sinnvoll zusammenzufassen und dennoch während der Filmmischung Eingriffe in die
Musikmischung zu ermöglichen. Eine Vormischung der Musik verhindert, dass
während der Endmischung des Films detaillierte Klangbearbeitungen in der Musik
notwendig sind, was den kostspieligen Aufenthalt in einer Filmmischung verlängern
würde.
Außerdem gelten für Filmmusik zum Teil andere Gewichtungen und Konventionen,
als dies bei reinen Musikproduktionen der Fall ist. „Räumliche und klangliche Vorgaben
38
Filmmusikproduktion
sind nur bei absoluter Musik von Bedeutung.“ 1 bemerkte Bernd Wefelmeyer. Das bedeutet,
dass teilweise dogmatische Hörerwartungen, die bei autonomen Musikproduktionen
auftreten können, nicht eingehalten werden müssen. Mitunter können z.B. Instrumentengruppen dynamisch stark eingeschränkt werden, um sie im späteren Gesamtgefüge
leichter in den Vordergrund mischen zu können.
Dafür muss bei der Mischung von Filmmusik die spätere Wiedergabesituation im Kino
berücksichtigt werden. Auf jene Anforderungen müssen das Bass- und Centermanagement sowie die Ausprägung der Surround-Anteile und weitere Parameter eingestellt
werden [GSKö]. Des Weiteren ist es üblich Filmmusikmischungen in Tonstudios
durchzuführen, die auf die Bearbeitung von Musik ausgelegt sind. Dies bedeutet, dass
nicht auf Kino-Hornlautsprechern und eventuell mit zwei diskreten SurroundLautsprechern gearbeitet wird. Der Mischtonmeister muss die Wiedergabebedingungen im Kino kennen und seine Mischung daraufhin ausrichten.
In der Regel wird bei einer Musikmischung zunächst eine Einstellung für den
Gesamtklang gefunden. Wenn dies abgeschlossen ist, werden zeitliche Änderungen
der einzelnen Parameter automatisiert2. Auf diese Weise können einzelne Parameter,
wie Pegel, Filter oder Sends, sukzessive eingestellt werden, ohne dass die Einhaltung
der zuvor eingestellten Arbeitsschritte nochmals überprüft werden muss. Am Ende der
Mischung wurde das Mischpult so programmiert, dass zu den entsprechenden
Zeitpunkten die erarbeiteten Einstellungen automatisch aufgerufen werden. Im
Folgenden werden die wesentlichen Kernpunkte einer Filmmusikmischung beleuchtet.
3.6.1 Mischungsvorbereitung
Ziel der Mischungsvorbereitung sollte es sein, die technisch zum Teil recht komplexen
Arbeitsprozesse weit voranzutreiben oder abzuschließen, um anschließend Raum für
künstlerisches und kreatives Arbeiten zuzulassen. Dazu gehört es, sich im Vorfeld
darüber Gedanken zu machen, welche Ausspiele angefordert sind und wie diese
technisch bewerkstelligt werden können. Wichtig ist es, das Mischpult so zu konfigurieren, dass intuitives und schnelles Arbeiten möglich wird. Außerdem ist bereits im
Vorfeld der Mischung zu bedenken, welche Outboardgeräte bzw. Effekte eventuell
zum Einsatz kommen können und wie diese eingebunden werden müssen.
1
2
persönliches Gespräch mit Bernd Wefelmeyer [GBWe]
Bereits in den 70er Jahren entwickelte die Firma NEVE die Option der Fader-Automation (NECAM). [WWW07] Über
die motorisierten Fader ließen sich die exakten Faderstellungen an den jeweiligen zeitlichen Positionen abspeichern.
Heutige Digitalpulte sind in der Lage sämtliche Parameter, wie Panning, Send-Level, Equalizer, Kompression und
Routing abzuspeichern.
39
Filmmusikproduktion
Nur durch eine durchdachte Mischungsvorbereitung ist kreatives Arbeiten ohne
technisch bedingte Unterbrechungen möglich. Michael Paul Stavrou schlägt eine
Vorgehensweise bei der Mischung vor, die dafür sorgen soll, dass mehr Raum für
künstlerisches Arbeiten entsteht1:
•
mit dem Spurplan in der Hand die Kanalbelegung und Beschriftung des
Mischpultes im Hinblick auf eine intuitive Bedienung der einzelnen Elemente
einrichten. Währenddessen sollte ein Cue wiedergegeben und abgehört werden.
•
Routing
•
Platzierung der verschiedenen Bestandteile im Panorama
•
Filterung und Equalising
•
Kompression
•
Einstellung der Balance
•
Kunsthall und Effekte
•
Automatisierte Faderbewegungen
Diese Vorgehensweise ist als Vorschlag und nicht als Richtlinie zu verstehen. In den
folgenden Kapiteln wird auf Besonderheiten einer orchestralen Filmmusikmischung
eingegangen.
3.6.2 Laufzeitkorrektur
Da für die Filmmusikmischung jede Möglichkeit der Klangeinstellung offen bleiben
soll, werden während der Aufnahme zahlreiche Mikrofone aufgestellt. Dabei erreicht
der Schall eines Instruments das dafür vorhergesehene Stützmikrofon zeitlich eher als
das Hauptsystem. Der Laufzeitunterschied zwischen einem z.B. acht Meter entfernten
Xylophon-Stützmikrofons und dem Hauptsystem beträgt bei einer Schallgeschwindigkeit von 343m/s genau 23,323 Millisekunden2. Der Unterschied ist bei vielen Instrumenten nur schwer wahrnehmbar, aber die Transienten im Signal werden doppelt und
damit unpräzise wiedergegeben. Dies fällt besonders bei perkussiven Instrumenten
mit starken Transienten auf. Hinzu kommen noch die Laufzeitunterschiede zu den
weiteren Stützmikrofonen, die das Klangbild zusätzlich verwaschen. Wenn das
Xylophonsignal beispielsweise stärker eingesetzt werden soll, kann es auftreten, dass
1
2
Michael Paul Stavrou „Mixing with your mind“ [MM03]
Als Faustregel
gilt: 3 Millisekunden Verzögerung
bei 1
Meter Abstand. Auf
der
Seite
http://www.sengpielaudio.com/Rechner-schallweg.htm gibt es einen Tontechnik-Rechner für Laufzeiten und
Schallwege [WWW17]
40
Filmmusikproduktion
das Instrument in der Wahrnehmung näher in den Vordergrund tritt oder zwei
Anschläge wahrgenommen werden, anstatt lediglich einen präsenteren Klang zu
erhalten. Dem kann durch Einsatz eines Delays zur Laufzeitkorrektur vorgebeugt
werden.
Abb. 11 Grenzwertfestlegung für die Signalverzögerung der Stützmikrofone als Funktion
des Pegelverhältnisses und des Abstands nach Sengpiel
Grundlegend sollte entschieden werden, ob die Mischung nach dem Prinzip der
Intensitätsstereofonie oder der Laufzeitstereofonie angefertigt werden soll. Bei
Intensitätsstereofonie wird das Direktsignal über die Stützmikrofone wiedergegeben
und der Raumeindruck durch das Hauptsystem vermittelt. Erst nachdem die ersten
Reflexionen über das Hauptsystem wiedergegeben wurden, sollte der künstliche
Nachhall einsetzen. Dies wird über die Dauer des Pre Delays1 am Hallgerät eingestellt.
Da die Lokalisation der Instrumente über die Stützsignale erfolgt, müssen diese
entsprechend ihrer Aufstellung im Ensemble im Panorama positioniert werden, damit
sie mit den über das Hauptsystem wiedergegebenen Positionen übereinstimmen.
Dennoch ist es in der Praxis üblich, dass die Stützsignale entgegen ihrer ursprünglichen Aufstellung im Orchester positioniert werden, um dem Zuhörer die gewünschte
Lokalisation der Instrumente zu vermitteln. Diese Vorgehensweise kann jedoch zu
1
Mit dem Pre Delay wird die Dauer eingestellt, die zwischen Anregung des Effektgerätes bis zur Wiedergabe des
künstlichen Nachhalls vergehen soll.
41
Filmmusikproduktion
lautstärkeabhängigen Positionswechseln der Instrumente führen, da Direktschall des
gestützten Instruments ebenfalls auf das Hauptsystem trifft. Besser ist es die Aufstellung der Musiker bereits während der Aufnahme so zu gestalten, wie es für die
Mischung optimal ist. Dies ist aber aus Gründen des Zusammenspiels und gegenseitigen Hörens untereinander nicht immer möglich.
Ein auftretender Effekt bei dieser Vorgehensweise ist, dass durch die starke Verwendung der Stützmikrofone die Darstellung einer Tiefenstaffelung innerhalb der
Instrumente des Orchesters kaum ausgeprägt ist. Diese kann durch eine Laufzeitverzögerung einzelner Stützsignale nachempfunden werden.
Abb. 12 Intensitätsstereofonie
Abb. 13 Laufzeitstereofonie
Umgekehrt verhält es sich bei der Laufzeitstereofonie. Zunächst werden der Direktschall und die ersten Reflexionen über das Hauptsystem wiedergegeben. Nachfolgend
treffen die Direktsignale der Stützen ein. Dafür müssen die Stützsignale nicht nur mit
der entsprechenden Laufzeitverzögerung versehen werden, die der Schall vom
Instrument bis zum Hauptsystem benötigt, sondern es muss zusätzlich noch eine
weitere Verzögerung hinzugefügt werden, um die Dauer bis zum Eintreffen der ersten
Reflexionen des Aufnahmeraumes auf dem Hauptsystem zu überbrücken. Das
Direktsignal wird als erstes über das Hauptsystem wiedergegeben, welches die
Lokalisation der Instrumente ermöglicht [GSKö].
Wie genau mit der Laufzeitkorrektur umgegangen wird, bleibt dem Tonmeister oder
der Tonmeisterin selbst überlassen. Zu Zeiten rein analoger Signalverarbeitung war die
Erzeugung einer sehr genau einstellbaren Verzögerung nicht realisierbar. Diese ist erst
seit Einführung der digitalen Audiosignalverarbeitung möglich.
42
Filmmusikproduktion
Die ohne Laufzeitkorrektur auftretenden Effekte können gewünscht sein, damit der
Gesamtklang diffuser und weicher wird oder bei der Augmentation eines Instrumentes
dieses schneller in den Vordergrund tritt. Es können pauschal alle Stützmikrofonsignale, die sich hinter den Streichern befinden um 20ms verzögert oder es kann für jedes
Stützmikrofon die genaue Laufzeit berechnet werden. Für letztere Variante empfiehlt
es sich, am Tag der Aufnahme einen Klatscher aufzunehmen, während man sich
mitten im Orchester befindet. In der DAW ist dann der Impuls auf jeder Spur und
damit auch der jeweilige Laufzeitunterschied sichtbar.
3.6.3 Klangfarbe
Es gibt kaum Regeln zur Bearbeitung der Klangfarbe. Wichtigstes Werkzeug sollte das
Gehör sein, wobei dramaturgische sowie genretypische Vorstellungen mitbeachtet
werden müssen. Darüber hinaus gibt es jedoch rein praktische Überlegungen, die bei
der Einstellung der Filter und EQs einbezogen werden können.
Um eine Überlagerung tieffrequenter Signalanteile einzudämmen, werden häufig
Stützmikrofonsignale unterhalb der tiefsten Frequenz beschnitten, die von den
aufgenommenen Schallquellen wiedergegeben werden können. Auch das CenterSignal des Decca-Trees kann unterhalb von 100Hz beschnitten werden, „damit die
tieffrequenten Anteile bei seitlicher Lokalisation nicht in die Mitte ziehen“1. Diese Vorgehensweise ist bei der Ausgestaltung des Bassmanagements hilfreich.
Bei der Bearbeitung der Klangfarbe einzelner Instrumente sollten die jeweiligen
Haupt- und Nebenformanten2 bekannt sein. Es ist von Vorteil zu wissen, in welcher
Lage die entsprechenden Formanten zum Ausdruck kommen. Die Anhebung oder
Absenkung dieser führt zu einem veränderten Präsenzeindruck des Instruments.
Zur Anpassung der Stützsignale in das Gesamtklangbild ist es möglich, die hohen
Frequenzen etwas abzusenken. Dies kann notwendig sein, da durch die nahe Mikrofonierung der Anteil hoher Frequenzen auf dem Stützmikrofon stark ausgeprägt ist. In
diesem Frequenzbereich befinden sich auch überbetonte Musiziergeräusche wie z.B.
Luftgeräusche bei Holzblasinstrumenten.
Die tontechnischen Möglichkeiten zur Bearbeitung der Klangfarbe sind derzeit noch
relativ ungenau. Um bessere Ergebnisse erzielen zu können, sollte bereits während der
Aufnahme das Mikrofon entsprechend der Richtwirkung des Instruments und der
gewünschten Klangfarbe positioniert werden [GSKö].
1
2
Andreas Gernemann „Decca Tree – gestern und heute“, Seite 15 [DT03]
Formant: Bereich des Spektrogramms, in welchen die Partialtöne besonders hervorstechen [AM99]
43
Filmmusikproduktion
3.6.4 Dynamik
Klanggestaltende Mittel werden stets in Abhängigkeit von musikalischem Material
und der Art des Films angewendet. Allgemein kann bemerkt werden, dass Musik im
Film nur so viel wie nötig und so wenig wie möglich in der Dynamik eingeschränkt
wird [GMSc]. Abhängig von weiterem Soundmaterial der jeweiligen Szene muss die
Musik manchmal stärker dynamisch eingefasst werden, damit sie trotz der Überlagerung mit weiteren Klangelementen noch hörbar ist. Ist das Durchdringen der Musik
aber nicht nötig oder nicht gewünscht, so wird auch nicht weiter in die Dynamik
eingegriffen. Die Bearbeitung der Musik unterliegt klar den ästhetischen Anforderungen des Films. Beispielsweise werden einzelne Instrumente oder Sektionen vergleichsweise stark komprimiert, um deren Melodiebögen in Szenen mit besonders
dichter Tongestaltung adäquat zu formen und einsetzen zu können.
Unter Dynamik ist jedoch nicht nur die Einebnung des Materials durch einen Kompressor zu verstehen. Mit Hilfe motorisierter Fader können künstlerische Lautstärkeveränderungen über einen Zeitverlauf vorgenommen und automatisiert werden, so
dass die ausgeführten Faderbewegungen bei jedem folgenden Durchgang exakt vom
Mischpult wiedergegeben werden. Diese dynamischen „Fahrten“ können sowohl zur
Unterstützung der musikdramaturgischen Intentionen und zur Heraushebung von
Melodiebögen, als auch zur lebendigeren Ausgestaltung der Musikmischung genutzt
werden [GSKö].
3.6.5 Balance zwischen Hauptsystem und Stützmikrofonen
Abhängig vom Hauptmikrofonsystem und dem gewünschten Klang muss das
Verhältnis zwischen Haupt- und Stützmikrofonen des Ensembles betrachtet werden.
Bei der Nutzung des Decca-Trees als Hauptmikrofonsystem werden die vorderen
Instrumente sehr präsent aufgenommen, was bei orchestraler Filmmusik meist die
Streicher betrifft. Dafür wird jedoch die auf die Entfernung bezogene Position von
Instrumenten (Tiefenstaffelung), die sich hinter den Streichern befinden, weniger
präzise erfasst. Dies kann zur Wahrnehmung von zwei Aufführungsräumen führen
(Zweiräumigkeit). Eine bessere Darstellung der Tiefenstaffelung wäre mit Hilfe eines
anderen Hauptmikrofonsystems, wie z.B. dem OCT, möglich. Um beim Decca-Tree die
relativ ungenaue Abbildung der Orchesterinstrumente bezogen auf die Tiefenstaffelung auszugleichen, müssen die Stützmikrofonsignale verwendet werden.
44
Filmmusikproduktion
Nach Eberhard Sengpiel kann grundsätzlich als Pegel für Stützmikrofone ein Bereich
zwischen -13 und -6dB und für Solistenmikrofone zwischen -4 und +3dB (jeweils
analog) genutzt werden1, wenn der Gesamtklang der Mischung vom Hauptsystem
bestimmt wird und dessen Pegel 0dB beträgt. Mit verstärktem Einsatz der Stützmikrofonsignale wird außerdem der Gesamtpegel erhöht.
Abb. 14 Leistungssumme von Haupt- und Stützmikrofon als Funktion des relativen Pegels
nach Sengpiel
Die Verwendung des Hauptmikrofonsystems macht etwa 80% des Gesamtklangs einer
Orchestermischung aus. Die automatisierte Verwendung der Stützmikrofone verändert dynamisch die Gewichtung einzelner Orchesterelemente und somit die Klangfarbe der Mischung2.
Wie stark die Stützsignale verwendet werden, ist auch durch eine eventuelle Laufzeitkorrektur dieser bedingt.
1
2
Siehe www.semgpielaudio.de die PDF mit dem Titel „Pegeladdition von Stützmikrofon und Hauptmikrofon“
Interview mit Alan Meyerson auf http://www.pensadosplace.tv/2012/01/10/episode-50-allan-meyerson/
[WWW02]
45
Filmmusikproduktion
3.6.6 Räumlichkeit
Filmmusik muss sich häufig „gegen“ Dialog und Effekte behaupten. Dies gelingt
besser über eine direktere Mikrofonierung der Instrumente und die damit verbundene
geringere Räumlichkeit, welche durch eine stärkere Prägnanz der Transienten zu
einem griffigeren Signal führt. Deshalb kann bei Filmmusik grundsätzlich von einem
direkteren Klangbild gesprochen werden.
Dennoch unterscheiden sich die Ansichten verschiedener Musiktonmeister im Umgang
mit Kunsthall. Es wird berichtet, dass der Hall bei Filmmusikmischungen zunehmend
dezenter eingesetzt wird, damit dieser bei der finalen Filmmischung passend zu allen
anderen Klangelementen hinzugefügt werden kann. Soll im Anschluss eine CD des
Soundtracks veröffentlicht werden, ist in diesem Fall eine erneute Mischung mit
stärker ausgeprägter Räumlichkeit notwendig1.
Andererseits wird der sparsamere Halleinsatz für die Musikmischung, die im fertigen
Film verwendet werden soll, mit der Begründung abgelehnt, dass der Hall von
anderen Geräuschen überdeckt wird2. Außerdem wird die Bestimmung der Räumlichkeit nur ungern aus der Hand gegeben. Das Mischen von Musik ohne Verwendung
von Kunsthall wird als schwierig betrachtet.
Ferner unterscheiden sich die Herangehensweisen im Mehrkanalbetrieb. Beliebt ist
sowohl die Verwendung zweier Stereohalls, „einen für die Front und einen für den
Surround“ [GMSc], als auch die Nutzung eines 5.0 Halls.
Bei der künstlichen Nachverhallung einzelner Instrumente gibt es verschiedene
Herangehensweisen, die jeweils ihre Berechtigung haben. Mitunter werden perkussive
Elemente mit einer anderen Halleinstellung versehen als die übrigen Instrumente3.
Dabei wird die räumliche Ausprägung des Perkussionshalls intensiviert, indem z.B.
die Werte für die ersten Reflexionen (early reflections) erhöht und die Nachhallzeit
verringert werden. Durch die kürzere Dauer der Hallfahne wird das Klangbild durch
die starke Anregung des Kunsthalls nicht verwaschen. Außerdem erweckt ein durch
perkussive Instrumente angeregter Raum den Eindruck, dass das Instrument einen
hohen Lautstärkepegel von sich geben musste, welcher durch eine hohe Krafteinwirkung des Instrumentalisten erzeugt wurde. Soll ein Schlagzeug voluminös und
bedrohlich wirken, wird eine stärkere Raumantwort benötigt. Unabhängig von der
Verwendung von Kunsthall ist es daher ratsam, bereits bei der Aufnahme von
1
2
3
persönliches Gespräch mit Michael Schubert [GMSc]
telefonisches Gespräch mit Peter Fuchs [GPFu]
So gesehen bei den Tonmeistern der Bauer Studios.
46
Filmmusikproduktion
Schlagwerk Raummikrofone aufzubauen, deren Signalanteile bei der Mischung
hinzugezogen werden können.
Weiterhin ist es manchmal schwierig, Signale aus unterschiedlichen Aufnahmeräumen
zu verbinden. Oftmals kann dem begegnet werden, indem die Signale eine Kette von
Hallgeräten mit kürzeren und längeren Halleinstellungen durchlaufen. Zunächst
werden die Signale mit einer kurzen Raumantwort versorgt. Anschließend wird das
generierte Signal einem weiteren Hallgerät mit längerer Nachhallzeit zugeführt. Auf
diese Weise kann häufig ein einheitlicher Raumeindruck erweckt werden, auch wenn
die Musiker nicht im selben Raum aufgenommen wurden.
3.6.7 Besonderheiten des Tonformats
Ein weiterer wichtiger Aspekt der Filmmusikmischung liegt in der Mehrkanaligkeit.
Im Gegensatz zu autonomen Musikproduktionen, bei welchen sich aus unterschiedlichen Gründen die Verbreitung mehrkanaliger Formate leider nicht durchsetzen
konnte, wird Filmmusik zunächst (noch) in 5.1 gemischt. Der Center-Lautsprecher
wird dabei sehr vorsichtig behandelt, da dieser bei einer Kinomischung primär dem
Dialog vorbehalten ist, welcher möglichst nicht durch andere Klangelemente beeinträchtigt werden sollte.
Meist wird dem Mittenlautsprecher bei Orchestermusik nur das Center-Signal des
Hauptmikrofonsystems diskret zugeordnet [GMSc]. Dies entspricht nicht ganz den
ursprünglichen Überlegungen der Entwickler des Decca-Trees1. Die Zuordnung des
Mittensignals auf den Center führt zu einer monofonen Klangdarstellung, da der
Schall aus dem Center-Lautsprecher - auf Grund der Fronlautsprecheraufstellung auf
einer Ebene im Kino - das Publikum zuerst erreicht. Die Wiedergabe nach ITU
begegnet diesem Problem durch den gleichen Abstand aller Lautsprecher zum Hörer.
Ein möglicher Umgang mit dieser Situation bei der Wiedergabe im Kino ist die
Verzögerung des Center-Kanals2.
Stützsignale werden (wenn überhaupt) über den Divergenz3-Regler anteilig dem
Center-Lautsprecher beigemischt. Ebenso wird die Darstellung der Stützsignale über
Phantomschallquellen im Panorama als hinreichend betrachtet. Alan Meyerson
erachtet es zudem für wichtig, dass Elemente, die mittig wahrgenommen werden
sollen, gleichmäßig auf die drei Frontkanäle verteilt werden [WWW02]. Ein Grund
1
2
3
Der Decca-Tree war ursprünglich ein stereofones Hauptsystem, welches durch die Verwendung eines Mittenmikrofons eine größere Basisbreite zwischen linkem und rechtem Mikrofon ermöglichte, siehe A 3.3.1.
siehe Diplomarbeit von Stefan Haberfeld [DASH]
Divergenz: Regler zur Verteilung eines Signals auf die umliegenden Lautsprecher. Dadurch ist die Wiedergabe der
Signale nicht mehr diskret, was zu einer Beeinflussung der Phasenlage und zu Kammfiltereffekten führen kann.
47
Filmmusikproduktion
hierfür ist, dass beispielsweise ein Zuschauer, der im Kino links sitzt, den Centerlautsprecher von rechts wahrnimmt. Laut Meyerson ist bei einer Musikmischung fürs Kino
der Center-Lautsprecher nicht als Mittelpunkt des Panoramas zu verstehen.
Die Surround-Kanäle werden gerne zur Umhüllung des Zuhörers genutzt. Deshalb
werden diese, über die eventuell schon bei der Aufnahme aufgestellten Raummikrofone hinaus, für zusätzlichen Kunsthall und flächige Signale genutzt. Von der Verwendung der Surrounds für direkte oder perkussive Signale wird jedoch meist abgeraten,
da die seitliche und vor allem rückwärtige Lokalisation beim Menschen nicht besonders gut entwickelt ist. Außerdem soll die Filmmusik den Zuschauer nicht dazu
bringen, sich von der Leinwand abzuwenden. Hinzu kommt der Umstand, dass die
Surround-Lautsprecher in von Dolby zertifizierten Kinos meist bandbegrenzt sind.
Trotzdem können, abhängig vom vorhandenen Material, dem Genre des Films und der
Offenheit des Regisseurs für Experimente, kreative Surround-Mischungen der Musik
angefertigt werden, wenn sie zuvor konzipiert und mit allen verantwortlichen
Beteiligten abgesprochen wurden [GMSc].
Auch der LFE-Kanal1 wird von Fall zu Fall und abhängig vom Tonmeister unterschiedlich behandelt. Zuweilen wird er diskret mikrofoniert und gefiltert ausgeliefert [GPFu].
Da das Wiedergabesystem in den Kinos variieren kann, sollten die Signale auf dem
LFE-Kanal oberhalb 120Hz beschnitten werden. Ein Vernachlässigen der Begrenzung
kann bei nicht optimal eingestellten Subwoofern zu einer Überhöhung des Pegels
tieffrequenter Effekte und zu einem dumpfen Gesamtklangeindruck führen. Es ist
zudem unsicher, ob und wie der Subwoofer in den verschiedenen Kinos funktioniert.
Aus diesem Grund sollte das Bassmanagement nicht auf den LFE-Kanal aufgebaut
werden [WWW02]. Wenn keine bestimmten Elemente, wie Bässe oder Trommeln
zugegen sind, die anteilig in den LFE-Kanal geroutet werden können, so wird er auch
nicht zwangsläufig bedient [GMSc].
Außerdem sollte berücksichtigt werden, dass die Wiedergabe des LFE-Kanals bei
Filmproduktionen sowohl im Kino als auch zu Hause mit einer Pegelanhebung von
+10dB erfolgt2. Somit sollen Übersteuerungen hochpegeliger Signale bei der digitalen
Aufnahme verhindert werden. Bei der Filmmusikmischung in einem Musikstudio
muss diese Anhebung wiedergabeseitig nachempfunden werden.
1
2
LFE: Low Frequency Effect
siehe Recommendation ITU-R BS.775-3 [ITU12]
48
Filmmusikproduktion
3.6.8 Dialog und Effekte bei der Musikmischung
Bei der Musikmischung sind angelieferte O-Ton Spuren sehr willkommen. Sie
ermöglichen einen tieferen Eindruck über die Geschehnisse und dramaturgischen
Abläufe im Film als es das Bild allein kann. Auch Geräusch- und Effektspuren wirken
sich positiv auf die Musikmischung aus, da dadurch Überlagerungen in den verschiedenen Soundebenen vermieden werden können. Leider ist es aber die Regel, dass
lediglich der Originalton, manchmal noch nicht einmal geschnitten, zur Verfügung
steht.
Dramaturgisch wichtige Szenen werden häufig von allen Gewerken sehr aufwändig
gestaltet, sowohl im Sounddesign als auch in der Komposition. Dies führt während der
Endmischung zu Kompromissen, mit welchen die Beteiligten nicht immer zufrieden
sind. Eine bessere Kooperation zwischen Tongestaltern und Komponisten während des
Entstehungsprozesses wäre die effektivste Möglichkeit, das Potential der Tonspur für
das jeweilige Projekt voll auszuschöpfen.
Alan Meyerson berichtet, dass er seine Musikmischungen unter Verwendung der
bereits angefertigten Vormischungen von Dialog und Effekten durchführt. Dadurch
kann er abschätzen, ob die Musik eventuell von anderen Klangelementen maskiert
wird. Gemeinsam mit dem Komponisten können dann wichtige musikalische Inhalte
zeitlich leicht verschoben werden, damit sie im Zusammenspiel mit Dialog und
Effekten wahrgenommen werden können [WWW02].
Weiter könnten während der Musikmischung einige Elemente, sowohl im spektralen
Bereich als auch in der Positionierung im Surround-Schallfeld, so gemischt werden,
dass sie bereits vorliegende Toneffekte unterstützen. Diese Zusammenarbeit ist jedoch
auch bei großen amerikanischen Produktionen leider die Ausnahme [EDBe].
3.6.9 Auslieferung der Mischung
Ein wichtiger Aspekt der Musikmischung für Filme ist neben der Erstellung eines alle
Elemente enthaltenden Mixfiles die Anfertigung spezifischer Stems. Sie erleichtern
während der finalen Filmmischung die Anpassung der gemischten Musik an die
jeweilige Szene. Ein Stem beinhaltet die bearbeiteten Signale eines Teils der gesamten
Mischung, wie beispielsweise das Hauptsystem oder einzelne Instrumentengruppen.
Die Addition aller Stems ergibt die gesamte Musikmischung, in die oftmals nicht
weiter eingegriffen wird. Trotzdem bleibt dem Film-Mischtonmeister oder der FilmMischtonmeisterin die Möglichkeit offen, bei Bedarf bestimmte Bestandteile zu
verändern. Im Optimalfall muss nicht mehr in die Balance der einzelnen Instrumentengruppen eingegriffen werden. Sollte es aber doch einmal aufgrund von Überlage49
Filmmusikproduktion
rungen im Frequenzgang mit dem Dialog oder dem Sounddesign notwendig sein,
klangliche Veränderungen an der Musik vorzunehmen, so ist es von Vorteil, wenn
lediglich die Stems behandelt werden müssen, die für diesen Zweck relevante
Signalanteile enthalten.
Gängig ist die Anfertigung eines Orchester- oder Hauptstems, der das Hauptmikrofonsystem und somit den Gesamtklang des Orchesters inklusive Aufnahmesaal liefert.
Hinzu kommen, je nach Wunsch des Filmmischtonmeisters, Stems einzelner Instrumentengruppen, wie Holz- oder Blechbläser. Bei sogenannten Hybridscores1 kommen
Stems für zusätzliche Perkussion, Synthesizer oder weitere Elemente wie Gitarren oder
Chöre hinzu. Diese können aus verschiedenen nach Bedarf gestalteten Spurbelegungen
(Stereo, LCR, 5.0, 5.1) bestehen. Außerdem werden wichtige Solostimmen getrennt
ausgeliefert.
Dezidierte Hallstems erstellen die Musiktonmeister nur auf Anfrage. Die Bestimmung
des Anteils von Rauminformationen stellt einen wichtigen Teil der Musikmischung
dar, so dass die Beeinflussung dieses Parameters ungern aus der Hand gegeben wird.
Diese ermöglicht weiter reichende Eingriffe in die Filmmusik, als dies mit Stems, die
bereits Hall enthalten, möglich ist.
In jedem Fall ist es sinnvoll und wichtig, flächige Signale von perkussiven Elementen
getrennt zu halten2, da besonders bei diesen Signalen erst in der Filmmischung eine
endgültige Gewichtung im Zusammenspiel mit Dialog und Effekten vorgenommen
werden kann.
Oft werden Filmmusiken nachträglich auf einer Soundtrack-CD ausgewertet. Da das
Budget normalerweise für eine separate CD-Mischung nicht ausreicht, wird diese aus
den bereits erstellten Stems angefertigt. Ohne den Einfluss von Bild und O-Ton können
andere, musikalische Abstimmungen zwischen den einzelnen Instrumenten und deren
Räumlichkeit gefunden werden. Anteile der Rhythmusgruppe oder der Solisten zum
Orchester können nochmals nach anderen Gesichtspunkten beurteilt werden. Meist
wird diese Mischung mit stärkerer Gewichtung hoher Frequenzen gestaltet und mit
mehr Kunsthall versehen [GMSc].
1
2
Hybridscore - Filmmusik bestehend aus synthetischen Sounds und echtem Orchester
persönliches Gespräch mit Martin Steyer [GMSt]
50
Filmmusikproduktion
3.7 Film-Mischung
Bei der finalen Mischung des Films kommen alle Klangelemente zusammen. Während
dieser Phase muss sich der Film-Mischtonmeister oder die Mischtonmeisterin auf die
inhaltlichen Aspekte des Films konzentrieren. Wegen der oft großen Spurenanzahl und
einer Vielzahl von Tonelementen, die es zu berücksichtigen gilt, ist es üblich zunächst
einzelne Vormischungen für die verschiedenen Bereiche des Soundtracks durchzuführen. Diese Bestandteile sind üblicherweise Dialog, Atmosphären, Foleys und Toneffekte. Auch die Filmmusikmischung kann als Vormischung bezeichnet werden. Ziel
hierbei ist es, einzelne Elemente sinnvoll zusammenzufassen und im Hinblick auf die
endgültige Gewichtung im Zusammenspiel mit allen Tonelementen zu bearbeiten.
Deshalb ist es für die Vormischung eines Tonelementes wichtig, sogenannte Simulationsmischungen der jeweils anderen Tonbestandteile, zu welcher auch die Filmmusik
gehört, vorliegen zu haben. Dennoch sind Vormischungen so gestaltet, dass weiterhin
tief greifende klangliche Veränderungen möglich bleiben.
Während der Vormischung von Dialog (O-Ton, ADR und Voice Over) und Sounddesign (Effekte, Foleys, Atmos) werden realistisch wirkende oder fiktionale Räumlichkeiten gestaltet und einzelne Elemente im Raum positioniert sowie der Dialog auf
Sprachverständlichkeit und Entfernung von Störgeräuschen hin bearbeitet. Die
Vormischung der Musik wurde aber in der Regel in einem Musikstudio und nicht in
einem Mischkino angefertigt. Dies hat zur Folge, dass die Musik unter anderen
räumlichen Bedingungen, oftmals anderer Lautsprecheraufstellung (ITU im Gegensatz
zu Kino) und auch auf Lautsprechern mit anderen Klangeigenschaften (Fullrange
Lautsprecher im Gegensatz zu Hornsystemen) gemischt wurde. Da auch während der
Filmmischung nicht mehr in jedes musikalische Detail eingegriffen werden kann, ist
vom Filmmusikmischtonmeister eine genaue Kenntnis der Wiedergabebedingungen
im Kino gefordert.
Bei der finalen Filmmischung werden die endgültigen Relationen zwischen Dialog,
Sounddesign und Musik hergestellt. Häufig wird die Filmmusikmischung so genutzt,
wie sie angeliefert wurde, bis sie mit anderen Klangelementen kollidiert. Der Frequenzgang, der Hallanteil und das Bassmanagement werden dann entsprechend dem
Wiedergabesystem im Kino angepasst. Um schnell die Sprachverständlichkeit zu
verbessern, wird der Center-Kanal der Musikmischung im Frequenzbereich der
Sprachverständlichkeit (etwa bei 2 und 4 kHz) während Dialog stattfindet abgesenkt.
51
Filmmusikproduktion
Ein Grund für diese Vorgehensweise ist die oftmals knapp bemessene Zeit, die
während einer kostenaufwändigen Filmmischung zur Verfügung steht. Außerdem ist
die Filmmusik nur eines von mehreren Elementen, die es auf der tonlichen Ebene eines
Films zu berücksichtigen gilt.
3.7.1 Verwendung stereofoner Musik
Manchmal kann es vorkommen, dass eine Musik in den Film gemischt werden muss,
die nur stereo- oder monofon vorliegt und an die 5.1 Wiedergabe angepasst werden
muss. Dies ist besonders bei der Verwendung von bereits bestehenden Songs als
Filmmusik der Fall. Der einfachste Weg um mehrere Mehrkanalsignale zu generieren,
ist die Nutzung eines mehrkanalfähigen Hallgerätes mit sogenannter „Upmix“Funktion. Die einzelnen Bearbeitungsschritte des Gerätes können jedoch auch
nachempfunden werden.
Um aus einer Stereospur ein Signal für den mittleren Lautsprecher zu erhalten, kann
die Dolbymatrix genutzt werden. Mit ihr lassen sich aus dem Stereosignal vier Spuren
erstellen. Je eine für den linken, mittleren und rechten Lautsprecher und ein gegenphasiges, monofones und bandbegrenztes Signal, welches für den Surround vorgesehen
ist. Was in der Matrix geschieht ist im Prinzip die Unterteilung des Stereosignals in ein
Mitten- und Seitensignal1. Die drei vorderen Lautsprecher im Kino werden dann mit
dem auf diese Weise generierten Center-Signal und den unbehandelten Stereosignalen
beschickt.
Monofone Signale können mit einem Stereosynthesizer (z.B. von Orban) „stereoisiert“
werden. Dies geschieht über inverse Filterkurven, die trotzdem eine stabile Mitte
hinterlassen. Um Signale für die Surround-Lautsprecher zu generieren, können die
Signale für vorne Links und Rechts verzögert und mit Hall versehen werden. Eine
Eingrenzung des Frequenzgangs wird ebenfalls oft vorgenommen. Es kann aber auch
aus dem monofonen Surround-Signal der Dolbymatrix über inverse Filterkurven ein
pseudostereofones Signal erzeugt und für die beiden Surround-Kanäle verwendet
werden [GMSt].
1
Für die M/S Stereofonie gelten folgende Formeln: M=L+R; S=L-R; L=M+S und R=M-S. Ein Extrahieren des MittenSignals erfolgt, indem man die linke und rechte Spur auf eine Monospur zusammen mischt. Das Seitensignal erhält
man, wenn einer der beiden Kanäle zuvor in der Phase gedreht werden.
52
Filmmusikproduktion
3.7.2 Positionierung von Musik im diegetischen Raum
Eine Besonderheit bei der Mischung von Musik für einen Film ist es, wenn diese aus
dem Handlungsraum (Sourcemusik) erklingen soll. Innerhalb des Films wird sie
beispielsweise aus einem Radio, Fernseher oder einer Beschallungsanlage wiedergegeben.
Die Aufgabe des Mischtonmeisters besteht darin, den Klang der Filmmusik an die
jeweilige Wiedergabesituation im Film anzupassen. Dazu stehen ihm verschiedene
gestalterische Mittel zur Verfügung. Da große Teile des Originaltons bzw. des Dialogs
monofon über den Centerlautsprecher wiedergegeben werden, wird auch Musik, die
aus einem Lautsprecher erklingen soll meist monofon verwendet. Zur Erzeugung des
gewünschten Klangeindrucks stehen neben Filtern und Equalisern auch diverse
Plugins zur Verfügung, die das Signal mit einer Impulsantwort des jeweiligen
Wiedergabegerätes falten. Neben Kanalanzahl und Frequenzgang wird auch die
Räumlichkeit der Musik den im Film vorherrschenden akustischen Gegebenheiten
angepasst.
Übergänge innerhalb eines Musikcues aus der diegetischen in die nicht-diegetische
Ebene oder umgekehrt kommen häufig vor und werden während der Filmmischung
vom Mischtonmeister gestaltet.
53
Konzertproduktionen
B. Konzertproduktionen
Nicht nur Filmmusikproduktionen zählen zu den bildbezogene Musikproduktionen.
Auch wenn ein Konzert eines Orchesters oder einer Band mit mehreren Kameras
mitgeschnitten oder übertragen wird, kann von einer bildbezogen Musikproduktion
gesprochen werden. Es gibt zahlreiche Beispiele, wie Musikübertragungen im
Fernsehen, Opernproduktionen im Kino oder Live-DVDs populärer Künstler, die den
Bedarf von Aufnahmen musikalischer Aufführungen mit Bild belegen.
1 Inhaltliche Besonderheiten von Konzertproduktionen
Die Besonderheit eines Auftrittes im Gegensatz zu einer Aufnahme im Tonstudio liegt
darin, dass die Künstler unverfälscht ihre Fähigkeiten unter Beweis stellen können. Sie
haben die Möglichkeit, die Musik ohne Unterbrechungen an einem Stück einem
Publikum darzubieten, auf welches sie reagieren können. Anders als bei Studioproduktionen, in denen einzelne Abschnitte bis zur Perfektion wiederholt werden können
und oft einzelne Musiker getrennt voneinander ihre Stimmen einspielen1, kann aus
dem gemeinsamen Spielfluss heraus eine unikale Energie entstehen.
Im Zeitalter der digitalen Perfektionierung von Ton und Bild scheint eine authentische
Aufführung für viele Menschen einen besonderen Reiz auszuüben. Hinzu kommt die
Interaktion, die zwischen Publikum und Bühne entsteht. Dieses einmalige Ereignis
lässt sich jedoch technisch nicht einfach festhalten. Deshalb muss die Darstellung des
Konzertes auf eine Weise erfolgen, die dem Zuschauer, der nicht Teil des Geschehens
sein konnte, das entsprechende Gefühl des Veranstaltungsabends vermittelt.
1
Um ein gemeinsames Spielgefühl zu erzeugen, wird bei Studioproduktionen oftmals zunächst eine Aufnahme mit
allen Musikern durchgeführt. Im weiteren Verlauf wird den einzelnen Musikern über Kopfhörer der gemeinsam
eingespielte Take als Grundlage zugespielt, um darauf ihre Passagen exakt und ohne Übersprechen einzuspielen.
54
Konzertproduktionen
2 Anforderungen des Zielmediums
Für den Produktionsablauf ist entscheidend, ob es sich um eine Live-Übertragung
eines Konzertes handelt, in deren Darbietung nicht mehr künstlich eingegriffen
werden kann, oder ob es sich um einen Mitschnitt handelt, der nachträglich mitunter
stark bearbeitet wird.
Live-Mitschnitte werden, wenn sie auf einer DVD erscheinen sollen, häufig in 5.1
produziert, obwohl der Konsument das Endergebnis meist stereofon erleben wird.
2.1 Übertragung
Konzert-Übertragungen werden überwiegend im Fernsehen oder im Internet ausgestrahlt bzw. gestreamt. Doch zunehmend wird auch das Kino als Veranstaltungsraum
genutzt, um ein örtlich versetztes Ereignis einer breiteren Öffentlichkeit zugänglich zu
machen.
Die Metropolitan Opera in New York veranstaltet regelmäßig Live-Übertragungen der
Opern ihrer laufenden Spielzeit, die in großen Multiplex-Kinos angeboten werden.
Auch weitere Opernhäuser, wie das Royal Opera House in London und die Opéra
National de Paris lassen ausgewählte Veranstaltungen live übertragen.
Um dies zu bewerkstelligen ist es notwendig eine Sendestrecke herzustellen, welche
die großen Datenmengen unterbrechungsfrei übertragen kann. Im Havariefall muss
die Übertragung trotzdem gewährleistet werden. Dies stellt eine große Verantwortung
für die Zuständigen der Übertragung dar.
Außerdem ist bei der Live-Übertragung zwingend die Möglichkeit zur Klangbearbeitung mittels eines Mischpultes und eines angemessenen Abhörplatzes notwendig.
Anders als bei einem Mitschnitt, bei dem „lediglich“ die Einzelsignale1 korrekt
aufgezeichnet werden müssen, weil die Mischung zu einem späteren Zeitpunkt im
Studio erfolgen kann, muss bereits vor Ort die klangliche Gestaltung und Optimierung
der Signale für die Übertragung in das jeweilige Zielmedium erfolgen.
1
Möglich ist auch eine Aufzeichnung, die als „direct to 2-track“ bezeichnet wird. Dabei ist ebenfalls ein Mischpult
erforderlich, um eine adäquate stereofone Mischung der Einzelsignale zu erstellen.
55
Konzertproduktionen
2.2 Mitschnitt
Häufig werden Rock- oder Pop-Konzerte mitgeschnitten und anschließend für die Fans
auf DVD und Blu-ray Disc veröffentlicht. Auch Opernaufführungen, die aufgrund der
schauspielerischen Aktion auf der Bühne einen visuellen Reiz mitbringen, sind für
einen Mitschnitt mit Kameras geeignet.
Durch die Möglichkeit der wiederholbaren Betrachtung des Endprodukts ist die
Durchführung einer Postproduktion notwendig. Eventuelle Fehler und Störgeräusche
können ausgebessert werden, damit den Zuschauern eine makellose Darbietung
geboten werden kann. Zu diesem Zweck ist auch der Mitschnitt mehrerer Konzerte am
gleichen Aufführungsort und das Zusammenfügen der besten Teile von verschiedenen
Abenden nicht unüblich.
Der Vorteil eines Mitschnittes im Gegensatz zu einer Übertragung ist, dass während
der Aufführung der Aufbau einer aufwändigen Sendestrecke eingespart werden kann.
Die klanglichen Unterschiede der Wiedergabe im Kino und im Wohnzimmer wurden
bereits unter A 2.1 und 2.2 erläutert. Allerdings wirkt sich die automatische dynamische Anpassung des AC3-Stroms besonders beim Downmix im DVD-Abspielgerät bei
rein musikalischen Inhalten deutlich stärker aus als bei Filmen. Dies hängt mit den
bereits erwähnten Metadaten, im Besonderen mit DialNorm1 und DRC (siehe Fußnoten
Seite 16), zusammen.
Um die vergleichsweise starke Beeinflussung des Materials zu umgehen, werden die
Mischungen eines Konzertmitschnitts oftmals in 5.1 als AC3 oder im DTS-Format2 und
unkomprimiert und ohne Metadaten in stereo gespeichert, da auf diese Weise keine
Bearbeitung der Originaldynamik bei der Wiedergabe erfolgt. DTS gehört allerdings
nicht zu den vorgeschriebenen Tonformaten der DVD-Spezifikation3, weshalb
zusätzlich immer ein AC3-Strom oder die Stereomischung in linearer Pulse Code
Modulation (LPCM) auf die DVD gepresst wird.
Dabei sollte während der Erstellung des DVD- oder Blu-ray Disc-Menüs darauf
geachtet werden, dass standardmäßig die ohne Metadaten versehene Stereomischung
wiedergegeben wird und die Mehrkanalmischung im DTS- oder AC3-Format bewusst
vom Verbraucher im Audiomenü ausgewählt werden muss. Sonst kann es vorkom-
1
2
3
Die DialNorm gibt die durchschnittliche Lautheit der Dialoge einer Mischung an. Bei Filmen erhält sie standardisiert
den Wert -27dB. Die DRC verändert Signale, die 4 bis 8dB leiser oder lauter sind, in ihrer Lautstärke, um einen für die
heimische Wiedergabesituation angemessenen eingeschränkten Dynamikumfang zu erzwingen. Bei Musik liegt die
durchschnittliche Lautheit des Programms oftmals höher. Ohne eine Messung der Lautheit führt der Standardwert 27dB zu einer nahezu kontinuierlichen Absenkung der Mischung.
DTS: Digital Theatre Systems, Mehrkanaltonsystem mit einer Datenrate von 1509kbit/s
Tonformate bei der DVD, sogenannte „Mandatory Audio Formats“, sind LPCM (nur stereo, mit hoher Datenrate,
ohne Metadaten), MPEG-2 (hat sich nicht durchgesetzt) und AC3. [DADZ]
56
Konzertproduktionen
men, dass der Zuschauer den automatischen Downmix inklusive dynamischer
Anpassung des Abspielgerätes hört. Dieses gibt nicht die ursprüngliche Mischung
wieder.
Bei der Blu-ray Disc gehört DTS mit zu den Tonformaten, die jeder Player wiedergeben
können muss1.
3 Produktionsablauf
Im folgenden Kapitel soll der Produktionsablauf eines Livemitschnitts und einer
Liveübertragung beschrieben werden. Zunächst wird in den Kapiteln auf die besonderen Produktionsstrukturen eines Livemitschnitts eingegangen. Im Anschluss werden
die Besonderheiten und Unterschiede einer Liveübertragung erläutert.
3.1 Rollenverteilung
Neben den bereits bekannten Rollen sind bei Live-Produktionen weitere Beteiligte
Personen für folgende Posten möglich. Dies bedeutet nicht, dass alle genannten
Aufgaben bei jedem Livemitschnitt oder jeder Liveübertragung übernommen werden
müssen:
•
Redaktion
•
Kamera
•
Technische Leitung
•
Bildschnitt/Bild-Ingenieur
•
MAZ-Technik
•
Lichttechnik
•
Drahtlostechnik
Ein reibungsloser Arbeitsablauf der Ton- und Bildabteilung ist bei Konzerten, die live
übertragen werden sollen, besonders wichtig. Bei Konzertmitschnitten dagegen
können Bildbearbeitung und Tonpostproduktion technisch unabhängig voneinander
durchgeführt werden.
1
siehe http://broadcastengineering.com/audio/dts-technology-mandatory-audio-format-blu-ray-and-hd-dvd-nextgeneration-disc-standards [WWW08]
57
Konzertproduktionen
3.1.1 Redaktion
Die Redaktion gestaltet bei Fernsehübertragungen die inhaltliche Planung des
Programms und erarbeitet eine geeignete Fassung, die veröffentlicht werden kann.
Redaktionelle Aufgaben befassen sich mit der Sammlung von Informationen über die
Veranstaltung, den mitwirkenden Künstlern, den aufgeführten Stücken und dem
Veranstaltungsort.
3.1.2 Technische Leitung
Der Posten des technischen Leiters tritt meist bei Live-Übertragungen für das
Fernsehen auf. Bei Konzertmitschnitten übernimmt oftmals der Tonmeister oder der
verantwortliche Kameramann die technische Planung und Verantwortung für das
jeweilige Gewerk.
Bei Konzertübertragungen kümmert sich der technische Leiter sowohl um die Belange
der Ton-, als auch der Bildseite. Er erarbeitet ein Konzept zur kompletten technischen
Umsetzung der Produktion, fertigt Listen mit dem benötigten Equipment für alle
Gewerke an und plant auch Zeiten zum Packen und Laden ein. Die Dauer für nötige
Fahrten sowie Parkplätze mit Wendemöglichkeit für die Übertragungswagen werden
von ihm mit berücksichtigt. Vor Ort ist er für die technische Umsetzung der Produktion verantwortlich.
3.1.3 Drahtlostechnik
Die Aufgabe eines gesonderten Drahtlostechnikers tritt häufig im Zusammenhang mit
Opernproduktionen auf. Deshalb werden anhand einer Opernproduktion dessen
Aufgaben beschrieben. Dort werden die Sänger meist mit einem versteckten Funkmikrofon ausgestattet. Dabei ist es wichtig, eine optimale Position für das Mikrofon zu
finden1, es so anzubringen, dass es fest sitzt, nicht raschelt und möglichst unsichtbar
ist. Oft hilft es Rücksprache mit den Masken- oder Kostümbildnern zu halten um
gemeinsam eine optimale Lösung zu finden. Der Sender, das Kabel und das Mikrofon
(wenn es nicht am Kopf des Sängers befestigt werden soll) müssen in das Kostüm
eingenäht werden, damit während der Aufführung kein Teil abfallen oder heraushängen kann, aber trotzdem die Bewegungsfreiheit der Darsteller nicht beeinträchtigt
wird. Auch darf beispielsweise das Mikrofon nicht auf der rechten Kragenseite
angebracht werden, wenn später im Spielverlauf eine andere Figur ihren Kopf auf die
1
Als Faustregel für eine gute Distanz zwischen Mikrofon und Mund des Sängers kann die Spannweite zwischen
Daumen und kleinen Finger einer gespreizten Hand als Maß genutzt werden.
58
Konzertproduktionen
rechte Schulter legen wird. Häufige Verstecke für Ansteckmikrofone sind Kragen,
Knopfleisten, Brusttaschen, Perücken, im Scheitel am Haaransatz, Mützen, Hüte und
künstliche Bärte. Dabei sollte der Vorteil berücksichtigt werden, dass am Kopf fixierte
Mikrofone bei Bewegungen und Drehungen des Kopfes ihre Klangfarbe beibehalten.
Zudem sollte die Farbwahl des Mikrofons an das Kostüm angepasst werden.
Mitunter kann es vorkommen, dass ein Darsteller sich während der Aufführung auf
der Bühne umziehen muss. In dem Fall sollte in jedem Kostüm ein Funkmikrofon
angebracht sein.
Bsp.:
Ein Sänger sollte sich während des Stückes einen Mantel aus- und später wieder
anziehen. Dafür wurde ein Funkmikrofon sowohl im Knopfloch des Mantels als auch im
Kragen des Hemdes, welches er darunter trug, angebracht. Auf diese Weise stand für
beide Situationen ein verwendbares Signal zur Verfügung, denn das Hemdmikrofon
wurde durch den Mantel verdeckt und hätte nicht genutzt werden können.
Seit dem Ausbau des LTE Datendienstes muss der Drahtlostechniker zusätzlich
sicherstellen, dass die verwendeten Funkfrequenzen zur Verfügung stehen und eine
störfreie Übertragung garantieren.
3.2 Vorbereitung
Bei Konzertmitschnitten und -übertragungen ist besondere Achtsamkeit in der
Vorbereitung notwendig. Um ein Programm aufzunehmen, welches nicht wiederholt
werden kann, muss eine Unzahl an Fehlerquellen ausgeschlossen werden. Angefangen
bei fehlenden Kabeln bis hin zu unzureichender Kommunikation mit dem
Veranstalter. Ein redundantes Aufnahmesystem kann mögliche technische Ausfälle
kompensieren.
Darüber
hinaus
kann
es
vorkommen,
dass
der
zur
Verfügung
stehende
Veranstaltungsraum nicht den optimalen Aufführungs- oder Aufnahmebedingungen
genügt.
In der Regel wird im Vorfeld ein detaillierter Ablaufplan bzw. ein Drehbuch entwickelt
und erprobt.
59
Konzertproduktionen
3.2.1 Organisatorische Planung
Über das nötige Equipment zu verfügen ist nicht der Regelfall, deshalb sollten
rechtzeitig Verleiher gefunden werden, die spezifische Geräte für eine Aufnahme
bereitstellen können.
Benötigte Geräte können sein:
•
diverse Mikrofone
•
Kabel, Multicore
•
Vorverstärker
•
Stative
•
Aufnahmecomputer
•
Word-Clock- Generator
Zu den organisatorischen Vorbereitungen gehören allerdings auch die Planung von
An- und Abreisezeiten, der Anmietung von Fahrzeugen sowie die Organisation von
Verpflegung und Übernachtungsmöglichkeiten. Diese Aufgaben werden bei großen
Produktionen vom technischen Leiter sowie der Produktionsfirma übernommen.
3.2.2 Technische Vorüberlegungen
Vor der Durchführung einer Musikproduktion müssen Informationen über Größe und
Art der Besetzung des aufzunehmenden Ensembles eingeholt werden, damit die
Anzahl der Signalwege abgeschätzt werden kann, welche aufgezeichnet werden sollen.
Bei kammermusikalischen Ensembles kann pauschal mit einem Mikrofon pro
Instrument und drei bis sieben Mikrofonen für das Hauptsystem gerechnet werden.
Allerdings ist für die Aufnahme von Tasteninstrumenten (Klavier, Orgel, evtl.
Cembalo) vorzugsweise eine stereofone Mikrofonie einzuplanen. Bei Chören kann ein
Mikrofon pro Stimmgruppe ausreichen. Bei großen Orchesterbesetzungen kann man je
nach Produktionsbedingungen nicht immer jedem Instrument ein Mikrofon zuweisen,
aber es können für die verschiedenen Stimmgruppen wiederum stereofone Stützmikrofonsysteme (z.B. Holz AB) verwendet werden.
Das Abschätzen der zu erwartenden Signalwege kann sich bei popmusikalischen
Besetzungen schwierig gestalten. Selbst eine Band bestehend aus nur drei Musikern
kann mitunter 50 Kanäle beanspruchen. Nicht selten müssen sowohl die unverzerrten
60
Konzertproduktionen
DI1-Signale von E-Gitarren und Bass, als auch die diese Signale wiedergebenden
Verstärker aufgenommen werden. Die Gitarrenboxen werden oft mit mehreren
Mikrofonen abgenommen. Keyboards und Sampler können stereofone Signale
ausgeben, was die benötigten Aufnahmespuren verdoppelt. Zudem führt dies zur
Problematik unterschiedlicher Eingangsimpedanzen.
Die Besonderheit eines Konzertmitschnitts oder einer Konzertübertragung, bei dem
das Publikum gleichzeitig beschallt wird, ist die gleichzeitige Verwendung der
Mikrofonsignale zur Beschallung und zur Aufnahme. Im Vorfeld ist mit der Beschallungsfirma über die Art und Weise der Übernahme der Mikrofonsignale zu sprechen.
Diese kann den tontechnischen Aufwand eines Mitschnitts entscheidend beeinflussen.
Im Folgenden werden verschiedene Möglichkeiten beschrieben:
•
Die Signale werden bereits auf der Bühne analog für Monitor- und FOH2Mischpult und Mitschnitt aufgeteilt. Das bedeutet, dass ein Multicorekabel zur
Weiterleitung an die Aufnahmemaschine oder den Übertragungswagen sowie
eine entsprechende Anzahl an Mikrofonvorverstärkern und Digital-Analog (DA)
Wandler eingeplant werden muss.
•
Das FOH- oder Monitorpult verfügt über ausreichend direkte Line-Ausgänge, so
dass die Aufnahmemaschine darüber beschickt werden kann. Auch hier müssen
genügend analoge Lineeingänge und DA-Wandler zur Verfügung stehen. Ein
Nachteil dieser Aufnahmemöglichkeit ist die Positionierung der Aufnahmemaschine in der Nähe des FOH- oder Monitorpultes und die daraus resultierende
sehr schlechte Abhörmöglichkeit der laufenden Aufnahme. Außerdem besteht in
diesem Fall die Abhängigkeit zur Eingangsvorverstärkung des jeweiligen
Mischpultes.
•
Die Beschallung erfolgt über eine digitale Signalverteilung und das Signal wird
über einen Digitalausgang (meist MADI3) eines Mischpultes zur Verfügung gestellt. Auf diesem Weg können sehr leicht bis zu 64 Kanäle über eine MADI Leitung und ein entsprechendes Audiointerface aufgezeichnet werden.
•
Eine Möglichkeit, die bei Live-Übertragungen vermehrt zum Einsatz kommt, ist
der Aufbau eines digitalen Netzwerkes (wie z.B. Ravenna oder RockNet). Hierbei wird das Signal bereits an der Bühne digitalisiert und in ein Netzwerk eingespeist. Alle Nutzer des Netzwerkes (Tonregie, Bildregie, Monitorpult, FOH-Pult)
können die Tonsignale abgreifen.
1
2
3
DI-Box: (direct injection) wandelt asymmetrische Signale in symmetrische Signale
FOH: Front Of House; ist die Bezeichnung des Bereichs innerhalb des Zuschauerraums, in welchem der Tonmeister
oder die Tonmeisterin die Mischung für die Live-Beschallung erstellt.
MADI: Multichannel Audio Digital Interface, digitale Schnittstelle zur mehrkanal Audioübertragung. Die
Verbindung kann aus koaxialen als auch optischen Leitungen bestehen und bis zu 32 AES/EBU-Kanäle übertragen.
61
Konzertproduktionen
Wenn die Mikrofonsignale analog übernommen werden, ist es in jedem Fall ratsam
darauf zu achten, dass die Aufnahmemaschine galvanisch von den Bühnensignalen
getrennt ist. Außerdem ist es wichtig, den Stromkreis der Beschallungscrew mit zu
verwenden, um Brummschleifen zu vermeiden. Der Anschluss an den Bühnenstrom ist
im Vorfeld der Veranstaltung zu besprechen und zu planen.
In der folgenden Abbildung ist der Spurbelegungsplan eines Live-Mitschnitts mit
analoger Signalübergabe über einen Splitter auf der Bühne zu sehen. Als Grundlage
diente die Input-Liste mit den festen Multicorebelegungen, die bei der Band immer
Verwendung fanden. Anhand dieser wurden die Signalwege auch nach ihrer möglichen Signalart in LINE und MIC unterschieden und separaten Preamps zugeordnet.
28Kanal System
Line RME
RME
ADAT 1
1.Alesis HD24
ADAT 1
ADAT 2
Preamp
Saffire 40 Pro - 1
2
3
keine WordClock i/O - 4
5
6
7
8
Mic 9
Mic 10
Mic 11
Mic 12
OctoPre 1 - 13
14
15
16
17
18
19
20
Audient - 21
22
23
24
25
26
27
28
OctoPre 2 - 1
2
3
4
5
6
7
8
OctoPre 3 - 9
10
11
12
13
14
15
16
Preamp In
1
2
3
4
5
6
7
8
1
2
3
4
5
6
7
8
1
2
3
4
5
6
7
8
1
2
3
4
5
6
7
8
1
2
3
4
5
6
7
8
Abb. 15 Beispiel eines Spurbelegungsplans
62
MuCo
13
14
22
23
15
16
24
25
30
31
32
29
1
2
3
4
5
6
11
12
7
8
9
10
17
26
27
18
19
20
21
34
35
36
37
40
41
42
43
28
33
RME
-
Signal
Sampler l
Sampler r
2. Git L
2. Git R
Bss DI
Bass pre Amp
2. Git Acc clean
2. Git Acc dirt
Voc 1
Voc 2
Voc 3
1. Acc Git
Kick
Kick
Snare top
Snare btm
Snare 2
Hat
OH SR
OH SL
Rack Tom
Floor 1
Floor 2
Ride
Bass mic
1. Git L
1. Git R
Keys l
Keys r
Piano l
Piano r
Sender Voc 1
Sender Voc 2
Sender Voc 3
Sender spare
Ambience SR
Ambience SL
Mac l
Mac r
3. Acc Git
Voc 3 spare
Syncmix
-
Signalart
line
line
line
line
line
line
line
line
mic
mic
mic
line
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
mic
line
line
line
line
mic/line
mic/line
mic/line
mic/line
mic
mic
line
line
line
mic/line
-
Konzertproduktionen
Die resultierende Anzahl der Signalwege und die Art der Signalübernahme beeinflusst
die Planung des Aufnahmesystems entscheidend. Dies kann von einer kompletten
Aufnahmeapparatur mit Vorverstärkern und DA-Wandlern bis zu einem Laptop
inklusive MADI-Interface reichen.
Bei Mitschnitten für bis zu acht Spuren bietet es sich an, einen handlichen Festplattenrecorder, wie z.B. den Tascam HSP82, zu nutzen. Diese sind mit Vorverstärkern und
DA-Wandlern ausgestattet, so dass die Komponenten nicht mehr verbunden werden
müssen und ein Computer ist ebenfalls nicht erforderlich. Je nach Modell können
Marker gesetzt und Metadaten editiert werden. Nach der Aufnahme können die Daten
mühelos per USB- oder FireWire-Schnittstelle auf einen Computer übertragen werden,
an welchem eine Bearbeitung im Detail erfolgen kann.
Für größere Musikproduktionen, die mehr Aufnahmespuren erfordern, wird in der
Regel ein computergestütztes Aufnahmesystem, wie Pro Tools, Pyramix oder Sequoia
sowie ein Mischpult und eine Abhörumgebung aufgebaut.
Bei Aufnahmen außerhalb eines Tonstudios plant der Tonmeister oder die Tonmeisterin ein mobiles Aufnahmesystem und stellt dessen Funktionalität sicher.
Soll ein musikalisches Ereignis im Fernsehen oder im Kino übertragen werden, muss
vorab sichergestellt sein, dass die gesamte Übertragungskette fehlerfrei funktionieren
wird. Dabei ist nicht nur die Signalkette zwischen Bühne und Tonregie sondern auch
die Übertragung der verkoppelten Ton- und Bildsignale von der Bildregie zum
Funkhaus zu garantieren. Dafür werden meist redundante Signalwege aufgebaut, um
im Havariefall die Übertragung zu gewährleisten.
Zudem müssen sämtliche Abläufe, wie Kamerafahrten, Bühnenumbauten sowie Aufund Abgänge einzelner Solisten zuvor geplant und geprobt werden, damit es während
der Live-Sendung nicht zu unerwarteten Situationen kommt. Daher wird für den
gesamten Ablauf der Veranstaltung ein Drehbuch verfasst, an welches sich alle
Beteiligten halten müssen.
63
Konzertproduktionen
Abb. 16 Projektphasen einer Live-Übertragung
In der Abbildung ist zu erkennen, dass die Vorbereitungsphase mit vielen Aufgaben
versehen ist, während die eigentliche Durchführungsphase überschaubar bleibt.
3.2.3 Synchronisation zum Bild
Um während der Postproduktion ein einfaches Zusammenfügen von Bild und allen
aufgezeichneten Tonspuren zu ermöglichen, ist es unerlässlich Bild- und Tonaufnahme
während eines Livemitschnitts miteinander zu verkoppeln. Dies geschieht in der Regel
über ein Timecode (TC) -Signal, welches über mobile Geräte (wie beispielsweise die
Clockit Geräte der Firma Ambient Recording) an Kameras und Tonaufzeichnungsgeräte verteilt wird.
Da nicht jedes Audiointerface über einen separaten TC-Eingang und die Möglichkeit
diesen korrekt auszulesen verfügt, gibt es verschiedene Software-Lösungen1, die ein an
einem Audioeingang anliegendes LTC2 TC-Signal auslesen und zur Steuerung einer
DAW aufbereiten können. Der anliegende LTC Timecode wird hierbei in einen MIDI3Timecode umgewandelt, mit dem nahezu jede DAW angesteuert werden kann. Beim
Schreiben der Audiodateien erhalten diese in den Metadaten eine TC-Marke mit der
exakten zeitlichen Position der DAW.
1
2
3
Beispiele für Synchronissationssoftware:
SMPTE Reader (http://nobusiness-soft.com/smptereader)
Lockstep (http://figure53.com/lockstep/)
LTC: Longitudinal Timecode
MIDI: Musical Instrument Digital Interface
64
Konzertproduktionen
Da verschiedene Schnittprogramme eine TC-Spur, die als Audiosignal vorliegt,
auslesen können, ist eine weitere einfache Variante das TC-Signal über einen Audioeingang in der DAW aufzuzeichnen. Somit beinhalten die erzeugten Audiodaten keine
korrekte TC-Angabe in ihren Metadaten aber die TC-Positon lässt sich anhand der TCAudiospur feststellen.
Bei Live-Übertragungen werden Bild- und Tondaten gleichzeitig erzeugt, auf verschiedenen Wegen bearbeitet und dann wieder zusammengefügt. Um hierbei die Synchronität zwischen Bild und Ton zu gewährleisten, ist beim öffentlich-rechtlichen Rundfunk das Video Audio Lip-sync & Identification (VALID) System der Firma Snell im
Einsatz. Zur Messung des Versatzes zwischen Bild und Ton gibt ein Signalgenerator
jeweils ein Video- und Audio-Testsignal aus, die beide die komplette Übertragungsstrecke durchlaufen. Am Ende des Bearbeitungssystems werden beide Signale erneut
gemessen und der Versatz zwischen diesen bestimmt und anschließend ausgeglichen1.
de
Delay
la
delay
y
VALID Genrerator
Delay
Übertragungs DE
system
LA
De
lay
Video und Audio
Testsignal
Y
Delay
Video und Audio
Testsignal
VALID Reader
delay
D DELAY
l a ye l a y
de
Abb. 17 Messung des Ton-Bildversatzes mittels VALID-System
3.2.4 Übertragungswagen
Übertragungswagen werden bei großen Produktionen genutzt, um den Aufwand des
Aufbaus mobiler Regien zu minimieren. Sie können sowohl Ton- als auch Bildregien
beherbergen und sind schnell fast überall einsatzbereit.
Ein Ton-Übertragungswagen enthält alle tontechnischen Geräte, die bei der Bearbeitung der Signale sowie der Erstellung eines sendefähigen Ergebnisses notwendig sind.
Er bietet genügend Vorverstärker, Wandler, ein Mischpult, hochwertige Lautsprecher
1
siehe Handbuch „Vistek V6811&V6812 HD Valid Generator v1.3.pdf“ [VA08]
65
Konzertproduktionen
in 5.1 Aufstellung, Hallgeräte, Kompressoren, Limiter, Dolby E En-/Decoder1 und
Geräte zur Rauschunterdrückung. Der Übertragungswagen bietet zudem den Vorteil
eines abgeschlossenen Abhörraumes, in welchem die Tonmeister ungestört und
konzentriert arbeiten können. Da alle Geräte bereits miteinander verkabelt sind, ist die
Aufnahme oder Übertragung eines Konzertes mit einem Ü-Wagen verhältnismäßig
komfortabel, da der Aufbau einer mobilen Tonregie dieses Umfangs um ein Vielfaches
aufwändiger ist.
Abb. 18 Übertragungswagen von 1953*
Während der Anfänge der Live-Übertragung wurden die Audiosignale noch auf
Schellack gespeichert.
1
Dolby E ist ein Audio-Kodierverfahren, welches eine Übertragung und Speicherung von bis zu acht Audiokanälen
mit einer Datenrate von 1536kbit/s bis 1920kbit/s über einen AES/EBU Tonkanal ermöglicht und wird überwiegend
von Fernseh- und Rundfunkanstalten zur internen Datenübertragung verwendet. Die Kodierung von digitalen PCM
Audiodaten zu Dolby E und wieder zurück ist nicht ganz verlustfrei. Bis zu zehn enkodier und dekodier Vorgänge
sind ohne bemerkbaren Verlust an Audioinformationen möglich. Die Enkodier- und Dekodierprozess benötigt
jeweils die Zeitdauer von einem Frame. Diese Verzögerung zwischen Video- und Bildsignal muss wieder ausgeglichen werden
66
Konzertproduktionen
Abb. 19 Übertragungswagen von 2012**
Ein moderner Übertragungswagen des ZDF beherbergt Tonregie, Bildregie, Maschinenraum und Notfallsprecherplatz. Alle Verbindungen sind digital. Die Audiosignale
sind mit dem Bild verknüpft (embedded), so dass die Synchronität immer gewährleistet wird.
3.2.5 Mikrofonie
Bei Mitschnitten oder Übertragungen von Konzerten werden die Mikrofone in der
Regel relativ dicht am Instrument aufgestellt. Ein möglicher Grund hierfür ist die
gleichzeitige Beschallung des Publikums mit dem gleichen Mikrofonsignal. Außerdem
wird auf diese Weise Übersprechen von Störgeräuschen aus dem Veranstaltungsraum
begegnet. Außenaufnahmen bergen zusätzlich die Gefahr, dass durch Wind verursachte tieffrequente Störsignale auftreten können. Darum ist es ratsam SchaumstoffWindschützer für die Mikrofone zu verwenden.
Bei popmusikalischen Mitschnitten werden in der Regel die Mikrofonsignale, die auch
zu Beschallung verwendet werden, übernommen. Diese sind ab einer bestimmten
Größe des Veranstaltungsortes und der Beschallungsanlage meist ausreichend. Bei
kleineren Beschallungen, wo beispielsweise nur Teile des Schlagzeugs mikrofoniert
werden, ist im Vorfeld mit Musikern und Beschallern über den Aufbau zusätzlicher
Mikrofone zu sprechen.
Es kann geschehen, dass es aus optischen Gründen zu Diskussionen über die Aufstellung der Mikrofone kommt. Kleine Stäbchen-Mikrofone mit einer matten Beschichtung
67
Konzertproduktionen
sind in diesen Situationen besonders geeignet, da sie keine Reflexionen des Lichts
verursachen1. Bühnenmikrofone sollten stets unauffällig sein.
Bsp.:
Möglich ist auch die Flucht nach vorne. Bei einer Opernproduktion hängte der
Tonmeister als Hauptmikrofonsystem für das Orchester zunächst zwei große silberne
Mikrofone über den Orchestergraben. Der Regisseur beschwerte sich wie erwartet über
die beeinträchtigten Bilder der Kameras. Der Tonmeister erklärte dagegen seine Absicht
eine bestmögliche Aufnahme zu erstellen. So konnte ein Kompromiss ausgehandelt werden und das Hauptsystem wurde durch unauffällige Kleinmembranmikrofone ausgetauscht, wie es das ursprüngliche Ziel war.
Da bei Opernproduktionen die Sänger nur mit Funkmikrofonen versehen werden
können, ist es üblich zahlreiche Mikrofone in Bühnennähe aufzubauen. Meist werden
diese an der Kante des Orchestergrabens, im hinteren Bühnenbereich oder von oben
hängend2 angebracht. Sollte eines der Funksignale während der Aufführung unbrauchbar sein, z.B. weil die Inszenierung verlangt, dass sich die Sänger umarmen, auf
dem Boden rollen oder Blumen an die Brust drücken etc., kann eines der versteckten
Bühnenmikrofone ein verwendbares Gesangssignal liefern. Mitunter kann es vorkommen, dass ein Tonassistent in der zweiten Reihe im Publikum sitzt und mit einem
Richtmikrofon auf die Sänger zielt3. Eine Opernproduktion lässt sich aus diesen
Gesichtspunkten mit der O-Ton-Situation am Filmset vergleichen, wo ebenfalls mit
Funkmikrofonen, versteckten Mikrofonen und Angeln versucht wird, ein optimales
Vokalsignal zu erhalten.
Weiter ist es üblich Mikrofone für das Publikum aufzubauen. Reaktionen, wie Jubel
und Applaus verhelfen der Aufnahme oder Übertragung zu einer lebendigen
Darstellung des Konzertereignisses. Besonders bei popmusikalischen Konzerten sind
Publikumsreaktionen zur Vermittlung eines Konzerteindrucks unbedingt notwendig.
Außerdem wird durch die Mikrofone für das Publikum auch die Räumlichkeit des
Veranstaltungsortes wiedergegeben.
Wie genau das Publikum aufgenommen wird, ist von der Größe und Beschaffenheit
des Veranstaltungsortes und der Möglichkeit Mikrofone anzubringen abhängig.
In kleineren Veranstaltungsorten wie Clubs können Mikrofone zwischen Bühnenkante
und Rückwand des Zuschauerraums von der Decke gehängt werden. Als Richtcharakteristik können für diese Position Kugeln oder Nieren zum Einsatz kommen. Es ist
wichtig, dass die Mikrofone möglichst hoch über dem Publikum platziert sind, damit
1
2
3
Die Firma Schoeps hat die modularen Mikrofonsysteme Colette und CMM für den unauffälligen Einsatz entwickelt.
Siehe http://www.schoeps.de/de/products [WWW10]
Bei hängenden Mikrofonen ist darauf zu achten, dass der Bildausschnitt der Kameras freigelassen wird bzw. dass
diese möglichst nicht vom Publikum gesehen werden.
persönliches Gespräch mit Günter Fleck, Tonmeister beim ZDF
68
Konzertproduktionen
ein Gesamteindruck des Publikums und nicht einzelne Zuschauer aufgenommen
werden. Trotzdem müssen die Mikrofone weit genug von der Decke entfernt sein, um
nicht zu viel tieffrequenten Schall aufzunehmen.
Ein weiterer Ort für die Positionierung von Publikumsmikrofonen ist die Rückwand
der Bühne. Ein positiver Effekt bei dieser Mikrofonposition ist die Aufnahme des
Raumklangs für das Schlagzeug, welcher ohne Mikrofone an dieser Position fehlt und
nur schwer in der Mischung durch Kunsthall erzeugt werden kann.
An der Bühne steht in der Regel das lautere und textsichere Publikum. Deshalb ist es
sinnvoll dieses mit Mikrofonen aufzunehmen, die an der Bühnenkante zwischen
Bühne und den Beschallungslautsprechern positioniert sind. Allerdings ist mit starkem
Übersprechen der Beschallungsanlage zu rechnen, weshalb an dieser Position häufig
Richtrohr-Mikrofone zum Einsatz kommen. Die Schwierigkeit besteht darin, die
Mikrofonposition zu finden, bei der das Publikum am lautesten und am wenigsten
Bass der Beschallungsanlage aufgenommen wird. Falls innerhalb des Zuschauerraums
kein Mikrofon aufgestellt werden kann, ist die Mikrofonposition an der Bühnenkante
zu wählen.
Bei einem großen Veranstaltungsraum ist außerdem der Platz um das FOH-Pult oft der
einzige Bereich, um weitere Publikumsmikrofone aufzustellen. Diese können sowohl
in Richtung Bühne als auch auf die Rückwand des Zuschauerraums gerichtet werden.
Außerdem ist bei diesen Positionen ein gewisser Abstand zum Publikum einzuhalten.
Der Aufbau von Mikrofonen am FOH-Pult und die Weiterleitung der Mikrofonsignale
zur Aufnahmemaschine sollten rechtzeitig mit der Beschallungsfirma und dem
Kameradepartement besprochen werden. Bei einer Freiluft-Veranstaltung ist die
Position am FOH-Pult meist die einzige Möglichkeit innerhalb des Publikums
Mikrofone aufzustellen. Hierbei ist zusätzlich an Wind und eventuell auch Regenschutz der Mikrofone zu denken1.
Die Mikrofonierungsstrategien im Konzert-Bereich unterscheiden sich zum Teil stark
von einer Studio- bzw. Filmmusikproduktion.
3.2.6 Proben und Soundcheck
Bei Aufführungen mit Inszenierung oder Auftritten verschiedener Besetzungen oder
Solisten ist es üblich den genauen Ablauf vorher zu proben. In der Partitur wird in den
entsprechenden Takten eingetragen, welche Mikrofone verwendet werden. Gerade bei
Live-Übertragungen von Opern mit vielen Sängern ist es wichtig zu wissen, wann
1
siehe http://en.audiofanzine.com/live-sound/editorial/articles/capturing-the-energy-of-live-shows.html [WWW13]
69
Konzertproduktionen
wessen Funkmikrofon zugemischt werden muss. Für schwierige Situationen, in denen
absehbar ist, dass das Funkmikrofon nicht genutzt werden kann, muss eine alternative
Mikrofonierung gefunden werden. Außerdem muss in der Partitur vermerkt werden,
wann das entsprechende Funksignal aus der Mischung entfernt werden muss, damit
keine Störsignale oder das Übersprechen der weiteren Sänger hörbar sind. Welche
Mikrofone in den entsprechenden Situationen verwendet werden sollen, muss
ebenfalls in der Partitur notiert werden. Während der Aufführung liest meist ein
Regieassistent oder eine Regieassistentin die Partitur mit und sagt einige Takte im
Voraus die geplante Mikrofonauswahl an.
Der Line- und Soundcheck stellt bei popmusikalischen Aufführungen die Gelegenheit
dar, alle Signalwege zu testen. Hierbei ist eine gute Kommunikation mit der Beschallungscrew vor Ort wichtig, um eventuelle Wünsche und Änderungen, wie die
Verwendung eines anderen Multicorekanals, allen Beteiligten mitzuteilen. Beim
Linecheck wird lediglich die Funktionalität aller Audioverbindungen auch ohne
Anwesenheit der Musiker getestet. So kann sich während des Soundchecks mehr um
die Bedürfnisse der Musiker gekümmert werden. Es ist ratsam bereits den Soundcheck
mitzuschneiden, um die Aufnahmen auf gute Audiosignale zu überprüfen. Außerdem
kann es vorkommen, dass ein Teil aus dem Soundcheck aufgrund einer technischen
Störung in die spätere Aufnahme geschnitten werden muss.
3.3 Aufnahme
Wenn das Konzert mitgeschnitten wird und die Klangbearbeitung während der
Postproduktion durchgeführt werden soll, müssen nun lediglich das laufende
Aufnahmesystem und die Signale überwacht werden. Tauchen jedoch Probleme oder
Störsignale auf, muss schnell und unauffällig versucht werden, den Fehler zu finden
und zu beheben.
3.4 Postproduktion
Bei Live-Übertragungen ist in der Regel keine Postproduktion vorgesehen, da die
eingehenden Signale bereits während der Aufführung so bearbeitet und gemischt
werden, dass sie übertragen werden können. Die Postproduktion kann sich dann auf
eine Archivierung beschränken. Bei Konzertmitschnitten können jedoch nochmals
nahezu alle Audiosignale bearbeitet und optimiert werden.
70
Konzertproduktionen
3.4.1 Nachträgliche Aufnahmen
Bei Live-Mitschnitten kommt es häufig vor, dass fehlerhafte oder misslungene
Passagen neu eingespielt werden. Der Austausch einzelner Instrumente ist bei
geringem Übersprechen und direkter Mikrofonierung relativ problemlos. Allerdings
muss dann darauf geachtet werden, dass der Zuschauer keinen Unterschied zwischen
nachträglich aufgenommenen Material und dem echten Konzert-Material erkennen
kann. Die Verwendung der gleichen Mikrofontypen wie zur Konzertsituation kann
einen Beitrag zu einem möglichst ähnlichen Klang leisten.
3.4.2 Schnitt
Wurden mehrere Auftritte eines Programms aufgezeichnet, kommt es häufig dazu,
dass die gelungensten Ausschnitte oder Songs der Konzerte zusammengeschnitten
werden. Die Auswahl wird meist von der Produktion oder den Interpreten getroffen.
In der Regel werden bei Konzertmitschnitten keine Zeitsprünge erzählt, d.h. dass in
ihrer Zeitfolge veränderte Abschnitte unmerklich miteinander verbunden werden.
Dies kommt zum Beispiel dann vor, wenn ein Song herausgeschnitten wurde1. Häufig
muss dann der Applaus des Publikums passend zur neuen Abfolge geschnitten
werden. Dafür muss teilweise Applaus an Stellen geschnitten werden, wo es zuvor
keinen gab. Auch ist es nicht unüblich, dass Applaus aus dem Tonarchiv als gestalterisches Mittel genutzt wird, um eine verstärkte Reaktion des Publikums oder eine
zahlreicher wirkende Menschenmenge zu erzählen. Dann muss aber darauf geachtet
werden, dass der zusätzliche Applaus den eventuell im Bild sichtbaren Zuschauern
entspricht.
Bei der Überarbeitung eines Mitschnittes sollten als nächstes die auffälligen Störgeräusche herausgeschnitten werden, da diese den Fokus des Zuschauers zuhause von der
musikalischen Darbietung wegrücken. Ein hörbares Störgeräusch lenkt den Zuschauer
unbewusst von der laufenden Aufführung ab und eine Immersion2 kann schwer
hervorgerufen werden. Daher sollten Störgeräusche, wie Huster, knarrende Stühle,
umfallende Gläser, Handyklingeln, vorbeifahrende Krankenwagen, Fotoapparate und
vieles mehr so gut es geht entfernt werden.
1
2
Dies geschieht ausschließlich bei Unterhaltungsmusikproduktionen. Einer Oper oder einer Symphonie wird kaum
ein Ausschnitt entzogen.
Als immersiv wird ein Film oder eine Aufführung bezeichnet, die das Publikum dazu bewegt, sich so auf die
Handlung einzulassen, dass äußere Einwirkungen ausgeblendet werden. Der Begriff der Immersion geht auf den
Text „Zur Kunstphilosophie des Films“ von Béla Balázs zurück. Siehe Franz-Joseph Albersmeier „Texte zur Theorie
des Film“, Seite 212 [TTF03]
71
Konzertproduktionen
3.5 Mischung
Das Kapitel über Mischung ist aus dem Bereich Postproduktion ausgegliedert, da auf
Belange eines Livemitschnitts und einer Live-Übertragung eingegangen wird. Bei
dieser ist die Mischung allerdings essentieller Bestandteil während der Produktion.
Ziel einer Konzertproduktion sollte es sein eine kontinuierliche Tonebene herzustellen,
damit der Zuschauer nicht irritiert und vom Hauptgeschehen abgelenkt wird. Die
Klanggestaltung bei der Mischung sollte so angelegt sein, dass der Gesamtklang zum
Bildinhalt passt, jedoch dürfen keinesfalls kontinuierlich Bildschnitte oder Kameraperspektivwechsel nachempfunden werden.
Es gibt sehr unterschiedliche Mischungen von Konzertmitschnitten. Mischungen von
klassischer Musik sind in ihrer Räumlichkeit meist an den Aufführungsraum angepasst. Zusätzlich wird daher oft zur künstlichen Nachverhallung der Stützsignale eine
Einstellung gewählt, die in ihren Parametern dem Nachhallverhalten eines Konzertsaals entspricht.
Popmusikalische Konzertmischungen sind häufig am direkten Klang von AlbumProduktionen orientiert. Es gibt allerdings auch zahlreiche Beispiele für Live-DVDs,
die einen starken Eindruck von dem Veranstaltungsort und dem vorhandenen
Publikum vermitteln. Die bereits erwähnten Publikumsmikrofone können einen
großen Beitrag leisten, wenn die Stimmung im Saal während des Konzertes dargestellt
werden soll. Allerdings ist zur Verwendung dieser die Laufzeit zwischen direkten
Bühnenmikrofonen und der Positionierung im Zuschauerraum auszugleichen, da
sonst Echos entstehen. Auch ist oftmals der Einsatz von Filtern und Equalizern gefragt,
da die Räumlichkeit am Aufführungsort klanglich nicht optimal oder das Übersprechen der Beschallungsanlage (besonders im Bassbereich) sehr stark sein kann. Die
Verwendung von Publikumsmikrofonen in den Surround-Kanälen kann den Zuhörer
sehr gut in die Konzertsituation hineinversetzen, sofern dieser Effekt gewünscht wird.
Im Laufe einer Konzertübertragung kann bildseitig problemlos zwischen mehreren
Kameraeinstellungen gewechselt werden, ohne dass der Zuschauer sich dessen
bewusst wird, während sich eine ständige klangliche Verfolgung der Perspektive
vermutlich negativ auf die Aufmerksamkeit auswirken würde. Trotzdem ist es
möglich vereinzelte Bildinhalte akustisch zu augmentieren. Es ist durchaus üblich,
dass solistische oder vokale Passagen an die bildseitige Einstellgröße angepasst
werden [GSKö]. Wenn beispielsweise bei Großaufnahmen der Schlagzeuger mit aller
Kraft auf die Becken schlägt oder die Oboe ihr Solo im Orchester darbietet, kann dieser
Einsatz in die vordere Ebene des Klangbildes gemischt werden. Andererseits wird die
Aufmerksamkeit des Zuschauers bereits allein durch das Bild auf diesen Vorgang
72
Konzertproduktionen
gelenkt. Wie bereits am Ende des Abschnittes A 1.2 (Seite 11) erwähnt, spielen auch
hier multimodale Interaktionen1 von Bild und Ton eine wichtige Rolle. Zusätzlich tritt
ein weiterer Effekt ein, der beim Zuschauer durch sogenannte Spiegelneuronen2
bewirkt wird. Durch diese wird die Intensität des Ausdrucks des Musikers persönlich
erlebbar. Im Falle des rabiaten Schlagzeugers kann der Eindruck erweckt werden, dass
auch klanglich mehr Präsenz vorhanden ist, obwohl der Mitschnitt ohne visuelle
Komponente vielleicht weniger wirkungsvoll klingt.
Es bleibt also eine Frage der beabsichtigten klanglichen Wirkung, wie mit der
Mischung eines Livekonzerts umgegangen wird. Wichtig ist es, eine Entscheidung
über das Vorgehen bei der Mischung zu treffen, damit eine Kontinuität in der
akustischen Gestaltung geschaffen wird.
Bei Live-Übertragungen hat ein erfahrener Tonmeister schnell die nötigen Einstellungen getätigt, um den Klang optimal an das Zielmedium anzupassen. In der Regel
laufen die Signale über perfekt vorbereitete und organisierte Kanäle, die meist bereits
leicht komprimiert und verhallt werden. Die ankommenden Signale werden in
sinnvolle Subgruppen zusammengefasst, so dass während der Aufführung leicht in die
Balance zwischen den Signalgruppen (z.B. Hauptsystem, Solisten und Orchester, oder
Stimmgruppen im Orchester) eingegriffen werden kann.
Außerdem kommt es bei umfangreichen Opernproduktionen vor, dass in einem ÜWagen das Orchester und in einem zweiten Ü-Wagen nur die Sänger vorgemischt
werden. Beide Wagen übertragen sich gegenseitig ihre Mischung. Die Trennung in
zwei Zuständigkeitsbereiche rührt daher, dass die Mischung eines unbeweglichen
Orchesters eine andere Aufmerksamkeit erfordert als die Handhabung ständig
wechselnder Sänger. Singen sich beispielsweise zwei Sänger an, wird meist nur ein
Funkmikrofon verwendet, weil es sonst zu Phasenverschiebungen und Kammfiltereffekten kommen kann. Noch schwieriger ist die Situation, wenn sich Sänger aufeinander zu bewegen. Auch hier muss ab einem gewissen Abstand versucht werden, eines
der beiden Funksignale unauffällig auszublenden.
In der Sendetonregie werden die Vormischungen zusammen mit Kommentaren oder
Jingles zusammengemischt und direkt zum Funkhaus geleitet.
1
2
Multimodale Interaktionen bewirken eine stärkere Reaktion im Gehirn, als es die einzelnen Einflüsse separat
bewirken würden.
Spiegelneuronen (mirror neurons) sind die wissenschaftliche Erklärung für Empathie. Sie bewirken beim Betrachter
ein Verständnis für die beobachtete Bewegung durch Vergleich mit Bewegungen aus eigener Erfahrung. Siehe
Anthony Gritten und Elaine King „Music And Gesture“, Seite 23 [MG06]
73
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
C.
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug
Nachdem nun die Strukturen und Abläufe von Filmmusik- und Konzertproduktionen
betrachtet wurden, sollen in den folgenden Abschnitten Parallelen zwischen den
Vorgehensweisen gezogen und Unterschiede benannt werden. Dazu werden auch
Merkmale der autonomen Musikproduktion (Album- bzw. CD-Produktion) mit
eingeschlossen. Bei der Betrachtung der verschiedenen medienspezifischen Vorgehensweisen sind zahlreiche Unterschiede, aber auch Gemeinsamkeiten in ihren
technischen und inhaltlichen Anforderungen zu finden.
1 Inhalt und Ästhetik
Jede Musikproduktion hat zunächst das Ziel, die musikalische Darbietung auf
bestmögliche Weise zu präsentieren. Dabei spielen sowohl das entsprechende Genre
als auch dramaturgische Ideen und Notwendigkeiten eine wichtige Rolle. Zum
Beispiel kann es im Film nötig sein, dass eine Musik so klingen soll, als würde sie von
einem Radio wiedergegeben werden oder als wären die Musiker eines Ensembles
Laien. Aber auch bei autonomen Musikproduktionen kann es stilimmanent sein, dass
die Räumlichkeit einer Garage gleicht. Elektronische Dance- oder Technoproduktionen
leben von den hörbaren Regelvorgängen, die durch stark arbeitende Kompressoren
verursacht werden (sogenanntes Pumpen), um ein weiteres Beispiel zu nennen. Wenn
ein kommerzieller Erfolg angestrebt wird, sollten auch die Hörerwartungen des
Publikums nicht unbeachtet bleiben. Diese sind im Laufe der Zeit auf Grund der
tontechnischen Entwicklungen entstanden.
Als Ende des 19. Jahrhunderts die ersten mechanischen Geräte zur Aufzeichnung von
Schall entwickelt wurden, waren die Mikrofone noch so unempfindlich, dass zur
Speicherung eines Klangereignisses der „Trichter [...] vor den Mund des Sängers“1 oder
vor das aufzunehmende Instrument positioniert werden musste, damit das Tonsignal
nicht zu stark von Störgeräuschen überlagert wird. Die ersten Aufnahmen sind
1
siehe „Tonmeister Jürg Jecklin im Gespräch”, aus der “Analog”-Zeitschrift der Analogue Audio Association [AA11]
74
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
dennoch von starkem Rauschen geprägt, für welches unter anderem das der Wachsmasse zugeführte Gesteinsmehl verantwortlich war1.
Da aus technischen Gründen zunächst mit nur einem Mikrofon aufgezeichnet werden
konnte, positionierte sich das Ensemble meist kreisförmig um den Schallwandler (siehe
Abb. 20, 21). Je näher sich die Musiker am Mikrofon befanden, desto geringer wirkten
sich Reflexionen des Raumes auf die Aufnahme aus. Der direkte und relativ trockene
Klang prägte die Schallplattenästhetik, die für die gerade aufkommende Jazzmusik die
passende intime Atmosphäre suggerierte.
Abb. 20 Band im Studio*
Abb. 21 1952 Schlagersterne*
Quelle: Frieder G. Löbner
Quelle: Klaus Herkner
Mit dem Voranschreiten der tontechnischen Entwicklung verbesserten sich sowohl
aufnahme- als auch wiedergabeseitig die Darstellung hoher Frequenzen und der
Signal-Rauschabstand. Damit wurde es möglich, bei der Aufnahme klassischer Musik
auch die akustischen Eigenschaften des Aufführungsraumes einzufangen. Diese sollten
dem Zuhörer einen klanglichen Eindruck im Aufführungssaal, eine Konzertsaalästhetik vermitteln.
Die Konzertsaal-, Schallplatten- und Filmtonästhetik haben sich wiederum gegenseitig
beeinflusst. So werden beispielsweise Orchester bei Filmmusikproduktionen mit einer
direkteren Mikrofonierweise aufgenommen, als es bei autonomen Musikproduktionen
üblich ist.
Die Unterscheidung liegt demnach in der Darstellung einer natürlichen, akustischen
Aufführungssituation aus Sicht des Publikums oder einer übernatürlichen, intimen
oder bombastischen Darbietung, die nur mit tonmeisterlichen Gestaltungsmitteln
hergestellt werden können („larger than life“ - überlebensgroß). Dazwischen existieren
alle Schattierungen.
1
siehe die Schelllackplatte, der Vorläufer der Vinylschallplatte
http://grammophon-platten.de/page.php?14 [WWW15]
75
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Autonome Musik wird fast ausschließlich stereofon wiedergegeben. Die Verbreitung
auf DVD-Audio oder SACD konnte sich bisher nicht durchsetzen. Ein Grund hierfür
ist, dass der Konsument nicht in der idealen Abhörposition eines 5.1 Wiedergabesystems bleibt, wenn er nicht durch einen Bildschirm oder eine Leinwand dazu veranlasst
wird [WWW02].
Aufgrund der Beschaffenheit der Wiedergabesysteme im Kino, mit der Verwendung
mehrerer frequenzbegrenzter und das gleiche Signal wiedergebender SurroundLautsprecher und des unbekannten Aufbaus und der Beschaffenheit heimischer 5.1Wiedergabesysteme, bestehen Surround-Signale bei Filmmusik- und Konzertproduktionen meist lediglich aus Hallanteilen, Raummikrofonen oder frequenzbegrenzten und
verzögerter Frontsignale. Es gibt nur wenige Beispiele für autonome Musikproduktionen, wie die Audio-DVD „Reanimation“ der Band Linkin Park, die beweisen, dass
kreative und beeindruckende Surround-Mischungen in einer nach ITU-R BS 755-1
aufgebauten Wiedergabeumgebung möglich sind1.
Bei bildbezogenen Inhalten soll allerdings der Fokus des Zuschauers nach vorn gelenkt
und aufrechterhalten werden. Filmmusik bildet gemeinsam mit Dialog und Effekten
eine dramaturgische Einheit, die sich dem Ziel, eine Geschichte zu erzählen, unterordnen. Rückwärtige Direktsignale könnten hierbei die Immersion beeinträchtigen. Ob mit
der Einführung neuer Kinotonformate wie Dolby Atmos [WWW03] oder Wellenfeldsynthese erweiterte Möglichkeiten der kreativen Verwendung der SurroundLautsprecher möglichen und eine verbesserte Qualität dieser in den Kinos mit sich
führen werden, wird sich zeigen.
2 Unterschiedliche Zielmedien und Wiedergabesituationen
Bei der Betrachtung der unterschiedlichen Zielmedien stehen die verschiedenen
Wiedergabesituationen im Vordergrund. Sie umfassen vor allen Dingen die Anzahl der
Kanäle, den Frequenzgang und die Bauform der Lautsprecher, die Programmdynamik,
aber auch (besonders bei 5.1) die Normen, nach denen die Lautsprecher aufgestellt
wurden.
Für autonome Musikproduktionen ist das derzeitige Zielmedium die stereofone2 CD.
Da die Wiedergabesituationen des Konsumenten sehr unterschiedlich sein können
(Stereoanlage, MP3-Player oder Mobiltelefon) wird das Material vor der Pressung
gemastert. Abhängig vom Genre, dem Zielpublikum und den zu erwartenden
1
2
siehe
http://www.amazon.de/review/R2KHL0HM9ZKIDC/ref=cm_cr_dp_title?ie=UTF8&ASIN=B000069CWE&
channel=detail-glance&nodeID=290380&store=music [WWW16]
Im Fall von monofonen Materialgeben beide Lautsprecher dasselbe Signal aus.
76
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Wiedergabegeräten wird die Mischung dabei dynamisch eingeschränkt und die
Klangfarbe bearbeitet, damit das Programm bestmöglich wiedergegeben werden kann.
Gewöhnlich ist dem Hörer klassischer Musik ein größerer Dynamikumfang zuzumuten als jemandem, der Musik überwiegend unterwegs über Kopfhörer konsumiert.
Die heimische Wiedergabe von DVDs oder Blu-ray Discs erfolgt ebenfalls in den
meisten Haushalten stereofon. Dabei müssen die bereits unter A 2.2 und B 2.2
beschriebenen Auswirkungen von komprimierten Wiedergabeformaten und deren
Metadaten und automatisierten Regelvorgängen, wie AC3 berücksichtigt werden. Die
Eigenschaften dieser Datenformate sind auch der Grund dafür, dass für Konzert-DVDs
oder Blu-ray Discs meist eine separate, nicht datenreduzierte Stereomischung erstellt
wird.
Für die Heimwiedergabe in 5.1 ist nach ITU-R BS 755-11 die Aufstellung fünf identischer Lautsprecher in gleichem Abstand zum Hörer vorgesehen (siehe Abb. 22, 23),
doch die Realität zeigt, dass 5.1 Heimkinoanlagen für den Consumer-Bereich oft THX
zertifiziert sind. Das bedeutet, dass lediglich die drei Frontlautsprecher identisch sind,
jedoch dipole Lautsprecher für die Surround-Signale verwendet werden. Dadurch
werden Surround-Signale derselben Mischung in einer THX-Wiedergabeumgebung
leiser wahrgenommen als in einem Wiedergabesystem nach ITU [GSKö].
nt -L
Fro
Center
oberhalb/unterhalb des TV
nach unten/oben auf Zuschauer gerichtet
-45°
SUB
Fron
t- R
+45°
0°
-90° bis 110 °
+90° bis 110 °
Hörer
Surround -L
Abb. 22 Lautsprecheraufstellung nach
Surround -R
Abb. 23 Lautsprecheraufstellung nach THX
ITU-R BS 755-1
Foto: Ruhnke, Malte | 20. Juli 2005
Die Vorraussetzungen, bezogen auf die Wiedergabesituation, die durch eine Produktion auf DVD oder Blu-ray Disc auftreten, gelten in der Regel für Filmmusik- und
1
siehe www.digital-movie.de/faq/faq-info.asp?ArtNr=116 [WWW11]
77
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Konzertproduktionen, da sich die Verbreitung autonomer Musikproduktionen ohne
Bildbezug auf DVD-Audio oder SACD bisher nicht durchsetzen konnte.
Die Mehrkanalmöglichkeiten, die sich durch die Nutzung der o.g. Medien erschließen,
sollten mit dem Wissen über Metadaten, wie DRC und DialNorm (siehe Fußnoten Seite
16), verwendet werden. Eine weitere Eigenschaft, die heimische Wiedergabesituationen innehaben, ist die eingeschränkte Programmdynamik sowie die stark variierenden
Bauformen und Frequenzgänge von Lautsprechern. Diese können von hochwertigen
HiFi-Lautsprechern bis zu in Displays eingebauten Flachlautsprechern reichen.
Center
Front -R
Front-L
SUB
Zuschauer/H örer
Surround -L
Surround -R
Abb. 24 Lautsprecheraufstellung im Kino
Im Kino kann die größtmögliche Programmdynamik wiedergegeben werden (siehe
Abb. 3, Seite 12). Hier wird Musik hauptsächlich in Zusammenhang mit Filmen oder
Opernproduktionen vorgeführt. Die Anordnung und Beschaffenheit der Lautsprecher,
die Pegelverhältnisse zwischen Subwoofer, Front- und Surround-Lautsprecher und der
Frequenzgang des Saals sind in den meisten Kinos definiert (siehe Abb. 24), so dass zur
Gestaltung des Soundtracks bestmögliche Vorraussetzungen gegeben sind. Oftmals
sind allerdings die Surround-Lautsprecher nicht in der Lage, das Frequenzspektrum
zwischen 20Hz und 20kHz linear darzustellen, da diese den früheren Anforderungen
von Dolby Stereo genügten. Über Dolby Digital ließen sich bereits breitbandige Signale
im Surround übertragen, doch die Kinobetreiber erneuerten ihre SurroundLautsprecher diesbezüglich noch nicht. Überdies werden die beiden Surround-Kanäle
jeweils über eine Reihe Surround-Lautsprecher wiedergegeben, was zu unerwünschten
Kammfiltereffekten führen kann. Dies ist ein Grund dafür, dass selten diskrete Signale
in den Surround-Bereich gesetzt werden.
78
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
3 Praktische Umsetzung
Neben zahlreichen Gemeinsamkeiten gibt es auch grundlegende Unterschiede bei der
Umsetzung der verschiedenen medienspezifischen Musikproduktionen. Der Hauptunterschied ergibt sich aus der Antwort auf die Frage, für welches Zielpublikum
produziert wird. Die Kenntnis dieses Faktors bestimmt die Herangehensweise an die
Produktion.
3.1 Rollenverteilung in den medienspezifischen Produktionsstrukturen
Es ist wichtig über Unterschiede und Gemeinsamkeiten von Strukturen innerhalb
verschiedener Produktionsprozesse Bescheid zu wissen. Nur so kann die eigene
Position richtig eingeschätzt und erfolgreich mit anderen Beteiligten kommuniziert
werden. Eine erfolgreiche Kommunikation innerhalb des Produktionsteams trägt
wiederum zu einem besseren Endprodukt bei, da so gemeinsam auf Schwierigkeiten
und Probleme reagiert werden kann.
Die künstlerische Leitung übernimmt in der Regel der Auftraggeber oder eine durch
ihn eingesetzte Person. Bei Filmmusikproduktionen obliegt diese Aufgabe der Regie
bzw. dem Komponist oder der Komponistin. Bei autonomen Musikproduktionen wird
diese Aufgabe meist von den auftraggebenden Produzenten bzw. dem Label oder den
Musikern selbst übernommen. Allerdings können die Vorstellungen der Auftraggeber,
wie das Ziel realisiert werden kann, teilweise sehr vage sein, so dass sie die Unterstützung des Tonmeisters benötigen.
Der Tonmeister oder die Tonmeisterin hat die Aufgabe, im Vorfeld die künstlerischen
Intentionen zu erfassen und mit tontechnischen Möglichkeiten umzusetzen. Je
umfassender die Kenntnisse, sowohl über die künstlerische Idee als auch über
technische Gestaltungsmittel, sind, desto besser können diese kombiniert werden, um
das gewünschte Ziel zu verwirklichen. Während der Aufnahme müssen technische
Aspekte in den Hintergrund treten und die Musiker bei der Einspielung unterstützt
werden. „Es geht darum einen Moment in einer künstlichen Studiosituation zu erzeugen, der
dem Gefühl auf der Bühne zu stehen gleich kommt.“ sagt Stephan Köthe. Dabei ist es auch
wichtig, in den entscheidenden Momenten einzugreifen.
Im Gegensatz dazu sind dem Tonmeister während Konzertproduktionen, außer beim
Aufbau der Mikrofonie und während der Live-Mischung, die Hände relativ fest
gebunden. Hier besteht in der Regel nur während der Vor- und Postproduktion die
79
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Möglichkeit, künstlerisch in das Endprodukt einzugreifen. Eine Wiederholung
einzelner Passagen ist nicht möglich.
3.2 Vorbereitung
„The Secret of Success is Preperation.“ (Das Geheimnis des Erfolgs liegt in der Vorbereitung) sagte Alan Meyerson, favorisierter Tonmeister des Filmmusikkomponisten Hans
Zimmer, einmal in einem Interview [WWW02]1.
Auch bei Konzertmitschnitten, Opernübertragungen oder Album-Produktionen gilt
dieser Leitgedanke. Die Layouts einer Filmmusikproduktion gleichen vorproduzierten
Songs einer Album-Produktion. In beiden Fällen werden die Stücke entweder am
Computer oder vergleichsweise günstig im Heimstudio vorproduziert, bevor die
kostenintensiven Aufnahmen für das Zielmedium durchgeführt werden.
Bei orchestralen Filmmusikproduktionen ist eine gute Vorbereitung unerlässlich, da
bereits der erste aufgenommene Take im Film verwendet werden kann. Bei Konzertproduktionen dagegen kann in der Regel das Ereignis nicht auf Grund technischer
Probleme wiederholt werden, so dass sowohl Mitschnitt als auch Übertragung nur
durch gründliche Planung, Tests und Proben sicher umgesetzt werden können.
Die Vorlage der Noten ist eine wichtige Vorraussetzung, um sich während der
Aufnahme innerhalb der Stücke orientieren zu können. Bei autonomen Musikproduktionen und bei Konzertmitschnitten werden Notizen über die Qualität der Takes in die
Noten eingetragen. Allerdings stehen bei popmusikalischen Konzertproduktionen
Noten eher selten zur Verfügung, so dass hierbei die Kenntnis der Songs nicht
unerheblich ist. Bei Live-Übertragungen dagegen werden die Noten genutzt, um
während der Proben Hinweise darüber einzutragen, welche Mikrofone oder anderen
Einstellungen während der Aufnahme vorgenommen werden müssen.
Weiterhin ist wichtig, eine genaue Vorstellung über den Signalfluss zu haben. Dieser
kann mit Hilfe von Saal-, Spur- und Mikrofonplänen organisiert werden. Auch wenn
der Aufbau einer mobilen Tonregie weiterreichende Überlegungen über den Signalfluss erfordert, so muss sowohl im Tonstudio als auch im Konzertsaal der Überblick
darüber, mit welchem Mikrofon welches Instrumentensignal über welche Leitung
aufgezeichnet wird, behalten werden.
1
In Hollywood kostet Meyersons Aussage nach, eine dreistündige Orchestersession 100.000$ und es müssen 25
Minuten Musik in dieser Zeit, mit allen Dopplungen und Overdubs, aufgenommen werden. Zu der anschließenden
Mischung der teilweise bis zu 4000 Spuren fassenden Hybridscores (Batman – The Dark Knight Rises), gehört ein
enormer Vorbereitungsaufwand.
80
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Nicht zuletzt sollte der benötigte Speicherplatzbedarf berechnet werden. Pauschal
können für eine Stunde Aufnahmedauer bei einer Abtastrate von 48kHz und einer
Auflösung von 24Bit gut 500MB Speicherplatzbedarf pro Aufnahmespur veranschlagt
werden. Für eine genaue Berechnung des benötigten Speicherplatzbedarfs in MB gilt
die Formel:
Abtastrate[kHz] !
Bitrate
! Spurenanzahl ! Dauer[s]
8
= Speicherplatzbedarf [MB]
1024
3.3 Aufnahmeraum und Besetzung
Die Wahl des Aufnahmeraumes sollte ebenfalls mit dem Wissen über das entsprechende Zielmedium bzw. den gewünschten akustischen Eindruck gewählt werden.
Soll der Eindruck erweckt werden, dass sich viele Musiker in einem großem Raum
oder wenige Musiker in einem kleinen Raum oder wenige Musiker in einem großen
Raum befinden? Soll der Raum hell und breit oder dunkel und tief klingen? Diese
Fragen sollten geklärt werden, ehe sich für einen Aufnahmeraum entschieden wird.
Auch praktische Überlegungen spielen eine Rolle. Handelt es sich um ein Tonstudio,
welches technisches Equipment zur Verfügung stellt oder soll die Aufnahme in einer
Kirche oder einem anderem Raum stattfinden? Ist der Konzertsaal mit einer Tonregie
ausgestattet, die zur Nutzung bereit steht oder muss diese aufgebaut werden?
Unbekannte Räume sollten zwingend zuvor besichtigt werden, weil sich Maße und
Wandbeschaffenheit negativ auf die Aufnahme auswirken können.
Bsp.:
Bei der Besichtigung einer Musikschulaula, in der eine Opernsängerin einige Lieder
aufnehmen wollte, kam es zu einem solchen Problem. Für ihr Stimmvolumen war der
Raum zu klein und die glatten Wände verstärkten ihre Formanten in einer Weise, die
ein Gellen im Ohr verursachte. Da dies für eine Aufnahme unvorteilhaft gewesen wäre,
wurde nach einem anderen Ort gesucht, obwohl die Sängerin die Aula favorisierte.
Aber auch akustisch zufrieden stellende Räume können noch Probleme mit sich
bringen, wie etwa summende Beleuchtung, knarrende Böden oder Getränkeautomaten
im Flur. Diese Störfaktoren können relativ einfach behoben werden, während
Außenlärm kaum reguliert werden kann. So können sich Erschütterungen im Boden,
verursacht von vorbeifahrenden Straßenbahnen, über die Gebäudemauern übertragen
und im Tiefbassbereich hörbar werden. Sind die Störfaktoren zu stark müssen die
Aufnahmen eventuell nachts stattfinden.
81
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Mögliche Störfaktoren in unmittelbarer Nähe sind:
•
stark frequentierte Straßen
•
Baustellen
•
Verkehrsknotenpunkte wie U-Bahn, S-Bahn, Flughafen
•
Kindergärten, Spielplätze, Schulen
•
Kirchen (Glocken)
•
Feuerwehrwache, Krankenhäuser
•
Straßen mit Kopfsteinpflaster
Wenn der Aufbau einer mobilen Tonregie notwendig ist, sollte bei der Vorbesichtigung
bereits ein geeigneter, ruhiger Platz gefunden und sichergestellt werden, dass dieser
während der Aufnahme zur Verfügung steht. Ein guter Regieraum ist kein Durchgangszimmer, hat keine Fenster, durch die Lärm kommen kann und verfügt über Tisch
und Stühle. Alles, was nicht bereits vor Ort ist, muss zusätzlich eingeplant und
transportiert werden. Eine örtliche Kontaktperson kann dabei Auskunft geben und
weiß z.B. auch, welcher Raum über Nacht abgeschlossen werden kann. Zu überprüfen
sind die Anzahl zugängiger Steckdosen sowie Entfernung zum Aufnahmesaal, damit
die Längen für etwaig benötigte Multicore-Kabel abgeschätzt werden können. Oft ist
die Wahl einer Garderobe günstig, da diese über oben genanntes Mobiliar, Strom und
gute Lichtverhältnisse verfügt und sich in Bühnennähe befindet.
Tatsächlich spielen jedoch meist die Kosten der Miete der idealen Aufnahmeräume
eine große Rolle, so dass nicht immer alle Kriterien erfüllt werden können.
Auch die Aufstellung der Musiker sollte bereits so erfolgen, wie es für das Zielmedium
sinnvoll ist. Beispielsweise kommt es bei orchestralen Filmmusikproduktionen vor,
dass die Kontrabassisten, im Gegensatz zur klassischen Orchesteraufstellung, mitten in
das Orchester gesetzt werden. Auch bei der Aufstellung des Orchesters sind hauptsächlich zwei Varianten üblich, deren klangliche Auswirkungen im Vorfeld der
Aufnahme bedacht werden sollten. Bei der deutschen1 Aufstellung sitzen sich die
ersten und zweiten Violinen gegenüber, während sie bei der amerikanischen Variante
nebeneinander sitzen. Klanglich betrachtet, kann mit Hilfe der deutschen Aufstellung
ein breiteres Klangbild erreicht werden, dafür funktionieren Arrangements, bei denen
sich die ersten und zweiten Geigen gut hören müssen, besser mit der amerikanischen
Aufstellung.
1
auch europäische oder antiphonische Aufstellung genannt
82
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Bei Musikproduktionen in realen Aufführungsstätten, wie Konzert- oder Opernproduktionen, sind die Bedingungen selten ideal. Weder die Räumlichkeit noch die
Aufstellung der Musiker ist immer optimal. Mitunter muss beispielsweise ein Chor
viel zu nah am Orchester stehen, weil es die Bühnensituation nicht anders erlaubt. Die
Aufgabe des Tonmeisters ist es dann, aus der schwierigen Situation trotz alledem
brauchbare Signale zu extrahieren. Da sind, auch aus optischen Gründen unter
Rücksichtnahme auf die Bildgestaltung, kreative Lösungen zur Aufstellung oder
Anbringung der Mikrofone gefragt (z.B. indem einzelnen Sängern eines Chores
Funkmikrofone auf die Schultern gesetzt werden, um die Hintermänner aufnehmen zu
können).
3.4 Synchronisation zum Bild
Wenn ein Zusammenhang zwischen Ton und Bild bestehen soll, muss ein Weg
gefunden werden, diese beiden Elemente miteinander zu synchronisieren. KonzertProduktionen, bei welchen Audio- und Videosignale zeitgleich aufgezeichnet werden
sollen, erfordern eine rein technische Synchronisation. Diese erfolgt meist über einen
gemeinsamen Timecode (siehe B 3.2.3).
Bei Filmmusikproduktionen dagegen werden Bildbearbeitung und Tonpostproduktion
technisch unabhängig voneinander durchgeführt. Die Synchronität von musikalischen
Effekten und Bildinhalten unterliegen künstlerischen Ideen. Für die Aufzeichnung von
Musik passend zum Bild wird in der Regel ein Clicktrack erstellt, an dem sich die
Musiker während der Aufnahme wie an einem Metronom orientieren. Auch die
Synchronisation der Musiker mit einem optischen Click ist möglich [siehe A 3.4.2].
Die Nutzung des Clicks ist allerdings nicht nur der Filmmusikproduktion vorbehalten.
In der Produktion von Popmusik ist die Verwendung des Clicks ebenfalls ein Mittel,
um die einzeln eingespielten Instrumente musikalisch miteinander auf ein Tempo zu
synchronisieren. Auch bei Pop-Konzerten werden zur Synchronisation der Band mit
zugespielten Playbacks Clicktracks genutzt. Diese werden dann in der Regel nur vom
Schlagzeuger gehört, welcher das Tempo für seine Mitmusiker vorgibt.
83
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
3.5 Mikrofonie
Die Anzahl und die Positionierung der Mikrofone ermöglichen dem Tonmeister oder
der Tonmeisterin die Gestaltung des Klangbildes. Dieser entscheidende Faktor sollte
bereits vor und während der Aufnahme berücksichtigt werden, um die Mischung
entsprechend den Anforderungen des Zielproduktes zu gestalten.
Bei Aufnahmen von akustischen Ensembles wird in der Regel das Signal eines
Hauptmikrofonsystems als Grundlage für den Aufbau des Klangbildes verwendet.
Mitunter wird viel Zeit bei der optimalen Positionierung des Hauptsystems verwendet. Stützmikrofone werden bei klassischen Musikproduktionen oft relativ weit
entfernt von den Instrumenten positioniert, so dass auch Reflexionen des Aufnahmeraumes hörbar werden. Der Klang wird als „luftig“ bezeichnet. Zudem wirken sich
bewegungsabhängige Frequenzänderungen des Musikers mit zunehmendem Abstand
schwächer aus und die Klangfarbe entspricht eher den Hörerfahrungen des Publikums. Dafür erhöht sich jedoch das Übersprechen, was zu einer geringeren Kontrollierbarkeit der Signale während der Mischung führt.
Instrumente, die einer elektrischen Verstärkung bedürfen, werden meist räumlich oder
zeitlich getrennt voneinander aufgenommen, so dass der Aufbau eines Hauptsystems
überflüssig wird. Die Mikrofone werden eher nah positioniert, so dass während der
Mischung alle Möglichkeiten der Klangbearbeitung, wie Klangfarbe, Pegel und
Lokalisation, offen stehen. Die Aufnahme eines einzelnen Instrumentes ermöglicht
wiederum den kreativen Einsatz von Raumantworten (z.B. Schlagzeugaufnahmen im
Gang).
Bei orchestralen Filmmusikproduktionen wird in der Regel ein dreikanaliges Hauptmikrofonsystem gewählt. Mit diesem gehen die Ausprägung der Räumlichkeit oder
der Tiefenstaffelung einher. Der häufig verwendete Decca-Tree beispielsweise trägt zu
einer hohen Präsenz der Streicher bei, kann aber in bestimmten Fällen bei großen
Ensembles zu einer Störung der Tiefenstaffelung führen (im Gegensatz zum OCTHauptmikrofonsystem).
84
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Die Ästhetik der Filmmusikproduktion verfolgt einen sehr direkten Klang, welcher
durch verhältnismäßig nahe Stützen erstellt wird. Damit lassen sich einzelne Melodiebögen oder Soli differenziert behandeln. Der klassische, luftige Klang wird über weiter
entfernte Stützen erzeugt, was jedoch zu einem erhöhten Übersprechen der anderen
Instrumente und einer geringeren Kontrollierbarkeit der Signale führt. Wie stark
während der Mischung der Gesamtklang beeinflusst werden kann, hängt mit der
Ausprägung des Übersprechens weiterer Instrumente zusammen, welches auch von
der Entfernung des Mikrofons zum Musiker abhängig ist. Eine Möglichkeit zur
Dämpfung des Übersprechens ist z.B. das Aufstellen von Stellwänden zwischen den
Musikern oder die Aufnahme in Sections (siehe A 3.4.3).
Bereits bei der Aufstellung der Stützmikrofone sollte die Abstrahlcharakteristik des
jeweiligen Instruments mit einbezogen werden. Innerhalb der Hauptabstrahlachse
einer Schallquelle (z.B. Verstärkerbox) ist die Ausprägung hoher Frequenzen am
stärksten. Wird das Mikrofon aus dieser Achse herausbewegt, verringert sich die
Präsenz und das Signal klingt matter bzw. „weicher“ [GSKö]. So können während der
Aufnahme solistische und die Melodie unterstützende Instrumente auf unterschiedliche Weise aufgenommen und vorab schon Klangeinstellungen vorgenommen werden,
die sonst während der Mischung umgesetzt werden würden.
Während der Aufzeichnung oder Übertragung von Konzerten ist die Wahl der
Mikrofonposition meist durch optische und praktische Faktoren beeinflusst. Beispielsweise müssen Mikrofone bei Opernproduktionen sehr unauffällig sein. Die Aufstellung eines Hauptsystems in optimaler Position ist fast unmöglich. Dafür werden die
Bühnenkanten mit zahlreichen Mikrofonen versehen. Zudem erhalten die Sänger meist
Funkmikrofone, die im Kostüm eingearbeitet werden.
Bei klassischen Konzertmitschnitten ist die Positionierung der Haupt- und Stützmikrofone etwas einfacher, da meist relativ unauffällige Stäbchenmikrofone eingesetzt
werden können. Der Abstand des Hauptmikrofonsystems kann meist gut eingestellt
werden, während die Stützen recht nah positioniert werden müssen. Bei popmusikalischen Konzertmitschnitten ist die Sichtbarkeit von Tontechnik kein Problem. Die
Positionierung der Mikrofone ist auf Grund der popmusikalischen Klangästhetik und
der meist lauten Beschallung sehr nah. Die Mikrofonierung übernimmt in diesem Fall
der oder die für die Beschallung verantwortliche Mischtonmeister oder Mischtonmeisterin.
85
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
3.6 Schnitt
Außer bei Live-Übertragungen erfolgt spätestens nach der Aufnahme der Schnitt. Dem
Zuhörer soll ein Musikstück dargeboten werden, welches den Eindruck eines
organischen, ganzheitlichen Werkes vermitteln soll. Nur in der realen Konzertsituation
ist so etwas sonst möglich. Üblich ist es bei Musikproduktionen fast jeder Art, einzelne
Abschnitte sowie einzelne Instrumente getrennt voneinander aufzunehmen, die
anschließend zusammengesetzt werden müssen. Selbst bei Konzertmitschnitten
werden häufig nachträglich Störgeräusche entfernt, Musikstücke aus unterschiedlichen
Aufführungsterminen zusammengefügt oder andere Korrekturen vorgenommen.
Bei autonomen Musikproduktionen wird ein ganz erheblicher Aufwand betrieben um
ein erstklassiges Ergebnis zu erzielen. Mitunter werden einzelne Viertel aus verschiedenen Takes zusammengefügt. Besonders bei Stücken, die keinem festen Tempo
unterliegen, wie es z.B. bei romantischer Musik meist die Regel ist, kann es zu
beachtlichen Schwierigkeiten bei den Übergängen im Tempo unterschiedlich gespielter
Takes kommen. Zudem werden die Takes bei autonomen Musikproduktionen meist
nacheinander aufgenommen, so dass bei der Suche eines geeigneten Austauschtaktes
lediglich durch Abhören der Takes und Orientierung an der Wellenform der ungefähre
Zeitpunkt der benötigten Passage gefunden werden kann1. Ausführliche Notizen zu
den Aufnahmen werden zwingend benötigt. Zudem muss berücksichtigt werden, dass
das Endergebnis keine visuelle Komponente mit sich bringt, welche die Aufmerksamkeit des Konsumenten beeinflusst. Durch mehrmaliges Hören einer CD können
Unstimmigkeiten mit der Zeit auffallen und immer störender wirken. Deshalb hat sich
eine Arbeitsweise mit sehr hohem Schnittaufwand entwickelt.
Verglichen mit dem Aufwand, den Musiktonmeister bei autonomen Musikproduktionen auf sich nehmen, ist der Schnitt bei Filmmusikproduktionen relativ einfach. Da die
Musik in den meisten Fällen genau zum Timecode eingespielt wird, liegen in der DAW
die gleichen Takte aller Takes übereinander. Üblicherweise werden die favorisierten
Takes bereits grob zusammengesetzt, so dass anschließend lediglich die Übergänge
austariert werden müssen. Zusätzlicher Schnittaufwand entsteht durch die Notwendigkeit akustische Aufnahmen an das synthetische Material anzugleichen.
1
Die DAW SEQUOIA der Firma Magix ermöglicht die Suche nach ähnlichem Material, indem zeitliche, akustische und
musikalische Parameter analysiert und verglichen werden. Weiterhin lassen sich musikalisch gleiche Inhalte zeitlich
idealisiert übereinander angeordnet darstellen, so dass die Suche nach gleichem Material aus anderen Takes stark
vereinfacht wird. Siehe http://pro.magix.com/de/sequoia/funktionen/audio-analyse.202.html [WWW14]
86
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
3.7 Mischung
Live-Mischungen stellen eine besondere Herausforderung dar, da es, im Gegensatz zu
allen anderen Produktionsformen, keine Möglichkeit gibt Korrekturen durchzuführen.
Dafür ist am Ende der Veranstaltung die Arbeit getan. Die Dauer der Mischung
anderer Produktionen hängt überwiegend vom vorhandenen Budget und der
gegebenen Zeit ab.
Bei der Mischung von Hybridscores in Filmen wird meist das sehr genau ausgearbeitete synthetische Material als Grundlage genommen und der Orchesterklang zur
Erhöhung der Lebendigkeit hinzugefügt. Dafür können tiefe Frequenzen im Orchester
eingeschränkt werden, damit sie sich nicht unnötig mit den synthetischen Bässen
addieren [WWW02].
Die Mischung von Computerspielmusiken stellt den Tonmeister oder die Tonmeisterin
vor das Problem, dass keine festgelegten Wiedergabebedingungen beim Konsumenten
vorherrschen. Diese können sowohl in 5.1 als auch stereofon oder monofon über
hochwertige oder kostengünstige, bandbegrenzte Lautsprecher erfolgen. Alan
Meyerson berichtet, dass er solche Mischungen wie eine Trailermischung betrachtet.
Das bedeutet, dass er alle Elemente sehr stark in den Vordergrund setzt und sich
relativ wenig auf die Tiefenstaffelung konzentriert. Um die Basswiedergabe über
bandbegrenzte Lautsprecher zu ermöglichen, fügt er künstliche Verzerrungen hinzu
[WWW02]. Zusätzlich wird die Dynamik sehr stark eingeschränkt.
Im Gegensatz zur Stereofonie, bei der immer mit Phantomschallquellen zwischen dem
linken und rechten Lautsprecher gearbeitet wird, steht bei der 5.1 Wiedergabe ein
diskreter Center-Lautsprecher für die Darstellung mittiger Signale zur Verfügung.
Bei Filmproduktionen ist der Center-Kanal vorrangig dem Dialog vorbehalten, welcher
immer verständlich sein soll [GMSc]. Zudem wird ihm das Center-Signal des dreikanaligen Hauptmikrofonsystems zugeführt. Alle weiteren Filmmusiksignale werden meist
stereofon zwischen linkem und rechtem Kanal verteilt, so dass sie als Phantomschallquelle wahrgenommen werden.
87
Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und
ohne Bildbezug
Weiterhin kann der Center-Kanal zur Stabilisierung der Lokalisation der Instrumente
im Orchester genutzt werden. Dabei sollte aber stets beachtet werden, dass die
Sprachverständlichkeit nicht angegriffen wird, da der „Musik-Center“ sonst während
der Filmmischung vermutlich abgesenkt wird. Dies würde wiederum zum Zerfall des
Klangbildes und zur Bildung eines Mittenlochs führen.
Abhängig von der bearbeiteten Szene kann der Center durchaus stärker eingesetzt
werden, wenn z.B. gerade kein Gespräch stattfindet und die Musik dramaturgisch die
Führung übernehmen soll.
Bei rein musikalischen Produktionen, wie Konzert- oder Opernproduktionen, wird der
Center-Kanal oft mit diskreten Signalen, wie Bass und Soli, beschickt. Allerdings sollte
bei der Mischung bedacht werden, dass die heimische Wiedergabesituation häufig
lediglich stereofon ist oder der Center-Lautsprecher nicht an der vorgesehenen
Position steht. Daher erstellen viele Tonmeister zunächst eine Stereomischung, die
anschließend für eine Wiedergabe in 5.1 aufbereitet wird [MA07, S. 239]. Somit werden
Elemente, die mittig wiedergegeben werden sollen oftmals auf alle drei Frontlautsprecher verteilt.
Die Nutzung des Center-Kanals ist abhängig vom Zielmedium und von der dramaturgischen Bedeutung der Musik im Zusammenspiel mit dem Dialog. Bei allen mehrkanaligen Wiedergabesystemen wird der Center-Kanal aus verschiedenen Gründen eher
vorsichtig genutzt. Auch die Nutzung der Surround-Kanäle erfolgt sowohl aus
dramaturgischen, als auch aus technischen Gründen meist relativ zurückhaltend.
Einerseits soll der Fokus auf den Bildschirm gerichtet bleiben, andererseits ist die
Wiedergabesituation (Wiedergabelautstärke der Surround-Signale aufgrund der
Aufstellung, Beschaffenheit und Norm) nicht bekannt.
Gemeinsam haben alle mehrkanaligen Musikproduktionen, dass das Bassmanagement
nicht auf die Wiedergabe über den LFE-Kanal aufgebaut werden sollte. Es ist weder in
der Heim- noch in der Kinowiedergabesituation sicher gestellt, dass der LFE-Kanal
frequenzbegrenzt und mit dem entsprechenden Pegel wiedergegeben wird.
Ein wichtiger Unterschied bei der Wiedergabe des LFE-Kanals ist, dass dieser sowohl
im Kino als auch über Blu-ray Disc oder DVD 10dB lauter wiedergegeben wird als die
anderen Kanäle. Für Musikproduktionen auf DVD-Audio oder SACD ist diese
Anhebung derzeit nicht üblich [ITU12].
Bei der Mischung jeglicher Musik sind neben den inhaltlichen, dramaturgischen und
musikalischen Vorstellungen auch die speziellen Vorgaben durch das Zielmedium
sowie die Erwartungshaltung des Publikums einzuarbeiten.
88
Schlussbetrachtung
D.
Schlussbetrachtung
Jede medienspezifische Produktionsstruktur setzt eine andere Verfahrensweise bei der
Bearbeitung des jeweiligen Produktionsabschnittes voraus. Dabei ist das Zielmedium
bzw. das Zielpublikum, für welches produziert wird, maßgeblich. Durch diese
Faktoren ändern sich die Herangehensweisen an Aufnahme und Mischung. Das
Zielmedium zieht sowohl technische Faktoren, die mit dem Wiedergabesystem
einhergehen, als auch künstlerische und dramaturgische Kriterien nach sich.
Bereits die Planung einer bildbezogenen Musikproduktion wird entscheidend von
Zielmedium und Wiedergabesituation beeinflusst. Die Positionierung der Mikrofone
bei der Aufnahme sollte im Hinblick auf das gewünschte Klangbild erfolgen. Bei der
Aufnahme „klassischer“, akustischer Ensembles ist es die Art des Hauptmikrofonsystems und die Anzahl der Stützmikrofone, welche den Klang mit Blick auf das
Zielmedium gestalten. Bei Konzertproduktionen muss allerdings bei der Mikrofonierung Rücksicht auf räumliche Gegebenheiten und die Bildgestaltung genommen
werden.
Für Musikmischungen mehrkanaliger Wiedergabesituationen muss ebenfalls berücksichtigt werden, dass die Musik beim Film im Gegensatz zur reinen Musikproduktion
besondere inhaltliche Funktionen übernimmt. Zudem kommen weitere Tonelemente
hinzu, so dass Filmmusik, Dialog und Soundeffekte sich gegenseitig beeinflussen.
Daher unterscheidet sich beim Film die Nutzung des Center-Kanals von den Möglichkeiten bei autonomen Musikproduktionen, wie Konzert- oder Opernproduktionen.
Unabhängig von der ungewissen heimischen Wiedergabesituation muss abhängig
davon, ob es sich um eine Film- oder Musikproduktion handelt, klar zwischen den
verschiedenen Richtlinien von ITU und THX unterschieden werden. Diese bestimmen
sowohl den Frequenzgang und die Aufstellung der Lautsprecher als auch die Höhe der
Verstärkung des LFE-Kanals.
Es ist nachvollziehbar, dass für die jeweiligen Musikproduktionen spezialisierte
Tonmeister und Tonmeisterinnen benötigt werden, da für die professionelle Umsetzung der jeweiligen Situation ein hohes Maß an Kenntnissen und Erfahrungen
erforderlich sind. Vor der Ausübung jedweder medienspezifischer Musikproduktion
sollte sich daher mit den dramaturgischen, künstlerischen und technischen Anforderungen des Zielmediums, den genretypischen Hörerwartungen des Zielpublikums und
den Vorstellungen und Wünschen des Auftraggebers auseinandergesetzt werden.
89
Anhang
Anhang
Literaturverzeichnis
[KF96]
Adorno, T. W., “Komposition für den Film”, 1996, Europäische Verlagsanstalt, Hamburg
[BT93]
Ahnert, W., Steffen, F., „Beschallungstechnik – Grundlagen und Praxis“,
1993, Hirzel Verlag, Leipzig
[TTF03]
Albersmeier, F.-J., „Texte zur Theorie des Films“, 5. Durchgesehene und
erweiterte Auflage, 2003, Reclam, Stuttgart
[PRT05]
Bartlett, B. und J., „Practical Recording Techniques“, 2005, Elsevier Inc,
Burlington
[SKT02]
Bayersdörfer, H.-P., “Stimmen – Klänge – Töne”, 2002, Narr, Tübingen
[AM99]
Brüderlin, R., „Akustik für Musiker“, 1999, Gustav Bosse Verlag, Kassel
[HT08]
Dickreiter, M., Dittel, V., Hoeg, W., Wöhr, M., „Handbuch der Tonstudiotechnik“, 7. Bearbeitete und ergänzte Ausgabe, 2008, De Gruyter Saur
Verlag, München
[AE07]
Friesecke, A., „Die Audio-Enzyklopädie: Ein Nachschlagewerk für
Tontechniker“, 2007, K. G. Saur Verlag, München
[DT03]
Gernemann, A., „Decca Tree – gestern und heute“, aus „Bericht 22.
Tonmeistertagung 2002“, 2003, Verlag K.G. Saur, München
[LXF12]
Gervink, M., Bückle, M., „Lexikon der Filmmusik“, 2012, Laaber-Verlag,
Laaber
[MG06]
Gritten, A., King, E., „Music And Gesture“, 2006, Ashgate, Hampshire
[FM64]
Helman, A., „Probleme der Musik im Film“ aus Baumert, H., „Filmwissenschaftliche Mitteilungen“, Nr. 3/1964, 5. Jahrgang, Deutschen Hochschule für Filmkunst, Berlin
[FM65]
Helman, A., ”Hauptrichtungen der Musikentwicklung im modernen
Film”, Übersetzt von Mückenberger, C., aus Baumert, H., „Filmwissenschaftliche Mitteilungen“, Nr. 1/1965, 6. Jahrgang, Deutschen Hochschule
für Filmkunst, Berlin
[MA07]
Katz, B., „Mastering Audio- the art and the science“, zweite Auflage, 2007,
Elsevier Inc, Burlington
[TF64]
Kracauer, S., „Theorie des Films“, 1964, Suhrkamp Verlag, Frankfurt am
Main
[AG82]
Rabenalt, P., „Die auditiven Gestaltungsmittel in der Film- und Fernsehkunst“, aus „Lehrbrief / Hochschule für Film und Fernsehen / Lehrstuhl
für Film- und Fernsehwissenschaft“, 44/1982, Potsdam-Babelsberg
[DF86]
Rabenalt, P., „Dramaturgie der Filmmusik“, aus „Theorie und Praxis des
Films“, 3/1986, Potsdam-Babelsberg
[KF97]
Schneider, N.J., “Komponieren für Film und Fernsehen”, 1997, Schott
Musik International, Mainz
[SO05]
Segeberg, H., Schätzlein, F., “Sound. Zur Technologie und Ästhetik des
Akustischen in den Medien”, 2005, Schüren Verlag GmbH, Marburg
90
Anhang
[MM03]
Stavrou, M. P., „Mixing with your mind – closely guarded secrets of
sound balance engineering“, 2003, Flux Research Pty Ltd, Mosman
[FG81]
Thiel, W., “Filmmusik in Geschichte und Gegenwart”, 1981, Henschelverlag Kunst und Gesellschaft, Berlin
[TT58]
Trommer, F., “Tontechnik”, 1958, Fotokinoverlag, Halle
[CAT01]
„Produktinformation GFM132-Grenzflächenmikrofon“, Georg Neumann
GmbH
[ITU12]
International Telecommunication Union – Radiocommunication Sector of
ITU, „Recommendation ITU-R BS.775-3 - Multichannel stereophonic
sound system with and without accompanying picture“, 08/2012
[VA08]
Snellgroup, Handbuch „Vistek V6811&V6812 HD Valid Generator v1.3“,
2008, Snell Ltd, Berks
Persönliche Gespräche und eMails
[GBWe]
[GMSc]
[GPFu]
[GBAl]
[GMSt]
[EDBe]
[GSKö]
Gespräch mit Bernd Wefelmeyer, 31.5.2012
Gespräch mit Michael Schubert, 12.6.2012
Gespräch mit Peter Fuchs, 25.6.2012
Gespräch mit Bernhard Albrecht, 11.7.2012
Gespräch mit Martin Steyer, 13.7.2012
eMail von Dick Bernstein, 18.7.2012
Gespräch mit Stephan Köthe, 24.9.2012
Diplomarbeiten
[DAWM]
[DASH]
[DADZ]
Maderlechner, W., „Von Richard Strauss zu Errol Flynn“
Haberfeld, S., „LCR-Stereophonie im Kino“
Ziegler, D., „Der AC3 Standard in Theorie und Praxis“
Zeitschriften
[AA11]
Müller, E., “Tonmeister Jürg Jecklin im Gespräch”, aus der “Analog”Zeitschrift der Analogue Audio Association, 2011, Oberhausen
[ARSC86]
GRAY, M. H., „The birth of DECCA Stereo, aus „ARSC journal“, Band
18/1, 1986, Stanford
Internetquellen (Stand: 24.10.2012)
[WWW01]
Synchronisation von Musik im Film
http://www.richardbrice.net/cue_calc.htm
[WWW02]
Interview mit Alan Meyerson
http://www.pensadosplace.tv/2012/01/10/episode-50-allan-meyerson/
[WWW03]
Dolby Atmos
http://investor.dolby.com/releasedetail.cfm?ReleaseID=666401
[WWW04]
Begriffe, Standards und Systeme der Audiotechnik beim Kinofilm
http://www.akustische-medien.de/texte/zmm_tontechnik98.htm
[WWW05]
Surroundlautsprecher von JBL
http://www.audiopro.de/live/jbl_44651_DEU_AP.html
91
Anhang
[WWW06]
Soundworks Collection „Dark Knight Rises“
http://soundworkscollection.com/darkknightrises
[WWW07]
Überblick zur Geschichte der Mischpulte
http://www.mixingconsole.org/web/main/history/
[WWW08]
DTS als vorgeschriebenes Wiedergabeformat auf Blu-ray Discs
http://broadcastengineering.com/audio/dts-technology-mandatoryaudio-format-blu-ray-and-hd-dvd-next-generation-disc-standards
[WWW09]
Informationen zur Arbeitsweise von Dolby-E
www.dolby.com/us/en/professional/technology/broadcast/dolbye.html
[WWW10]
Schoeps Mikrofone
http://www.schoeps.de/de/products
[WWW11]
Kurzdefinition der ITU-R BS 755-1
www.digital-movie.de/faq/faq-info.asp?ArtNr=116
[WWW12]
Produktübersicht der Firma Teufel
http://www.teufel.de/heimkino-thx.html
[WWW13]
Artikel zur Aufnahme von Konzertmitschnitten „Capturing the Energy of
Live Shows“, Bob Owsinski, 2012
http://en.audiofanzine.com/live-sound/editorial/articles/capturing-theenergy-of-live-shows.html
[WWW14]
Audioanalysefunktionen von SEQUOIA
http://pro.magix.com/de/sequoia/funktionen/audio-analyse.202.html
[WWW15]
die Schelllackplatte der Vorläufer der Vinylschallplatte
http://grammophon-platten.de/page.php?14
[WWW16]
Kundenrezension „Absolute Surround-Referenz“
http://www.amazon.de/review/R2KHL0HM9ZKIDC/ref=cm_cr_dp_tit
le?ie=UTF8&ASIN=B000069CWE&channel=detailglance&nodeID=290380&store=music
[WWW17]
Tontechnik-Rechner für Laufzeiten
http://www.sengpielaudio.com/Rechner-schallweg.htm
[WWW18]
Produktübersicht JBL 5672 3-Wege Frontsystem für große Säle
http://www.audiopro.de/live/jbl_40768_DEU_AP.html
92
Anhang
Abbildungsverzeichnis
Abb. 1 Foto einer Strohgeige
Urheber: Christophe Monié..............................................................................................7
Abb. 2 Darstellung eines Streamers auf einem Filmstreifen...................................................9
Abb. 3 Vom Konsumenten tolerierter Dynamikumfang in verschiedenen
Wiedergabeumgebungen nach Bob Katz .....................................................................13
Abb. 4 Projektphasen einer Filmmusikproduktion.................................................................17
Abb. 5 Aufgaben von Ton und Komposition bei einer Filmmusikproduktion;
Darstellung als Matrixorganisation...............................................................................18
Abb. 6 Beispiel eines Zeitplans....................................................................................................27
Abb. 7 Mitschriften auf gesondertem Blatt ...............................................................................36
Abb. 8 Notizen in der Partitur .....................................................................................................37
Abb. 9 Tabellen für aufgenommene Instrumente je Cue.......................................................37
Abb. 10 handlicher Schnitt mit Playlisten.................................................................................38
Abb. 11 Grenzwertfestlegung für die Signalverzögerung der Stützmikrofone als
Funktion des Pegelverhältnisses und des Abstands nach Sengpiel ....................41
Abb. 12 Intensitätsstereofonie......................................................................................................42
Abb. 13 Laufzeitstereofonie..........................................................................................................42
Abb. 14 Leistungssumme von Haupt- und Stützmikrofon als Funktion des relativen
Pegels nach Sengpiel ......................................................................................................45
Abb. 15 Beispiel eines Spurbelegungsplans .............................................................................62
Abb. 16 Projektphasen einer Live-Übertragung ......................................................................64
Abb. 17 Messung des Ton-Bildversatzes mittels VALID-System ........................................65
Abb. 18 Übertragungswagen von 1953* ....................................................................................66
Abb. 19 Übertragungswagen von 2012** ..................................................................................67
Abb. 20 Band im Studio*
Quelle: Frieder G. Löbner ..............................................................................................75
Abb. 21 1952 Schlagersterne*
Quelle: Klaus Herkner....................................................................................................75
Abb. 22 Lautsprecheraufstellung nach ITU-R BS 755-1
Foto: Ruhnke, Malte | 20. Juli 2005 .............................................................................77
Abb. 23 Lautsprecheraufstellung nach THX ............................................................................77
Abb. 24 Lautsprecheraufstellung im Kino ................................................................................78
Abb. 25 Großer Sendesaal im Funkhaus Nalepastraße
Bundesarchiv, Bild 183-36132-0005
Foto: Sturm, Horst | 8. Februar 1956 ..........................................................................96
Abb. 26 Skizzierte Stereoaufteilung ...........................................................................................97
*
**
- mit freundlicher Genehmigung des Sorbischen Museums Bautzen, Herr Nawka
- mit freundlicher Genehmigung des ZDF, Frau Fornarelli
93
Anhang
Gespräche
Bernd Wefelmeyer
Komponist, Arrangeur und Dirigent, HFF
Ausschnitte aus dem Gespräch am 31.Mai 2012
Zunächst ist festzustellen, dass Filmmusik nie kritisiert wird, weil sie immer in Verbindung mit dem Film
betrachtet wird. Musikalische Parameter werden obsolet und musikalische Werte verschieben sich in
Richtung der Bild-Ton-Beziehung. Die Filmmusik soll das filmische Geschehen unterstreichen und
unterstützen und sich mit allen Facetten des Films verbinden.
Außerdem geht es um eine gemeinsame Sprache. Der Zuschauer muss die Musik verstehen. Bei einem
Konzertstück kann der Komponist davon ausgehen, dass das Publikum die nötige musikalische
Vorbildung hat, die ihn in das Konzert bewegt hat, aber das Publikum im Kino hat diese Vorbildung nicht
und soll sie auch nicht benötigen, um die Stimmung des Films zu verstehen.
Der Filmmusikkomponist muss Klischees so anwenden, dass sie trotzdem überraschen und auf diese
Weise ihre Eigenart erhalten – das Gewohnte interessant erscheinen lassen.
Dass Filmmusik wie Romantik klingt, stimmt aber nicht. Es wurde im Film bereits versucht mit Rock zu
arbeiten und es wurde für Synthesizer komponiert. Das klingt heute aber wieder altmodisch. Die
Filmmusik kehrt eher wieder zum Orchestersound zurück. Nachdem bereits alles Mögliche mit der
Harmonik bis hin zur Aleatorik ausprobiert wurde, geht die Musik den Weg, bekannte Instrumente mit
neuen Klängen zu verbinden um etwas Neues zu schaffen [Hybridscores].
Einspielungen von Filmmusik sind immer eine Uraufführung und kein Mensch weiß, wie es klingen soll.
Selbst der Komponist kann nur zu 70% erahnen, wie seine Musik nach der Aufnahme klingen wird. Der
Rest ist Überraschung. Man kann nur hoffen, dass der gewünschte Effekt und die gewünschte Empfindung erzeugt werden.
Es muss schnell geprobt werden. Es liegen keine Interpretationsvergleiche vor. Nach ein oder zwei
Durchläufen wird der erste Take aufgenommen. Da muss der Instrumentator so gut wie möglich arbeiten
und sich um Klarheit und Rationalität bemühen. Ein 10/8-Takt kann noch so innovativ gemeint sein, es
wäre aber besser zwei 4/4-Takte und einen 2/4-Takt zu notieren.
Prokofjew konnte das gut. John Williams schaffte die Besonderheit in der Einfachheit. Arvo Pärt arbeitete
schon mit Tempoüberlagerungen.
Eine moderne Avantgarde ist in der Filmmusik nicht möglich.
Das Bild bestimmt die musikalische Form. In dieses Korsett muss sich die Filmmusik einfügen. Der
Regisseur liefert die Vorgaben und er hat Recht, schließlich ist der Film sein geistiges Kind. Darum ist es
hilfreich, wenn man sich gut mit dem Regisseur versteht.
Der Filmmusikkomponist muss sein Handwerk besser beherrschen, als ein Komponist absoluter Musik,
denn wenn bei der Aufnahme etwas nicht funktioniert, wird er kein zweites Mal engagiert. Er muss
allerdings den technischen Aufbau seiner Musik nicht erklären, da die Reflektion der Filmmusik vom
Bild aus geht.
Die Erfüllung der Filmmusik geschieht, wenn es einen erklärenden Kontrapunkt gibt, der beim Zuschauer
einen Denkprozess auslöst. Als Beispiel dient eine Szene aus „Kuhle Wampe“ [1932] in der die traurigen,
armen Leute, die nichts mehr haben, beisammen sitzen. Eine tragische Melodie gespielt auf einer Geige
wäre üblich gewesen, aber Hanns Eisler lässt im Original eine Marschmusik ertönen, welche die positive
Botschaft übermittelt, dass man sich nicht unterkriegen lassen soll.
Es muss nicht immer eine paraphrasierende Musik sein, wenn es einen dramaturgischen Anlass gibt.
Ansonsten ist der Komponist gefangener der Ästhetik des Bildes. Ist die Musik größer als das Bild, zieht
man die Figuren und Probleme in die Lächerlichkeit. Man kann keine Geschichte, die sich in einem
kleinen Zimmer mit grauen Wänden abspielt, mit pompösem Blech unterlegen. Eine musikalische
Übertreibung ist nur in der Komödie oder im Animationsfilm möglich.
94
Anhang
Obwohl sich der Filmmusikkomponist dem Bild unterordnen muss, wird er trotzdem gebraucht und
beauftragt. Es gibt schon so viel gute Musik. Bach musste seiner Zeit für jeden Sonntag ein neues Stück
für seine Thomaskirche komponieren, weil es keine [protestantische] Musik gab. Der Filmmusikkomponist hat einen dramaturgischen Hintergrund, an den er sich halten kann. Und er ist Mitglied in einem
Team, welches etwas erschafft, was sich viele Menschen ansehen werden. Der Komponist absoluter
Musik ist die meiste Zeit allein und weiß nicht, ob sein Werk aufgeführt werden wird.
Produktionsseitig wird bei der Aufnahme von Filmmusik innovativer gearbeitet, als bei Produktionen für
Musik ohne Bildbezug. Oft werden die Kontrabässe in die Mitte des Orchesters gesetzt. Einmal wurden
die Streicher in einer Reihe nebeneinander gesetzt, um ein möglichst breites Streicherpanorama zu
erhalten. Allerdings habe ich von diesem Aufnahmeverfahren nie wieder etwas gehört.
Einzelne Sections werden aufgenommen, um das Übersprechen besser kontrollieren zu können. Bei
schwierigen Stellen oder inhomogenen Arrangements wird das Orchester ebenfalls auseinander
genommen. Mit Hilfe der einzelnen Orchsterstems hat der Mischtonmeister die Möglichkeit klangliche
Eingriffe vorzunehmen, wenn sich während der Filmmischung die Musik mit dem Dialog oder dem
Sounddesign frequenzmäßig überdecken. So können z.B. die Streicher weiter nach vorn gebracht werden,
damit sie bei einer dialoglastigen Szene mitten im Straßenverkehr nicht unter gehen. Zusätzlich hat man
bei der Kinomischung durch die Surround-Lautsprecher mehr als nur die Stereobreite, zwischen denen
die akustischen Elemente verteilt werden können. Das bedeutet, dass bei der Filmmischung viel mehr mit
der Musik experimentiert werden kann, da ein ästhetisch feststehendes Klangbild fehlt. Räumliche und
klangliche Vorgaben sind nur bei absoluter Musik von Bedeutung. Eine Filmmusik für den Verkauf von
Soundtrack-CDs wird nochmals anders gemischt.
Mit Click wurde erst aufgezeichnet, als es die Möglichkeit gab den Dirigenten und alle Orchestermusiker
über Verstärker mit geschlossenen Kopfhörern auszustatten. Nur den Dirigenten zu versorgen würde nicht
funktionieren.
Bis dahin setzte man sich mit einer Stoppuhr an den Schneidetisch und machte sich Notizen über seine
Eindrücke. Zu Hause wurde dann das Stück komponiert, welches man später in der vorgestoppten Zeit
einzuspielen hatte.
Da es nicht die Möglichkeit gab Layouts am Sequenzer zu erschaffen, war es üblich, dass der Komponist
dem Regisseur seine Ideen am Klavier vorspielte und dabei erklärte, dass die Melodie von der Flöte oder
das Fundament von den Kontrabässen gespielt werden soll. Somit konnte es geschehen, dass es während
der Aufnahme zu Überraschungen kam, weil es unterschiedliche Klangvorstellungen gab. Also wurde mit
den Musikern experimentiert.
Eine Erfindung aus dem Dresdener Trickfilmstudio ermöglichte erstmals das durchklopfen eines Films.
Der Hammer funktionierte wie ein Metronom, welches man an einen Perfomaten synchronisieren kann.
Damit war es möglich ein Taktmaß für den Film zu erhalten.
Die ersten Clicktracks wurden auf Schnürsenkel1 aufgenommen. Ein Schlagzeuger machte mit seinen
Drumsticks das Tempo hörbar, welches ihm der Komponist mit Blick auf die Stoppuhr vordirigierte. Das
¼-Zoll Magnetband wurde dann vor der Aufnahmesession in Echtzeit auf perforiertes Magnetband
umgespielt, damit es zusammen mit den anderen Bandmaschinen synchronisiert werden konnte.
In den 50er Jahren wurden noch ausschließlich Monoaufnahmen hergestellt. Damals schien die
Aufstellung der Mikrofone noch wichtiger zu sein als heute, denn man hatte nur die Tiefenstaffelung als
hörbar zu beeinflussenden Parameter. Die Mikrofone mussten möglichst hoch positioniert werden. Im
Saal 1 des Funkhauses Berlin wurde eine komplizierte Aufhängung entwickelt, an der die Mikrofone wie
Straßenbahnen umherschweben werden konnten.
1
¼-Zoll Magnetband
95
Anhang
Abb. 25 Großer Sendesaal im Funkhaus Nalepastraße,
Bundesarchiv, Bild 183-36132-0005
Foto: Sturm, Horst | 8. Februar 1956
Schon damals wurden Stützmikrofone eingesetzt, jedoch mussten sie gleich während der Aufnahme
zusammengemischt werden. Dafür war am Ende des Aufnahmetages die Musikmischung abgeschlossen.
Die Filmmusiken wurden immer synchron zum Bild dirigiert und aufgezeichnet. Zur Orientierung diente
eine Wachsmarkierung auf dem Filmstreifen eine Sekunde vor dem geplanten Einsatz der Musik. Wenn
das X aufblitzte, wusste der Dirigent, dass es gleich losging. Im ersten Durchgang drehten sich alle
Musiker um, weil die Neugierde zu groß war. Während des folgenden Takes verpassten die Bläser ihren
Einsatz. Im darauf folgenden Durchgang spielten die Streicher unsauber. Beim nächsten Versuch wurde
der Synchronpunkt nicht erwischt und so weiter.
Wenn in Mitten eines Cues neu eingestiegen werden musste, wurde den Musikern die bis dahin
aufgezeichnete Aufnahme vorgespielt und sie setzten im vereinbarten Takt ein. Schnitte wurden nur
während hörbaren Impulsen, wie dem Einsatz eines Beckens, gesetzt.
Trotz der technischen Schwierigkeiten wurden bereits Overdubs auf Schnürsenkel aufgenommen. Sänger
wurden immer synchronisiert, wobei darauf zu achten war, dass das Band höchstens dreimal neu bespielt
wurde. Danach konnte das Band nicht mehr genutzt werden, weil die Banddämpfung zu stark wurde.
Als Ende der 60er Jahre verbreitet auf 4-Spur Geräte aufgezeichnet wurde, konnte man das Hauptmikrofonsignal getrennt von Streichern, Holz oder Blech aufnehmen. Die Verteilung der Instrumente im
Stereobild wurde anhand der Partitur aufgemalt. Unterschieden wurde in der Skizze zwischen den
Positionen Links, Halblinks, Halbrechts und Rechts.
96
Anhang
Abb. 26 Skizzierte Stereoaufteilung
Es wurde viel darüber diskutiert, ob z.B. die Violinen von Links bis Rechts, oder nur von Halblinks bis
Rechts platziert werden sollen, damit die Kontrabässe und Celli noch Links platz haben etc. Solch
nervenaufreibende Probleme gibt es heute nicht mehr.
Heute dauern die Aufnahmen und Mischungen länger, weil mehr Entscheidungen getroffen werden
können.
97
Anhang
Michael Schubert
Tonmeister, HfM Detmold
Ausschnitte aus dem Gespräch am 12.Juni 2012
Welche Möglichkeiten sind dem Tonmeister gegeben, um ästhetisch in die Musikproduktion einzugreifen?
Es gibt eigentlich hauptsächlich zwei Ebenen. Die eine ist die Aufnahmeebene, wo ich natürlich
entscheiden muss, was für einen Raum ich für die Aufnahme wähle, bzw. was für einen Raum ich
brauche. Ist es ein großes symphonisches Werk, oder eher eine kleine Instrumentengruppe, der später
noch Elektronik zugemischt werden soll? Benötige ich einen guten Raum, der auch die Größe des
Ensembles darstellt, oder reicht mir ein kleines, gut klingendes Studio, welches nicht so wahnsinnig viel
Hall hat. Das wäre die erste Geschichte. Dann ist natürlich wichtig, wie ich die Produktion aufstelle.
Dabei ist für mich immer interessant, ob es ein Fernseh- oder ein Kinofilm ist.
Bei Kinofilmen versuchen wir zunehmend, zum Glück auch wieder in Deutschland, die deutsche
Aufstellung an den Start zu bringen. Die ersten und zweiten Violinen sitzen sich gegenüber, Celli und
Violen etwa halb links und halb rechts, und die Kontrabässe mittig (wenn man es verwirklichen kann)
oder halb links, so dass man für Kino ein ausgewogenes Frequenzspektrum hat. Wenn man die
amerikanische Aufstellung näher betrachtet, wo die Ersten und die Zweiten, die hohen Frequenzen
demnach alle links sind und es dann nach rechts hinten rüber immer tiefer wird, dann kann man sich
vorstellen, was man da so im Kino hört, wenn man nicht genau in der Mitte sitzt. Und die wenigsten
sitzen genau in der Mitte im Kino. Wenn man z.B. sehr weit links sitzt, hört man immer nur helle, hohe
Streicher aus dem linken Lautsprecher und nimmt von rechts eigentlich gar nichts mehr wahr. Und das
verschiebt das Klangbild natürlich ziemlich. Mit der alten deutschen Aufstellung hat man bessere
Möglichkeiten das zu balancieren. Außerdem nutzen einige Komponisten diese Aufstellung, um
beispielsweise einen Echoeffekt, zwischen den ersten und zweiten Geigen, zu erzeugen, wie es früher in
der Rockmusik vorkam.
Wichtig sind als erstes der Raum und die Aufstellung der Orchestermusiker. Dann muss ich mir mit dem
Komponisten reden, um was für eine Art Film es sich handelt. Ist es ein Drama, ein Gegenwartsfilm,
Krimi oder ein Horrorfilm, und was für eine Art Musik hat er dafür komponiert. Daraus geht hervor, ob
ich einen sehr direkten Klang, oder einen eher räumlichen Klang benötige. Die Art der Musik und das
Genre. Davon hängt auch später ab, was in der Mischung passiert. Brauche ich eher bisschen kräftigere,
zupackende Signale, oder brauche ich eher so einen schönen Mahler- oder Strauss-klang. Danach richte
ich die Anzahl und die Position der Stützmikrofone aus. Bei schöner, flächiger Musik komme ich mit
relativ wenigen Stützmikrofonen aus, dann würden sie mich eher stören, weil sie später Artefakte mit in
die Mischung bringen. Ist es eher eine rhythmische Geschichte, ein Aktionfilm, Horrorfilm oder etwas in
der Art, wo ich nachher einen direkten Klang benötige, gehe ich mit dem Mikrofon näher an die
Instrumente heran und baue auch sicherheitshalber mehr Stützmikrofone auf. Das Problem bei der
Filmmusikmischung im Gegensatz zur klassischen Mischung ist, dass ich z.B. bei einer Symphonie das
Klangbild zu 90% bereits während der Aufnahme gestalte und auch weiß, wie es klingen soll - wo ich hin
will. Bei der Filmmusikaufnahme weiß ich das nicht immer so genau, weil später noch Sänger oder
Instrumente dazu kommen, die vom Sound her oftmals noch die gesamte Mischung umbauen und
zusammenschieben. Deshalb brauche ich viele Möglichkeiten, mit Spotmikrofonen verschiedene Sounds
zu erzeugen. Das sind die wichtigsten Dinge, die ich im Vorfeld mit dem Komponisten bereden muss,
weil diese Einfluss nehmen auf die künstlerische Gestaltung, auf die Musikaufnahme und die Mischung.
Bei der Mischung geht es dann weiter. Erst sollte man sich anhören, was der Komponist schon für
Vorstellungen hat. Er hat meist schon einige Layouts. Ich selber kenne die Musik vorher nicht, die ich da
aufgenommen habe und sehe auch den Film nur in Ausschnitten. Man hat manchmal einen inhaltlichen
Überblick darüber. Dann fange ich meistens alleine an und erarbeite mir ein Klangbild, wie ich es mir
vorstelle, meistens vom Orchester. Wobei es da heutzutage auch international verschiedene Richtungen
gibt. Die Tendenz, die ich auch von Kollegen gehört habe, ist so, dass man großen Orchesteraufnahmen
im Kino relativ trocken mischt, was ich auch versuche. Ich versuche den Raumanteil, auch wenn es schön
und breit klingen soll, in Grenzen zu halten. Denn wenn zu viel drauf ist, bekommt man es schlecht weg,
mehr kann man immer dazu geben. Größen des Geschäfts mischen relativ trocken, manche sogar völlig
ohne Hall. Das wird alles erst bei der Filmendmischung dazu dosiert. Allerdings finde ich es schwierig,
etwas völlig ohne Hall zu mischen, da ich dann gar keinen Eindruck von meiner Mischung habe.
98
Anhang
Der heutige Mischstil tendiert dahin, die Räumlichkeit des Orchesters im Kinofilm etwas dezenter
anzulegen, weil man hinterher immer noch die Gelegenheit hat, diese zu erweitern. Wenn etwas aber zu
schwammig und zu hallig ist und man sich in den Sound verliebt hat, sagt der Mischtonmeister danach,
das hat so viel Hall, damit kann ich nichts anfangen, dann hat man schlechte Karten.
Zu dem Klangbild passe ich die entsprechenden elektronischen Stems und Tracks mit ein, die heute fast
immer mit dabei sind. Percussion wird heute zum Großteil von Samplern programmiert, kaum noch
gespielt, was Vorteile und Nachteile hat. Dann wird das nach den Vorstellungen des Komponisten zu
einen Gesamtwerk verbunden. (Anonymus ohne Hall) Ich frage dann immer, ob die Mischung so ist, wie
es der Komponist sich vorstellt, oder ob noch was verbessert werden kann.
Man muss eben manchmal was Neues ausprobieren, um was Neues auszuprobieren. In der gesamten
Musikproduktion und im Film noch mehr, ist es so, dass sich inzwischen kein Mensch mehr festlegen
will. Jeder will sich das kleinste Detail bis zuletzt offen halten. Früher hat man schön auf die Perfos die
Mischung drauf gemacht und dann war Feierabend. Das wieder aufzumachen war sehr aufwändig.
Heutzutage hängen dutzende DAWs aneinander, damit man auch das kleinste Detail noch mal bearbeiten
kann, noch mal ran gehen kann. Das ist in der Musik mittlerweile auch so, was ich eigentlich nicht so
schön finde. Denn, was bei allen Dingen immer verloren geht, ist das Dynamische und Organische beim
Spielen und auch bei der Mischung. Aber das muss jeder selber entscheiden.
Ich kann das nur für die Musik beurteilen. Ich gucke zwar viele Filme, bin aber kein Experte dafür. Das
kann Vor- und Nachteile haben und da wir heute Musikmischungen immer auch in Stems abgeben
müssen, denn eine fertige Mischung nimmt kein Mensch mehr entgegen, ist natürlich auch die „Gefahr“
da, dass hinterher in Balancen und Raumanteile eingegriffen wird, von anderen Leuten, von Produzenten,
Regisseur, Mischtonmeister, die nicht die Intentionen des Komponisten beachten, weil ihnen der Film
wichtiger ist und sie meinen, sie müssten jetzt etwas verändern. Das das notwendig ist, ist mir klar, gerade
wenn man Orchester, Percussion und Effektparts hat, ist es Notwendig, dass man die Möglichkeit hat in
der Endmischung eine Rebalance zwischen den Dingen herzustellen. Wenn aber zu sehr rebalanced wird,
kann es auch die Musik und die Intention des Komponisten zerstören, und das habe ich schon einpaar mal
erlebt.
Das ist genauso von dem künstlerischen, musikalischen Einfühlungsvermögen des Mischtonmeisters
abhängig, das Durchsetzungsvermögen, bei den Produzenten und dem Regisseur - wie spielen alle
zusammen.
Mischen Sie zum Bild?
Ich mische immer zum Bild, obwohl ich in letzter Zeit feststelle, dass viele immer weniger hingucken.
Auch von den Komponisten her habe ich manche erlebt, die es meist gar nicht mehr interessiert, sie es
aber mit laufen lassen, nur für bestimmte Stellen.
Die O-Tonspur, so nennen wir das, was uns mit angeliefert wir, hören wir oft mit. Das kann schlechter OTon sein, oder ein Premix mit Effekten und paar Geräuschen. Wenn man das hat, neben dem, was man
sieht, weiß man besser, was im Film passiert und kann die Musikmischung darauf hin besser anstellen.
Gerade in der Balance bei Orchester zu Soloinstrumenten, da würde man U-Musik anders mischen, als
wenn man sie unter weiteren Klangelementen hört. Wenn man sie leiser macht und oben drüber noch
Atmos und Geräusche hat, dann wird ein Soloanteil schon mal viel zu laut, muss den also viel leiser
mischen, als man ihn, wenn man nur Musik mischen würde, mischen würde. Und das ab und zu zu
kontrollieren finde ich ganz wichtig. Aber manchmal gibt es Komponisten, die sehr genau wissen, was sie
wollen, und deshalb auf solche Kontrollen verzichten. Heute ist es so, dass durch die ganzen elektronischen Möglichkeiten, der Computerprogrammierung auch alles programmiert wird. Dass etwas genau auf
dem Bild, auf dem Schnitt passieren soll, wird im Vorfeld ganz genau festgelegt. Es ist nicht mehr so wie
früher, dass sich der Dirigent vor das Orchester stellt und dirigiert, und das Tempo dann korrigiert wird,
wenn es nicht genau zum Bild funktioniert. Aber durch die heutigen Möglichkeiten der Vorproduktion
und der Click-basierten Produktion kann bereits alles so genau vorbereitet werden, dass man immer die
Kontrolle darüber behält, dass ein bestimmter Part in der Musik oder ein bestimmter Hit genau auf die
gewünschte Stelle fällt. Bei der Mischung muss so etwas dann überhaupt nicht mehr kontrolliert werden,
das ist alles schon im Vorfeld passiert.
Bei der Mischung kontrolliere ich die Lautstärken zusammen mit den Geräuschen oder dem Dialog, um
zu sehen, was passiert. Wenn die Musik 20dB leiser ist, dann klingt sie ganz anders als bei 0dB. Das
99
Anhang
betrifft sowohl die Balance der Instrumente und die Tracks untereinander, als vor allem auch die
Räumlichkeiten zu einander. Deswegen finde ich es besonders wichtig, dass man immer wieder eine
solche Kontrolle durchführt.
Wie nutzen sie den Center?
Der Center ist fast so wie eine No-Go-Area. Auf ihn lege ich eigentlich nur den Center vom DECCA1.
Das ist das einzige Signal und es tut eigentlich nicht wirklich weh. Alle anderen Signale, alle Spotmics
verteile ich im Panorama, und nutze am Digitalpult die Divergence2. Die Signale sind dann zwar im
Panorama drin, aber nur als Phantomschallquelle. Damit bleibt der Center frei für den heiligen Dialog.
Was machen Sie mit dem Center bei einer Musik im Abspann ohne Dialog?
Dann könnte man ihn natürlich nutzen. Ich würde die Mischung aber nicht ändern. Wenn wir nur die
Front betrachten – LCR – dann spielt es bei einer Orchestermusik nicht so eine große Rolle, ob da jetzt
viel auf dem Center ist oder als nur als Phantomschallquelle.
Bei eine Bandproduktion oder Popmusik, spielt es eine geringere Rolle, als man denkt. Man merkt es,
wenn sehr viel auf dem Centerkanal ist, wie z.B. Gesang, Basedrum oder Snare, weil es eigentlich
ungewohnt ist. Wir sind einfach dermaßen gewohnt, Phantomschallquellen zu hören, dass es irritierend
wirkt plötzlich etwas direkt aus der Mitte zu hören. Aber der klangliche Unterschied ist nicht mehr so
groß. Bei einer Orchesterfilmischung ist er eigentlich überhaupt nicht mehr signifikant. Ich würde dann
eher, wenn man eine schöne Abschlussmusik mit Solisten hat, diese schön in den Center geben. Aber
ansonsten lasse ich ihn eigentlich möglichst frei.
Wie verhält es sich mit Surrounds?
Aus meiner Sich ist das eine Entwicklung über viele Jahre. Ich kann mich erinnern, dass es, als ich anfing
Surround-Mischungen anzufertigen und abzugeben, viele Mischtonmeister gab, die das gar nicht haben
wollten. Sie sagten, dass ich ihnen lieber eine Stereomischung geben sollte und sie sich dann alles so
einstellen würden, wie sie es brauchten. Ich sagte, du kannst es doch erst mal nehmen, wegnehmen kannst
du es immer noch. Aber das ist lange vorbei. Man ist da immer etwas konservativ in der Beziehung.
Inzwischen nehmen das alle sehr gerne.
Natürlich nutze ich sie zum einen für die Räumlichkeit. Wenn man mal ehrlich ist, dann hört man, wenn
man im Kino sitzt und einen schönen John Williams Soundtrack hört, auch nichts Direktes im Surround.
Entweder werden sie gar nicht benutzt, oder auch die Surrounds sind so heilig für die Effekte, dass man
wenige Chancen hat. Was ich zunehmend mache ist, dass ich versuche verschiedene Elemente und auch
direkte Signale, in den Surround zu legen. Zum Beispiel lässt sich eine Synthfläche breit über alle vier
Kanäle ziehen, von Links nach Rechts und in den Surround, oder bestimmte rhythmische Gitarren können
mit ein bisschen Verzögerungen nach hinten verbreitert werden.
Allerdings sollte man vorsichtig damit umgehen, ganz konkrete Signale nur in den Surround zu legen. Da
muss man mit dem Regisseur gut Absprechen, ob er das wirklich haben will, denn wenn es einmal im
Surround stört, kriegt man es auch nicht mehr so leicht weg. Es ist ein kleines Problemkind, aber es
entwickelt sich.
Das ist immer auch etwas von der Kreativität der Leute abhängig, vom Komponisten und wie weit alle
dabei mitspielen, oder ob sich die Musik dafür anbietet, ob es Elemente gibt, die man in den Surround
packen kann, usw.
Außerdem muss man etwas vorsichtiger mit den Surrounds umgehen, damit der Mischtonmeister auch
etwas damit anfangen kann und sich nicht dadurch gestört fühlt, wenn andere Signale im Film dann doch
mal wichtiger sind.
Die Möglichkeiten, eine kreative Surround-Mischung zu erstellen, sind da, wenn man sie im Vorfeld
konzipiert. Man kann nicht alle Überraschen und sagen, hey guckt mal, ich hab hier eine super SurroundMischung gemacht und alle fragen, was soll ich damit anfangen? Die Möglichkeiten finde ich sehr schön.
1
2
Der DECCA-Tree ist eine Hauptmikrofonanordnung mit 3-5 Mikrofonen (LL-L-C-R-RR)
Mit Hilfe des Divergence-Reglers werden die Signale anteilig auch über die umliegende Lautsprecher ausgegeben.
100
Anhang
Ich würde mich freuen, wenn man da mehr machen könnte. Aber es ist immer die Frage, wie die Musik
angelegt ist und was der Regisseur will. Wenn er sagt, ich will das so, macht mir mal einen Sound, der
mich umhüllt, dann kann er das gerne bekommen, aber da muss man, gerade was den Surround betrifft,
meiner Erfahrung nach, alles sehr gut absprechen. Es muss mit ins Konzept gehören. Sonst wird es
schnell problematisch.
Verfolgen sie bestimmte Mischphilosophien? Erstellen sie z.B. mehrere Stereoebenen im Raum?
Nein, so bin ich noch nicht an eine Mischung herangegangen. Das könnte man im Surroundpanorama
realisieren. Es geht nur darum, wie ich das betrachte.
Ich finde, dass es für den Surround-Bereich noch viel zu wenig Akzeptanz gibt. Man muss sehr
aufpassen. Wir können Phantomschallquellen vorne und auch noch einigermaßen von der Seite
wahrnehmen. So bis zu 30-40° kriegt man das noch hin, danach ist eigentlich Schluss. Das muss man
beachten. Es macht gar keinen Sinn ein Signal direkt nach hinten zu pannen, denn man kann es ohnehin
nicht so direkt wahrnehmen. Man kann ein Signal wandern lassen, das war’s dann aber auch schon.
Es gibt ja auch verschiedene Möglichkeiten mit Hall zu arbeiten. Es gibt Kollegen, die arbeiten mit 5.1
oder 5.0 Hall und schwören darauf. Ich arbeite lieber mit zwei Stereohalls, einen für die Front und den
zweiten für den Surround. Dann habe ich die Möglichkeit sie verschieden lang zu gestalten und sie auch
in der Intensität zu verändern, je nachdem, was ich brauche. Das entspricht dem, wie man es früher gerne
gemacht hat. Früher hat man mit drei Mono-Hallgeräten gearbeitet, als es noch Dolby Stereo gab, damit
es nach der Matrix nicht so eine Auslöschung gab. Das ist noch so ein bisschen aus den alten Zeiten, aber
ich komme damit ganz gut hin. Ich brauche keinen reinen 5.0 Hall, sondern ich habe das lieber in der
Hand und kann es dosieren. Aber das ist wirklich eine Geschmacksfrage. Daran macht sich kein
Klangbild fest.
Und der LFE?
Ich mag es ja eigentlich, aber auch da muss man immer mit dem Dialog aufpassen, dass man da nicht in
Schwierigkeiten gerät mit dem Mischtonmeister. Der LFE ist, soweit ich das gelernt habe, ursprünglich
etwas für die ganz tiefen Soundeffekte und nicht für die Musik gedacht. Man muss auch aufpassen, dass
man da nicht zu viel drauf gibt oder einen Frequenzbereich bedient, welchen der Zuschauer gar nicht
gewöhnt ist. Wenn ich einen normalen Orchesterklang höre, bin ich nicht gewöhnt, dass da eine Grand
Cassa1 noch gewaltig aus dem LFE rauskommt. Ich versuche immer so ein bisschen was dazu zu geben.
Vom Orchester immer relativ wenig, höchstens mal Gran Cassa Das ist etwas, was man gut verwenden
kann, meist ist bei den Kontrabässen gar nicht so viel da, was sich lohnen würde. Wenn man aber eine
Mischung hat, wo noch viele elektronische Tracks dazu kommen, dann ist oftmals ein Element dabei,
bestimmte Basssounds oder Trommeln, die dann anteilig in den LFE geroutet werden. Das hängt aber
sehr von der Musik ab. Nie zwangsmäßig, oder weil er bedient werden muss. Wenn sich nichts anbietet,
dann kommt da nichts drauf.
Ist unsere künstlerische Arbeit vielleicht die, das wir intuitiv die richtigen EQ’s, Halls und Panpositionen
für jedes Instrument je nach Musik und Film wählen?
Bei aller künstlerischen Arbeit, die wir uns zu Gute halten, die auch wichtig ist, ist ein Tonmeister oder
Toningenieur, der Filmmusik aufnimmt und mischt, ein Dienstleister. Wir erstellen ein Zwischenprodukt.
Jemand der eine CD macht oder eine Band produziert oder eine Symphonie aufnimmt, der erzeugt ein
Endprodukt. Das Ergebnis wird gepresst oder vertrieben. Aber wir erzeugen immer erst ein Zwischenprodukt. Deshalb ist es auch spannend sich mit den anderen künsterlischen Parts wie Sounddesign und Regie
und allen möglichen zusammenzuschließen und abzusprechen, wie man aus allen Dingen das Beste
machen kann. Das finde ich ganz spannend daran. Dass es mit der Abstimmung manchmal ein bisschen
hapert, ist eine andere Geschichte - eine Frage der Herangehensweise. Ich will da niemandem zu Nahe
treten, ich bin kein Regisseur und auch kein Produzent, aber ich habe auch schon Dinge erlebt, die nicht
funktioniert haben, weil sie zwischen Musik und Sounddesign nicht abgesprochen wurden. Aber auch das
wird besser.
1
Große Trommel im Orchester
101
Anhang
Was gibt es für Unterschiede bei Filmmusik und autonomer Musik?
Wenn ich eine CD-Produktion aus der Filmmusik machen wollen würde? Man kann ja beim Genre
bleiben. Heutzutage wird von fast jeder Filmmusik auch eine CD-Auskopplung erzeugt. Dann muss man
sich Gedanken machen, was man mit dem, was man gemischt hat, machen will. Schließlich gebe ich ja
Stems ab, habe trockener und auch noch nicht so Höhenreich gemischt, damit der Mischtonmeister noch
seinen Anteil dazugeben kann und damit es zu den anderen Dingen passt. Ich muss damit irgendwas
anfangen, denn es hat keiner mehr Geld um die gesamte Mischung noch mal aufzulegen und für eine CD
neu zu mischen. Da hat man den Vorteil, dass man, wenn man die entsprechende Musik hat, auch in
Stems mischt. Ich mache es dann so (bzw. ich empfehle es den Komponisten, die das meist alleine
zuhause zu ende bringen), dass ich mir die Stems auflege. Dann hat man die Möglichkeit nach rein
musikalischen Aspekten noch mal eine bestimmte Balance zwischen rhythmischen Elementen,
Orchesterelementen oder solistischen Elementen nach eigenen Gesichtspunkten zu schieben. Weil man
bei der Filmproduktion immer auf das Bild guckt und den O-Ton kontrolliert und danach das Verhältnis
mischt, kann man da noch mal eingreifen. Man kann auch noch mal ganz gezielt verschiedene Stems in
ihrer Räumlichkeit oder Hall bearbeiten oder equalizen. Man geht nicht an das Gesamtprodukt heran,
sondern behandelt bestimmte Subgruppen, und mischt diese noch mal mit viel geringerem Aufwand
zusammen. Was ich gar nicht mehr mache - wogegen ich mich fast weigere - ist, wenn ich gebeten werde
schnell einen Downmix mit raus laufen zu lassen. Das mache ich ungern. Manchmal ist es so, dass
Produzenten oder Regisseure einen Stereomix brauchen, dann mach ich das auch. Aber der ist dann
wirklich nur dafür da. Das ist nicht dazu da, eine CD daraus zu machen, denn das ist wirklich die
schlechteste Variante von allen. Und damit entstehen ganz gute Ergebnisse. Wenn man frei vom Bild ist,
kann man musikalische Belange noch mal anders entscheiden. Dann macht man meistens immer noch
etwas mehr Hall drauf, oder geht mit einem Masteringtool noch bisschen an die Höhen ran und macht den
Klang noch bisschen seidiger.
Selbst Jazz und Klassik wird bereits komprimiert. Filmmusik im Film dagegen weniger?
Das ist mir nicht so bekannt. Meine Kollegen in Detmold sehen das als No-Go-Area. Und im Jazz ist das
auch sehr schwierig. Die Jazz- und Klassikmusiker wollen möglichst viel Dynamik haben. Eigentlich sind
das zum Glück noch zwei Baustellen, bei denen man noch nicht so stark damit konfrontiert ist.
Bei Filmmusik ist es immer so, dass ich versuche die maximale Dynamik zu erhalten. Ich habe über Jahre
versucht mich im Vorfeld mit den Mischtonmeistern zu unterhalten, um herauszufinden, was für sie
wichtig und was unwichtig ist und habe dadurch entsprechend genügend Erfahrung gesammelt. Eine
Aussage war immer: Möglichst nicht komprimieren. Denn das ist etwas, was sie am Ende entscheiden wie viel Kompression oder Dynamik sie in der Musik brauchen. Manchmal soll eine Stelle ganz leise
beginnen und die Geigen sich dann plötzlich vom Pianissimo ins Forte steigern, und wenn ich das bei der
Mischung schon zusammenpacke muss der Mischtonmeister dann gegenregeln.
Ich verwende höchstens bei Soloinstrumenten, wenn es mal notwendig ist im Gesang, den Kompressor.
Dann behandle ich sie bisschen so wie in der Musikproduktion. Aber dass ich im Gesamten eine
Summenkompression verwende, oder die Stems komprimiere, das mache ich gar nicht und das will auch
keiner. So hat die Musik die Dynamik, die man auch mischt.
Welche Stems spielen Sie aus?
Das hängt von der Musik, von dem Komponisten und vom Mischtonmeister ab. Bei Produktionen wie mit
Helmut Zerlett, Ralf Wengenmayr oder Lorenz Dangel, wo immer auch eine Menge Elektronik dabei ist,
erzeuge ich immer auch ein Master, obwohl das viele gar nicht haben wollen, aber ich möchte für mich
ein Endprodukt vorweisen können.
Meistens gibt es einen Orchesterstem und dann kommt es schon darauf an, was man noch dabei hat.
Wenn es noch eine ganze Menge an Synthsounds und Bässen gibt, wird es noch einen Synthstem geben.
Auch wenn man Gitarren hat, gibt es einen Gitarrenstem, Schlagzeug- oder Percussionstem. Die braucht
man meistens einzeln. Meist hat man auch einen Solostem. Das sind so die gängigsten Arten. Orchester,
Solisten, Percussion, flächige Parts und wenn viele Gitarren dabei sind noch ein Gitarrenstem. Und dann
ist es auch Möglich, dass sämtliche Hallreturns auf einen extra Stem verlangt werden. Nun kann man
natürlich nicht für jeden, wenn man schon fünf Stems hat, noch mal für jeden fünf Hallstems aufmachen.
Da muss man sich bisschen entscheiden. Letztes Jahr habe ich einige Filme gemacht, da gab es zwei
Stereostems für den Orchesterhall, einmal Front einmal Back, einen Hallstem, in dem alle anderen
102
Anhang
Hallreturns drauf geroutet wurden, so dass die anderen, eigentlich instrumentalen Stems trocken waren.
Dadurch hat der Mischtonmeister die Möglichkeit, wenn ihm an der Mischung etwas nicht gefällt, den
Orchesterhallstem lauter oder leiser zu machen. Gefällt ihm aber in den andern Stems etwas nicht, muss
er einen neuen Hall anlegen. Aber er hat die Möglichkeit es noch mal völlig trocken zu haben und etwas
neu dazu zu machen. Das war zumindest die Vorstellung vom Komponisten und Mischtonmeister, also
haben wir das auch so gemacht. Das machen auch nicht wenige.
Ich bin eher dafür, möglichst viel fertig zu produzieren. Ich frage den Komponisten immer, willst du
wirklich, dass später noch jemand so in deine Musik eingreifen kann? Das ist immer eine Gratwanderung.
Einerseits muss er bestimmte Möglichkeiten für die Mischung offen halten, andererseits möchte er auch,
dass sein Werk so rüberkommt, wie er es sich gedacht hat, in allen Verhältnissen. Was hat er für ein
Standing? Wenn er einen großen Namen hat und sagen kann, so will ich das haben und es dann auch
weiß, dass es so funktioniert, dann wird ihn auch keiner dran hindern, aber wenn er etwas unsicher ist
oder die Produktion schon von vielen schwierigen Faktoren geprägt ist, dann muss es eben mehr
Möglichkeiten geben. Es bleibt dann die Gefahr, dass bei der Endmischung doch an der Musikbalance
noch etwas verändert wird.
Meist ist das ein Sicherheitsaspekt. Ich glaube, dass sie am Ende die Mischung so genommen haben.
Wenn aber wenn, dann könnte man. Dieses, man weiß ja nicht was kommt. Letzten Endes kann man sich
dem auch nicht verweigern, wenn so eine Anforderung steht. Ich kann da auch nicht irgendwie
rumbocken und sagen, nee, mach ich nicht, find ich doof. Dann werden sie das nächste Mal einen anderen
mischen lassen. Wenn etwas total gegen meine Überzeugung geht, versuche ich mit dem Mischtonmeister
zu reden, um meine Vorstellungen zu äußern und dann findet sich immer ein guter Weg miteinander.
Aber Schlussendlich bin ich ein Dienstleister, arbeite etwas zu und stehe dann auch in gewissen
Verpflichtungen.
Seit wann haben sie die Möglichkeit Stems raus zufahren?
Technisch ist es erst Möglich, seit dem wir die Neve Konsole haben. Eigentlich braucht man nur eine
Konsole oder eine DAW, die genügend Busmöglichkeiten hat. Mit ProTools ist man heutzutage kaum
eingeschränkt. Beim Mischpult muss man gucken, welche Möglichkeiten es hat. Technisch gibt es da
immer eine Grenze. Meistens haben wir nur 24 Bus Musikkonsolen. Aber bereits mit der analogen
Konsole, die wir vor 5-10 Jahren hatten, ging es langsam los und jetzt ist es Standard bei Kinofilmen. Bei
Fernsehfilmen nicht. Fernsehen will immer ein fertiges Stereoband haben. Beim Kino ist es Standard, es
sei denn man hat einen rein orchestralen Soundtrack, aber das ist auch kaum noch anzutreffen - ein
Streichquartett spielt die ganze Zeit - ansonsten ist es seit vielen Jahren üblich.
Und was hat man vorher gemacht?
Da gab es nur eine Endmischung in Stereo. Die ersten Jahre von Mitten der 90er, als ich angefangen habe,
bis wir dann die Neve hatten, habe ich DAT Bänder abgegeben.
Nach der Aufnahme war also die Mischung fertig?
Ja, wenn man noch mal ran musste, musste man die gesamte Mischung noch mal aufmachen, aber das
habe ich nie erlebt. Wenn es einmal draußen war, war es draußen. Ab und zu findet man noch einen
Fehler, oder ein Geräusch, welches man nicht wahrgenommen hat. Dann ist der Vorteil bei einer
Digitalkonsole, dass man alles wieder aufrufen und sofort noch mal nachsehen kann, was da war, das
Problem fixen und wieder raus schmeißen kann. Beim Analogpult ist das aufwändiger.
Ist das besser?
Ich finde die Möglichkeit schon besser, dass man beim Mischen alles machen kann. Ich arbeite oft so,
dass ich erst einmal alleine anfange zu mischen. Dann kommt der Komponist dazu und wir einigen uns
über das Klangbild und man macht ein paar Sachen zusammen. Dann mische ich wieder eine Weile
alleine. Die Komponisten sind auch meistens so beschäftigt und komponieren schon ihr nächstes Stück
oder an einen anderen Film. Dann misch ich schon mal drei-vier Nummern und hole den Komponisten
nachher wieder rein und spiele ihm mein Werk vor. Dann gibt es noch paar Korrekturen und dann wird es
geprinted. Dabei ist so eine Digitalkonsole sehr günstig, da alles abgespeichert ist und ich alle Parameter
einfach abrufen kann. Ich mag analogen Sound zwar sehr, gerade bei der Aufnahme ist es sehr wichtig,
dass man einen guten, warmen Sound bekommt, aber in der Mischung finde ich hat das Digitale eben
103
Anhang
unglaublich viele Vorteile. Man kann alles abspeichern und hat alle Möglichkeiten, mehrere Fader zu
bewegen, Hallanteile oder Auxiliarypegel, Returns und Filter zu programmieren und Elemente im
Panorama wandern zu lassen. Das finde ich einen Segen.
Surround in autonomer Musik hat sich nicht durchgesetzt.
Ja, leider nicht. Das ist eigentlich tot.
Ich habe immer noch Hoffnung, dass sich durch die Blu-ray Disc noch Möglichkeiten ergeben. Wenn
man auf eine Blu-ray Disc nur Audio drauf geben könnte, dann wäre das wundervoll. Aber es ist auch
etwas schwierig.
Es gibt ein Projekt von den MSM-Studios unter der Leitung von Stefan Bock Pure Audio BluRay. Die
haben versucht eine Java-Applikation zu schreiben, die es ermöglicht, eine Blu-ray Disc zu bedienen, wie
eine CD, damit man keinen Bildschirm mehr braucht. Bei der DVD Audio hatte man das Problem, dass
man immer ein Bildschirmmenü brauchte um dann wirklich in die Einstellungen rein zu kommen. Sie
haben versucht etwas zu schreiben, damit man mit den Funktionstasten, die jeder Blu-ray Disc Player hat,
die Farbtasten nutzen kann, um darüber zwischen den verschiedenen Layern zu wechseln. Aber irgendwie
kommt das auch nicht so richtig aus dem Knick. Wahrscheinlich, weil das lizenziert werden muss, und
alles was Geld kostet, wird von der Industrie ausgebremst. Aber trotzdem sehe ich da eine Chance mit der
Blu-ray Disc, schon vom Datenträger her. Ob sich dann wirklich in der populären Musik Leute finden, die
das interessiert... Es gab mal eine Phase vor 15-20 Jahren, wo viele versucht haben da etwas zu tun, aber
diese Zeit ist auch durch das Sterben der SACD oder DVD Audio völlig hinüber. Mit meinen Tonmeisterstudenten im Unterricht vergleichen wir Stereoaufnahmen mit Surround-Mischungen. Es gibt auch eine
ganze Menge an Aufnahmen, die später in Surround remixt wurden. Wenn man früheres, für stereo
konzipiertes Material in Surround remixt, dann gibt es, wenn man es ganz kritisch betrachtet, sehr wenig,
was auch wirklich gefällt. Das ist eine ästhetische und künstlerische Ebene, die sich nicht entwickelt hat,
weil das Medium auch tot ist. Ob das je wieder kommt, weiß ich nicht. Ich finde es interessant, aber es
steht für mich bisschen in den Sternen. Die „Klassiker“ (wenn man überhaupt noch eine SACD kaufen
kann, dann sind es Aufnahmen mit klassischer Musik) machen - etwas salopp ausgedrückt - noch mit. Es
ist wesentlich einfacher, bei einer Orchesteraufnahme gleich ein Surround-Setup aufzustellen, um eine
Surround-Produktion daraus zu machen, als wenn ich mir bei einer Popproduktion überlege, was ich mit
den Surrounds mache. Das muss ich dann ganz konkret dafür mischen. Eigentlich gibt es nur wenige
Beispiele. Ich kenne nur eine SACD der letzten 7-8 Jahren, die wirklich dafür konzipiert und gemischt
worden ist, von Peter Gabriel „Growing up“. Alles Andere sind fast immer nur Remixe von irgendwelchen alten Aufnahmen. Da ist interessant, dass die Arrangements früher für Stereo gemacht wurden.
Wenn man diese plötzlich im Surround auffächert, dann fällt das auch oftmals auseinander. Man hat nicht
mehr die Kompaktheit. Man hat das Gefühl, dass da noch etwas ist, was da klingelt, weil es im Surround
sitzt, dabei ist das früher extra so reingemischt worden, damit es passt. Man braucht einen kreativen Input
für Surround, gerade bei Pop oder Jazz. Das hat sich leider gar nicht entwickelt.
Man muss auch sehen, was die Leute zuhause für Abhöranlagen besitzen und was dem Normalvolk bei
den Elektronikmärkten verkauft wird. Es ist ja ein finanzieller Aufwand und es passt auch nicht in jede
Wohnung rein. Ich sehe das skeptisch. Stereo dagegen ist seit Jahrzehnten erprobt, auch in der Mischung.
Haben Sie je Aufnahmen ohne Click durchgeführt?
Ich habe einmal eine Produktion ohne Click gemacht. Mit dem Filmorchester und dem Dirigenten Helmut
Imig aus Essen haben wir drei Produktionen zu zwei alten Stummfilmen durchgeführt. „Die Abenteuer
des Prinzen Achmed“ und später die Musik für den Film „Panzerkreuzer Potemkin“, letzteres in zwei
Fassungen. Die eine mit Orchester und die Zweite als kammermusikalische Fassung. Da es geschriebene,
existierende Musik für den Film war, gab es keine Timecodeverkoppelung und keine Clicktracks. Da
haben wir uns einen TimeCode extra ins Bild einfügen lassen, damit wir überhaupt kommunizieren
konnten, wo wir jetzt einsteigen und so weiter. Herr Imig ist ein Spezialist für Stummfilme und macht
viel live. Mit ihm haben wir die Musik für die zwei Filme aufgenommen. Das war eine Herausforderung,
weil er nicht immer ganz genau da angefangen hat, wo die Musik einsetzen sollte, eben weil es keinen
Clicktrack gab. Dirigiert wurde nach Bild, darum ist das Tempo auch nicht immer ganz exakt, obwohl er
immer sehr genau ist. Es gibt immer agogische Bewegungen in der Musik, die bei jedem Take, bei jeder
Aufnahme immer ein bisschen anders sind. Das umzuschneiden war schon eine Herausforderung. So viel
gestrecht und gepitcht und gestaucht habe ich - glaub ich - noch nie. Aber es ging ja nicht anders. Ein
Take hat dann gar nicht mehr reingepasst, weil er ein Stückchen zu lang war. Den musste man aber aus
musikalischen Gründen nehmen, also musste man ihn zusammenschieben. Es war auch nur eine
104
Anhang
Fernsehproduktion. Mit Pitch’n’Time1 ging das ganz gut. Dabei waren meine Eingriffe auch nicht
riesenhaft, aber man musste immer suchen, ob man nicht doch etwas Besseres findet, was zeitlich passt,
und wenn es dann gepasst hat, war es nicht unbedingt auch musikalisch in Ordnung. Man muss zwischen
ganz vielen Dingen abwägen, während man bei so einer Clickbasierten Produktion eigentlich nur schauen
muss, was musikalisch passt, da der Rest eigentlich immer funktioniert. Das war sehr aufwändig und ich
habe ganz schön lange daran gesessen, bis ich alles zusammen hatte. Manchmal sagt der Regisseur:
Einmal hatten wir da einen Take, der war wunderbar. - Der ging aber deswegen wiederum nicht – Das
kann nicht sein – Nein, deswegen und deswegen nicht. In den Schwarzweißfilmen gibt es anderthalb
Stunden nur Musik und die muss durchweg passen.
Heute ist alles Clicktrack verdorben. Weil dadurch immer etwas Leben heraus genommen wird. Bei
früheren Produktionen, bei denen nur das Orchester spielte, war das noch kein so großes Problem. Nur
der Dirigent hörte den Click und konnte dem Orchester noch Freiraum lassen. Aber da heute bei fast jeder
Produktion noch Elektronics dazu kommen, hat man keine Chance. Dann muss alles drauf sein. Es hat
dann eine gewisse Sterilität. Auch die ganzen amerikanischen Aktionfilme sind zwar super produziert,
aber auch popmusikalisch genau auf den Punkt und nicht mehr so lebendig, wie eine Orchesterproduktion.
1
Plugin von Serrato
105
Anhang
Peter Fuchs
Tonmeister
Ausschnitte aus der eMail vom 20.Juni 2012
Wie unterscheiden sich Ihrer Ansicht nach die Produktionsweise und Ästhetik bei Filmmusik und
autonomer Musik?
Produktionsweisen Film-/Gamemusik:
•
striktes produzieren zum Click
•
Overdubs mit ganzen Orchestergruppen, nicht nur Soloinstrumenten
•
aus Budgetgründen oft Doppeln der Streicher- und/oder Blechsektion
•
90% der Produktionen sind meiner Erfahrung nach Hybridproduktionen mit synthetischem
Anteil von teilweise mehr als die Hälfte
•
sehr oft Unterstützung der Orchesterstimmen durch Samples
•
deutlich nähere Mikrofonierung (ca. 20%)
•
deutlich weniger Schnittarbeit
•
stärkere Dynamikbearbeitung als bei autonomer Musik
Ästhetik Film-/Gamemusik:
•
deutlich "näheres" Klangbild, um im Zusammenwirken mit Dialog/Effekten die Musik präsent
halten zu können
•
besonders bei Actionscores werden von den Komponisten die Begriffe "druckvoll" und "fett"
sehr gerne als den gewünschten Klang beschreibend verwendet
•
entsprechend wird das Frequenzspektrum speziell in den Randbereichen viel stärker ausgenutzt,
natürlich unterstütz durch den LFE Kanal in der 5.1 Mischung (siehe z.B. "Green Lantern" score)
•
klare Ausrichtung des Klangverlaufs am übergeordneten visuellen Geschehen, z.B. werden u.U.
alle Hauptmikrofone "gefahren" oder Hall/EQ Einstellungen dynamisch dem visuellen Geschehen angepasst
Was ändert sich bei Musik für Computerspiele?
•
sehr oft werden mehrere Lagen ("layers") des selben Stücks eingespielt, die dann im Spielgeschehen dem Verlauf entsprechend abgerufen werden können
•
entsprechend werden oft Sessions nur mit Streichern, nur Blech oder nur Percussion gebucht
•
es werden auch kurze musikalische Übergänge eingespielt, die Musiken an wichtigen dramaturgischen Schnittstellen im Spiel verbinden können
•
grundsätzlich müssen die Musiken als Schleife laufen können, d.h. musikalische Schlüsse
werden einzeln zusätzlich eingespielt
•
Holzbläser scheinen insgesamt weniger benutzt zu werden
•
Tempo- und Tonartkompatibilität ist bei Gamemusik viel wichtiger als bei Filmmusik
106
Anhang
Oft wird der Center bei der Filmmusikmischung etwas ausgelassen, damit genügend Platz für die Sprache
gelassen wird. Wie verhält es sich bei Computerspielen, in denen eher weniger gesprochen wird?
Nach meiner Erfahrung werden nach wie vor die meisten Gamescores nur in Stereo produziert. XBox
streamt z.B. die Musik direkt von DVD, da reicht die Bandbreite für 5.1 nicht aus.
Soweit ich informiert bin, soll sich das aber bald ändern.
Nach welchen Philosophien mischen Sie in 5.1? Behalten Sie die Surrounds eher den Halleffekten und
Ambiences vor oder verteilen Sie mehrere Stereoebenen im Raum? Wie behandeln Sie Center und LFE?
Ich mache das natürlich sehr stark von der Musik abhängig. Ein klassischer Orchesterscore wird von mir
eher mit einer "umhüllenden" Klangphilosophie gemischt, d.h. die Surrounds sind recht konservativ mit
den Ambience Mikrofonen und Hallanteilen aus dem 960 oder M60001.
Bei elektronischen Scores verteile ich komplett nach Gutdünken und behandle alle sechs Kanäle
gleichwertig, so dass z.B. bestimmte Elemente tatsächlich nur von hinten oder auch nur aus dem
Subwoofer kommen.
Der Center sollte meiner Meinung nach nicht fehlen, vor allem, wenn man an Kinos mit großen
Leinwänden denkt. Dennoch versuche ich, ihn "unauffällig“ zu halten. In der Regel wird mein Center
Mikrofon des Decca Tree im Verhältnis 1:1 gemischt, die links-rechts Orientierung ergibt sich oft aus den
Stützmikrofonen. Ein intensives Studium des Klanges von Hollywood Filmscores hat mich zu der
Annahme geleitet, dass dort der "tree" nicht überbewertet wird.
Der LFE spielt bei mir eine entscheidende Rolle, wird diskret mikrofoniert und gemischt (d.h. gefiltert
abgeliefert). Auch für den stereo Downmix ist er bei mir wichtig.
Gibt es dramaturgische Verknüpfungen von Mischung und Bildinhalt/Handlung?
Durchaus. Z.B dynamische Veränderungen/Anpassungen, die bei Orchesterproduktionen Idealerweise
schon während der Aufnahme beachtet werden sollten. Meiner Meinung nach wird die Dynamik von
Komponisten oft unterschätzt. Sehr leise und sehr laute Passagen klingen auf CD gut, passen sich aber oft
nur sehr schwer in das auditive Gesamtbild ein.
Auch Fragen der Orchestrierung und Besetzung werden oft während der Aufnahme thematisiert, wenn es
um dramaturgische Belange geht. Das ist natürlich nur möglich, wenn der Regisseur bei den Musikaufnahmen anwesend ist.
Ansonsten versucht man in der Musikmischung so gut wie möglich, Bildinhalt und Handlung zu folgen.
Zum Einsatz kommen dynamische Veränderungen von EQ, Halleinstellungen, Hallanteilen, Panoramafahrten, dynamisierte Kompressoren etc.
Spätestens in der Filmmischung wird aber vom Regisseur das endgültige Urteil über die Musik gefällt
und wir alle wissen, dass man hier immer wieder mit Überraschungen zu rechnen hat...
Wie hoch schätzen Sie Ihren dramaturgischen Beitrag bei einer Musikproduktion ein?
nun ja…ich bin meistens schon froh, wenn meine Vorschläge auf offene Ohren stoßen…
1
Lexicon 960 und TC M6000
107
Anhang
Telefonat mit Peter Fuchs
Ausschnitte aus dem Gespräch am 25.Juni 2012
Wie bereiten Sie sich auf eine Aufnahme vor?
Ich versuche möglichst bald einen Kontakt zum Komponisten herzustellen und Material zu sammeln.
Dazu gehören Layouts der Stücke als MP3, damit ich mir im Vorfeld schon ein Bild von der Musik
machen kann. Dann fordere ich eine ProTools Session an, doch leider sind nicht alle Komponisten dazu
in der Lage. Dann muss ich sie selber erstellen und muss dabei viele Dinge beachten. Ich brauche eine
wasserdichte Session, d.h. dass alle Tempoänderungen und alle Taktwechsel identisch mit der Partitur
sind. Ein Bild im passenden Format muss ich anfordern, denn abhängig vom Zuspieler werden
unterschiedliche Bildformate benötigt. Das verbuche ich alles unter Logistik.
Vermutlich müssen Sie kein Equipment mitnehmen und arbeiten ausschließlich in voll ausgestatteten
Studios?
Es gibt leider immer weniger gute Studios. Das TELDEX Studio in Berlin sowie Abbey Road und Air in
London sind gut ausgestattet, aber ansonsten nehme ich immer meine eigenen Mikrofone mit. Und meine
Vorverstärker. Und Wandler!
Die Musik für „Die Päpstin“ haben wir mobil aufgenommen. Das erzeugt einen enormen zusätzlichen
Druck, da es viele Fehlerquellen geben kann. Es kann passieren, dass man am Vortag noch 12 bis 14
Stunden mit dem Aufbau und der Einrichtung der mobilen Regie beschäftigt ist.
Darf ich fragen, welche Geräte Sie benutzen?
Ich besitze etwa 25 Mikrofone, die meisten alte Röhren, wofür mich einige Musiktonmeister belächeln.
An Vorverstärkern habe ich einen von Grace1, Millenia, ASP, einen alten DigiPre, den ich aber gern für
einige Signale benutze, und paar Neve 1073. Ich habe mir alle Geräte zusammen gesucht. Ein M1502
klingt mit dem Millenia zu grell, meist nutze ich lieber Neve Preamps. So hat sich das entwickelt.
Wie viel wird im Vorfeld mit dem Komponisten, Regisseur oder Mischtonmeister abgesprochen?
Mit dem Komponisten wird viel kommuniziert. Zunächst ist wichtig, wie er sich die Musik vorstellt. Oft
dürfen Komponisten bei einer Filmmusik nicht völlig frei komponieren, sondern erhalten einen
Temptrack aus dem Schnitt. Die neue Komposition soll dann so ähnlich klingen. Ich höre mir dann
sowohl die Temptracks als auch die Layouts an, und höre so auch die Balancevorstellungen heraus. Die
Orchesteraufnahme soll eigentlich klingen wie das Layout. Oft sind die Regisseure überrascht von dem
Orchesterklang und wundern sich, dass der Sound nicht mehr so ist, wie im Layout. Aus diesem Grund
wollen die Komponisten lieber auf Nummer sicher gehen und die Musikmischung klanglich an das
Layout anpassen.
Im Vorfeld geht es also um musikalische und klangliche Aspekte der Musik, natürlich um die Besetzung,
und ob während der Aufnahme grundsätzlich gedoppelt werden soll.
Zum Regisseur habe ich keinen Kontakt, zu ihm habe ich keine Berührungspunkte.
Mit dem Mischtonmeister unterhalte ich mich auch über eher logistische Dinge. Manchmal kann er mir
vorab bereits Effektspuren zu kommen lassen, aber meistens reicht es nur für einen O-Ton in mono. Mit
ihm spreche ich ab, wie viele Stems ich abgeben soll, wie viele Spuren es insgesamt maximal oder
minimal geben darf. Das ist oft von den technischen Gegebenheiten des Kinos abhängig, in dem die
Endmischung später durchgeführt wird. Mit ihm wird besprochen, ob er Surround-Stems haben, oder ob
die Stems in Stereo oder dreikanalig abgeliefert werden sollen.
1
2
Grace Design
Röhrenmikrofon von Neumann
108
Anhang
Welche Stems spielen Sie aus?
Das ist absolut abhängig vom Projekt. Manche Mischtonmeister wollen nur Stereostems, aber ich nehme
grundsätzlich so auf, dass ich hinterher diskrete 5.1 Stems abliefern kann. Bei Kinoproduktionen werden
meist 5.0 oder 5.1 Stems angefordert, aber beim Fernsehen sind es überwiegend Stereostems, außer beim
ARD und ZDF. Die senden auch in 5.1. Manchmal sollen alle Stems, die nicht gemeinsam mit dem
Orchester eingespielt wurden, wie Drums, Gitarren oder Synthesizer, in Stereo abgegeben werden. Aber
ich versuche immer darauf einzuwirken und alle Stems in Surround abzuliefern, denn ich kann während
der Musikmischung schon viel mit den zusätzlichen Spuren gestalten, während der Mischtonmeister bei
der Endmischung kaum die Zeit hat, sich so intensiv mit allen Instrumentenspuren zu befassen.
Orchesterstützen liefere ich auch als LCR aus, wenn es angefordert wird. Das ist natürlich unschön, da
auf diese Weise stark in die Musikmischung eingegriffen werden kann. Viele Komponisten wollen
deshalb bei der Endmischung dabei sein und dafür sorgen, dass ihre Musik bestmöglich rüber kommt.
Andere dagegen wollen gar nicht dabei sein.
Ich habe oftmals den Eindruck, dass die Gewichtung bei deutschen Produktionen stark auf dem
Sounddesign liegt. Die Musik ist mindestens 30% leiser, als bei internationalen Mischungen. In den USA
können die Tonmeister scheinbar besser abstrahieren, was von Bedeutung ist. Sie können das Gesamtbild
besser beurteilen. Es gibt wenige prägnante Elemente, die zur Handlung beitragen, aber der Rest ist sehr
gut balanciert. Außerdem werden in den USA weniger Vormischungen durchgeführt, sondern drei Leute
sitzen am Pult und mischen gemeinsam.
Ich habe gehört, dass tendenziell mit weniger Hall gemischt wird, damit der Mischtonmeister während
der Endmischung den Hallanteil zum restlichen Klanggeschehen anpassen kann.
Da ich die CD-Mischung zeitgleich durchführe und den Downmix ständig gegen höre, kann ich nicht so
sehr mit dem Hall sparen. Die CD-Mischung ist ohnehin wichtiger, weil die Surroundmischung so ohne
weitere Geräusche und Dialog ohnehin niemals zu hören ist. Wenn ich die Surrounds mit in den
Stereomix mische, dann bringen sie auch noch etwas Hall mit. Zuviel Hall kann kaum störend sein, weil
er ohnehin von anderen Geräuschen überdeckt wird. Wenn sparsam mit dem Hall umgegangen wird, und
der Mischtonmeister nimmt einen anderen Hall, dann trifft er seltenst meinen Geschmack. Darum
versuche ich immer bereits die Hall- und Raumanteile zu definieren. Ich versuche auch jedem Stem
seinen eigenen Hall zu geben. So ganz ohne Hall klingt es nicht gut. Ich bin dafür so zu mischen, wie man
es empfindet. Gut, bei Actionsequenzen benötigt man weniger Hall, weil dann der Raum bereits von sich
aus lebt. Es ist immer Abhängig von der Musik und der Dynamik.
109
Anhang
Bernhard Albrecht
Tonmeister, HFF
Ausschnitte aus dem Gespräch am 11.Juli 2012
Der Vorteil an der Wellenfeldsynthese ist, dass man – unabhängig von der Art der Musikproduktion - die
räumliche Klanggestaltung viel differenzierter umsetzten kann. Dabei sei dahin gestellt, ob diese
räumliche Gestaltung realistisch ist. Das Spannende ist die Möglichkeit, Dinge räumlich zu entzerren.
Man hat nicht nur die drei Frontkanäle, wie im konventionellen Kino, zur Verfügung, um eine Dynamik
zwischen den einzelnen Mischungselementen zu gestalten. D.h. dass ich nicht nur eine Dynamik
zwischen Laut und Leise herstellen muss, sondern auch eine Dynamik zwischen Dialog und Musik. Es
entsteht also eine Klangbalance zwischen den Elementen in der Mischung.
Ich muss mir sehr viele Gedanken machen, wenn ich nur drei Kanäle habe, oder im Extremfall, wenn ich
nur einen Kanal habe, oder zwei bei der Stereophonie. Im Kino habe ich eigentlich nur drei Kanäle, denn
den Surround-Kanal kann ich für bestimmte, hochqualitative Signale in der aktuellen Dolby DigitalVariante, mit einem Surround, der Bandbegrenzt ist und so diffus strahlt, nicht wirklich realisieren. Bei
der Wellenfeldsynthese kommt es darauf an, wie ich es aufgebaut habe. Wenn ich sie in 360° aufbaue, ist
es ein gleichmäßiges Wiedergabesystem, das erst einmal keine Vorzugsrichtung hat, sondern in alle
Raumrichtungen gleichmäßig gewichtet strahlt. Da wird es interessant, weil ich jetzt viel mehr
Möglichkeiten habe Räume auszudifferenzieren, Elemente in der Richtungsverteilung viel präziser zu
positionieren und habe den Vorteil, dass ich auch viel stärker parallelisieren kann. Wenn ich also
verschiedene Elemente habe, verschiedene Dialogelemente und musikalische Elemente, und ich diese
räumlich stärker verteile, habe ich die Möglichkeit sie viel gleichwertiger zu setzten, weil sie sich nicht
überlappen. Da die Lokalisation einzelner Elemente in so einem Mix exakter ist, habe ich den Vorteil,
dass ich Dinge, die ich Hervorheben will, nicht unbedingt lauter mischen, sondern nur ein Stückchen
woanders exakt positionieren muss. Spannend ist auch bei einem WFS-System, im Gegensatz zu einem
stereofonen System, die Interaktion mit dem Raum. Wenn ich, als Rezipient, mich bewege - wenn ich so
ein System in ein Kino einbaue, natürlich nicht, weil ich dann sitze – wenn ich mich bewege, und ich den
Schallquellen absolute Positionen gegeben habe, verschiebt sich meine Mischung ganz anders als bei
einem stereofonen System. Bei einem stereofonen System höre ich, wenn ich rechts stehe, den rechten
Lautsprecher, wenn ich in der Mitte stehe, den mittleren Lautsprecher und wenn ich dazwischen stehe,
einen Mix aus beiden. Wenn ich im Sweet Spot stehe, höre ich alles in einem ausgewogenen Verhältnis.
Das ist zumindest die grundsätzliche Aussage. Wenn ich mich in einem WFS-System bewege, finden die
Veränderungen auch statt, aber sie verhalten sich ähnlich einer realen Raumsituation. Wenn ich z.B. in
einem Musikclub bin in dem keine Elektroakustik vorhanden ist, sondern ein akustisches Set, und den
Saxofonisten lauter hören will, muss ich zu ihm hingehen. So ähnlich ist es bei WFS auch. D.h. dass ich
während der Mischung viel weniger festlege, was der Rezipient hört. Deswegen gibt es keine pauschalen
Empfehlungen. Durch die bessere Auflösung der Systeme, durch die Differenzierbarkeit auch im
räumlichen Bereich, kann ich viel stärker Parallelisieren. Ich kann akustische Elemente gleichwertig laut
setzten, so dass der Zuhörer trotzdem die Möglichkeit hat sie nachher noch auseinander zu bekommen. In
der Hörwahrnehmung würde das bedeuten, dass ich sagen könnte: ich fokussiere mich, weil ich das
möchte, auf den Dialog, und kann ihn deshalb bei der Mischung wahrscheinlich viel leiser machen, als
bei einem dreikanaligen System, wo der Dialog deutlich getrennter sein muss. Bei der Stereofonie habe
ich die Möglichkeit entweder alle anderen Elemente aus dem Center raus zu lassen, oder ich mache den
Dialog lauter. Bei der Wellenfeldsynthese, mit ihrer sehr hohen Differenzierbarkeit, kann ich spezielle
Elemente ganz anders setzten.
Es gibt noch keine 20-Jahre lange Misch-Erfahrung in dem Bereich und – was auch noch viel wichtiger
ist – es gibt im Bereich der Wellenfeldsynthese wenige Beispiele, die fiktionale Inhalte erzählen. Es gibt
viel dokumentarisches Material, weil der Anspruch war, dass die Wellenfeldsynthese Audio so wieder
geben soll, wie es in der Realität ist. Die realitätsrichtige Abbildung war so ein Markenzeichen des WFS.
Das sehe ich nicht so. Es ist ein System, welches Wellen physikalisch richtig wiedergeben kann. Damit
heißt das für mich nicht automatisch, dass es mich als System beeindruckt. Unter dem Postulat der
Realitätsnähe – physikalisch richtig – wurde sehr viel quasi-dokumentarisches Material erstellt.
Konzertsituationen wurden in eine elektroakustische Wiedergabeumgebung transferiert, gemäß dem
Motto: „Wenn ich das physikalisch richtig mache, habe ich den Konzertsaal mitgenommen.“ Für mich
sind das Versuche, die vergessen, dass dabei Dimensionen, wie die visuelle Rückkopplung, fehlen. Was
ich aber beim Film habe, ist, dass ich nicht unbedingt einen realen Raum, sondern einen filmischen Raum
erzähle, bei dem sich alles, was sich akustisch daran beteiligt, sich dieser Idee - das kann eine Geschichte,
110
Anhang
eine Stimmung oder ein dramaturgischer Handlungsverlauf sein - unter ordnet. D.h. es gibt Elemente, die
akustisch glaubwürdig sein sollen, aber ob sie akustisch realitätsrichtig sind, das ist nicht die zentrale
Frage. Die Situation, die ich sehe, muss sich mit dem Verbinden, was ich höre und das, was ich emotional
überbringen will ordnet sich dem unter. Aber genau diese Situationen gibt es in der Wellenfeldsynthese
bisher wenig. Wir haben an der Hochschule vier Hörspiele gemacht, die eine fiktionale Komponente
enthalten, aber meistens sind es Demos realer Situationen. Im Kinokontext ist WFS noch nicht so richtig
angekommen. Ich denke, dass das, was die Kollegen von der WFS-Fraktion vorhatten, jetzt Dolby
ATMOS1 übernimmt. Sie erstellen keine Wellenfeldsynthese, sondern ein Intensitätspanning, welches
wahrscheinlich auch im Kino funktionieren wird. Es wird eine Objektorientierung geben und es wächst
die Auflösungsfähigkeit des Systems, so dass die Beschallungssituation gleichmäßiger wird. Ob dann
WFS dranhängt oder etwas anderes interessiert die Filmschaffenden nicht so sehr.
Welche Projekte werden in WFS produziert?
Seit Rhythm is it2 findet jährlich das Education-Dance-Project statt. Das ist ein soziales Projekt, bei dem
die Philharmoniker gemeinsam mit Schülern aus Berlin eine Tanz-Performance entwickeln. Dieses Jahr
wurde das Stück Carmen unter der Leitung der Choreografin Sasha Walz aufgeführt. Es gibt eine
Probephase und dann wird das Stück zwei oder drei Mal aufgeführt. Diese wurden von den Kollegen des
Heinrich-Hertz-Instituts mit einer 180° Kamera-Variante, mit einem Aufnahmewinkel von 180° und einer
Bildauflösung von 7k, mitgeschnitten. Die Kamera ist allerdings sehr unflexibel und nicht mobil, was
Bewegungen sehr aufwändig macht. Daher war das Konzept, dass während der drei Aufführungen drei
Perspektiven aufgezeichnet wurden, die jetzt untereinander verschnitten werden müssen. Hinzu kommen
noch Broadcast HD-Kameraaufnahmen als Inserts, um ein kurzes Demo der Aufführungen zu erstellen.
Die Mischung dafür wird insofern spannend, weil das Endprodukt sehr filmisch wird, da diesmal nicht
das musikalische Ereignis im Mittelpunkt steht. Die Rahmenhandlung ist zwar die Musik, aber die
Musiker sind eigentlich nie im Bild, sondern nur die Tanz-Performer, die Schüler. Man sieht die
Philharmoniker nur am Rande. Es gibt keinen Dialog und keinen Gesang, aber Geräusche, die von der
Tanzfläche kommen. Wie diese mit der Musik kombiniert werden, ist eine dramaturgische Entscheidung.
Stelle ich die Philharmoniker als breites Orchester, Filmmusik-mäßig dar, oder sortiere ich sie räumlich
richtig ein, wie sie auch vom Bild kommen? Ich habe die Idee verschiedene Herangehensweisen
auszuprobieren, die ich unter dem Stichwort „Räumlich Atmend“ zusammenfasse. Dabei würde ich die
Musik gerne einmal ganz punktuell beginnen lassen um sie dann groß aufzubauen und sie dann, je nach
dramaturgischen Handlungsverlauf, wieder in eine Realsituation hinein zu bringen. Ich würde versuchen,
den Raum mal zu öffnen, so dass es Fokuspunkte gibt, aber auch die Musik mal breit und groß werden zu
lassen, so dass sie das Bild damit untermalt. Das sind allerdings noch nur Ideen, die mit den Kollegen des
Heinrich-Hertz-Instituts diskutiert werden müssen. Expansions- und Kompressionsbewegungen finde ich
sehr spannend, weil sie in der Wellenfeldsynthese funktionieren und sie auch eine neue Form der
Entfernungsbewegung darstellen. Möglicherweise nutz sich dieser Effekt auch nicht so stark ab.
Bewegung um mich herum, so wie es im Kino manchmal vorkommt, finde ich nicht so spannend, weil es
dramaturgisch sehr gut begründet sein muss, damit sie nicht nur wie spielerische Effekte wirken.
Welche tondramaturgischen Konzepte könnte man verfolgen?
Konzeptionen bei der Filmvertonung sind eher selten. Meistens werden individuelle Herangehensweisen,
nach dem Trial and Error-Prinzip, angewendet. Das aktuelle Kinobeschallungsformat reizt mich nicht zu
einer tondramaturgischen Surround-Gestaltung. Es gibt zwar gegenteilige Beispiele, aber man hat nur
wenige Gestaltungsmöglichkeiten im Surround, weil sie – für mich – technologisch so mangelhaft sind,
dass ich versuche deren Einsatz so klein wie möglich zu halten. Wenn ich im Kino Surround-Effekte
höre, werfen sie mich technisch aus der Handlung. Darum gefällt mir auch die Wellenfeldsynthese, weil
sich da das System als solches nicht in den Vordergrund spielt.
Was sich mit Hilfe der Surrounds schön darstellen lassen, sind Veränderung der Atmosphären, Drehung
von Räumen oder Gestaltung von Entfernungen. Wenn ich einen glaubwürdigen, quasi-realen Raum
akustisch positioniere, dann brauche ich nur wenig Zeit um ihn zu etablieren und habe die Möglichkeit
etwas in dem Raum zu erzählen. Wenn ich diesen Raum dann entferne, drehe oder bewege, erzeuge ich
1
2
Dolby ATMOS: neue Technologie von Dolby; weitere Informationen unter
www.investor.dolby.com/releasedetail.cfm?ReleaseID=666401
Dokumentarfilm aus dem Jahre 2004, der drei Jugendliche während der Probezeit zum damaligen Tanz-Projekt
„Le sacre du printemps“ begleitet
111
Anhang
damit eine Fiktionalität, die ich sehr spannend finde. Der Film „Noise“ spielt mit diesen Effekten. Er hat
auch einen WFS-Soundrtrack, wurde aber auch in 5.1 gemischt.
Für mich ist grundsätzlich die Aussage des Filmes wichtig. Aber es ist tatsächlich auch bei mir so, dass
vieles einfach entsteht, wenn man verschiedene Dinge ausprobiert. Viele Projekte, die ich in letzter Zeit
gemacht habe, waren dokumentarischer Natur. Für die 180° Variante entsteht jetzt ein Film, der
hoffentlich im nächsten Jahr fertig wird, der eine Geschichte für diese Technologie erzählt. Da muss es
eine sehr enge Verzahnung zwischen den Elementen geben, die das Bild gestalten und die den Ton
gestalten. Zurzeit sind solche Projekte in der Planung, und ich hoffe, da es dabei enge Zusammenarbeiten
geben wird.
Bei der Produktion von Hörspielen ist es manchmal so, dass beim Entwurf des Hörspieltextes gleichzeitig
ein Tonkonzept von den Autoren vorgegeben wird, weil das teilweise schon für die Aufnahmetechnik
wichtig sein kann. So werden Räume mit Hauptsystemen mikrofoniert, die anschließend vollständig
bespielt werden. Die Szenen werden auch als Ganzes inszeniert und gar nicht aus einzelnen Stücken
zusammengesetzt. Dann werden Konzepte im Vorfeld unbedingt benötigt, aber im Filmbereich habe ich
mich damit selten beschäftigt.
Wie man sinnvoll ein Konzept zu einem vorhandenen Bild entwickelt, ist meist Aufgabe des Sounddesigners. Im Mischungsbereich ist es oftmals so, dass viele Dinge bereits durch das Sounddesign vorgegeben
sind. Aber durch räumliche Gestaltung, Tiefenstaffelung und Entfernungslayering kann ich Bedeutungen
in der Mischung verstärken. Ein interessantes Beispiel dafür ist der Film „Der Gott des Gemetzels“ von
Roman Polanski, der nur Dialog als Gestaltungsmittel zur Verfügung hat. Er ist eigentlich mono, arbeitet
aber viel mit Tiefenstaffelung. Teilweise sind vier vorhandene Protagonisten von der Entfernung her
räumlich richtig positioniert und dann teilweise wieder nicht. Es gibt eine Dialoghandlung, die eine
bestimmte Zeit umfasst. Alle zum Dialog gehörenden Protagonisten, sind räumlich in der Entfernung
richtig eingeteilt, und alle Dialogelemente, die in diesen Dialogbogen einbrechen, weil sie nicht direkt
dazugehören, haben eine andere Tiefenstaffelung. Obwohl sie im Raum viel weiter hinten zu sehen sind,
sind sie manchmal weiter vorne zu hören, gehen dann aber wieder weg. Dadurch schafft es der Film, der
eigentlich ausschließlich Dialogelemente zulässt – es gibt einige Bewegungsgeräusche, aber nicht viele,
und fast keine Atmos – über die Tiefenstaffelung eine spannende Tondramaturgie zu kreieren. Er
funktioniert allerdings nur in der Originalfassung. Das räumliche Konzept, ich empfinde es zumindest als
solches, wurde bei der Synchronfassung leider nicht nachgebaut.
Ich finde tondramaturgische Konzepte spannend, die weggehen von dem Konzept, dass ich ein Bild sehe
und es auch akustisch in irgendeiner Form bedienen muss, ob nun leiser oder lauter, sondern die ganz
bewusst auf eine Reduktion setzten. Ich finde Konzepte spannend, in denen der filmische Raum als
eigener Raum betrachtet wird, in dem bestimmte Elemente aus der Realität richtig einsortiert sind, die
wichtig sind und vorkommen müssen, aber - und das sind auch meistens die guten Soundtracks - eine
Fokussierung in sich beinhalten. Dabei erhalten die Elemente, die da sind trotzdem so eine Beiläufigkeit,
dass ich nicht das Gefühl habe, dass ich hier etwas hören muss - ein Foley oder ein Schritt - der wichtig
sein muss. Konzepte sind daher für mich, die Abstraktion der Tonebene, bewusste Fokussierung auf
einzelne Elemente, aber mit einer Leichtigkeit versehen, dass der Soundtrack so wirkt, als müsste er so
sein. Aber das ist nicht selbstverständlich. Oft ist es so, dass der Soundtrack vom Kunden nachsynchronisiert wurde und damit automatisch eine Fokussierung hat, der aber dann wieder so präsentiert wird, dass
ich alles höre. Ich habe dann das Gefühl, dass ich alle Foleys hören muss und das finde ich furchtbar.
Ziele sind, unabhängig vom Film, atmenden Räume zu schaffen, über Tiefenstaffelung Bedeutungsstaffelungen herzustellen, und in der Fokussierung trotzdem zu einer Beiläufigkeit zu kommen, dass sich
einzelne Elemente nicht einfach nach vorne spielen. Es ist wenig da und wirkt damit glaubwürdig. Das
sind zwar keine Konzepte, aber das sind Ziele.
Eigentlich finde ich die Idee, Konzepte zu entwickeln, sehr gut. Ich bin jemand, der gerne Konzepte
entwickelt, auch wenn sie im Prozess meistens komplett umgeworfen werden. Ich entwerfe eine
Gliederung oder einen Entwurf und sehe dann im Bearbeitungsverlauf, dass das Konzept geändert werden
muss. Wenn ich aber kein Konzept habe, kann ich auch nichts ändern. Ich habe keine Referenz, an der ich
meine Arbeit rückkoppeln kann. Deshalb finde ich es gut, im Vorfeld eine Idee zu generieren. Aber es ist
natürlich so, dass es in der Realität selten passiert. Man bekommt ein Bild und dann beginnt auch direkt
die Arbeit und man hat keine Gelegenheit im Vorfeld ein Konzept zu entwickeln. Oft ist es im
Mischungsbereich so, dass ich die Sachen zuvor gar nicht gesehen habe, die Mischung aber gleich
losgeht. Man kann manchmal erst am Ende entscheiden, ob das Konzept funktioniert hat. Teilweise wird
gleich mit der Arbeit begonnen und dann noch mal ein rekursiver Prozess eingeführt, bei dem dann
Anfang, Mitte und Schluss noch mal bearbeitet werden. Das ist zumindest sinnvoll für so eine Form des
Arbeitens, wo man das Material vorher noch nicht gesehen hat und gleich loslegen muss.
112
Anhang
Filmmusik-Mischtonmeister haben berichtet, dass tendenziell recht trockene Mischungen abgegeben
werden, damit in der Endmischung die richtige Dosierung gefunden werden kann.
Wenn das in einem extra Stem rausgespielt wird, geht ja eigentlich alles. Ich finde, dass Räumlichkeiten
tatsächlich nur im Kontext des Gesamtsoundtracks entschieden werden können. Man muss den Hallstem
in der Hand haben können.
Musikpremixe finde ich sehr gut und sehr wichtig, aber dann benötige ich einen Musik- und einen
Effektstem mit demselben Spurlayout, und dann habe ich alles, was ich brauche. Eine Räumlichkeit auf
eine Gesamtsumme zu packen, ist nicht optimal. Ich kann verstehen, dass man die Räumlichkeit in der
Mischung getrennt haben will.
Es geht ja um den filmischen Kontext und nicht um die Musik. Die Filmmusik ist nur ein Element des
Soundtracks und kann nicht finalisiert werden, ohne alle weiteren Elemente zu kennen. Sie ist eine
funktionale Musik und nicht autonom. Wenn sie autonom ist, ist sie wahrscheinlich falsch gewählt. Auch
der Soundtrack ist ein Element des Films, welcher sich aus verschiedenen Elementen zusammensetzt, und
davon ist ein Element die Musik, in welche ich eingreifen können muss. Die grundsätzliche Modifizierbarkeit finde ich sehr wichtig. Die Stems sind dafür da, dass ich noch eingreifen kann, wenn bedarf ist.
Dabei sollte das Stemlayout schon dem finalen Layout entsprechen und auch die Gestaltung der
Surrounds kann durchaus bereits erfolgt sein.
113
Anhang
Martin Steyer
Filmmischtonmeister, HFF
Ausschnitte aus dem Gespräch am 13.Juli 2012
Was sind die Möglichkeiten eines konzeptionellen Vorgehens in der Gestaltung der Tonebene mit Dialog,
Sounddesign und Musik?
Es gibt eigentlich zwei Pole, zwischen welchen sich eine Filmmusik herausbilden kann. Zum einen ist es
der Stoff, bzw. der Urimpuls des Films, welcher den Komponisten dazu bringt, die Musik passend zum
Plot und zu den Figuren zu komponieren. Der andere Pol ist die zeitliche Struktur im Film. Sie ist ein
Instrumentarium, die der Musik eine Struktur verleiht. Diese kann nach klassischen Formen oder
improvisatorisch gewählt werden, auch ohne eine Begründung liefern zu müssen. Die zeitliche Struktur
ist der Gegenpart alles Spielerischen. Dazwischen befindet sich der Bereich der Inspiration, die der
Komponist mitbringt.
Die Amerikaner haben eine Bezeichnung für kreative Herangehensweisen in der Tongestaltung: „Doing
the opposite.“ Wenn eine komplett gegensätzliche Idee umgesetzt wird, bringt das oftmals eine neue
Sichtweise mit.
Welche Stems präferieren Sie?
Bei den Stems sollten immer perkussive und flächige Anteile getrennt werden. Dabei sollte der
Hauptstem mit einer 3er Front, besser aber in 5.0 oder 5.1 vorhanden sein. Bei „Die Vermessung der
Welt“ gibt es sogar 7.1 Stems, also vier Raummikrofone für die vier Surround-Lautsprecher zur
Verfügung stehen.
Weiter ist wichtig, dass die Stützstems oder Instrumentenstems einer Delaykorrektur unterzogen wurden.
Diese Korrektur ist notwendig für einen präziseren Sound. Ohne die Delaykorrektur wird der Sound
diffuser, verbindet sich dann aber besser mit den restlichen Tongeschehen zu einem Gesamtklang.
Ansonsten benötige ich einen extra Bass und separierte Soloinstrumente.
Ich habe von Musiktonmeistern erfahren, dass früher lieber Stereostems als fertige Surround-Stems
angenommen wurden.
Das lag wohl daran, dass diese Surround-Mischungen von Anfang an nicht für die Anwendung im Kino
geeignet waren. Eine SACD-Mischung z.B. ist fürs Kino überhaupt nicht brauchbar, weil sie viel zu
wenig Dynamik aufweist. Die Idee der Musik im Film ist eine andere als bei autonomer Musik, z.B. die
internen Verschiebungen der Orchesterinstrumente sind ganz andere.
In den USA werden Piano und Harfe grundsätzlich in einem separaten Raum aufgenommen, damit keine
Schwierigkeiten bei der Klangbearbeitung auftreten. Das Klavier im Kino, als perkussives Instrument,
sollte immer mit einer Laufzeitstereofonie aufgezeichnet werden, nie mit Intensitätsstereofonie, damit die
Sprache frei bleibt. Klavierstems sind meist auch nur quadrofon.
Wie behandeln sie stereofone Musik im Kino?
Der klassische Weg verläuft über die SDU41, um ein Surround-Signal zu generieren. Auch der
entstehende Center wird genutzt. Der Monosurround wird dann mit einem Stereosynthesizer in ein
stereofones Signal umgewandelt.
Für den Film „Knallhart“ musste ich monofone Rockmusik verarbeiten. Dazu half mir der Orban
Stereosynthesizer, der mit inversen Filterkurven ein monokompatibles Stereosignal generierte, was dann
wieder den Weg über die SDU4 nahm.
1
SDU4: Dolby Surround Decoder
114
Anhang
Leider verschwinden immer mehr analoge Geräte aus den Studios. Nur noch Plugins bleiben übrig. Dabei
unterscheide ich die zwei Hauptbereiche der Filter, die ganz exakt störende Frequenzanteile entfernen,
und der Raumsimulationen, wie Altiverb, die sehr vielfältige Räume nachbilden können.
Eine grundsätzliche Anpassung von Stereomusiken an die Hornlautsprecher halte ich nicht für notwendig.
Ich greife erst in den Frequenzgang ein, wenn ich etwas Störendes höre. Jeder Film muss anders
behandelt werden, deshalb kann es auch keine standardisierten Verfahren geben. Es gibt auch Tonmeister,
die voreingestellte Filter haben, die alles unterhalb 80Hz und oberhalb 12kHz abschneiden, aber von
solchen Sicherheitsfiltern halte ich relativ wenig. Für mich gilt immer „Erst hören, dann machen.“.
Außerdem verliert der Klang mit jeder Filterung an Robustheit. Für den Raum, in dem gemischt wurde
mag alles funktionieren, aber wenn der Film dann in einem anderen Raum aufgeführt wird, können sich
stark eingesetzte Filterungen negativ auswirken. Ein weniger stark bearbeitetes Signal dagegen setzt sich
in jedem Raum durch. Lediglich Atmos, besonders bei der Gestaltung von Räumen, dünne ich im
mittleren Frequenzgang etwas aus.
Gesang in der Musik parallel zu Dialog ist immer sehr schwierig zu mischen. Sowas sollte man eigentlich
nicht machen. Dann muss der Gesangsstem gefiltert werden. Für den Film „Casino“ wurden sämtliche
Vokalteile ausgeschnitten, damit sie nicht den Dialog überdecken. Das ist allerdings schwierig, da dafür
die Erlaubnis des Künstlers eingeholt werden müsste, was aber meist nicht geschieht.
Es hat den Anschein, dass Szenen ohne Filmmusik ernsthafter wirken.
Ich mag Filmmusik, wenn sie sich sachte unter die Szene schiebt, sie also ohne Musik beginnt und am
Ende den Zuschauer noch etwas in der Stimmung behält. Oft haben Regisseure nicht genügend Erfahrung
und wissen erst am Ende was sie wollen. Daher sollte der Tonmeister Ahnung von Musik haben. Der
Rhythmus einzelner Geräusche ist auch für den Sounddesigner wichtig, wenn sie im Off richtig eingesetzt
werden müssen. Musikalisches Empfinden kommt dem Einfühlungsvermögen gleich.
Was hat die Digitalisierung gebracht?
Die Effektivität hat sich nicht geändert. Als Filme noch mit analogem Band linear geschnitten wurden,
gab es keine neue Schnittfassung während der Tonpostproduktion.
Die erste digitale Schnittmaschine konnte nur chronologisch schneiden. Man konnte nicht zurück und den
ersten Schnitt noch mal verändern. Der Schnitt, die Möglichkeiten von Mehrkanalaufnahmen und die
Musikrezeption ändern sich ständig. Daher sind Traditionen bald nicht mehr sinnvoll und weichen den
Inventionen.
115
Anhang
Dick Bernstein
Music Editor
Ausschnitte aus der eMail vom 18.Juli 2012
What would be the ideal production cycle during the score production and what is real? What could be
optimized?
Scheduling, per se, seems to be a moving target. The picture cut never settles, so new picture is always
being delivered, and often the music team is chasing the cut. Then there is the paramount issue of the
availability of scoring stages, which has become quite impossible since the demolition of the Paramount
stage and the Radford stage. Fox, Warners, and Sony are the only viable stages in Los Angeles these
days, and they are perpetually booked. Then there are huge glitches, like reshoots, or tossing an entire
score and hiring a different composer.
Things used to work better with television, where there was a three-week schedule and three composers.
One week for writing, one week for copying and recording, one week for editing and mixing.
What could be optimized? Start with the brains of directors, and then the brains of studio execs. Have
plenty of time available on scoring stages, and a surplus of excellent, highly trained musicians.
What are sound-dramaturgical concepts you prearrange with the full sound department?
There usually isn't much interaction besides passing temp music to the sound editors for their spotting,
and sometimes discussing a specific sound element such as church bells, which have a tonality (although
these days we just kind of re-pitch as we go). Then sometimes we discover discordant elements in the
sound effects that really mess with the music for no apparent reason - car honks, traffic, bird calls. We
sometimes ask the sound editors to "help us out." Other times we appeal to the director during the final
mix.
Do you edit the temptracks in 5.1 or stereo?
Almost exclusively stereo. Rarely I'll steal from an old show where I had the complete score in 5.1.
Rarely.
How long do you need for spotting the session and score preparation?
Spotting is one long or two reasonable days. Doing notes from that is another day or two, and, if
breakdown notes are required, they can take a couple of weeks. It's all about having enough material for
the composer to keep working.
Score prep -- for a music editor, this has to wait until sketches are delivered to the copyist, who sends
along another copy to the music editor. Then we can start inputting bars, timings, etc. Uncovering math
errors. This starts about a week before scoring and continues right through the scoring sessions, as scores
are being delivered at the last minute.
as a matter of course (at least with James Horner), streamers and punches are added during rehearsals and
between takes.
The first streamer was a diagonal line over 48frames of the strip, but how it got's visible? What software
do you use today to visualize the punches and streamers?
The streamer "on the film" is old technology. These days we use video effects generators or "filters" to
superimpose streamers on digital or taped video. This makes the streamers non-destructive and edit-able.
I use Streamline, a program I invented along with my brother Bill and my friend Bob Badami. It's a long
story, but our attempts to sell and support the program fell short because we are all working music editors
and didn't have time to be salesmen and support people.
Check out our technical achievement award from 1989 (at the bottom of the page):
http://www.imdb.com/event/ev0000003/1989
116
Anhang
Stephan Köthe
Tonmeister, HFF
Ausschnitte aus dem Gespräch am 24.September 2012
Was ist der Ausgangspunkt bei einer Musikproduktion, worauf kommt es an?
Die Wahl der Mittel ist als erstes durch eine inhaltliche/dramaturgische Fragestellung eines Werkes
bestimmt. Was möchte der Kunde, mit welchem Inhalt erreichen? Die Anforderungen an ein Produkt
formen sich dabei häufig aus verschiedenen Meinungsbildern, die es zu sondieren gilt. Dazu kommt, dass
der Kunde am Anfang oft eine mehr oder weniger diffuse Vorstellung von dem eigentlichen Endergebnis
und damit vom Umfang der Produktion hat. Es ist zu klären, was wen, wie bei welchem Budget erreichen
soll. Dass unterschiedliche Endformate, jeweils mit einer anderen Herangehensweise bewältigt werden,
muss durch den Tonmeister „übersetzt“ werden.
Es ist wichtig immer zu hinterfragen was der Kunde wünscht. Dafür müssen die richtigen Worte
gefunden werden, die immer abhängig von der „Szene“ sind, in der man sich gerade befindet. Klassische
Musiker sprechen eine andere Sprache als Tonleute untereinander oder Tonleute mit Popmusikern.
Bei der Übertragung sind wir gefragt. Wir sind Übersetzer, ergründen die Intention des Regisseurs und
des Komponisten, was für eine Stimmung evoziert werden soll, und danach wählen wir z.B. die passende
Aufnahmetechnik.
Am Ende jedoch kommt es bei diesem komplexen Themenkonglomerat darauf an, im richtigen Moment
auf Aufnahme zu drücken bzw. eine Situation zu schaffen, eine Atmosphäre herzustellen, in der eine gute
Performance des Künstlers möglich wird, auch in einer künstlichen Studiosituation. Sich mit Mikrofontypen, Pulten, Technologie an sich auszukennen, ist dabei Vorraussetzung für den Beruf.
Welche unterschiedlichen Aufgaben ergeben sich daraus für den Tonmeister?
Der Aufnahmeleiter, also der Tonmeister, der die Aufnahme leitet, betreut dabei die Aufnahme inhaltlich
und der Recording Engineer am Pult technisch. Der Aufnahmeleiter formuliert mit dem Komponisten die
klanglichen Anforderungen und Vorstellungen während der Session. Der Recording Engineer setzt diese
technisch um, vorausgesetzt es liegt eine klassische Rollenaufteilung von Workstation-Operator,
Pultingenieur und die Aufnahme leitenden Tonmeister vor. Heutzutage sind kleine und mittlere
Produktionen aus wirtschaftlichen Gründen dazu gezwungen, die Arbeiten in einer Position zusammenzufassen. Das führt dazu, dass unzählige inhaltliche, organisatorische und technische Vorgänge von einer
Tonmeisterin gleichzeitig bewältigt werden müssen.
Wir müssen diese verschiedenen Bereiche bedienen und gleichzeitig darauf achten, dass die ursprüngliche
Intention – ein Gefühl hervorzurufen – nicht aus den Augen verloren geht. Von der Qualität der
Übersetzung der ursprünglichen Idee zum Werk in die komplexen Einzel-Prozesse durch den Tonmeister,
hängt eine Menge ab. Er muss für das entsprechende Werk, Stück oder die entsprechende Szene
individuelle Konzepte zur Umsetzung entwickeln. Das betrifft u.a. die Aufstellung der Musiker, die
Mikrofonierung und spätere Mischtaktik, den gesamten Produktionsprozess.
Gibt es sonst darüber hinaus ästhetische Unterschiede durch die Produktion für verschiedene Zielgruppen?
Die zu beachtenden genreabhängigen Unterschiede im Produktionsprozess haben wie gesagt einen
inhaltlichen Ausgangspunkt. Beim Film sind es dramaturgische Beweggründe, die meistens vom
Regisseur ausgehen. Im Film muss sich die Musik im Gegensatz zur absoluten Musik, dem Handlungsverlauf einer Geschichte unterordnen, die funktionieren soll, um möglichst viele Besucher ins Kino zu
locken.
Wie wichtig die Zielgruppe ist, zeigt sich nicht nur bei einer Hollywoodproduktion, sondern auch bei
einer Opernübertragung, die von einem Fernsehsender produziert wird, um auf Arte oder 3sat ausgestrahlt
zu werden. Es gibt hier natürlich ebenfalls ein ganz bestimmtes Zielpublikum mit einer bestimmten
ästhetischen Erwartung. Es gibt z.B. ganz unterschiedliche Arten von mehr oder weniger „authentischen“
Opernaufzeichnungen. Der durchschnittliche „Arte-Kulturhörer“ erwartet hier tendenziell eine
authentische Übertragung eines Konzerterlebnisses, wobei wir wissen, dass wir uns schon lange nicht
mehr in der ursprünglichen Konzertsituation befinden. Bei einer „Gala-Opern-Show“ in konzertanter
Form können sich schon mal die Genregrenzen vermischen. Trotzdem kann man immer sagen: man muss
117
Anhang
ausdifferenzieren, welche Ästhetik wir befriedigen und welches Publikum wir in welchem Umfang
erreichen wollen. Die Klassikproduktion und die Filmmusikproduktion gehorchen einerseits ihren
eigenen ästhetischen Gesetzen, bändeln jedoch beide häufig miteinander und der Popästhetik an.
Die Entwicklung geht hier weiter. Genauso wie sich die Ästhetik des reinen Konzerterlebnis zu einer
Aufzeichnungs- bzw. Schallplattenästhetik gewandelt hat, mit eher gestützten Einzelquellen kombiniert
mit einem Hauptssystem. Genauso wie die Nachhallzeit von Konzertsälen nach 1945 von 2 bis 2,2
Sekunden im Prinzip einer gewachsenen Aufführungspraxis geschuldet ist, welche Werke unterschiedlicher Epochen von Barock bis Romantik an einem Abend bewältigen soll. Diese Entwicklung koppelt
wiederum zurück mit der Einstellung des künstlichen Nachhalls bei einer Klassikproduktion. Als die
Stücke ursprünglich komponiert wurden (nicht nur im Barock, sondern nachweislich auch in der Klassik
und in der Romantik) mussten die Werke teilweise mit sehr viel kürzeren Nachhallzeiten bei ihren
Uraufführungen ausgekommen. Am Ende gibt es immer die Wechselwirkung von Aufführungspraxis,
Medium und Zuhörer.
Was ist speziell bei einer Filmmusikmischung?
Michael Schubert hat schön gesagt, dass wir ein Zwischenprodukt erstellen. Dabei muss der Filmmusikmischtonmeister auch immer ein wenig Filmmischtonmeister sein, also wissen worauf hin er innerhalb
des Produktionsprozesses mischt. Das heißt, er muss wissen, wie die Abhörsituation im Kino funktioniert, welche o.g. Funktionen die Musik erfüllt, welche Kompositionstaktiken es gibt, was jeweils damit
im Kontext des Films intendiert wird. Das muss er wieder verbinden mit dem, was sowieso als ästhetische
musikalische Konvention in den Köpfen der Leute durch die Hörerfahrung besteht. Bei der Mischung
eines z.B. Trauermarsches, welcher im Bild zu sehen ist, erwarte ich als Zuschauer auch eine mit der
Lokalisation verbundene Akustik einerseits, andererseits das gewohnte, von Aufzeichnungen bekannte
Klangbild. Diesem Umstand versucht man dann als Filmmusikmischtonmeister Rechnung zu tragen.
Als Musikmischtonmeister für den Film ist es wichtig, dem Mischtonmeister zuzuarbeiten, ohne zuviel
vorwegzunehmen, was er selbst nicht einschätzen kann.
Die Berufsrealität zeigt zwar oft, dass man es auch ohne Bild mischen muss, aber eine bessere Arbeit ist
möglich, wenn bildbezogen gemischt wird. Dazu gehört auch, dass man gewisse Instrumente bildbezogen
hervorhebt, die dramaturgisch, leitmotivisch (z.B. Personencharakterisierung) fungieren. Das kann man
während der Musikmischung schon vorarbeiten, auch wenn während der Filmmischung oft noch
nachgearbeitet wird.
Wenn ein Soloinstrument in der Filmmusik-Orchester-Mischung hervorgehoben werden soll, geht es
nicht nur, wie in der klassischen Musik, darum ein möglichst authentisches Bild von einem Konzerterlebnis zu zeichnen, um z.B. eine ausgewogene Tiefenstaffelung zu erreichen, sondern darum, dem Film in
dem Moment gerecht zu werden. Die ästhetischen Konventionen der klassischen Musikproduktion
spielen mit, können aber in der Filmmusik und in der bildbezogenen Musikmischung durchaus
durchbrochen werden. Ein Beispiel dafür ist in der Konzertaufzeichnung das Hervorheben eines Soloparts
in der Nahen (Kameraeinstellung).
Warum ist der Decca-Tree bei Filmmusikaufnahmen so interessant? Wie wird dazu gestützt?
Der Decca-Tree steht nicht vor dem Klangkörper und spiegelt nicht die Perspektive eines Zuhörers im
Konzertsaal wieder. Er steht über dem Dirigenten. Das linke Mikrofon ist über den ersten Geigen, das
rechte Mikrofon (abhängig von der Aufstellung) über den zweiten Geigen oder den Celli positioniert. Der
Center weist in Richtung Bratschen bei der amerikanischen Aufstellung. Die Outrigger befinden sich über
den zweiten Pulten. Als Mikrofone werden oft die M150 von Neumann verwendet, Kugelmikrofone, die
zu hohen Frequenzen hin gerichtet sind. Damit erhält man eine Mischung aus Hauptsystem und
Streicherstützen. Dieses muss in der Mischung später auch so betrachtet werden. Der Decca–Tree betont
den Streicherapparat, leider aufstellungsabhängig gleichzeitig eine homogene Tiefenstaffelung opfernd,
die in der klassischen Musikproduktion bei Einsatz eines Hauptssystems maßgeblich ist. Bei der
Filmmusik will man bis in die Popästhetik hinein, sehr nah stützen und auch über den Decca-Tree erhält
man ein relativ direkten und gleichzeitig einen nicht zu überstützten Klang der Streicher. Wie in der
Klassik, wo man mit dem Hauptsystem und den Stützen (nicht nur um das Publikum optisch zu schonen)
einen relativ großen Abstand zum Klangkörper bzw. zum Musiker hält. Der Abstand und Winkel des
Mikrofons zum Instrument beeinflusst den Klang, klar. Näher – weiter; direkter – luftiger; mehr Kontrolle
– weniger Kontrolle; Übersprechungsanteil kleiner oder größer. Im Nachhinein sind noch mehr
mischdramaturgische Eingriffe möglich, wenn ich weniger Übersprechen habe, auch klar. Das ist nicht
nur wichtig, weil sich Filmorchesteraufnahmen immer mehr an der Pop-Ästhetik orientieren, sondern
auch für die möglichen Steuerbarkeit zur Unterstützung der Bilddramaturgie.
118
Anhang
Der Decca-Tree ist eigentlich ein Stereosystem (ohne abgesenkten Center) und hat Schwächen, wenn man
ihn eins zu eins in ein LCR-System, sprich in ein Surround-Array umdefiniert. In einem Kinosystem hat
er die Schwäche des überhöhten Centers. Oft wird diesem Problem leider durch eine pauschale
Absenkung des Centers spätestens in Filmmischung begegnet, da der Center a priori dem Dialog
vorbehalten bleibt. Dabei wird der Center benötigt, damit das musikalische Gesamtbild, gerade im Kino
mit seinen großen Basisbreiten, nicht zerfällt. Es gibt Wege dem Effekt bereits bei der Aufnahme oder
spätestens in der Mischung vorzubeugen.
Es ist nicht einfach Regeln bezüglich Filterung und EQing aufzustellen. Gibt es trotzdem grundsätzliche
Vorgehensweisen?
Im Zweifelsfall, besonders bei der Orchesteraufnahme, gilt „don’t fix in the mix“. Sprich, bereits bei der
Aufnahme ist zu beachten, dass die Instrumente eine bestimmte Abstrahlcharakteristik haben, d.h.
gewisse Frequenzbänder nur in bestimmte Richtungen abgestrahlt werden. Wenn ich nur ein Mikrofon für
ein Instrument habe, muss ich den Abstand erhöhen, um das Instrument vollständig zu erfassen. Das
relativiert auch eventuelle Bewegungen der Musiker. Es bleibt der Zwiespalt zwischen Kontrollierbarkeit
und Klangfarbe. Dazu muss ich wissen, wo welche Hauptformanten wichtig für meine Mischung sind.
Um EQing vorzubeugen muss das Instrument an der richtigen Stelle, mit dem richtigen Mikrofon
abgenommen werden. Ein Gitarrenlautsprecher oder eine Trompete klingen im Zentrum der Hauptabstrahlachse präsenter und heller als am Rand, immer auch abhängig von der Charakteristik des gewählten
Mikrofons. Bei der Positionierung der Mikrofone sind neben Übersprechungseffekt und Phasenbildung
durch Summation verschiedener Stützen, wie immer auch Genre, Stilistik, und die sonstigen Eigenschaften der Instrumente, wie der Geräuschanteil mit zu berücksichtigen.
Neben einem standardmäßigen „Aufräumen“ in den Bässen beispielsweise bei Trompeten, Bratschen und
Pauken, sollte man sich während der Mischung immer ansehen, welche Hauptformanten das Instrument
natürlicherweise von sich geben sollte, bzw. welchen Platz es im Gesamtbild einnehmen soll oder kann.
Dann kann man einordnen, in welchen Frequenzbereichen das Instrument gerade stark oder schwach ist
und in welcher Lage welche Formanten mehr oder weniger zum Ausdruck kommen sollen. Eine
mysterioso Flöte verhält sich im Aufbau ihrer Teiltöne anders, als eine in hoher Lage gespielte Flöte. In
hoher Lage nimmt ihre Richtwirkung zu, so dass sie kaum vom Hauptsystem genommen werden kann.
Wenn beim Orchesterapparat gefiltert werden muss, hilft es, wenigstens Haupt- und Nebenformaten der
jeweiligen Instrumente zu kennen. Es ist nicht unbedingt wichtig alle Formantbereiche auswendig zu
kennen, da in der beschränkten Tontechnik jeweils nur eine Frequenz bearbeitet werden kann. Uns stehen
parametrische Mittenfilter sowie Filter zur Absenkung von Höhen und Tiefen zur Verfügung. In der Mitte
kann lediglich eine Frequenz angegeben werden, die entzerrt werden kann.
Wie kann ein Umhüllungseffekt in der Mischung erreicht werden? Und wie wirken sich Outrigger-Signale
im Surround aus? Nach welchen Gesichtspunkten sollte man die Auswahl und Position seiner Raummikrofone grundsätzlich wählen?
Die Stärke der empfundenen Umhüllung ist nur von der absoluten Lautstärke des Nachhalls abhängig und
nicht von dem Verhältnis Direktschall zu Nachhall. Der Gesamtpegel der Reflexionen muss daher
ausreichend hoch sein. Besonders die seitlichen Anteile des Nachhalls sind für den Effekt der Umhüllung
maßgeblich, da das menschliche Gehör Rauminformation hauptsächlich aus den seitlich eintreffenden
Rauminformationen zieht. Für die Übertragung eines natürlichen Reflexionsmusters stehen die seitlichen
Lautsprecher L-LS und R-RS zur Verfügung. Möchte man bei der Übertragung diffuser Reflexionen und
Nachhallanteile über das Lautsprecherquadrat L-R-LS-RS eine ausreichende Diffusität erreichen, sind
teilkohärente Mikrofonsignale L-R-LS-RS nötig. Wie für Stereosysteme gilt: Bei abnehmenden
Kohärenzgrad zwischen L und R, nimmt auch die Bildung von Phantomschallquellen ab, gleichzeitig aber
die subjektiv empfundene Diffusität zu. Bei einem Kohärenzgrad kleinergleich 0,2 kommt es dann
verstärkt zu einer Lautsprecherlokalisation. Es gilt also einen Mittelweg zu finden was den „Grad der
Gemeinsamkeit“ angeht. Das bedingt anhaltende Experimente mit Surround-Arrays und mehr oder
weniger gerichteten Kapseln und Ausmaßen, bzw. Basisbreiten.
Es ist zu bedenken, dass die Outrigger ursprünglich nicht als Surround-Mikrofone gedacht waren sondern
in der stereofonen Wiedergabeumgebung zusammen mit den äußeren Mikrofonen des Decca-Trees eher
einen Kugelvorhang bilden. Trotzdem kommt die Anwendung als „Verbindung Vorne-Hinten“ in der
Misch-Praxis oft vor. Wenn die Outrigger mit dem Pan-Pot in und über die Mitte nach Hinten zwischen
den vorderen und hinteren Lautsprechern positioniert werden, treten in manchen Fällen weitere Probleme
119
Anhang
mit der Lokalisation auf. Es kommt zu einer Hintenlokalisation, durch den zu hohen Direktanteil auf den
Outriggern.
Es kann bereits bei der Aufnahme darüber nachgedacht werden, ob nicht alternative Arrays an Stelle des
Decca-Trees kombiniert mit eher sehr entkoppelten, diffusen Raummikropositionierung aufgebaut
werden sollten. Beispielsweise könnten Nieren und Supernieren in Verbindung mit Kugeln verwendet
werden, um den besagten Umhüllungseffekt zu steuern.
Man kann mit den Raummikrofonen experimentieren. Dabei sollte möglichst verhindert werden, dass
durch deren Verwendung bei der Mischung eine Zweiräumigkeit entsteht.
Nachtrag zu seitlichem Schalleinfall und deren Frequenzabhängigkeit:
Umso breiter das in den Reflexionen enthaltene Frequenzband, desto stärker fördern die Reflexionen den
Raumeindruck. Wenn das Frequenzband des seitlichen Schalleinfalls eher die tiefen und mittleren
Frequenzen betont, entsteht der Eindruck, dass sich der Klang in die Tiefe des Raumes – nach vorne und
hinten – ausbreitet.
Wenn das Frequenzband die hohen Frequenzen betont, wird der Eindruck einer klanglichen Verbreiterung
geweckt. Siehe Blauert.
Gibt es Regeln für das Pegelverhältnis von Hauptsystem und Stützen?
Nicht wirklich, bzw. ist es eine ästhetische Frage. Es wird oft von „überstützt“ oder „nicht überstützt“
gesprochen.
Wenn ich mich hauptsächlich in der Intensitätsstereofonie bewege und mit unverzögerten Stützen arbeite,
also über den Panpot die Quellen im Raum verteile, und der Direktschall des Hauptsystems zeitlich nach
dem Stützsignal eintrifft, kann man sagen, dass sich z.B. die erste Geige, wenn sie solistisch spielt, im
Pegel zwischen +3dB und -4 dB (resultierender Gesamtpegel aus Hauptsystem und Stütze) liegen kann.
Da die erste Geige sehr nah am Hauptsystem sitzt, kann der resultierende Gesamtpegel aus Hauptsystem
und Stütze ruhig bei +3dB liegen. Stützmikrofonsignale von Instrumenten, die nicht solistisch auftreten
sollen, können nach Sengpiel, abhängig von der Entfernung zum Hauptssystem, zwischen -13 und -6dB
liegen. Um eine adäquate Tiefenstaffelung mit Hauptssystem und Stützen zu erzeugen, müssen wir bei
Darstellung eines Soloinstruments nicht verzögern. Wenn Signale doch zu direkt erscheinen, die
Tiefenstaffelung gestört ist, können die Stützen über Verzögerung oder Beifügen von early reflections in
das Gesamtbild eingefügt werden.
Das klingt jetzt sehr nach Kochbuch. Ob es aber schmeckt, ist abhängig vom persönlichen Empfinden.
Außerdem muss noch, wie gesagt, ein Zielpublikum erreicht werden.
Ausgenommen davon gibt es auch in der ernsten Musik Werke, wo es Teil der Aufführung ist, dass ein
Solist aus dem Orchester nach vorne läuft. Auch kommt es vor, dass bei Opernaufführungen der erste
Geiger auf die Bühne läuft, also die Ebenen wechselt. Solche Effekte wurden bewusst genutzt. Nicht
mehr abgeschattet vom Orchestergraben, sonder neben dem Sänger stehend und aus gleicher Richtung
kommend. Wenn es um die Frage der Laufzeitverzögerung geht, geht es nach der Position des Musikers
im Orchester und seiner Rolle, die er dramaturgisch im Klangbild einnimmt.
Welche grundsätzlichen Herangehensweisen gibt es bei der Orchestermischung?
Zunächst gibt es zwei grundsätzlich Ansätze bei der Mischtaktik von Hauptsystem und Stützen:
Mischtaktik (a): nicht verzögerte Stützen
Im zeitlichen Verlauf kommt als erstes das Direktsignal von den Stützen. Anschließend kommt die
Raumantwort vom Hauptsystem. Erst Direktsignal durch die Stützen, dann Hauptsystem. Danach kommt
der künstliche Nachhall. Dabei ist wichtig, dass der Nachhall erst nach den early reflections des
Hauptsystems folgen, d.h. das Pre delay am Hallgerät sollte ausreichend groß sein, damit die Hallfahne
hinter den early reflections des Hauptsystems landet.
Der künstliche Nachhall wirkt als verbindendes Element, erhöht die Lautheit, und sein Pegel entscheidet
mit über den Grad der empfundenen Umhüllung.
Die ganz klassische Mischtaktik (b): verzögerte Stützen
Das Hauptsystem liefert das Direktsignal und die early reflections. Dann gilt auch wieder, dass die
Laufzeit vom Musiker/Instrument zum Hauptsystem gemessen, berechnet oder abgeschätzt werden muss.
Mit den ermittelten Werten verzögere ich dann meine Stützen. Das heißt, ich muss die Verzögerung der
Stützen sogar überkompensieren, so dass man im Schnitt schon mal 20ms dazu geben kann. Das Signal
der Stütze muss zeitlich hinter die erste Reflexion des Hauptsystems kommen, damit das Hauptsystem die
120
Anhang
Lokalisation bestimmen kann und gleichzeitig die ersten Reflexionen liefern. Wenn wir durch
Verzögerung der Stützen eine reine Laufzeitstereofonie erreichen, wir der Panpot - nach Sengpiel - damit
unwirksam.
Beide Fälle treten in Kombination auf, d.h. beim Fall (a) werden auch einzelne Instrumente verzögert, um
die Tiefenstaffelung zu unterstützen.
Was ist bei der Mischung in 5.1 zu beachten? Was passiert mit den Phantomschallquellen?
Abhängig von der Hörposition entstehen mehrfache, nicht deckungsgleiche Phantomschallquellen. Auch
wenn ein Center-Signal vorhanden ist, muss immer beachtet werden, dass sich zusätzlich Phantomschallquellen bilden können. Wir haben daher immer Mischformen der Stereofonie, so dass ich damit rechnen
muss, dass mein Center im Widerstreit mit dem Phantomcenter steht.
Mit Hilfe der „Divergenztaktik“ ergeben sich zwei Wege:
Ich beschicke den Center erstmal nur mit dem Center-Signal des Decca-Trees. So verfahre ich auch mit
den anderen Decca-Signalen und den Raummikrofonen. Ich route alles hart auf den 5.1-Bus. Alle
weiteren Signale route ich entweder gleich auf einem Stereobus oder ich erledige alles über den
Divergenzschalter (Stereobus hart nach links und rechts) und füge dem Center-Lautsprecher die Signale
anteilig, und nach Gefühl zur Richtungsstabilität beitragend, zu. Denn Kriterium einer 3-2-Aufnahme ist
auch die Lokalisation und diese erhöhe ich, indem ich den Center benutze, der aber nicht den Dialog
stören darf. Abhängig von der Szene darf der Center auch schon mal stärker sein, z.B. in einer
Rock’n’Roll-Szene mit Autofahrt ohne Dialog. Ausgehend vom Zielformat und ob ich den Center
freihalten muss oder nicht, mische ich anteilig weg von ihm.
Je nachdem wie viel ich im Center freihalten muss, kann ich die Divergenz erhöhen oder auflösen. Das
bedeutet konkret, dass ich mein Center-Signal so auf Links und Rechts verteile, dass es wieder im Center
wahrgenommen wird. Es entsteht also eine Phantommitte, so dass diskrete Signale aus dem Center
unberührt austreten. Es werden also Phantomschallquellen mit LCR-Quellen vermischt.
Es ist natürlich manchmal nötig, dass man den Orchester-Decca-Center absenkt. Das würde in der finalen
Kinomischung ohnehin mit dem Center geschehen, wenn er zu stark ist. Dafür fällt jedoch das
Orchesterbild auseinander, welches zuvor auf dem Center aufgebaut wurde. Bei einer reinen Musik-DVD
kommen mehr diskrete Anteile in den Center (Snare, Base, Gesang). Wenn ich aber für das Kino mische,
bleibt am Ende nur der verzögerte oder abgesenkte Center des Hauptsystems im Center-Kanal. Eine
andere Möglichkeit ist, bei der Aufnahme ein Hauptsystem zu wählen, welches den Center gar nicht erst
überbetont.
Zusammenfassend stellen sich folgende Fragen bei der 3/2 -Aufnahmen bzw. Mischung: Lokalisation?
Abhängigkeit von Hörposition? Gibt es mehrfache, nicht deckungsgleiche Phantomquellen? Wie groß ist
die Hörzone? Wie verändert sich die klangliche Wirkung auf Durchhörbarkeit, Durchsichtigkeit, Klarheit
und Breite der Basis durch unterschiedliche Spektralanteile? Wird die Tiefenstaffelung gestört? Welcher
räumliche Eindruck wird erzielt? Entsteht eine Hintenlokalisation (durch Kugelmikrofone für SL/SR) und
Zweiräumigkeit? Wie steht es um die Stereokompatibilität?
Neben der erläuterten Umhüllungseffekt und der Centerthematik, bedarf der LFE- Kanal natürlich
besonderer Zuwendung bei der Filmmusikmischung. Anteile der Gran Casa in den LFE zu geben, gehört
inzwischen zu den Standards.
Wofür ist der Nachhall eigentlich zuständig? Welches Maß lege ich hier an?
Der Nachhall ist wichtig für den Eindruck von Verschmelzung der Stimmen, Überbrückung von Lücken
in Tonfolgen (auch durch Schnitte) und für die Umhüllung.
Kammermusikalische Aufzeichnungen kommen gut mit einem Nachhall von 1,3 bis 1,5 Sekunden aus.
Bei orchestralen Werken steht fast immer erstmal 30 Millisekunden Pre delay und 2 Sekunden
Nachhallzeit im Preset des Hallgerätes. Damit macht man erst einmal nichts falsch, aber auch nichts
Besonderes.
Zumindest die Amerikaner sind nicht scheu in ihrer Ästhetik in Richtung Gigantomie bei der Mischung
von Filmscores zu gehen. Umso mehr künstlicher Nachhall hinzugefügt wird, desto mehr wird eine
differenzierte Wahrnehmung einzelner Stimmen leider erschwert. Eine genaue Lokalisation wird
zugunsten eines mächtigen Größeneindrucks vernachlässigt bzw. ist da gar nicht a priori gefragt. Die
Nachhallzeiten gehen weit über 3 Sekunden hinaus. Wenn man Hans Zimmer-Scores anhört, dann weiß
121
Anhang
und hört man, dass der Mischtonmeister nicht mit 2 Sekunden Nachhall auskommt. Komplexe Holzsätze
sind so oft gar nicht mehr in ihrer Stimmführung unterscheidbar und werden oft gleich weggelassen.
Abschließende Hinweise zur Mischung/Automation?
Alles darf automatisiert werden, wobei ein guter Grundmix, den ich mir als Snapshot speichere, ohne
Automation, als Ausgangspunkt sinnvoll ist.
Kleine Verläufe, Pegeländerungen und Panpotwege nimmt man oft nicht wahr. Dagegen kommt es oft
vor, dass Hauptsystem und Stützen durchaus extreme Pegelwege zurücklegen. Wenn die Streicher sehr
leise Pizzicati spielen, dürfen sie durchaus auch in der Hauptsystem-Ästhetik stark gestützt werden. Zum
Tutti ziehen sie sich dann aber wieder zurück. Soli, Sololinien und Leitmotive müssen oft gestützt
werden. Wenn sie gut gespielt sind muss weniger automatisiert werden bzw. von Hand komprimiert
werden. Alles hängt natürlich vom Einzelfall ab und kann pauschal schwer erfasst werden.
Man sollte sich alles in Gruppen auflegen, um am Ende in der Mitte sitzen zu können und diese Gruppen
gegeneinander mischen zu können. Das sind nachher oft auch teilweise die auszuspielenden Stems.
Zum Bild mischen. Abstrahieren. Dies setzt eine eigene Mischpraxis im Mischatelier als Mischtonmeister
oder zumindest als Musiktonmeister im Mischatelier und die Kenntnis von THX-lizensierten Kinos
voraus. Dazu gehören klangliche Eigenheiten der Kinos, die X-Kurve, sowie die Wirkung der Leinwand,
sowie klangliche Eigenheiten der Hornlautsprecher, deren Richtwirkung, die LFE – Ansteuerung, die
Beschaffenheit und Position der Surround-Lautsprecher etc.
Damit ist auch der Kreis geschlossen, ich muss das Zielmedium kennen. Bei einer DVD, oder reinen
Konzert-DVD muss ich beachten, dass ich für fünf gleiche Fullrange-Lautsprecher mische (aus ITU-R
BS.775-1). Ich muss wissen, wann und wie ich den LFE-Kanal anpasse.
Es ist also immer zu klären, arbeite ich wirklich für eine Kinoauswertung oder für Fernsehen und oder
DVD. Wo wird abgehört? Kino oder Heimanlage 5.1?
Auch zu Hause sind die Surrounds oft eher diffus aufgebaut. Die Surroundlautsprecher der 5.1-Anlage
von Teufel sind eher diffus gedacht. Sie nutzen Dipollautsprecher und orientieren sich an der THX-Norm
im Kino. Das heißt, ich mische eigentlich für DVD zu Hause nach ITU-R BS.775-1, aber gleichzeitig muss
ich Kino/Dolby-Kenntnisse nutzen.
Dieses durchgehende Know-how, welches wir in der Filmmusikproduktion haben, können wir sammeln
und auf andere oder ähnliche Produktionen übertragen. Wir sollten weniger auf die Gräben verweisen,
sondern auf die Parallelen zwischen den Heimanwendungen, Filmmusikanwendungen als Zwischenschritt
für die Kinomischung, bis hin zu alternativen Anwendungen wie z.B. Klanginstallationen.
122
Anhang
Eidesstattliche Erklärung
Ich erkläre hiermit an Eides statt, dass ich die vorliegende Arbeit selbstständig und
ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe und die den
benutzten Quellen wörtlich oder inhaltlich entnommene Stellen als solche kenntlich
gemacht habe.
.
Potsdam, 26. Oktober 2012
123
Anhang
Danksagung
Zunächst möchte ich mich bei meinen Gesprächspartnern und allen Tonmeistern
bedanken, die bereitwillig ihr Wissen vor mir ausgebreitet haben und denen ich bei
ihrer Arbeit über die Schulter sehen durfte. Zu ihnen gehören Bernhard Albrecht, Dick
Bernstein, Falco Duczmal, Günter Fleck, Peter Fuchs, Stephan Köthe, Niklas Schminke,
Michael Schubert, Martin Steyer und Bernd Wefelmeyer.
Weiterhin möchte ich mich bei Frau Giuseppina Fornarelli (ZDF) und Herrn Tomasz
Nawka (Direktor des Sorbischen Museums Bautzen) für die Aushändigung des
fotografischen Materials bedanken.
Abschließend gilt mein Dank meinen Eltern und all denen, die mir auf besondere
Weise geholfen haben: Eberhard Filies, Christian Kirdorf, Michal Krajczok, Anna
Mandla, Armin Pommeranz, Anne-Kathrin Thumm, Bernd Thumm, Michael Thumm
und David Ziegler.
124
Herunterladen