Hochschule für Film und Fernsehen „Konrad Wolf“– Potsdam Babelsberg Studiengang Ton Diplomarbeit Bildbezogene Musikproduktion Erstgutachter: Stephan Köthe Zweitgutachter: Prof. Armin Pommeranz Vorgelegt von: Bettina Bertók Geboren am: 30.10.1986 Studiengang: Ton Beginn der Arbeit: 1.3.2012 Abgabe der Arbeit: 26.10.2012 Kurzinhalt Bildbezogene Musikproduktionen für verschiedene Zielmedien verlangen unterschiedliche Herangehensweisen. Dabei sind an das Zielmedium sowohl inhaltliche als auch technische Anforderungen sowie Hörgewohnheiten des Zielpublikums gekoppelt. Diese Arbeit untersucht und vergleicht die medienspezifischen Produktionsabläufe von orchestralen Filmmusik- und Konzertproduktionen. Dabei werden die einzelnen Rollen und Phasen ausführlich erläutert. Zahlreiche persönliche Gespräche mit etablierten Tonmeistern geben Auskunft über Vorgehensweisen und Erfahrungen bei professionellen bildbezogenen Musikproduktionen. Im Anschluss werden die verschiedenen Produktionsweisen auch mit autonomen, nicht bildbezogenen Musikproduktionen verglichen. Vorwort "Bei der Arbeit des Tonmeisters bei der bildbezogenen Musikaufnahme geht es wie in anderen Gewerken darum, gleichzeitig künstlerische, technische und organisatorische Anforderungen zu erfüllen, die sich aus dem Werk selber ergeben. Ausgangspunkt ist die Idee zu einem Werk bzw. ein Bild vor Augen. Die sich daraus ergebende Wahl der Mittel ist durch die inhaltliche Fragestellung des Werkes bestimmt. So fordert die Dramaturgie eines Films, die zugrunde liegende Geschichte, eine bestimmte Art von Filmmusik und deren Einsatz, bzw. eine bestimmte Produktionsweise. Genauso bildet die von einer Band präsentierte Live-Show erst die Grundlage für eine spätere DVD–Produktion. Zur konkreten Umsetzung eines Werkes treten dann beim Aufbau eines praktikablen Arbeitsablaufs oder der Wahl einer bestimmten Technologie, die entscheidenden Fragen nach dem Zielformat und der späteren Wiedergabesituation hinzu - immer eingedenk der nicht unrelevanten ästhetischen Konventionen und wirtschaftlichen Zwänge. Denn die Frage lautet fast immer – wen soll das Werk, auf welchem Wege möglichst wirkungsvoll erreichen und das zu vertretbaren Kosten? Das gilt für Filmmusik im Kino, für eine Konzert-DVD für das Heimkino oder dem „Public Viewing“ der Berliner Philharmoniker. So ergeben sich die Unterschiede, und aber auch viele Gemeinsamkeiten im Produktionsprozess bei verschiedenen Endformaten und Zielgruppen. Was für den Tonmeister bleibt, ob bei der Aufnahme, der Mischung oder dem Mastering - um komplexe Einzelinformationen zu einem konsumierbaren Gesamtbild formen zu können, braucht man das Bild vor Augen, das Detail in der Hand und das Zielformat im Sinn..." Stephan Köthe, persönliches Gespräch vom 01.08.2012 III Inhalt Vorwort....................................................................................................................................... III Einleitung...................................................................................................................................... 1 A. Filmmusikproduktion ........................................................................................................ 3 1 Zum Wesen der Filmmusik .......................................................................................... 3 1.1 Entstehungsgeschichte ........................................................................................... 3 1.1.1 Musik vor dem 20. Jahrhundert .............................................................. 4 1.1.2 Filmmusik zur Stummfilmzeit................................................................. 4 1.1.3 Filmmusik ab 1927...................................................................................... 6 1.1.4 Bildsynchrone Musikproduktion ab 1930 ............................................. 8 1.2 Dramaturgische Funktionen der Filmmusik ..................................................... 9 2 Vorgaben durch das Zielmedium .............................................................................12 2.1 Wiedergabe im Kino .............................................................................................13 2.2 Veränderte Anforderungen an die Heimwiedergabe.................................... 15 2.3 Filmmusik auf Soundtrack-CD...........................................................................16 3 Produktionsablauf bei der Erstellung einer orchestralen Filmmusik ............17 3.1 Rollenverteilung bei der Filmmusikproduktion.............................................18 3.1.1 Regie ............................................................................................................18 3.1.2 Produktion ................................................................................................. 19 3.1.3 Komposition ..............................................................................................19 3.1.4 Musiker ....................................................................................................... 20 3.1.5 Music Editor ..............................................................................................20 3.1.6 Organisatorische Aufnahmeleitung .....................................................22 3.1.7 Tonregie ...................................................................................................... 22 3.1.8 Recording Engineer..................................................................................23 3.1.9 Workstation-Operator .............................................................................23 3.1.10 Filmmusik-Mischtonmeister .................................................................. 24 3.2 Aufnahmevorbereitung........................................................................................25 3.2.1 Kompositionsdepartment ....................................................................... 25 3.2.2 Zeitliche Planung......................................................................................26 3.2.3 Besetzung ................................................................................................... 27 3.3 Tontechnische Umsetzung ..................................................................................28 3.3.1 Mikrofonie.................................................................................................. 28 3.3.2 Organisation der Signale......................................................................... 30 3.3.2.1 Aufnahmesession ....................................................................... 30 3.3.2.2 Aufnahmesystem ....................................................................... 31 3.3.2.3 Spurbelegungsplan .................................................................... 32 3.4 Aufnahme................................................................................................................32 3.4.1 Arbeit mit den Musikern ........................................................................ 33 3.4.2 Bildsynchrone Produktion...................................................................... 33 3.4.3 Aufnahme in Sections..............................................................................34 3.4.4 Dopplungen und Overdubs ................................................................... 35 3.4.5 Vorteile der computerbasierten Aufnahme ........................................ 35 3.4.6 Dokumentation .........................................................................................36 3.5 Schnitt.......................................................................................................................38 IV 3.6 Musik-Mischung.................................................................................................... 38 3.6.1 Mischungsvorbereitung .......................................................................... 39 3.6.2 Laufzeitkorrektur .....................................................................................40 3.6.3 Klangfarbe .................................................................................................. 43 3.6.4 Dynamik ..................................................................................................... 44 3.6.5 Balance zwischen Hauptsystem und Stützmikrofonen ...................44 3.6.6 Räumlichkeit..............................................................................................46 3.6.7 Besonderheiten des Tonformats............................................................47 3.6.8 Dialog und Effekte bei der Musikmischung....................................... 49 3.6.9 Auslieferung der Mischung ................................................................... 49 3.7 Film-Mischung ....................................................................................................... 51 3.7.1 Verwendung stereofoner Musik ...........................................................52 3.7.2 Positionierung von Musik im diegetischen Raum ............................53 B. Konzertproduktionen ....................................................................................................... 54 1 Inhaltliche Besonderheiten von Konzertproduktionen ..................................... 54 2 Anforderungen des Zielmediums ............................................................................55 2.1 Übertragung............................................................................................................55 2.2 Mitschnitt ................................................................................................................56 3 Produktionsablauf ........................................................................................................ 57 3.1 Rollenverteilung .................................................................................................... 57 3.1.1 Redaktion ................................................................................................... 58 3.1.2 Technische Leitung ..................................................................................58 3.1.3 Drahtlostechnik.........................................................................................58 3.2 Vorbereitung...........................................................................................................59 3.2.1 Organisatorische Planung ...................................................................... 60 3.2.2 Technische Vorüberlegungen ................................................................60 3.2.3 Synchronisation zum Bild....................................................................... 64 3.2.4 Übertragungswagen ................................................................................65 3.2.5 Mikrofonie.................................................................................................. 67 3.2.6 Proben und Soundcheck ......................................................................... 69 3.3 Aufnahme................................................................................................................70 3.4 Postproduktion ...................................................................................................... 70 3.4.1 Nachträgliche Aufnahmen ..................................................................... 71 3.4.2 Schnitt.......................................................................................................... 71 3.5 Mischung .................................................................................................................72 C. Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug................................................................................................... 74 1 Inhalt und Ästhetik ...................................................................................................... 74 2 Unterschiedliche Zielmedien und Wiedergabesituationen...............................76 3 Praktische Umsetzung ................................................................................................. 79 3.1 3.2 3.3 3.4 3.5 3.6 3.7 Rollenverteilung in den medienspezifischen Produktionsstrukturen....... 79 Vorbereitung...........................................................................................................80 Aufnahmeraum und Besetzung ......................................................................... 81 Synchronisation zum Bild....................................................................................83 Mikrofonie...............................................................................................................84 Schnitt.......................................................................................................................86 Mischung .................................................................................................................87 D. Schlussbetrachtung ...........................................................................................................89 V Anhang ........................................................................................................................................ 90 Literaturverzeichnis .......................................................................................................... 90 Abbildungsverzeichnis .................................................................................................... 93 Gespräche.............................................................................................................................94 Bernd Wefelmeyer ......................................................................................................... 94 Michael Schubert............................................................................................................98 Peter Fuchs ....................................................................................................................106 Bernhard Albrecht .......................................................................................................110 Martin Steyer ................................................................................................................114 Dick Bernstein...............................................................................................................116 Stephan Köthe ..............................................................................................................117 Eidesstattliche Erklärung...............................................................................................123 Danksagung.......................................................................................................................124 VI Einleitung Einleitung Bildbezogene Musikproduktion bewegt sich im Spannungsfeld zwischen Videoclip und Übertragungen aus der Metropolitan Opera New York im Kino. Sie ist in zahlreichen Bereichen zu finden. In Kinofilmen und im Fernsehen ist es die Filmmusik, welche die Bedeutung der Bilder beeinflusst und verschiedenartige Interpretationen ermöglicht. Inszenierungen der Metropolitan Opera (MET) werden in Kinos weltweit übertragen, aber auch Konzertübertragungen finden im Fernsehen regelmäßig statt. Pop- und Rock-Konzertproduktionen verschiedener Bands und musikalischer Genres werden zum Beispiel auf Tape.tv live und kostenlos im Internet angeboten während man auf YouTube überwiegend private Eindrücke von Konzertbesuchern betrachten kann. Aber auch Konzertmitschnitte, die auf DVD respektive Blu-Ray Disc vertrieben werden oder Musik in Computerspielen gehören in den Bereich bildbezogener Musikproduktionen. Bei all diesen Produktionen stellt sich die Fragen nach dem Zielpublikum und dessen genutztem Wiedergabemedium, denn die Wiedergabesituation, für die ein bestimmtes Endprodukt produziert wird, stellt die Vorgaben und Anforderungen, die während der Musikproduktion beachtet werden müssen. Nur wenn das Zielmedium bekannt ist, können bewusst die richtigen Entscheidungen, z.B. zur optimalen Positionierung der Mikrofone, Dynamik der Mischung oder Nutzung des Center-Lautsprechers, getroffen werden. Darüber hinaus müssen (besonders bei einer Mischung in 5.1) die verschiedenen Normen, welche die Qualität und Aufstellung der Lautsprecher festlegen, berücksichtigt werden. Die anspruchsvollste Aufgabe jedoch ist die Verbindung von technischen und musikalischen Kenntnissen mit der Fähigkeit, die Wünsche des Regisseurs oder Musikers erkennen und erfüllen zu können. Diese Diplomarbeit beschreibt das Tätigkeitsfeld eines Tonmeisters bei bildbezogenen Musikproduktionen in allen Projektphasen. Dabei wird überwiegend Bezug zu orchestralen Filmmusikaufnahmen genommen. Leider sind literarische Quellen über die Arbeitsweisen bei der Aufnahme von Filmmusik recht rar. Daher wurden durch Gespräche mit Tonmeistern, die mit diesem Thema beschäftigt sind, Informationen über die Vorgehensweisen bei professionellen Filmmusikproduktionen gesammelt. Zusätzlich sollen Beispiele aus eigener Erfahrung die verschiedenen Problematiken verdeutlichen. 1 Einleitung Die vorliegende Arbeit ist in drei Teile A, B und C gegliedert. Teil A behandelt die Filmmusikproduktion am Beispiel orchestraler Filmmusik. Begonnen wird mit einem Blick in die Geschichte. Zunächst soll erläutert werden, welchen Ursprung und welche Entwicklung die Filmmusik erfahren hat. Danach werden ihre Eigenschaften und Funktionen aufgezählt und erklärt, wie diese Einfluss auf Erzählstrukturen nehmen. Anschließend werden die Vorgaben und Anforderungen der möglichen Zielmedien von Filmproduktionen beleuchtet. Den Schwerpunkt jedoch setzt die Beschreibung der einzelnen Stationen einer orchestralen Filmmusikproduktion. Im Teil B wird der Bereich der Konzertproduktion betrachtet. Auch hier werden sowohl inhaltliche Gesichtspunkte, Anforderungen des Zielmediums sowie Besonderheiten bei der Umsetzung geschildert, vor allem die Schwierigkeiten, die sich bei der Mikrofonierung ergeben. Anschließend werden im Teil C unterschiedliche medienspezifische Produktionsstrukturen miteinander verglichen sowie die Unterschiede und Gemeinsamkeiten herausgearbeitet. Dabei werden auch Kriterien autonomer Musikproduktionen (CD- Produktionen) mit einbezogen. Die geführten persönlichen Gespräche, Telefonate und eMails, die als Quellen herangezogen wurden, sind im Anhang zu finden. 2 Filmmusikproduktion A. Filmmusikproduktion Fast jeder Film enthält Musik. Manchmal werden bereits existierende Stücke verwendet, doch häufiger wird eine Musik neu komponiert, damit die Handlungen des Films optimal unterstrichen und eine weitere Ebene in der Erzählstruktur hergestellt werden kann. Es ist auch in vielen Fällen finanziell günstiger für die Produzenten, alle relevanten Rechte und Lizenzen, die für eine kommerzielle Auswertung und Vervielfältigung des Filmes notwendig sind, bereits vertraglich mit dem Filmmusikkomponisten auszuhandeln. Die Rechteinhaber ausfindig zu machen und deren Lizenzen teuer zu erwerben, ist oft aufwändiger, als eine komplett neue Musik zu produzieren. Das folgende Kapitel befasst sich mit der Entwicklung und den inhaltlichen Funktionen von Filmmusik, den durch das Zielmedium auferlegten Anforderungen an die Musikproduktion, den hierarchischen Strukturen während des Produktionsprozesses anhand einer orchestralen Filmmusikproduktion sowie die praktische Umsetzung dieser. 1 Zum Wesen der Filmmusik Um einen Film herzustellen, müssen zahlreiche Gewerke zusammenarbeiten. Verschiedene Künste, die überwiegend älter sind als das Medium Film, verbinden sich zu einem Gesamtkunstwerk. Schauspiel und Regie wirkten bereits im Theater, Maler studierten in ihren Arbeiten Bildgestaltung und die Wirkung des Lichts, Autoren, Architekten und Schneider schufen Geschichten, Gebäude und Gewänder. All diese Gewerke waren vor der Herausbildung des Filmhandwerks vergleichsweise autonom in ihrer künstlerischen Entfaltung, doch im Film arbeiten diese Künste gemeinsam daran, eine Geschichte zu erzählen. Auch die Filmmusik stellt in diesem Gesamtkunstwerk lediglich ein einzelnes, wenn auch tragendes, Element der Erzählung dar. 1.1 Entstehungsgeschichte Um die Bedeutung und Funktion von Filmmusik zu verstehen, müssen einige Zusammenhänge in der Entwicklung und Entstehung beleuchtet werden. In den folgenden Abschnitten werden die wichtigsten geschichtlichen Gegebenheiten aufgezeigt. 3 Filmmusikproduktion 1.1.1 Musik vor dem 20. Jahrhundert Musik ist bereits seit der Antike ein das Schauspiel begleitendes Element. Der griechische Chor beispielsweise fungierte als allwissender Erzähler und drückte die Gefühle der Hauptfiguren aus, die diese nicht selbst aussprechen konnten. Bis ins späte 18. Jahrhundert wurde noch keine Spartentrennung zwischen Sprechtheater, Oper und Konzert vorgenommen, sondern es gab gleitende Übergänge1. In Goethes Faust I sollten etwa 40-50% der Aufführungsdauer musikalisch untermalt werden, während Faust II sogar als Oper im Stile Mozarts angedacht war2. Die Gründe hierfür liegen darin, dass Emotionen über Musik ebenso gut dargestellt werden konnten, wie mit dem gesprochenen Wort. Besonders die Darstellung übernatürlicher Schauplätze und Figuren schienen ohne musikalische Untermalung unmöglich. Im Theater wurde Bühnenmusik auf oder hinter der Bühne zur Vermittlung der Stimmung oder den auf der Bühne dargestellten Handlungen gespielt. Im 19. Jahrhundert gewann die Sinfonische Dichtung an Bedeutung. Dabei wurden Landschaften (Sibelius „Finlandia“, Strauss „Alpensinfonie“), Gemälde (Rachmaninov „Die Toteninsel“, Mussorgski „Bilder einer Ausstellung“) oder literarische Vorlagen (Liszt „Dante-Sinfonie“) mit musikalischen Mitteln beschrieben. Bei dieser Form der Programmmusik richtete sich die musikalische Form nach dem inhaltlichen Thema der Vorlage. Die musikalische Nachempfindung, wie sie in der Filmmusik üblich ist, war bereits bekannt. 1.1.2 Filmmusik zur Stummfilmzeit Die ersten Filme wurden auf Jahrmärkten vorgeführt. Deshalb zielte die musikalische Untermalung auf eine „möglichst wirkungsvolle“ Darbietung für das Publikum. Etablierte Assoziationen, wie „zärtliche Geigen [...] für die ewigen Sehnsüchte der Liebe, das Schmettern der Trompeten [für] Glanz und Festlichkeit, und das dunkle Tremolo der Kontrabässe [bei] drohender Gefahr“ wurden wie aus autonomen Musikwerken bekannt bei der Präsentation von Filmen genutzt3. 1 2 3 Karl-Heinz Göttert, „Der Ton vor dem Tonfilm“ [SO05] Hans-Peter Bayersdörfer, „Stimmen – Klänge – Töne“ [SKT02] Peter Rabenalt, „Dramaturgie der Filmmusik“, Seite 8 [DF86] 4 Filmmusikproduktion Ein weiterer Grund für die musikalische Untermalung während der Filmvorführungen war, dass das laute Rattern des Projektors übertönt werden sollte. Der abgedunkelte Raum und die „geisterhaften Schatten“, wie Adorno die Darsteller auf der Leinwand beschrieb, die keine Geräusche von sich gaben, mussten eine unheimliche Wirkung auf das unerfahrene Publikum gehabt haben. Durch die Verwendung von Musik sollte eine freundlichere Atmosphäre und ein lebensnaher Eindruck erweckt werden. Zunächst gab es keine musikalischen Verbindlichkeiten, Vorgaben oder Beschränkungen seitens der Filmindustrie. Über die Auswahl der Musik entschieden meist die Spielstätten, wodurch die Publikumsrezeption je nach Spielort variieren konnte1. Zunächst wurden Werke der romantischen Sinfonik gespielt, da dies die aktuelle Musik während der Jahrhundertwende war. Später wurden Kinotheken in Umlauf gebracht. Das waren Karteikarten mit Musikstücken, die zu der jeweiligen Stimmung oder Emotion vom Kinopianisten oder –orchester gespielt werden konnten. Dabei hing die Qualität der Interpretation von den Musikern ab. In ländlichen Gegenden waren es meist Kirchenmusiker oder klavierspielende Lehrer, die bei der Filmbegleitung ihr hauptberufliches Repertoire nutzten, auch wenn diese nicht den Erfordernissen der Szenen entsprachen. In Kracauers Buch „Theorie des Films“2 beschreibt er einen Kinopianisten, der meist unter Alkoholeinfluss stand. „Manchmal – vielleicht unter dem Einfluß eines leichteren Rausches – improvisierte er frei, als hätte er das Bedürfnis, die vagen Erinnerungen und stets wechselnden Stimmungen auszudrücken, die der Alkohol in ihm hervorrief; bei anderen Gelegenheiten befand er sich in einem solchen Zustand der Betäubung, daß er ein paar beliebte Schlager wieder und wieder spielte [...]. So war es keineswegs ungewöhnlich, daß etwa in einem Film, den ich gerade sah, fröhliche Melodien in dem Augenblick ertönten, als der empörte Graf seine treulose Frau aus dem Haus warf, und daß ein Trauermarsch die blaugefärbte Szene ihrer schließlichen Versöhnung untermalte. Dieser Mangel jeglicher Beziehung zwischen den musikalischen Themen und der Handlung die sie unterstützen sollten, war mein ganzes Entzücken, denn er ließ mich die Filmhandlung in einem neuen, unerwarteten Licht sehen [...]“. Dieser Zufall beschreibt anschaulich die Unterscheidung zwischen paraphrasierender und kontrapunktierender Musik. 1 2 Manuel Gervin und Matthias Bückle, „Lexikon der Filmmusik“ [LXF12] Siegfried Kracauer, „Theorie des Films“, Seite 190 [TF64] 5 Filmmusikproduktion Eine weitere Quelle1 zeugt von einer Weise der musikalischen Untermalung, die dem heutigen Underscoring nicht unähnlich ist: Ein viertelstündiger Film wurde von dem Orchester eines Berliner Lichtspieltheaters vor kurzem durch nichts anderes begleitet, als durch drei einfache Akkorde, die bloß je nach dem Gange der Handlung anschwellten oder wieder nachließen, drei einfache Akkorde ein und derselben Tonleiter. Die Zuschauer waren vollauf zufrieden, sie merkten gar nicht, welche musikalische Wassersuppe ihnen eben vorgesetzt wurde, und sie taten, was im Kino eigentlich noch nicht gebräuchlich ist, sie applaudierten der Musik.“ 1909 begann die Filmindustrie musikalische Richtlinien und Empfehlungen in tabellarischer Form den Filmrollen beizulegen. Diese informierten darüber, in welcher Szene das Stück welches Komponisten, mit Titel und Opuszahl, zu spielen sei. Die Noten selbst lagen jedoch nicht bei. Deshalb überwogen Klavier-, Salon- und Konzertmusiken, da der Besitz der entsprechenden Noten bei den meisten Musikern vorausgesetzt werden konnte [LXF12]. 1.1.3 Filmmusik ab 1927 Mit der Einführung des Tonfilms verschwanden die Kinoorchester, da die Kinobetreiber lieber in eine Umrüstung ihrer Säle investierten, als weiterhin die laufenden Kosten der vielen Musiker zu tragen [LXF12]. Anfangs gab es große Schwierigkeiten bei der Synchronisation von Bild und Ton. Diese war erst mit dem Lichtton- und Magnettonverfahren möglich. Doch der frühe Tonfilm brachte noch weitere Probleme mit sich. Die Filmemacher befürchteten, dass das Publikum die Musik nur dann annehmen würde, wenn auch Musiker zu sehen waren. Musik ohne eine visuelle Bestätigung wurde als Irritation für den Zuschauer eingeschätzt. Deshalb wurde zunächst mindestens ein einzelner Geiger im Bild gezeigt, wenn ein musikalischer Einsatz erfolgen sollte. „Es ging darum, den Zuschauer nicht zu verwirren, seine Aufmerksamkeit nicht dadurch abzulenken, dass er sich bemühte herauszubekommen, wo die Quelle der Musik [...] liegt und mit welchem Recht sie erklingt ...“2 1 2 Zitiert aus Film-Ton-Kunst, 6. Jahrgang, Nr. 3, 1923, Seite 32 nach: „Stummfilmmusik gestern und heute“, Seite 12 aus dem Buch von Peter Rabenalt, „Dramaturgie der Filmmusik“, aus „Theorie und Praxis des Films ; 3/1986“ [DF86] Alicja Helman, „Probleme der Musik im Film“, Seite 101 [FM65] 6 Filmmusikproduktion Aus technischen Gründen war die Aufnahme von symphonischen Orchestern kaum zu bewältigen, so dass zunächst kleinere, akustisch präsentere Besetzungen wie Blaskapellen oder Jazzensembles bevorzugt wurden. Teilweise wurde an der Entwicklung von Mikrofoninstrumenten, wie der Strohgeige, gearbeitet1. Diese wurden jedoch schon bald eingestellt, da die Entwicklung der AufnahmeAbb. 1 Foto einer Strohgeige technik schneller voranging. Die Schwingungen der Saite wurden mit einem Hebel auf eine Membran übertragen, welche über den Metalltrichter Luftschwingungen an die Umgebung abgab. Urheber: Christophe Monié Mit der Machtübernahme der Nationalsozialisten erfuhr Hollywood einen regen Zustrom von europäischen, romantisch geprägten Komponisten, und die verbesserte Tontechnik machte den Weg für orchestrale Filmmusik gangbar. Auch der jüdische Komponist Erich Korngold emigrierte 1934 von Wien nach Hollywood und war stark an der Entwicklung von Regelungen bei der Filmmusikproduktion beteiligt. Er nutzte Wagners Leitmotivtechniken, um nun Personen statt Situationen zu charakterisieren und schaffte es, anstelle einer illustrativen eine affirmative Musik zu komponieren2. Er verstärkte das Bewusstsein für dramaturgische Funktionen der Musik im Film. Um Dialoge und Melodien zeitlich aufeinander abzustimmen, griff er sogar in die Regie ein. Während der Dreharbeiten spielte er seine Musik am Klavier ein, damit die Schauspieler auf sie reagieren konnten. Zudem achtete er bei der Instrumentierung darauf, dass die Tonhöhen der Sprechstimmen ausgespart wurden. Sollte am Ende die Musik nicht in einer adäquaten Lautstärke erklingen, ließ er sie lieber weg. In der Zeit zwischen „The Jazz Singer“ (1927) und „Singing in the rain“ (1952) hatte sich die Filmindustrie häufig auf Stoffe konzentriert, die Geschichten von Musikern erzählten3. Die Produktion von Musikfilmen war sicher ein Grund dafür, dass sich der Filmmusikstil stark am Musical, der Operette und der Revue orientierte und musikalisch wenig weiter entwickelte. 1 2 3 Wolfgang Thiel, „Filmmusik in Geschichte und Gegenwart“, Seite 148 [FG81] Für eine eingehende Auseinandersetzung über das Schaffen Korngolds verweise ich auf die Diplomarbeit von Wiebke Maderlechner „Von Richard Strauss zu Errol Flynn“ [DAWM] Peter Rabenalt, „Die auditiven Gestaltungsmittel in der Film- und Fernsehkunst“, Seite 44 [AG82] 7 Filmmusikproduktion Als in den 50er Jahren die amerikanische Filmwirtschaft unter der Verbreitung des Fernsehens litt, wurde versucht, das Publikum mit neuer Musik, also Jazz-, Beat- oder Popmusik, wieder in die Kinos zu locken. Zu dieser Zeit etablierte sich auch der Einsatz von Titelmelodien, deren Vermarktung auf Tonträgern bis heute einen neuen Markt erschloss. Das nun überwiegend jugendliche Kinopublikum identifizierte sich in den 60er und 70er Jahren mit der Rock- und Beatmusik1, auch weil sie das Sinnbild des Lebensgefühls einer Generation darstellte [DF86, S. 73]. John Williams erneuerte mit seiner Komposition für den Film „Star Wars“ die Bedeutung des symphonischen Orchesters in der Filmmusik. Heute verbinden Komponisten wie Hans Zimmer, David Arnold oder Howard Shore den klassischen Orchestersound mit elektronischen Instrumenten, Synthesizern und ethnischem Schlagwerk. 1.1.4 Bildsynchrone Musikproduktion ab 1930 Anfang der 30er Jahre entwickelte sich die Notwendigkeit bei Cartoon-Produktionen, die Synchronität von Bild und Musik genauestens einzuhalten. Die Komponisten der MGM- und Disney-Studios Scott Bradley und Carl Stalling führten das ClicktrackVerfahren ein. Max Steiner übernahm dieses Verfahren 1935 erstmals bei der Produktion des Spielfilms „The Informer“ [LXF12]. In das Magnetband oder in den Magnettonstreifen des Films wurden Löcher gestanzt, um einen hörbaren Click zu erzeugen. Wann immer ein auf diese Weise beschädigtes Band am Wiedergabekopf des Magnetbandgerätes entlanggeführt wurde, entstand ein impulshaftes, breitbandiges Geräusch, welches den Musikern wie ein Metronom bei der Orientierung zum Tempo diente. In sogenannten Clickbooks wurde tabellarisch festgehalten, nach wie vielen Perforationslöchern ein Loch gestanzt werden musste, um ein bestimmtes Tempo zu erzeugen2. Bis der Einsatz computerbasierter Aufnahmeverfahren etabliert war, wurden die Tabellen intensiv genutzt. Eine andere Variante um einen Clicktrack zu erstellen, war die Aufnahme eines Schlagzeugers, der den Click mit seinen Drumsticks erzeugte. Diesem wurde das Tempo vom Komponisten vordirigiert, welcher dabei die Einhaltung seiner notierten Synchronpunkte mit einer Stoppuhr überprüfte3. 1 2 3 Der beispiellose Erfolg der Beatles spielt laut Rabenalt mit eine Rolle bei der gesteigerten Verwendung von Beatmusik in Filmen ab 1960. Norbert Jürgen Schneider, „Komponieren für Film und Fernsehen“, Seite 160 [KF97] persönliches Gespräch mit Bernd Wefelmeyer [GBWe] 8 Filmmusikproduktion Zu dieser Zeit entwickelte sich auch eine Methode, das Tempo anhand eines optischen Clicks zu halten. Alfred Newman erfand in den 1930ern das System mit Punches und Streamers, weshalb es auch als Newman-System bekannt wurde. Mit einem Bleistift wurden Löcher in den Film gestanzt, die bei der Projektion als weiße Lichtblitze sichtbar wurden. Um einen Streamer zu erzeugen, wurden 48 Bilder (was einer Dauer von zwei Sekunden entspricht) vor dem Synchronpunkt mit einer Emulsion behandelt, die eine lange, diagonal verlaufende Linie erzeugte. Dadurch sah es im laufenden Betrieb so aus, als würde sich eine weiße Linie von links nach rechts über das Bild bewegen. Abb. 2 Darstellung eines Streamers auf einem Filmstreifen Es wurden seit Beginn des Tonfilms verschiedene Verfahren entwickelt, um Musik synchron zum Bild aufzunehmen. 1.2 Dramaturgische Funktionen der Filmmusik Filmmusik ist eine Gebrauchsmusik, die sich in ihrer Bedeutung nicht auf sich selbst beschränken kann. Oder anders ausgedrückt: „Das ständige Vorhandensein eines visuellen Korrelativs und der Kontext von Vorgängen und Handlungen, Dialogen und Situationen grenzt den Assoziationsspielraum für die Realisierung der musikalischen Inhalte im Unterschied zur autonomen Musikrezeption ein. Daher kann der Inhalt der Filmmusik nicht allein aus ihrer Gestaltqualität heraus bestimmt werden, sondern aus ihrem Zusammentreffen mit den beigeordneten komplexen audiovisuellen Erlebnisformen. Filmmusik ist somit ein Genre der angewanden Musik die auf einen außer ihr liegenden Zweck gerichtet ist.“ [AG82, S. 40]. Daher sind musikalische, qualitative und formale Parameter in der Musik nur in Verbindung mit dem Bild von Bedeutung. In der Abhandlung von Alicja Helman über die „Hauptrichtungen der Musikentwicklung im modernen Film“ steht: „Die Praxis des modernen Films führt dazu, dass die wesentlichen Funktionen der Musik nicht so sehr von ihrem selbstständigen Wert abhängen als vielmehr von der Situation, in die sie einbezogen ist, denn sie unterstreicht die Bedeutung, die die einzelnen Teile des Werkes dem Ganzen gegenüber zu erfüllen haben.“ [FM65, S 116]. 9 Filmmusikproduktion Peter Rabenalt sagt, der Wert einer Filmmusik darf „hauptsächlich in ihrer dramaturgischen Funktion gesucht werden“[DF86, S. 22]. Zum einen soll sich die Musik an den „Urimpuls des Films“1 anlehnen und die Empfindungen der Figuren auf passende Weise unterstreichen. Andererseits benötigt die Musik zeitliche Strukturen, um eine inhaltliche Form zu erhalten. Filmmusik wird in der Regel in Verbindung mit dem Bild betrachtet, so dass der Komponist davon befreit ist, den Aufbau seines Werkes erklären zu müssen2. Vielmehr ist es seine Aufgabe, Empfindungen der Figuren und Handlungsverläufe zu unterstützen, damit der Zuschauer diese besser versteht. Musik artikuliert sich nicht in kurzen Silben, sondern über Melodiebögen und kann daher über einen größeren Zeitraum verstanden werden. Musik kann dem Publikum den Zugang zum Film erleichtern, indem sie eine Kollektivierung, die Erzeugung eines „Wir“-Gefühls anregt. Um dieses zu erreichen, muss der Komponist „eine gemeinsame Sprache“ mit dem Zuschauer nutzen, d.h. dass er keine zu umfangreiche musikalische Vorbildung abverlangen sollte [GBWe]. Diese erzwungene „Einfachheit“ wird schon von Wolfgang Thiel sehr kritisch betrachtet. Er schreibt: „[...] Regisseure [...] fordern vom Komponisten oft die gelungene Quadratur des Kreises, nämlich eine Musik, die gleicherweise experimentell und populär, modern und eingängig sei.“ [FG81, S. 10]. Zahlreiche Musikwissenschaftler (H. J. Pauli, Z. Lissa, C. Bullerjahn) und Komponisten (H. Eisler, N. J. Schneider) haben sich intensiv mit Filmmusik und ihren möglichen Funktionen auseinandergesetzt. Verschiedene Systematisierungsversuche wurden angestellt und teilweise wieder verworfen, weil sie nicht alle Aspekte der musikalischen Aussagekraft objektiv darstellen konnten. Das am meisten verwendete, jedoch wieder zurückgezogene Modell der drei Formen von Filmmusik3, unterscheidet zwischen einer paraphrasierenden, einer polarisierenden und einer kontrapunktierenden musikalischen Wirkung, d.h. dass sich die Musik entweder aus der Szene ableitet, sie Bildern ohne eindeutige Aussage eine spezifische Bedeutung aufsetzt oder einen Widerspruch zur filmischen Darstellung einbringt4. 1 2 3 4 persönliches Gespräch mit Martin Steyer [GMSt] persönliches Gespräch mit Bernd Wefelmeyer, [GBWe] Modell des Schweizer Musikwissenschaftlers Hansjörg Pauli, 1976 veröffentlicht und 1994 zurück gezogen Als Beispiel für den kontrapunktischen Einsatz von Musik sei hierbei eine Szene des Dokumentarfilms „Bowling for Columbine“ von Michael Moore genannt. Während der Song „What a wonderful world“ gesungen von Louis Armstrong erklingt, zeigt Moore grausame Bilder des Krieges. Gleichzeitig wirkt die Musik gerade durch ihren kontrapunktischen Einsatz polarisierend. 10 Filmmusikproduktion Einige gemeinsame Ansichten, wie die Unterscheidung zwischen einer diegetischen und einer non-diegetischen Musik, konnten sich aber halten. Dabei wird unterschieden, ob die Komposition zur Realität der erzählten Welt gehört, wie die Musik aus einem spielenden Radio, oder nicht. Rabenalt spricht von zwei auditiven Schichten [DF86, S. 42], wobei sich die erste auditive Schicht im Handlungsraum befindet (Dialog, Atmos, Foleys, Radiomusik) und die zweite auditive Schicht für innere Monologe und funktionale Musik vorhergesehen ist. Auch die Bezeichnung einer extradiegetischen und einer intradiegetischen Schicht ist gebräuchlich. Nicht selten werden musikalische Repetitionen, Ostinato, oder Sequenzfiguren genutzt, um die Dauer einer Szene überbrücken zu können. Gerade dieser Technik wird eine unnütze Redundanz, eine „Patternwirtschaft“ 1 vorgeworfen. Der Komponist Enjott Schneider erklärt in seinem Buch „Komponieren für Film und Fernsehen“ sehr bildhaft, weshalb er diesen Vorwurf nicht nachvollziehen kann. Er veranlasst den Leser, sich eine Pappel-Allee vorzustellen, die aus nur einem einzigen Baum besteht. Da weitere Bäume keine zusätzlichen Informationen brächten, könne man sich diese ja dazu denken [KF97, S. 146]. Repetitionen sind wichtig und vermitteln das Gefühl einer körperlichen Lebendigkeit. Von „blutleeren“ Analysen hält Schneider wenig und verweist auf repetitive Elemente in Werken von Bach (C-Dur-Präludium), Ravel (Boléro) und Beethoven (5. Symphonie). Bild und Musik „potenzieren gegenseitig ihre Wirkung“ 2. Der Bild-Ton-Beziehung wird heute eine große Bedeutung zugesprochen. Aus der Wahrnehmungspsychologie ist bekannt, dass es im Gehirn zu einer besonderen Verknüpfung akustischer und visueller Elemente kommt. EEG-Untersuchungen unterstützen die Behauptung, dass multimodale Integrationen sogar überadditive neuronale Reaktionen hervorrufen können3. Dies bedeutet, dass zeitgleiche akustische und visuelle Informationen eine höhere Wirkung beim Zuschauer bewirken, als sie es separat könnten. Bild und Ton im Film sind fragmentarische Informationen und werden als Einheit wahrgenommen. Kausale Sinnzusammenhänge werden nur dann als real akzeptiert, wenn sie eigenen Erfahrungen aus dem individuellen, täglichen Leben nicht widersprechen. Außerdem beeinflussen Tempo und Rhythmus unweigerlich den Organismus. Herzschlag und Atemfrequenz passen sich an das Tempo an, was sogar zur Änderung des Blutdrucks und der Muskelspannung führen kann [KF97, S. 47]. Die Musik von 1 2 3 Zitat Armin Pommeranz Enjott Schneider, „Komponieren für Film und Fernsehen“, Seite 8 [KF97] Siehe Steffen Lepa und Christian Floto „Audio-Vision als Konstruktion“, Seite 350 aus Harro Segeberg, „Sound. Zur Technologie und Ästhetik des Akustischen in den Medien“ [SO05] 11 Filmmusikproduktion Hans Zimmer (z.B. in den Filmen „Inception“, „Sherlock Holmes“ und „Batman – The Dark Knight Rises“) erzeugt mit ihren treibenden Rhythmen über die Länge des Films ein vom Komponisten beabsichtigtes unterschwelliges Gefühl der Spannung. Das Publikum soll permanent in die Welt des Films hineingezogen werden1. Underscoring ist eine Kompositionstechnik, die sich dieser Eigenschaften bedient und akustisch eine emotionale Verstärkung beim Publikum erzeugt, indem sie paraphrasierend Bewegungen und Begebenheiten im Film illustriert. In zahlreichen Horrorfilmen wurde diese Technik angewendet. Ein passendes Beispiel stellt die Musik von Jerry Goldsmith für „The Omen“ dar. Über Filmmusik lassen sich soziale Milieus sowie zeitliche Epochen klar darstellen und etablieren, wobei auch hier wieder ein gewisses Maß an Erfahrung an das Publikum gestellt wird. Leitmotivisch lassen sich Personen charakterisieren, so hat beispielsweise Max Steiner in „Vom Winde verweht“ für jede Hauptfigur ein Thema komponiert, welches er immer dann nutzte, wenn die jeweilige Person auftrat, an sie erinnert wurde oder eine andere gedankliche Assoziation hervorgerufen werden sollte [DF86, S. 84]. Der Komponist kann mit seiner Arbeit Bildschnitte verdecken oder akzentuieren. Gleichzeitig kann er die Wahrnehmung des Zuschauers beeinflussen, indem er filmische Zeit verkürzt oder verlängert. Durch die verschiedenen Herangehensweisen und Techniken bei der Filmmusikkomposition kann bei Filmen eine besondere Verknüpfung zwischen Bild, Handlung und Musik entstehen. 2 Vorgaben durch das Zielmedium Die Auswahl des Zielmediums wirkt sich auf die gesamte Struktur einer Musikproduktion aus. Filmmusikproduktionen sind in erster Linie, abgesehen von Stereoproduktionen für das Fernsehen, auf die Wiedergabe in 5.1 im Kino ausgelegt. Allerdings stellt der nachfolgende Vertrieb der Musik auf einer stereofonen Soundtrack-CD und vor allem der Verkauf der DVD oder Blu-ray Discs einen wichtigen Teil der Einnahmen dar. Daher müssen die Aufnahmen bereits so angelegt sein, dass sowohl eine Mischung im Kino als auch eine klanglich kompaktere Version für die Konsumenten zuhause erstellt werden kann. 1 Quelle: Soundworks Collection zu „The Dark Knight Rises“ http://soundworkscollection.com/darkknightrises [WWW06] 12 Filmmusikproduktion Abb. 3 Vom Konsumenten tolerierter Dynamikumfang in verschiedenen Wiedergabeumgebungen nach Bob Katz Mit der Festlegung des Zielformats entscheidet sich unter anderem die Art des verwendeten zwei- oder dreikanaligen Hauptmikrofonsystems. Außerdem wird der Einsatz von Raummikrofonen durch die Anzahl der im Zielformat vorhandenen Surround-Kanäle entscheidend beeinflusst. Ist beispielsweise eine Mischung in 7.1 geplant, können schon bei der Aufnahme durch das Aufstellen mehrerer Raummikrofone Signale für die vier Surround-Kanäle generiert werden. Die hauptsächlich vorherrschenden Wiedergabesituationen werden nun kurz beleuchtet. 2.1 Wiedergabe im Kino Die meisten Kinos ermöglichen dem Publikum eine Filmvorführung, die weitgehend den Vorstellungen der Filmschaffenden entspricht. Obwohl das Dolby DigitalVerfahren eine Systemdynamik von über 90dB1 gestatten würde, umfasst die übliche Programmdynamik im Kino, aufgrund des durch das Publikum verursachten Grundgeräusches, etwa 62dB2. Damit bietet die Audiowiedergabe im Kino den größtmöglichen Dynamikumfang für Filme. 1 2 http://www.akustische-medien.de/texte/zmm_tontechnik98.htm [WWW04] Bob Katz „Mastering Audio“, S. 173 [MA07] 13 Filmmusikproduktion Der Frequenzgang des Wiedergabesystems im jeweiligen Kinosaal wird gemessen und an die sogenannte X-Kurve angepasst. Diese besagt, dass Frequenzen unterhalb 60Hz bis zu 5dB bei 20Hz und oberhalb 2kHz mit 3dB pro Oktave abfallen müssen. Die XKurve wurde aufgrund der in Hörtests ermittelten Empfindung des Menschen, die einen linearen Frequenzgang in großen Sälen als höhenlastig beschreibt, entwickelt. Je nach Größe des Kinosaals werden modifizierte X-Kurven empfohlen1. In THX zertifizierten Kinosälen wird aufgrund der Spezifikationen eine ähnliche Anpassung des Frequenzgangs vorgenommen. Die Beschallungsanlage in Kinos mit Dolby Digital 5.1 Tonsystem ist so aufgebaut, dass das Publikum über drei Frontlautsprecher (Links, Center, Rechts), einen Subwoofer (für LFE2) und zwei Reihen seitlicher und rückseitiger Surround-Lautsprecher (für den linken und rechten Surround-Kanal) beschallt wird. Zur gleichmäßigen Beschallung größerer Säle werden in der Regel Hornlautsprecher genutzt. Aufgrund ihrer Bauweise entstehen Resonanzen der Luftsäule im Trichter, deren Rückwirkung auf das Antriebssystem zu einem hohen Klirrfaktor führt3. Die Bauweise ist auch ein Grund für den typischen Kinoklang, welcher mit einer Anhebung der Frequenzen bei ca. 3kHz einhergeht4. Für die Wiedergabe der Surround-Kanäle werden mehrere Lautsprecher zusammengefasst und geben das gleiche Surround-Signal wieder. Die gleichzeitige Wiedergabe dieser erzeugt eine ungenauere Abbildung, als sie mit diskret angesteuerten Lautsprechern realisiert werden könnte. Außerdem sind die anzutreffenden SurroundLautsprecher in vielen Kinos nicht in der Lage, das gesamte Frequenzspektrum wiederzugeben, da Dolby Stereo lediglich einen linearen Frequenzgang der Lautsprecher in ihrem Wiedergabebereich erfordert, nicht aber einen Frequenzumfang von 20Hz bis 20kHz, welchen das in der Regel verwendete Dolby Digital-Tonsystem bieten könnte. Die Verwendung eines bandbegrenzten Surround-Kanals hing mit der besseren Kanaltrennung im früher verwendeten Dolby Stereo-Verfahren zusammen5. Zusätzlich erfolgt im Kino eine Absenkung des Pegels der Surround-Lautsprecher um 3dB, damit „beide Surround-Kanäle zusammen die gleiche Energie abstrahlen wie ein Hauptkanal“ [AE07, S.767]. Die besondere Wiedergabesituation in den Kinos muss bei der Erstellung der 5.1 oder Mehrkanalmischung berücksichtigt werden. 1 2 3 4 5 Andreas Friesecke „Die Audio-Enzyklopädie“ Seite 106 [AE07] LFE: Low Frequency Effect; tieffrequente Signalanteile, die meist bei Soundeffekten genutzt werden Wolfgang Ahnert und Frank Steffen „Beschallungstechnik“ Seite 112 [BT93] siehe Datenblatt des JBL Lautsprechers 5672 http://www.audiopro.de/live/jbl_40768_DEU_AP.html [WWW18] Die Bandbegrenzung der Surround-Lautsprecher im Dolby Stereo Tonsystem beläuft sich auf 150Hz – 7kHz, Michael Dickreiter, „Handbuch der Tonstudiotechnik“, Seite 897, [HT08] 14 Filmmusikproduktion Weitere mögliche Wiedergabesysteme im Kino sind DTS und SDDS. Zu den neueren Kinotonformaten gehören Dolby Surround 7.1, mit einer zusätzlichen Aufteilung der äußeren und inneren Surround-Kanäle, oder Dolby Atmos1, welches unter anderem über einen Kinoprozessor die in den Metadaten des DCP2 gespeicherten Toninformationen an das jeweilig eingebaute Wiedergabesystem anpasst. Dolby Atmos erfordert für die Wiedergabe der Surround-Signale ebenfalls Lautsprecher mit vollem Frequenzumfang sowie zusätzliche Subwoofer für den hinteren Bereich. Die SurroundLautsprecher können einzeln angesteuert werden. Eine weitere Neuerung stellt die Verwendung von Deckenlautsprechern dar. Wie viele Kinobetreiber jedoch die Investitionen für eine Umstellung ihrer Tonanlage aufbringen werden, bleibt abzuwarten. Die technischen Parameter der Audiofiles bei Filmproduktionen sind eine Abtastrate von 48kHz und eine Auflösung von 24Bit in Pulse Code Modulation (PCM) mit einer Datenrate von 6912kbit/s für sechs Kanäle. Im Kino erfolgt die Wiedergabe bei Dolby Digital jedoch datenkomprimiert mit einer Datenrate von 320kbit/s. 2.2 Veränderte Anforderungen an die Heimwiedergabe Einen großen Teil der Einnahmen bei Filmproduktionen erfolgt über den DVD bzw. Blu-ray Disc-Vertrieb für die Heimwiedergabe. Die wesentlichen akustischen Unterschiede, zwischen der Betrachtung eines Films im Kino oder zu Hause, resultieren aus dem Wiedergaberaum und dem Wiedergabesystem. Die Programmdynamik in Wohnungen umfasst etwa 35dB [MA07], da über benachbarte Räume Störgeräusche einwirken und die Wahrnehmung leiser Signale erschweren können. Gleichzeitig sollen benachbarte Räume nicht mit zu hohen Pegeln beschallt werden. In der Regel werden Filme stereofon wiedergegeben, da nur wenige Haushalte über ein 5.1 Soundsystem verfügen. Im Fall einer stereofonen Wiedergabe einer mehrkanaligen Mischung erfolgt im DVD-Player automatisch ein Downmix3, welcher über die beiden eingebauten Lautsprecher des Fernsehers ausgegeben wird. Das Datenformat für Ton auf DVDs ist das datenreduzierte AC3, welches zusätzlich Metadaten für die Wiedergabe enthält. Diese beinhalten Angaben darüber, wie die Surround-Kanäle, Center und LFE den Wiedergabelautsprechern zugemischt werden sollen. Die gesamte 1 2 3 Im DCP für Dolby Atmos werden zusätzliche Metadaten sogenannter Beds und Objects hinterlegt, die Auskunft darüber geben, ob ein Signal einem bestimmten Kanal (z.B.: Dialog für den Center-Lautsprecher - Bed) oder eine räumliche Position zugewiesen wurde (z.B.: Bewegung eines Signals aus dem mittleren Surround über rechts in die Front - Object), die vom Dolby Prozessor an das jeweilig eingebaute Tonsystem skaliert werden muss. http://investor.dolby.com/releasedetail.cfm?ReleaseID=666401 [WWW03] DCP: Digital Cinema Package; Distributionsformat für digitales Kino falls keine dezidierte Stereoversion auf der DVD vorliegt. 15 Filmmusikproduktion Dynamik wird ober- und unterhalb einer gewählten Dialoglautstärke, des „DialNorm“ 1 Levels, eingeschränkt. Dies geschieht durch eine Kompression und Limitierung der Audiosignale über die sogenannte Dynamic Range Control (DRC). Bei plötzlichen Pegelsprüngen können in Folge dieser Regelvorgänge Artefakte auftreten. Der Downmix entspricht somit nicht der Originalmischung, sondern wird automatisiert an die Wiedergabesituation zu Hause angepasst. Selten werden zusätzliche Stereomischungen für die DVD erstellt. Für die Übertragung der Tonsignale bei AC3 wird eine Datenrate von 384 bis 448kbit/s verwendet. Ein großer Unsicherheitsfaktor stellt die Auswahl und Aufstellung der Lautsprecher, stereofon oder 5.1, bei den Konsumenten zu Hause dar. Es kann weder davon ausgegangen werden, dass die Lautsprecher anhand der entsprechenden Normen aufgestellt wurden, noch dass sie einen linearen Frequenzgang aufweisen. 2.3 Filmmusik auf Soundtrack-CD Der Verkauf von Musiken aus aktuellen Filmen etablierte sich in den 1950er Jahren (siehe A 1.1.3 [DF86, S. 73]). Bis heute setzen die Produktionsfirmen den Vertrieb der Soundtrack-CD fort. Als Soundtrack wird eigentlich die Tonspur auf dem Filmstreifen bezeichnet, welche die gesamte Mischung, also auch Dialog und Effekte beinhaltet. Auf der käuflichen Soundtrack-CD finden sich jedoch nur die Songs und der Score, die im Film verwendet wurden. Bei diesem Zielmedium ändert sich allerdings nicht nur die wiedergabeseitige Programmdynamik, sondern auch das Motiv der Rezeption. Während die Musik im Film Handlungen, Wendungen und Charakterzüge unterstreicht und als Teil des Gesamtwerkes nicht fortwährend im Vordergrund stehen und zusammen mit Dialog und Effekten eine Einheit bilden muss, steht sie auf der Soundtrack-CD frei. Die Mischung auf dem Tonträger wird in der Regel aus den während der Musikmischung erstellten Stems angefertigt. Musikalische Aspekte, wie die Balance von rhythmischen, melodiösen oder solistischen Passagen werden ohne visuelle Komponente anders betrachtet. Häufig wird der Musikmischung für die Soundtrack-CD eine stärkere Ausprägung des Raumeindrucks und mehr Brillanz durch Anhebung der höheren Frequenzen hinzugefügt2. 1 2 der DialNorm Wert wird in die Metadaten der AC3 editiert persönliches Gespräch mit Michael Schubert, [GMSc] 16 Filmmusikproduktion Die Daten auf einer Audio-CD sind grundsätzlich stereofon und müssen den Spezifikationen des Red Book1 entsprechen. Diese erfordern, dass die Musik mit einer Abtastrate von 44,1kHz und einer Auflösung von 16Bit dargestellt wird. 3 Produktionsablauf bei der Erstellung einer orchestralen Filmmusik Nachdem die verschiedenen Zielmedien betrachtet wurden, sollen nun die strukturellen Zusammenhänge beleuchtet werden, die bei der Produktion einer orchestralen Filmmusik zu beachten sind. Abb. 4 Projektphasen einer Filmmusikproduktion Zur Umsetzung der Filmmusikproduktion werden im Folgenden die spezifischen Rollen und Phasen erklärt. 1 Die Spezifikationen des Red Book wurden 1980 von Sony und Philips festgelegt. 17 Filmmusikproduktion 3.1 Rollenverteilung bei der Filmmusikproduktion Zu Beginn der Planung einer Filmmusikproduktion steht die Bildung eines Teams, um die unterschiedlichen Aufgaben fachgerecht vorbereiten und durchführen zu können. Abb. 5 Aufgaben von Ton und Komposition bei einer Filmmusikproduktion; Darstellung als Matrixorganisation Im Folgenden werden die Posten einer Filmmusikproduktion erläutert. Die unterschiedlichen Aufgaben des Tonmeisters werden dabei voneinander gelöst betrachtet, da sie nicht zwingend von einer einzigen Person durchgeführt werden müssen, obwohl dies bei kleineren und mittleren Produktionen häufig der Fall ist. 3.1.1 Regie Die Hauptaufgabe der Regisseurin oder des Regisseurs ist die Interpretation des Drehbuchs. Sie übernimmt die künstlerische Gesamtleitung der Produktion und lässt sich bei der Umsetzung der kreativen Visionen von den jeweiligen Leitern der Gewerke unterstützen. Sie behält den Gesamtblick über die künstlerische Gestaltung der Produktion und muss darauf achten, dass auch die Beiträge der Mitarbeiter, wie Schauspiel, Montage, Sounddesign und Musik, ins Gesamtkonzept passen. Schlussendlich liegt es in der Verantwortlichkeit der Regie, dass am Ende ein ästhetisch und künstlerisch stimmiges Resultat vorliegt, welches auch einen wirtschaftlichen Erfolg verspricht. 18 Filmmusikproduktion 3.1.2 Produktion Bei jedem Filmprojekt gibt es eine Produktionsfirma, deren Mitarbeiter sich um die komplette Organisation aller Produktionsschritte und aller Gewerke kümmern. Sie sind in der Regel die Ersten an der Produktion eines Filmes beteiligten Personen, sichern die Finanzierung und akquirieren die nötigen Fördergelder. Sie stellen detaillierte Zeitpläne für die einzelnen Drehtage, den Schnitt, die Tonpostproduktion samt Filmmusikaufnahme, Farbkorrektur und Mischung auf und handeln mit allen beteiligten Schauspielern, Assistenten, Kameramännern, Lichtleuten, Kostüm- und Maskenbildnern, Tongestaltern, den Verantwortlichen für das Set, das Script/Continuity, Catering, Besitzer von Unterkünften und Verleihern für diverse technische Gerätschaften und Fahrzeugen und vielen weiteren Mitwirkenden Verträge aus. Wenn ein Gewerk zusätzliche Ressourcen benötigt, müssen die Produzenten kalkulieren, ob dafür noch genügend Budget zur Verfügung steht. Nicht selten wird während der Dreharbeiten ein zu großer Teil des Etats ausgegeben, so dass in der Postproduktion kein Geld mehr für unvorhergesehene Mehrkosten vorhanden ist, oder dass an bereits geplanten Produktionsmitteln gespart werden muss. Um alle Bereiche ausreichend zu betreuen, arbeiten oft mehrere Produzenten an einem Projekt. 3.1.3 Komposition Die Komponistin oder der Komponist ist die erste Person, die den nahezu fertigen Film zu sehen bekommt und die Wirkung des Gesamtwerkes noch entscheidend verändern kann1. Nachdem das Buch geschrieben, die Dreharbeiten abgeschlossen und in der Regel der Bildschnitt zu großen Teilen angefertigt wurde, können durch die Wirkung der Musik Stimmungen und Wahrnehmungen verändert werden. In Absprache mit dem Regisseur wird ein musikalisches Konzept entwickelt, welches sich in das dramaturgische Gesamtbild des Films einfügt. Oft werden die Layouts mit gesampelten Instrumenten vorbereitet, um allen Entscheidungsträgern bereits vor den Aufnahmen mit echten Musikern einen Eindruck von der Komposition zu vermitteln. Sobald der Musik seitens der Produktion und Regie zugestimmt wird, beginnen die Komponisten mit der Anfertigung der Partituren und der Einzelstimmen für jeden Cue 2. Dabei kann es vorkommen, dass sie einen Arrangeur oder einen erfahrenen Orchestrator einsetzen, der die Instrumentierung ihrer musikalischen Idee umsetzt. 1 2 Quelle: Zitat von James Horner im Vortrag von Dick Bernstein während der EFA 2012 an der HFF Cue – Bezeichnung für einen Musikeinsatz im Film 19 Filmmusikproduktion Bisweilen hat sich sogar ein kleiner Industriezweig mit Firmen herausgebildet, die für anfallende Aufgaben, wie die Erstellung von Notenmaterial, Notensatz und Orchestration (Music Preparation), gebucht werden können. Bei der Erstellung der Noten ist ein hohes Maß an Sorgfalt gefordert, da eventuelle Fehler erst bei der Aufnahme auffallen. Sie sind nicht nur peinlich für die Komponisten sondern auch zeitraubend und bergen die Gefahr, dass der organische Fluss der Aufnahme durch den aufkommenden Stress gestört wird. Die Komponisten sind verantwortlich für die Vorbereitung der Clicktracks und Playbacks für jeden Cue, wofür sie die bereits erstellten Layouts nutzen können. 3.1.4 Musiker Die Musiker, die für die Einspielung einer Filmmusik engagiert werden, müssen über ausgesprochene Fähigkeiten im Blattspiel verfügen und sich dabei problemlos an das Tempo des Clicktracks halten können. Viele Musiker spielen recht ungern mit Kopfhörern, über die der Clicktrack wiedergegeben wird, denn auf diese Weise können sie weder die Vibrationen ihres Instruments noch den Gesamtklang des Orchesters wie gewohnt hören [KF97, S. 161]. Nur wenige Musiker können ohne Übung auf Click spielen, deshalb werden oft spezielle Filmorchester engagiert, die diese Produktionsweisen gewöhnt sind. Die Grundbesetzung entspricht einem sinfonischen Orchester, bei dem je nach Bedarf Instrumentalisten weggelassen oder hinzugefügt werden. 3.1.5 Music Editor Die Rolle des Music Editors ist in der Regel nur bei US-amerikanischen Filmmusikproduktionen anzutreffen. Anders als vielleicht erwartet, ist er nicht nur für den Schnitt der neu komponierten Filmmusik zuständig. Zu seinen Aufgaben gehört es, alle musikalischen Einsätze, die im Film vorkommen könnten, zu erfassen und mit vorläufigen Musikvorschlägen, sogenannten Temptracks, zu versehen. Diese sind bei amerikanischen Hollywood-Produktionen meist sehr aufwändig gestaltet. Mitunter werden für jede einzelne Kameraeinstellung passende Musiken anderer Filme ausgesucht und zusammengefügt. Die Temptracks spielen eine wichtige Rolle, da sie zu großen Teilen in den sogenannten Tempmixes1 verwendet werden. Diese Vorabmischungen aller Tonelemente eines Films dienen dazu, der Produktionsfirma einen 1 Dick Bernstein bei seinem Vortrag an der HFF im Rahmen der EFA 2012 20 Filmmusikproduktion Eindruck des zu erwartenden Endergebnisses zu vermitteln. Auch wird die Probemischung für Testvorführungen mit Publikum verwendet, um Erkenntnisse über die Wirkung des Films zu gewinnen und gegebenenfalls Änderungen vorzunehmen. Während der Spotting Sessions mit dem Regisseur und dem Komponisten macht sich der Music Editor ausführliche Notizen über sämtliche Einzelheiten musikalischer Natur, die besprochen wurden. Diese Notizen fügt er seinen detaillierten Listen bei, die alle Szenen, Bildeinstellungen und Dialoge mit genauer Angabe des Timecodes und ihrer Länge beinhalten. Diese Listen waren früher von großer Bedeutung für den Komponisten, da er kein Bild hatte zu dem er zuhause arbeiten konnte. Auch heute noch sind sie von Vorteil, weil so der Music Editor auf bestimmte ihm wichtig erscheinende Elemente im Film aufmerksam machen kann. Die Temptracks dienen sowohl dem Regisseur als auch dem Komponisten als Vorlage, wie bestimmte Szenen mit Musik funktionieren können. Außerdem fungiert der Music Editor als Mittler zwischen beiden Gewerken, indem er die musikalischen Vorstellungen und Wünsche mit Hilfe ähnlicher Musik ausloten kann. Des Weiteren ist er verantwortlich für die Erstellung funktionierender Pro ToolsSessions für die Aufnahme, die alle Clicktracks, Taktwechsel und Playbacks beinhalten. Während der Filmmusikaufnahmen überprüft er, dass alle geplanten Dopplungen und Overdubs aufgenommen werden und kein Cue übersehen wird. In extra dafür erstellten Tabellen wird vermerkt, welche Passagen mit welchen Sections bereits aufgenommen wurden. Nach den Aufnahmen schneidet er die guten Takes aneinander, tauscht vereinzelte falsche Noten aus und fügt alle weiteren Instrumente oder Chöre, die gegebenenfalls anderwärtig aufgenommen wurden sowie synthetisch erzeugtes Klangmaterial zusammen. Manchmal müssen aus finanziellen Gründen aus dem vorhandenen Material völlig neue Cues erzeugt werden. Dick Bernstein, Music Editor aus den USA, der viel mit James Horner zusammengearbeitet hat, musste für den Film „Apocalypto“ von Mel Gibson einige neue Cues auf diese Weise anfertigen. Außerdem gehört es zu den Aufgaben des Music Editors, die vorgemischte Musik für die Endmischung des Films vorzubereiten. Das bedeutet, dass alle Cues an der richtigen Timecode-Position liegen und alle Stems korrekt beschriftet sind. 21 Filmmusikproduktion Am Ende einer Produktion übernimmt der Music Editor die Archivierung und Beschriftung aller Deliveries1 der neuen Filmmusik, damit sie ihm z.B. für Temptracks zukünftiger Projekte aber auch zur Erstellung einer Musikliste zur Verfügung stehen. 3.1.6 Organisatorische Aufnahmeleitung Die Aufnahmeleiterin ist verantwortlich für die Erstellung der Spuren-, Mikrofon- und Belegungspläne, in Absprache mit dem Tonmeister sowie der Aufstellung eines Zeitplans. In diesem wird festgelegt, wie viel Aufnahmezeit für jeden Cue zur Verfügung steht, unter Berücksichtigung der Dauern für Aufbau, Abbau und Pausen. Die Aufnahmeleiterin wird während der Aufnahme für die Einhaltung der Zeitpläne sorgen. Bei kleineren und mittleren Produktionen muss der Tonmeister diese Aufgabe zusätzlich übernehmen. 3.1.7 Tonregie Aufgabe der Tonregie ist es, abhängig vom Musik- und Filmgenre, ein Mikrofonkonzept für die Aufnahme zu erarbeiten [GMSc]. Wichtig ist, dass alle Signale so aufgezeichnet werden, dass bei der späteren Mischung noch alle Gestaltungsmöglichkeiten offen bleiben (siehe A 3.3.1). Bei der klassischen Rollenaufteilung gibt es einen Tonregisseur (bzw. Tonmeister), der die musikalischen Aspekte der Aufnahme überprüft. Dabei übernimmt er die Position eines Vermittlers, indem er den Dirigenten die klanglichen Vorstellungen der Komponisten formuliert [GSKö]. Dem Recording Engineer gibt er Anweisungen über den Klang oder die Balance der Instrumente. Der Tonregisseur entscheidet, wann eine Passage zufriedenstellend aufgenommen wurde oder ob einzelne Stellen noch einmal wiederholt werden müssen. Dabei muss er darauf achten, dass Abschnitte so gewählt werden, dass sie gut aneinander geschnitten werden können (Ausklänge von vorhergehenden Takten müssen mitgespielt werden). Des Weiteren müssen den Musikern gute Einstiegsmöglichkeiten in die zu spielenden Stellen ermöglicht werden, wobei bei der Anzahl der Wiederholungen auch auf die Kondition und emotionale Befindlichkeit der Musiker Rücksicht zu nehmen ist. All dies geschieht in enger Absprache mit dem Dirigenten. Seinen Schnittplan erstellt der Tonregisseur in der Partitur und vermerkt, welche Takes brauchbar waren und vor allem, welche Übergänge noch aufgenommen werden 1 Delivery: verschiedene Ausspiele für jedes Endformat, z.B. 5.1 für Kino oder Stereo für TV 22 Filmmusikproduktion müssen, damit später eine Kombination verschiedener Takes möglich ist. Außerdem unterstützt er die Komponisten mit seiner Arbeit, indem er die Verantwortung dafür übernimmt, dass am Ende der Session die Erstellung eines Schnitts ohne Spielfehler sowie eine klanglich optimale Mischung möglich ist. 3.1.8 Recording Engineer In der klassischen Rollenaufteilung war der Recording Engineer1 für die Bedienung der komplizierten Technik verantwortlich. Nur er war befugt die Regler des Mischpultes zu bedienen. Dafür folgte er den Anweisungen des Tonmeisters, welcher über eine umfassende musikalische Vorbildung verfügte. Vor der Aufnahmesession mikrofoniert er in Absprache mit dem Tonmeister die verschiedenen Instrumente und richtet das Mischpult ein. Während der Aufnahme muss der Recording Engineer eine Abhörmischung anfertigen, in der die Verhältnisse der Instrumente untereinander stimmen. Dies ist einerseits wichtig, um den Komponisten einen Eindruck des zu erwartenden Endergebnisses zu vermitteln, andererseits kann die Aufnahme auf diese Weise besser im Hinblick auf Spielfehler beurteilt werden. Er übernimmt gemeinsam mit seinem Workstation-Operator die Verantwortung dafür, dass die Instrumente aller Cues technisch korrekt aufgezeichnet wurden. Heutzutage werden die Aufgaben des Tonregisseurs und des Recording Engineers meist in Personalunion - auch von Frauen - ausgeführt. 3.1.9 Workstation-Operator Die Aufgaben des Workstation-Operators entsprechen denen der früheren „BandOperatrice“. Er versetzt die virtuellen Tonbandspuren in Aufnahmebereitschaft und stellt sicher, dass alle Audiofiles richtig beschriftet in den entsprechenden Aufnahmeordnern abgespeichert werden. Während der Aufnahme muss er ständig überprüfen, ob alle Signale in der Digitalen Audio Workstation2 (DAW) ankommen und darauf achten, dass diese nicht übersteuern. Werden Cues unterbrochen, weil die Musiker blättern müssen, oder nur einzelne Phrasen Probleme bereiten, so dass in einem späteren Takt neu eingestiegen werden 1 2 Auf deutsch „Toningenieur“. Digital Audio Workstation – digitaler Tonschnittplatz, z.B. Pro Tools, Nuendo; dabei werden Audiodateien wie aufgenommene Bereiche auf einem Tonband dargestellt. Alle befragten Tonmeister verwenden fast ausschließlich Pro Tools. 23 Filmmusikproduktion soll, muss der Workstation-Operator die Aufnahme an der exakten Stelle in der Session starten, damit es keine Unstimmigkeiten mit den Playbacks und Clicktracks gibt. Sollen Overdubs oder einzelne Sections aufgenommen werden, muss er schnell die entsprechenden Spuren duplizieren und aufnahmebereit schalten. Dabei muss er beachten, dass die Namensgebung der Spuren für die Weiterverarbeitung der Musik verständlich bleibt. Um all dies in kürzester Zeit zu bewerkstelligen, ist eine umfassende Kenntnis der verwendeten DAW Vorraussetzung. Die größte Herausforderung stellt aber das hohe Maß an Konzentration dar, die notwendig ist, um zwischen den vielen Gesprächen aller beteiligten und unbeteiligten Personen im Regieraum, die wichtigen Einzelheiten, wie z.B. in welchem Takt eingestiegen oder welcher Cue als nächstes aufgenommen werden soll, zu erfassen. Neben der Beherrschung der Aufnahmetechnik ist ein gutes Gespür für den möglichen weiteren Verlauf der Aufnahme notwendig. 3.1.10 Filmmusik-Mischtonmeister Der Filmmusik-Mischtonmeister oder Mischtonmeisterin fügt alle vorhandenen Musiktonspuren zu einem Gesamtwerk zusammen. Dabei arbeitet er überwiegend zum Bild, damit anhand der Handlungsverläufe oder Synchronpunkte der Klang passend gestaltet werden kann. Der kontrollierende Blick auf das Bild ermöglicht es dem Tonmeister besser abzuwägen, welche dramaturgischen Elemente den Film voranbringen. So können Klangeinstellungen wie Dynamik, Frequenzgang oder Räumlichkeit besser dem visuellen Geschehen angepasst werden1. Dabei werden Klangbeeinflussungen vorgenommen, die bei einer autonomen Musikproduktion des Materials vielleicht nicht angewendet würden. Oft muss sich die neu komponierte Musik stark an den im Schnitt genutzten Temptracks orientieren [GPFu]. Um den klanglichen Vorstellungen des Komponisten und des Regisseurs gerecht zu werden, sollte vor der Mischung bereits eine Beschäftigung mit den ausgewählten Layouts und Temptracks erfolgen. Dies kann der Feststellung verwendeter Balanceeinstellungen und anderer Charakteristika dienen. In Kommunikation mit dem Komponisten wird sich während der Arbeit auf ein Klangbild geeinigt. Häufig bestehen Filmmusiken aus einem Orchester und weiteren elektronischen Elementen oder gesampelten Instrumenten [GPFu], wie zusätzliche Percussion, die oftmals die Gestaltung des Orchesterklanges stark beeinflussen [GMSc]. Die elektroni- 1 persönliches Gespräch mit Peter Fuchs [GPFu] 24 Filmmusikproduktion schen Sounds müssen mit dem aufgezeichneten Material klanglich verbunden werden. Darin unterscheidet sich die Mischung einer Filmmusik grundlegend von der einer CD-Produktion mit orchestraler Musik. Eine weitere Besonderheit einer Filmmusikmischung ist die Tatsache, dass bei Filmmusik lediglich ein Zwischenprodukt entsteht, welches dem Filmmischtonmeister zugeliefert wird [GMSc]. Bei autonomer Musik dagegen entsteht in der Mischung das Endergebnis des Produktionsprozesses1. Neben einer einzigen sechskanaligen Musikmischung wird zusätzlich eine Stemmischung durchgeführt. Dies bedeutet, dass wichtige Elemente noch nicht endgültig zusammengefügt werden, sondern weiterhin getrennt vorliegen. Die gerade beschriebenen Rollen stellen eine Aufteilung der verschiedenen Arbeitsgebiete dar. Wie konkret eine Musikproduktion durchgeführt wird, ist von Fall zu Fall verschieden. Es ist durchaus üblich, dass eine Person für mehrere Aufgaben verantwortlich ist. 3.2 Aufnahmevorbereitung Die Koordination und Durchführung einer orchestralen Filmmusikaufnahme erfordert eine gründliche Vorbereitung. Es entstehen hohe Kosten sowohl für die Musiker und Tonmeister als auch Mietkosten für das Tonstudio oder den Aufnahmesaal. Außerdem ist es gerade bei Projektorchestern nicht immer einfach, einen gemeinsamen Termin zu vereinbaren. Aus diesem Grund sollte während der Aufnahmen keine Zeit für technische Probleme verloren gehen, denn am Ende des Tages soll eine Musik geschaffen worden sein, die den künstlerischen Anforderungen des Filmes genügt. Um dies zu bewerkstelligen, gibt es sowohl Aufgaben, die im Vorfeld von den zuständigen Komponisten als auch von den tontechnischen Betreuern durchgeführt werden. 3.2.1 Kompositionsdepartment Wie bereits unter A 3.1.3 angeführt, sind vor der Aufnahmesession einige Vorbereitungen seitens des Kompositionsdepartments zu treffen. Sind die musikalischen Layouts abgenommen, beginnt die Komponistin oder der Komponist mit der Ausarbeitung der Cues. Zwar sind Melodien und harmonische Wendungen bereits umrissen, doch 1 Vor Erstellung des Distributionsmediums (z.B. CD) erfolgt in der Regel das Mastering, bei dem normalerweise die gesamte Mischung in Klang und Lautheit optimiert wird. 25 Filmmusikproduktion manchmal ist die genaue Auswahl der Instrumente noch nicht geklärt. Dies geschieht während der Instrumentation (oder auch Orchestration), dem Arrangement für das Ensemble. Dies kann von Mitarbeitern des Komponisten, sogenannten Orchestratoren, erledigt werden. Hans Zimmer zum Beispiel schreibt Suiten für seine Filme, die bereits Motive, Themen und die Auswahl der Instrumente beinhalten. Sein Team aus zahlreichen Komponisten nutzt diese Basis, um für die jeweiligen Szenen des Filmes die Cues zu entwickeln. Für den Aufnahmetermin müssen Noten erstellt werden, wobei in der Regel zunächst die Partitur gesetzt wird. Die aufwändigere Arbeit ist es anschließend, die Einzelstimmen für alle Instrumente aus der Partitur zu fertigen. Weitere wichtige Aufgabe des Kompositionsdepartments ist die Erstellung der nötigen Playback- sowie Clicktrack-Spuren. Diese sind während der Aufnahme von großer Bedeutung, da die neu aufzunehmenden Instrumente zeitlich zum Bild und den häufig eingesetzten elektronischen Elementen passen müssen. Playback und Clicktrack sind in eine zu verwendende Workstation-Session einzuarbeiten, wobei auch darauf geachtet werden muss, dass alle Tempo- oder Taktwechsel sowohl in der Session als auch in den Noten übereinstimmen. Häufig sind die Komponisten jedoch nicht genügend mit der DAW vertraut, so dass der ausführende Tonmeister die Tracks in die Session einarbeiten muss. 3.2.2 Zeitliche Planung Ein genauer Zeitplan verschafft allen Beteiligten einen Überblick über die Anzahl der Cues und deren instrumentale Anforderungen. Außerdem hilft er dabei genauer abzuschätzen, wie viel Zeit für jeden Arbeitsschritt benötigt wird. Bei der Erstellung eines Zeitplans müssen neben der eigentlichen Aufnahme auch die Dauern für Aufund Abbau einkalkuliert werden. Gelegentlich sind Umbauten zwischen den Besetzungen erforderlich. Es bietet sich an, mit den Cues zu beginnen, welche die größte Besetzung und demzufolge die meisten Musiker voraussetzen. Einspielungen von Soli sollten ans Ende der Aufnahmesession oder an einem gesonderten Aufnahmetag durchgeführt werden. Auf diese Weise kann man erhöhte oder unnötige Wartezeiten einzelner Musiker verhindern. 26 Filmmusikproduktion Abb. 6 Beispiel eines Zeitplans Die Abbildung zeigt an, wie viele Musiker jeder Instrumentengruppe notwendig sind und welche Besonderheit es evtl. gibt. Ein x bedeutet, dass die Instrumentengruppe voll besetzt sein muss. Im dritten Cue z.B. werden drei Posaunen und eine vierte Bassposaune benötigt. Die Musiker müssen unbedingt rechtzeitig informiert werden, wenn Bauformen von Instrumenten benötigt werden, die nicht in die Standardbesetzung des Orchesters gehören, sonst kann es dazu kommen, dass ein erforderliches Instrument am Aufnahmetag fehlt. 3.2.3 Besetzung Bei Orchesteraufnahmen ist es wichtig im Vorfeld zu erfahren, welche Aufstellung verwendet wird. Es gibt grundsätzlich zwei verschiedene Orchesteraufstellungen. Bei der deutschen Aufstellung sitzen sich ersten und zweiten Violinen gegenüber, bei der amerikanischen Aufstellung sitzen sie nebeneinander. Dies muss bei dem Aufbau der Mikrofone berücksichtigt werden, um sich aufwändige Umbauten zu ersparen. Bsp.: Ein Tag vor den Aufnahmen mit einem 90-köpfigen Blasorchesters wurden die Mikrofone anhand des besprochenen Sitzplanes aufgebaut. Am Aufnahmetag stellte sich jedoch heraus, dass der Plan veraltet war und die Musiker eine andere Aufstellung beabsichtigten. Innerhalb einer Stunde mussten ca. 60 Mikrofone neu aufgestellt werden. 27 Filmmusikproduktion 3.3 Tontechnische Umsetzung Die Wahl der Mikrofonie und die Überlegung zu Organisation der vielen aufzunehmenden Signale gehört zu den tontechnischen Vorbereitungen einer Aufnahme. 3.3.1 Mikrofonie Mit der Wahl der Mikrofonstrategie kann der Tonmeister oder die Tonmeisterin einen starken Einfluss auf den Klang nehmen. Sie ist meist abhängig vom Filmgenre, den klanglichen Vorstellungen des Komponisten und den genretypischen Hörgewohnheiten des anvisierten Publikums [GSKö]. Grundsätzlich sollte aber auf eine Art und Weise mikrofoniert werden, die in der Mischung alle Möglichkeiten zur Klangestaltung offen hält. In der Regel wird bei Filmmusikaufnahmen ein Hauptmikrofonsystem mit zusätzlichen Stützmikrofonen verwendet. Häufig kommt dabei ein Decca-Tree 1 als Hauptsystem zum Einsatz. Es ist ursprünglich ein dreikanaliges, stereofones Hauptsystem2, welches mit Hilfe des Center-Mikrofons eine breitere Basis zwischen linkem und rechtem Hauptmikrofon ermöglichen sollte, ohne ein Mittenloch3 zu verursachen. Bei 5.1 Mischungen wird das Centersignal in der Regel dem Mittenlautsprecher zugeteilt. Allerdings verursachen die Signale des nach vorne versetzten Center-Mikrofons, bei der im Kino üblichen Aufstellung der Frontlautsprecher in einer Ebene, eine Überhöhung der Wahrnehmung des Mittenlautsprechers. Auch weitere dreikanalige Hauptmikrofonsysteme 4, wie Stereo+C oder OCT (optimized cardioid triangle) werden bei Filmmusikaufnahmen verwendet. Bei der Aufnahme gewonnene Mittensignale verbessern die räumliche Tonempfindung entscheidend. Gerade bei größeren Leinwänden sorgt das Mittensignal für ein ausgewogenes Klangbild [GPFu] und verhindert das Entstehen eines Mittenlochs. Bereits 1958 wurde festgestellt, dass durch die Verwendung eines MittenLautsprechers die gleichen Pegel bei geringerer Ansteuerung der einzelnen Lautspre- 1 2 3 4 Alle befragten Tonmeister nutzen den Decca-Tree bei orchestralen Filmmusikaufnahmen. Der Tree ist eine Hauptmikrofonanordnung mit 3 Kugelmikrofonen (L-C-R, mit ursprünglich M49 Mikrofonen von Neumann) und zwei optionalen Outriggern (LL-RR). Michael H. Gray, „The Birth of DECCA“, 1986, ARSC journal [ARSC86] Das Mittenloch ist eine Bezeichnung dafür, dass aufgrund einer ungünstig gewählten Aufnahme- oder Wiedergabesituation in der Mitte zwischen den Lautsprechern schlecht Phantomschallquellen erzeugt werden können. Dadurch ist eine genaue Ortung der Instrumente nicht mehr möglich. Für eine eingehende Auseinandersetzung verweise ich auf die Diplomarbeit „LCR-Stereophonie im Kino“ von Stefan Haberfeld [DASH] 28 Filmmusikproduktion cher erzeugt werden können1. Da sich durch diese Nutzung das Grundgeräusch verringert verbessert sich auch das Klangbild. Bei der Verwendung von Stützmikrofonen kann unterschieden werden, ob einzelne Instrumentengruppen über kleinere zwei- bis dreikanalige „Hauptsysteme“ oder jedes Instrument mit einem noch näher aufgestellten Mikrofon aufgenommen werden. Dabei fügen sich die in der Regel weiter entfernt aufgestellten und damit eine gesamte Instrumentengruppe (Holz, Blech) abdeckenden Hauptsysteme besser in das Gesamtklangbild ein. Für eine explizite Augmentierung eines einzelnen Instruments kann das direkte Mikrofonsignal genutzt werden. Beide Varianten der Mikrofonierung sind gleichzeitig möglich. Es kommt häufig vor, dass Stützmikrofone näher aufgestellt werden, als es bei klassischen Aufnahmen üblich wäre. Besonders bei Filmszenen, die mit viel Action verbunden sind, wird oft ein griffigerer und direkterer Klang gewünscht, der über eine nahe Mikrofonierung hergestellt wird. Enjott Schneider erklärt hierzu: „Die reale Subjektivität einer extrem nah aufgenommenen Stimme [...] ist in ihrer unkünstlichen Direktheit unschlagbar, weil psychologisch so er- und angreifend. Auf der Filmleinwand finden wir ja das optische Gegenstück dazu: Der Filmstar wird dem Zuschauer so „nahe“ gebracht, dass jedes Lidschlagen, jede Träne, jedes Zittern einer Hand zum großen emotionalen Ereignis wird.“ 2 Wenn ein flächiger Streicherklang erzeugt werden soll, rät Michael Schubert eher von der starken Verwendung von Stützmikrofonen ab, „weil sie später Artefakte mit in die Mischung bringen“ [GMSc]. Meist werden bei der Aufnahme eines Orchesterscores sowohl alle Instrumentengruppen über kleinere zwei- oder sogar dreikanalige Hauptsysteme (in den Air Studios in London wird beispielsweise eine LCR-Stütze vor die Hörner aufgebaut3) als auch jedes Pult bzw. Instrument mit einem Direktmikrofon gestützt. Mit den Stützen lassen sich die Direktanteile der einzelnen Gruppen oder Instrumente im Verhältnis zum Gesamtklang, welcher über das Hauptmikrofonsystem eingefangen wird, steuern. Um Signale für die Surround-Lautsprecher im Kino zu generieren, werden in der Regel Raummikrofone aufgebaut. Dabei sollte darauf geachtet werden, dass diese nicht zu nah am Ensemble oder einer Ecke des Raumes aufgestellt werden, damit es nicht zu Kammfiltereffekten oder Überhöhungen im Bassbereich kommt. Weiterhin sollte die 1 2 3 Fritz Trommer „Tontechnik“, Seite 60 [TT58] N. J. Schneider, „Komponieren für Film und Fernsehen“, Seite 128 [KF97] persönliches Gespräch mit Falco Duczmal 29 Filmmusikproduktion Korrelation der Signale beachtet werden, um einen Umhüllungseffekt für den Zuschauer zu generieren1. Die aufgenommenen Signale der Raummikrofone können direkt verschiedenen Surround-Kanälen zugewiesen werden. Für „Die Vermessung der Welt“ wurden bei der Musikaufnahme sogar vier Raummikrofone aufgestellt. Damit standen, da der Film in 7.1 gemischt werden sollte2, für jeden der vier Surround-Kanäle dezidierte Signale zur Verfügung. Anders als bei autonomen orchestralen Musikproduktionen, kann es bei Filmmusikaufnahmen vorkommen, dass separate Mikrofone zur Erfassung tieffrequenter Signale für den LFE-Kanal aufgebaut werden. Dabei haben sich verschiedene kreative Ausführungen entwickelt. Grenzflächenmikrofone vor den Kontrabässen ermöglichen aufgrund ihrer akustisch entwickelten Bauform eine hervorragende Wiedergabe tiefer Frequenzen3. Weiterhin können Wassergallonen, in welchen Kugelmikrofone hängen, im Aufnahmeraum verteilt werden, um ausgeprägte Tiefensignale zu erhalten4. 3.3.2 Organisation der Signale Bei großen orchestralen Filmmusikproduktionen muss eine Vielzahl an Signalwegen kontrolliert und organisiert werden. Daher ist es von Vorteil, sich zuvor mit der technischen Umsetzung auseinanderzusetzen, um während der Aufnahme alle Kapazitäten für die musikalische Umsetzung nutzen zu können. Unvorhergesehene Probleme werden den Aufnahmetermin ohnehin zusätzlich belasten. 3.3.2.1 Aufnahmesession Die Aufstellung der Mikrofone ist nur ein Teil der Vorüberlegungen und Vorbereitungen. Auch das Projekt in der, heutzutage fast ausnahmslos verwendeten, DAW muss so eingerichtet werden, dass die Aufnahme ohne unerwartete Überraschungen durchgeführt werden kann. Bei dem Babelsberger Filmorchester hat sich dafür eine effiziente Verfahrensweise bewährt. Dem zuständigen Orchestrator oder Operator des Komponisten wird eine Session ausgeliefert, in der die benötigten Aufnahmespuren 1 2 3 4 siehe Michael Dickreiter, „Handbuch der Tonstudiotechnik“, Seite 250 und folgende [HT08] persönliches Gespräch mit Martin Steyer [GMSt] siehe „Produktinformation GFM132-Grenzflächenmikrofon“ [CAT01] persönliches Gespräch mit Falco Duczmal 30 Filmmusikproduktion bereits mit dem vorgesehenen Routing ausgestattet und inaktiv geschaltet sind. Dies ist notwendig, da sich die Belegung der Ein- und Ausgänge zu anderen Studios unterscheidet. Die verwendete DAW Pro Tools hat bisher die Eigenschaft, dass physikalisch nicht vorhandene Ein- und Ausgänge, die in der Erstellung der Session in einer anderen Arbeitsumgebung begründet sind, mit den Ein- und Ausgängen des gerade vorhandenen Audiointerfaces belegt werden. Um dies zu vermeiden, müssen bei Auslieferung der Ausgangs-Session die Aufnahmespuren inaktiv sein. Diese Defaultsession wird nun als Grundlage genutzt, um für jeden Cue eine separate Session inklusive Bild, Clicktrack und aller Playbackspuren mit richtigem Timecode und richtigen Taktzahlen zu erstellen. In die vorbereiteten Sessions werden dann die Orchesterparts oder andere Instrumente direkt aufgezeichnet. Ziel ist es, dass die im Aufnahmestudio wieder aktivierten Spuren sofort richtig geroutet und einsatzbereit sind und nicht nochmals jeder Aufnahmespur der richtige Ein- und Ausgang zugewiesen werden muss1. Die Spurbenennung unterliegt festen Konventionen. Da Pro Tools die Namen der aufgenommenen Files anhand ihrer Spurbezeichnung vergibt, kann durch die Auseinandersetzung mit einer günstigen Beschriftung im Anschluss viel Zeit eingespart werden. Als erstes wird ein Kürzel für den Film in die Spur gesetzt, damit die Audiodatei später eindeutig zugeordnet werden kann, da es z.B. möglich ist, dass es bereits mehrere Audiodateien mit der Bezeichnung „Violine 1“ gibt. Im Falle einer unbeabsichtigten Verteilung der Aufnahmedateien in falsche Ordner oder eines anderen Fehlers, ist eine unmissverständliche Beschriftung sehr wichtig. Dahinter folgt die Nummer des Cues und abschließend die Bezeichnung des aufgezeichneten Mikrofonsignals. Auf diese Weise lassen sich später alle Files komfortabel in jedem Explorer oder Finder chronologisch und dem jeweiligen Projekt und Cue zugeordnet anzeigen. Die Datei erhält dann den Namen: „Film_Cue_Instrument_Takenr“. 3.3.2.2 Aufnahmesystem Da bei Filmmusikaufnahmen eine Vielzahl von Takes aufgenommen und umgehend probehalber zusammengeschnitten werden sollen, empfiehlt sich die Arbeit mit einer DAW. Die computerbasierte Aufnahme ist für diese Art der Musikproduktion fast unumgänglich. Neben der besseren Übersicht der bereits aufgenommen Takes durch die optische Darstellung in Form von Regions2, ermöglicht eine DAW zudem die 1 2 persönliches Gespräch mit Falco Duczmal Region - Tondatei in Pro Tools 31 Filmmusikproduktion unproblematische Beschriftung dieser1. Besonders nützlich ist die Möglichkeit, Schnitte und Punch In's2 [PRT05] durchzuführen, ohne dabei destruktiv zu arbeiten. Bei Filmorchesterproduktionen, die Aufnahmen in Sections oder Overdubs erfordern, vereinfacht die grafische Oberfläche einer DAW die Arbeit enorm. Im gesamten Filmbereich ist Pro Tools die am meisten verwendete DAW. 3.3.2.3 Spurbelegungsplan Ein frühzeitig erstellter Spurplan erleichtert es, den Überblick über die aufzunehmenden Signale zu behalten. Hier kann eine Auflistung aller Instrumente und den ihnen vorgesehenen Mikrofonen, die genaue Bestimmung der aufzuzeichnenden Signalwege vereinfachen. Hinzu kommen Angaben über die Vorverstärkung mit oder ohne Phantomspannung sowie der zu verwendenden Vorverstärker und Wandler. Zusätzlich lassen sich tabellarisch Informationen zu Multicorebelegungen, Stativgrößen oder evtl. benötigte DI-Boxen und Adaptierungen notieren. Die genaue Zuordnung aller Signalwege erleichtert auch den Aufbau, da einfache Aufgaben, wie das Verkabeln der Mikrofone anhand eines eindeutigen Planes, delegiert werden können. Bsp.: Für die Aufnahmen einiger Arien für den Film „Father, Son & holy Cow“ in der Musikhochschule Hannover wurden im Vorfeld genaue Spurbelegungspläne erstellt. Da aus organisatorischen Gründen nur zwei Stunden für den kompletten Aufbau einer mobilen Regie sowie Mikrofonierung eines Barockorchesters und mehrerer Hauptmikrofonsysteme zur Verfügung standen, konnten dank des Belegungsplanes Regisseur und Produzent bei der Verkabelung der Instrumentenmikrofone an die Stagebox des Multicorekabels helfen. 3.4 Aufnahme Die Aufnahmen einer orchestralen Filmmusik laufen in der Regel sehr systematisch und gut organisiert ab. In den folgenden Abschnitten werden wesentliche Merkmale, die bei Filmmusikaufnahmen üblich sind, betrachtet. 1 2 Außerdem ist eine umfangreiche Bearbeitung mit Hilfe von Plugins möglich, sodass ohne Mischpult ein akzeptabler Abhörmix erstellt werden kann. Punch In – eine in Zeiten der analogen Aufzeichnungsgeräte relativ riskante Methode um fehlerhafte Passagen zu korrigieren. Dabei wurden die Wiedergabespuren im geeigneten Moment aufnahmebereit geschaltet und für die Dauer der notwendigen Verbesserung die vorherige Aufnahme überschrieben. 32 Filmmusikproduktion 3.4.1 Arbeit mit den Musikern Die Kommunikation mit den Musikern übernimmt in den meisten Fällen der Dirigent, dem über Kopfhörer die Wünsche und Bedenken des Komponisten und Tonmeisters übermittelt werden, damit er diese für das Orchester übersetzt bzw. mit ihm umsetzt. Da bei der Produktion von Filmmusik die Noten meist erst am Tag der Aufnahme zur Verfügung stehen, muss der Dirigent sehr schnell die dramaturgische Bedeutung der Musik erfassen. Im Vorfeld besteht für den Dirigenten kaum die Möglichkeit, die Partitur durchzuarbeiten und zu interpretieren. Deshalb sagt der Komponist oft zu Beginn der Aufnahmesession einige Worte zur Handlung und Bedeutung des Films, um ein allgemeines Verständnis für die musikalische Empfindung bei den Musikern aufzubauen. Nach ein- bis zweimaligem Durchspiel ist die Probezeit vorüber. Manchmal gelangen aber bereits die allerersten Takes in den Film, ohne dass sie zuvor geübt wurden. 3.4.2 Bildsynchrone Produktion Der während der Aufnahme von Filmmusik wahrscheinlich größte Unterschied zur Produktion autonomer orchestraler Musik ist die Verwendung eines Clicktracks. Dieser sorgt dafür, dass die Komposition genau auf das Bild passt und wichtige Synchronpunkte eingehalten werden. Außerdem sollen eventuelle Dopplungen, Soli oder bereits mit Samples erstellte zusätzliche Playbackspuren zusammenpassen. Würde das Orchester agogischer spielen, bestünde die Gefahr, dass das gesamte musikalische Puzzle nicht mehr zusammenpasst. Trotzdem werden durchaus auch Filmmusiken ohne ein durch ein Clicktrack vorgegebenes Tempo eingespielt. Als Click wird ein regelmäßiges, impulshaftes Signal bezeichnet, welches im Gegensatz zu einem Metronom jedes beliebige Tempo und Tempoverläufe wiedergeben kann. Dabei ist wichtig, dass ein prägnantes, helles Signal1 ohne Betonungen verwendet wird. Es gibt verschiedene Möglichkeiten, Musikern und Dirigenten einen Click zuzuspielen: Einerseits wird der Click im Tempo des jeweiligen Cues über Kopfhörer eingespielt. Um ein Übersprechen des Clicks aus den Kopfhörern der Musiker während leiser Passagen der Aufnahme zu vermeiden, sollte der Recording Engineer oder Workstation-Operator die Lautstärke des entsendeten Clicksignals dem dynamischen Spiel des Ensembles anpassen. Bei lauten Abschnitten benötigen die Musiker einen erhöhten Clickpegel, um ihn weiterhin wahrnehmen und das Tempo halten zu können. 1 Der spezifische Klang des Clicks resultiert vermutlich aus seiner Entstehung, siehe A 1.1.4. 33 Filmmusikproduktion Eine andere Variante, um den bildsynchronen Verlauf einer Musik zu gewährleisten, ist die Aufnahme mit einem optischen Click mit Punches und Streamers. An diesen Bildzeichen kann man sich während des Dirigats orientieren und das Tempo der musikalischen Darbietung steuern. Sie ermöglichen eine etwas freiere Zeiteinteilung und ein agogischeres Zusammenspiel. Die Firma ACS (Auricle Control Systems) hat Auricle, eine Software für Komponisten und Dirigenten, entwickelt, die verschiedenartige Visualisierungen in das Arbeitsbild einfügt. Mit verschiedenfarbigen Linien (Streamers), die sich über das Bild bewegen, wird markiert, wann eine Phrase beginnt oder endet, ein Musikeinsatz eintreten, ein Tempowechsel erfolgen oder ein bestimmter Synchronpunkt eingehalten werden soll. Auf diese Weise wurden beispielsweise die Filmscores zu „Lord of the Rings“, „Casino Royale“, „Avatar“ und „Mission Impossible“ eingespielt. Auch Dick Bernstein hat mit seinem Bruder Bill und Freund Bob Badami eine Software namens Streamline ausgearbeitet, mit der während der Proben für den nächsten Cue sehr schnell Punches und Streamers in das Bild eingefügt werden können. 3.4.3 Aufnahme in Sections Oft werden die Cues in sogenannten Sections1 aufgenommen, d.h. dass zunächst das Stück gemeinsam mit allen Musikern geprobt und anschließen jede Instrumentengruppe einzeln aufgenommen wird. Es kommt allerdings auch vor, dass die Musiker unterschiedlicher Sections an verschiedenen Aufnahmeterminen gebucht werden. Auf diese Weise lässt sich das Übersprechen anderer Instrumentengruppen vermeiden. Gerade bei amerikanischen Produktionen wird diese Methode der Musikaufnahme oft angewendet. Filmmusiken werden jedoch nicht grundsätzlich in Sections aufgenommen, weil viele Komponisten lieber den Gesamtklang eines miteinander musizierenden Orchesters erhalten möchten. Auch der Klang eines Orchesterkörpers ist mehr als nur die Summe seiner Teile. Die organischen Tempo- und Intonationsschwankungen, die beim Interagieren der verschiedenen Instrumentalisten automatisch entstehen, führen zu einem lebendigen und trotzdem homogenen Orchestersound. Werden die Instrumentengruppen separat aufgenommen, fehlt den Musikern der Klangeindruck der Gesamtkomposition und sie können so nur schwer ein Gefühl für funktionelle harmonische Entwicklungen bekommen. Trotzdem ist es bei besonders schwierigen Arrangements oder problematischen Stellen hilfreich die Konzentration während der 1 Section: Instrumentengruppe (z.B.: Blech, Streicher, Holz, Percussion) 34 Filmmusikproduktion Aufnahme auf einzelne Sektionen zu bündeln, um später im Schnitt eine befriedigende Version zu erstellen [GBWe]. 3.4.4 Dopplungen und Overdubs Eine weitere Besonderheit bei bildbezogenen Musikproduktionen ist die Aufnahme von Dopplungen und Overdubs ganzer Orchestergruppen. Bei autonomen orchestralen Musikproduktionen kann es vorkommen, dass die Solisten ihre Passagen auf das bereits produzierte Playback einspielen1. Trotz technischer Schwierigkeiten wurden in der Filmmusikproduktion bereits sehr früh Overdubs aufgenommen. Bernd Wefelmeyer berichtet, dass Sänger auf ¼ -Zoll Band synchronisiert wurden, „wobei darauf zu achten war, dass das Band höchstens dreimal neu bespielt wurde.“. Bei der Aufnahme von Overdubs werden weitere musikalische Stimmen eingespielt, die das Arrangement verdichten, wobei das Übersprechen unterbunden wird. Die Methode durch Dopplung der Streicher- oder der Blechsektion ein größeres Orchester hörbar zu machen, liegt im vorhandenen Budget begründet [GPFu]. 3.4.5 Vorteile der computerbasierten Aufnahme Bei der Aufnahme zeigt sich ein weiterer Vorteil, den die Erstellung isolierter Sessions für jeden Cue mit sich bringt. Die Nutzung von Playlists vereinfacht die Organisation der Aufnahmedateien, da den einzelnen Takes, bei geschickter Anwendung, die richtige Nummer im Dateinamen angefügt wird. Auf diese Weise wird eine eindeutige Zuordnung gewährleistet. Zunächst werden für alle Aufnahmespuren oder den entsprechenden Sections neue Playlists angelegt. Dies ist daran zu erkennen, dass dem angegebenen Spurnamen der Wert .01 angefügt ist. In diese erste Playlist wird nun der erste Take aufgenommen. Bevor der zweite Take aufgenommen wird, sollte eine weitere Playlist erstellt werden usw. Auf diese Weise wird jeder Take in eine einzelne Playlist aufgenommen. Der Vorteil dabei ist, dass alle Takes zeitlich zum richtigen Timecode und damit synchron zum Click oder Playback eingespielt werden können. Dabei bleibt die Benennung der Spuren, bis auf die Zahl des jeweiligen Takes, identisch. In die oberste oder auch „nullte“ Playlist werden die besten Abschnitte aller Takes eingefügt. 1 eMail von Peter Fuchs [GPFu] 35 Filmmusikproduktion 3.4.6 Dokumentation Es haben sich unterschiedliche Methoden entwickelt, wie während der Aufnahmen Angaben über die bereits aufgenommenen Cues und deren Qualität notiert werden können. Diese Mitschriften sind für den späteren Schnitt notwendig, da selten die Zeit und das Personal zur Verfügung stehen, nochmals alle Takes durchzuhören. Zum einen können für jeden Take Einzelheiten auf einem gesonderten Blatt festgehalten werden. Dabei wird zunächst notiert, um welchen Cue es sich handelt und welcher Abschnitt aufgenommen wurde. Zusätzlich werden die Stellen oder Takte vermerkt, die besonders gut oder nicht so gut eingespielt wurden. Diese Listen werden vom Workstation-Operator, dem Tonmeister oder einer dafür bereit gestellten Person angefertigt. Abb. 7 Mitschriften auf gesondertem Blatt Eine Methode, die von vielen Musiktonmeistern verwendet wird, ist das Markieren der Qualität bestimmter Töne oder Passagen direkt in der Partitur. Am Anfangstakt des Takes wird ein rechtsgeflügeltes Häkchen mit der Nummer des Takes gesetzt. Beginnen weitere Takes in diesem Takt, werden einfach deren Nummern hinzugefügt. Wird das Ende des Stückes während des Takes nicht erreicht, wird in dem Endtakt ein linksgeflügeltes Häkchen mit eben der Takenummer gesetzt. Unbefriedigende Abschnitte oder Noten werden kreisförmig umrandet und mit der laufenden Takenummer versehen, der ein Minus zugesetzt wird. Während der folgenden Takes muss besonders darauf geachtet werden, dass die markierten Stellen korrekt eingespielt werden. Ist das geschehen, wird der entsprechende Takt mit einem Plus und der laufenden Takenummer vermerkt. Am Ende der Aufnahmesession liegt dann der Schnittplan in der Partitur vor. 36 Filmmusikproduktion Abb. 8 Notizen in der Partitur Weiter ist es bei aufwändig arrangierten Musikproduktionen üblich, dass Tabellen für die Aufnahmen vorbereitet werden. In die Zeilen werden die jeweiligen Cues, in die Spalten die aufzunehmenden Instrumentengruppen, Dopplungen oder zusätzliche Instrumente eingetragen. Wurde ein Cue mit den Musikern fertig eingespielt, kann das entsprechende Feld gekennzeichnet werden. Am Ende der Aufnahmen kann sehr schnell überprüft werden, ob alle Instrumente eingespielt wurden. Abb. 9 Tabellen für aufgenommene Instrumente je Cue Oft wird eine Kombination dieser Methoden bei Filmmusikaufnahmen mit Orchester verwendet. 37 Filmmusikproduktion 3.5 Schnitt Da während der Aufnahme bereits genau zum Timecode gearbeitet wurde, können die ausgewählten Abschnitte schnell zusammengefügt werden. Dabei kommen Schwierigkeiten aufgrund von unterschiedlichen Tempi der Takes nicht vor. Auch die Suche nach bestimmten Takten entfällt, da die Audiodaten in der Session immer an der gleichen zeitlichen Position liegen. In der folgenden Abbildung sind alle Playlisten sowie der Zusammenschnitt der Takeauswahl zu sehen. Abb. 10 handlicher Schnitt mit Playlisten Beim Schneiden von Filmmusik liegen die Schwierigkeiten weniger im aufwändigen Zusammensetzen kurzer Abschnitte zahlreicher Takes, sondern in der Verflechtung der verschiedenen Spuren der akustischen und elektronischen Instrumente. 3.6 Musik-Mischung Die Mischung der Filmmusik kann als Vormischung betrachtet werden. Je nach vorhandener Zeit kann detailliert auf die einzelnen Bestandteile des Scores eingegangen und diese bearbeitet werden. Ziel ist es, eine klanglich und dramaturgisch schlüssige Mischung der Filmmusik zu erstellen. Eine wichtige Aufgabe des Musikmischtonmeisters oder der Musikmischtonmeisterin ist es einzelne Teile der Filmmusik sinnvoll zusammenzufassen und dennoch während der Filmmischung Eingriffe in die Musikmischung zu ermöglichen. Eine Vormischung der Musik verhindert, dass während der Endmischung des Films detaillierte Klangbearbeitungen in der Musik notwendig sind, was den kostspieligen Aufenthalt in einer Filmmischung verlängern würde. Außerdem gelten für Filmmusik zum Teil andere Gewichtungen und Konventionen, als dies bei reinen Musikproduktionen der Fall ist. „Räumliche und klangliche Vorgaben 38 Filmmusikproduktion sind nur bei absoluter Musik von Bedeutung.“ 1 bemerkte Bernd Wefelmeyer. Das bedeutet, dass teilweise dogmatische Hörerwartungen, die bei autonomen Musikproduktionen auftreten können, nicht eingehalten werden müssen. Mitunter können z.B. Instrumentengruppen dynamisch stark eingeschränkt werden, um sie im späteren Gesamtgefüge leichter in den Vordergrund mischen zu können. Dafür muss bei der Mischung von Filmmusik die spätere Wiedergabesituation im Kino berücksichtigt werden. Auf jene Anforderungen müssen das Bass- und Centermanagement sowie die Ausprägung der Surround-Anteile und weitere Parameter eingestellt werden [GSKö]. Des Weiteren ist es üblich Filmmusikmischungen in Tonstudios durchzuführen, die auf die Bearbeitung von Musik ausgelegt sind. Dies bedeutet, dass nicht auf Kino-Hornlautsprechern und eventuell mit zwei diskreten SurroundLautsprechern gearbeitet wird. Der Mischtonmeister muss die Wiedergabebedingungen im Kino kennen und seine Mischung daraufhin ausrichten. In der Regel wird bei einer Musikmischung zunächst eine Einstellung für den Gesamtklang gefunden. Wenn dies abgeschlossen ist, werden zeitliche Änderungen der einzelnen Parameter automatisiert2. Auf diese Weise können einzelne Parameter, wie Pegel, Filter oder Sends, sukzessive eingestellt werden, ohne dass die Einhaltung der zuvor eingestellten Arbeitsschritte nochmals überprüft werden muss. Am Ende der Mischung wurde das Mischpult so programmiert, dass zu den entsprechenden Zeitpunkten die erarbeiteten Einstellungen automatisch aufgerufen werden. Im Folgenden werden die wesentlichen Kernpunkte einer Filmmusikmischung beleuchtet. 3.6.1 Mischungsvorbereitung Ziel der Mischungsvorbereitung sollte es sein, die technisch zum Teil recht komplexen Arbeitsprozesse weit voranzutreiben oder abzuschließen, um anschließend Raum für künstlerisches und kreatives Arbeiten zuzulassen. Dazu gehört es, sich im Vorfeld darüber Gedanken zu machen, welche Ausspiele angefordert sind und wie diese technisch bewerkstelligt werden können. Wichtig ist es, das Mischpult so zu konfigurieren, dass intuitives und schnelles Arbeiten möglich wird. Außerdem ist bereits im Vorfeld der Mischung zu bedenken, welche Outboardgeräte bzw. Effekte eventuell zum Einsatz kommen können und wie diese eingebunden werden müssen. 1 2 persönliches Gespräch mit Bernd Wefelmeyer [GBWe] Bereits in den 70er Jahren entwickelte die Firma NEVE die Option der Fader-Automation (NECAM). [WWW07] Über die motorisierten Fader ließen sich die exakten Faderstellungen an den jeweiligen zeitlichen Positionen abspeichern. Heutige Digitalpulte sind in der Lage sämtliche Parameter, wie Panning, Send-Level, Equalizer, Kompression und Routing abzuspeichern. 39 Filmmusikproduktion Nur durch eine durchdachte Mischungsvorbereitung ist kreatives Arbeiten ohne technisch bedingte Unterbrechungen möglich. Michael Paul Stavrou schlägt eine Vorgehensweise bei der Mischung vor, die dafür sorgen soll, dass mehr Raum für künstlerisches Arbeiten entsteht1: • mit dem Spurplan in der Hand die Kanalbelegung und Beschriftung des Mischpultes im Hinblick auf eine intuitive Bedienung der einzelnen Elemente einrichten. Währenddessen sollte ein Cue wiedergegeben und abgehört werden. • Routing • Platzierung der verschiedenen Bestandteile im Panorama • Filterung und Equalising • Kompression • Einstellung der Balance • Kunsthall und Effekte • Automatisierte Faderbewegungen Diese Vorgehensweise ist als Vorschlag und nicht als Richtlinie zu verstehen. In den folgenden Kapiteln wird auf Besonderheiten einer orchestralen Filmmusikmischung eingegangen. 3.6.2 Laufzeitkorrektur Da für die Filmmusikmischung jede Möglichkeit der Klangeinstellung offen bleiben soll, werden während der Aufnahme zahlreiche Mikrofone aufgestellt. Dabei erreicht der Schall eines Instruments das dafür vorhergesehene Stützmikrofon zeitlich eher als das Hauptsystem. Der Laufzeitunterschied zwischen einem z.B. acht Meter entfernten Xylophon-Stützmikrofons und dem Hauptsystem beträgt bei einer Schallgeschwindigkeit von 343m/s genau 23,323 Millisekunden2. Der Unterschied ist bei vielen Instrumenten nur schwer wahrnehmbar, aber die Transienten im Signal werden doppelt und damit unpräzise wiedergegeben. Dies fällt besonders bei perkussiven Instrumenten mit starken Transienten auf. Hinzu kommen noch die Laufzeitunterschiede zu den weiteren Stützmikrofonen, die das Klangbild zusätzlich verwaschen. Wenn das Xylophonsignal beispielsweise stärker eingesetzt werden soll, kann es auftreten, dass 1 2 Michael Paul Stavrou „Mixing with your mind“ [MM03] Als Faustregel gilt: 3 Millisekunden Verzögerung bei 1 Meter Abstand. Auf der Seite http://www.sengpielaudio.com/Rechner-schallweg.htm gibt es einen Tontechnik-Rechner für Laufzeiten und Schallwege [WWW17] 40 Filmmusikproduktion das Instrument in der Wahrnehmung näher in den Vordergrund tritt oder zwei Anschläge wahrgenommen werden, anstatt lediglich einen präsenteren Klang zu erhalten. Dem kann durch Einsatz eines Delays zur Laufzeitkorrektur vorgebeugt werden. Abb. 11 Grenzwertfestlegung für die Signalverzögerung der Stützmikrofone als Funktion des Pegelverhältnisses und des Abstands nach Sengpiel Grundlegend sollte entschieden werden, ob die Mischung nach dem Prinzip der Intensitätsstereofonie oder der Laufzeitstereofonie angefertigt werden soll. Bei Intensitätsstereofonie wird das Direktsignal über die Stützmikrofone wiedergegeben und der Raumeindruck durch das Hauptsystem vermittelt. Erst nachdem die ersten Reflexionen über das Hauptsystem wiedergegeben wurden, sollte der künstliche Nachhall einsetzen. Dies wird über die Dauer des Pre Delays1 am Hallgerät eingestellt. Da die Lokalisation der Instrumente über die Stützsignale erfolgt, müssen diese entsprechend ihrer Aufstellung im Ensemble im Panorama positioniert werden, damit sie mit den über das Hauptsystem wiedergegebenen Positionen übereinstimmen. Dennoch ist es in der Praxis üblich, dass die Stützsignale entgegen ihrer ursprünglichen Aufstellung im Orchester positioniert werden, um dem Zuhörer die gewünschte Lokalisation der Instrumente zu vermitteln. Diese Vorgehensweise kann jedoch zu 1 Mit dem Pre Delay wird die Dauer eingestellt, die zwischen Anregung des Effektgerätes bis zur Wiedergabe des künstlichen Nachhalls vergehen soll. 41 Filmmusikproduktion lautstärkeabhängigen Positionswechseln der Instrumente führen, da Direktschall des gestützten Instruments ebenfalls auf das Hauptsystem trifft. Besser ist es die Aufstellung der Musiker bereits während der Aufnahme so zu gestalten, wie es für die Mischung optimal ist. Dies ist aber aus Gründen des Zusammenspiels und gegenseitigen Hörens untereinander nicht immer möglich. Ein auftretender Effekt bei dieser Vorgehensweise ist, dass durch die starke Verwendung der Stützmikrofone die Darstellung einer Tiefenstaffelung innerhalb der Instrumente des Orchesters kaum ausgeprägt ist. Diese kann durch eine Laufzeitverzögerung einzelner Stützsignale nachempfunden werden. Abb. 12 Intensitätsstereofonie Abb. 13 Laufzeitstereofonie Umgekehrt verhält es sich bei der Laufzeitstereofonie. Zunächst werden der Direktschall und die ersten Reflexionen über das Hauptsystem wiedergegeben. Nachfolgend treffen die Direktsignale der Stützen ein. Dafür müssen die Stützsignale nicht nur mit der entsprechenden Laufzeitverzögerung versehen werden, die der Schall vom Instrument bis zum Hauptsystem benötigt, sondern es muss zusätzlich noch eine weitere Verzögerung hinzugefügt werden, um die Dauer bis zum Eintreffen der ersten Reflexionen des Aufnahmeraumes auf dem Hauptsystem zu überbrücken. Das Direktsignal wird als erstes über das Hauptsystem wiedergegeben, welches die Lokalisation der Instrumente ermöglicht [GSKö]. Wie genau mit der Laufzeitkorrektur umgegangen wird, bleibt dem Tonmeister oder der Tonmeisterin selbst überlassen. Zu Zeiten rein analoger Signalverarbeitung war die Erzeugung einer sehr genau einstellbaren Verzögerung nicht realisierbar. Diese ist erst seit Einführung der digitalen Audiosignalverarbeitung möglich. 42 Filmmusikproduktion Die ohne Laufzeitkorrektur auftretenden Effekte können gewünscht sein, damit der Gesamtklang diffuser und weicher wird oder bei der Augmentation eines Instrumentes dieses schneller in den Vordergrund tritt. Es können pauschal alle Stützmikrofonsignale, die sich hinter den Streichern befinden um 20ms verzögert oder es kann für jedes Stützmikrofon die genaue Laufzeit berechnet werden. Für letztere Variante empfiehlt es sich, am Tag der Aufnahme einen Klatscher aufzunehmen, während man sich mitten im Orchester befindet. In der DAW ist dann der Impuls auf jeder Spur und damit auch der jeweilige Laufzeitunterschied sichtbar. 3.6.3 Klangfarbe Es gibt kaum Regeln zur Bearbeitung der Klangfarbe. Wichtigstes Werkzeug sollte das Gehör sein, wobei dramaturgische sowie genretypische Vorstellungen mitbeachtet werden müssen. Darüber hinaus gibt es jedoch rein praktische Überlegungen, die bei der Einstellung der Filter und EQs einbezogen werden können. Um eine Überlagerung tieffrequenter Signalanteile einzudämmen, werden häufig Stützmikrofonsignale unterhalb der tiefsten Frequenz beschnitten, die von den aufgenommenen Schallquellen wiedergegeben werden können. Auch das CenterSignal des Decca-Trees kann unterhalb von 100Hz beschnitten werden, „damit die tieffrequenten Anteile bei seitlicher Lokalisation nicht in die Mitte ziehen“1. Diese Vorgehensweise ist bei der Ausgestaltung des Bassmanagements hilfreich. Bei der Bearbeitung der Klangfarbe einzelner Instrumente sollten die jeweiligen Haupt- und Nebenformanten2 bekannt sein. Es ist von Vorteil zu wissen, in welcher Lage die entsprechenden Formanten zum Ausdruck kommen. Die Anhebung oder Absenkung dieser führt zu einem veränderten Präsenzeindruck des Instruments. Zur Anpassung der Stützsignale in das Gesamtklangbild ist es möglich, die hohen Frequenzen etwas abzusenken. Dies kann notwendig sein, da durch die nahe Mikrofonierung der Anteil hoher Frequenzen auf dem Stützmikrofon stark ausgeprägt ist. In diesem Frequenzbereich befinden sich auch überbetonte Musiziergeräusche wie z.B. Luftgeräusche bei Holzblasinstrumenten. Die tontechnischen Möglichkeiten zur Bearbeitung der Klangfarbe sind derzeit noch relativ ungenau. Um bessere Ergebnisse erzielen zu können, sollte bereits während der Aufnahme das Mikrofon entsprechend der Richtwirkung des Instruments und der gewünschten Klangfarbe positioniert werden [GSKö]. 1 2 Andreas Gernemann „Decca Tree – gestern und heute“, Seite 15 [DT03] Formant: Bereich des Spektrogramms, in welchen die Partialtöne besonders hervorstechen [AM99] 43 Filmmusikproduktion 3.6.4 Dynamik Klanggestaltende Mittel werden stets in Abhängigkeit von musikalischem Material und der Art des Films angewendet. Allgemein kann bemerkt werden, dass Musik im Film nur so viel wie nötig und so wenig wie möglich in der Dynamik eingeschränkt wird [GMSc]. Abhängig von weiterem Soundmaterial der jeweiligen Szene muss die Musik manchmal stärker dynamisch eingefasst werden, damit sie trotz der Überlagerung mit weiteren Klangelementen noch hörbar ist. Ist das Durchdringen der Musik aber nicht nötig oder nicht gewünscht, so wird auch nicht weiter in die Dynamik eingegriffen. Die Bearbeitung der Musik unterliegt klar den ästhetischen Anforderungen des Films. Beispielsweise werden einzelne Instrumente oder Sektionen vergleichsweise stark komprimiert, um deren Melodiebögen in Szenen mit besonders dichter Tongestaltung adäquat zu formen und einsetzen zu können. Unter Dynamik ist jedoch nicht nur die Einebnung des Materials durch einen Kompressor zu verstehen. Mit Hilfe motorisierter Fader können künstlerische Lautstärkeveränderungen über einen Zeitverlauf vorgenommen und automatisiert werden, so dass die ausgeführten Faderbewegungen bei jedem folgenden Durchgang exakt vom Mischpult wiedergegeben werden. Diese dynamischen „Fahrten“ können sowohl zur Unterstützung der musikdramaturgischen Intentionen und zur Heraushebung von Melodiebögen, als auch zur lebendigeren Ausgestaltung der Musikmischung genutzt werden [GSKö]. 3.6.5 Balance zwischen Hauptsystem und Stützmikrofonen Abhängig vom Hauptmikrofonsystem und dem gewünschten Klang muss das Verhältnis zwischen Haupt- und Stützmikrofonen des Ensembles betrachtet werden. Bei der Nutzung des Decca-Trees als Hauptmikrofonsystem werden die vorderen Instrumente sehr präsent aufgenommen, was bei orchestraler Filmmusik meist die Streicher betrifft. Dafür wird jedoch die auf die Entfernung bezogene Position von Instrumenten (Tiefenstaffelung), die sich hinter den Streichern befinden, weniger präzise erfasst. Dies kann zur Wahrnehmung von zwei Aufführungsräumen führen (Zweiräumigkeit). Eine bessere Darstellung der Tiefenstaffelung wäre mit Hilfe eines anderen Hauptmikrofonsystems, wie z.B. dem OCT, möglich. Um beim Decca-Tree die relativ ungenaue Abbildung der Orchesterinstrumente bezogen auf die Tiefenstaffelung auszugleichen, müssen die Stützmikrofonsignale verwendet werden. 44 Filmmusikproduktion Nach Eberhard Sengpiel kann grundsätzlich als Pegel für Stützmikrofone ein Bereich zwischen -13 und -6dB und für Solistenmikrofone zwischen -4 und +3dB (jeweils analog) genutzt werden1, wenn der Gesamtklang der Mischung vom Hauptsystem bestimmt wird und dessen Pegel 0dB beträgt. Mit verstärktem Einsatz der Stützmikrofonsignale wird außerdem der Gesamtpegel erhöht. Abb. 14 Leistungssumme von Haupt- und Stützmikrofon als Funktion des relativen Pegels nach Sengpiel Die Verwendung des Hauptmikrofonsystems macht etwa 80% des Gesamtklangs einer Orchestermischung aus. Die automatisierte Verwendung der Stützmikrofone verändert dynamisch die Gewichtung einzelner Orchesterelemente und somit die Klangfarbe der Mischung2. Wie stark die Stützsignale verwendet werden, ist auch durch eine eventuelle Laufzeitkorrektur dieser bedingt. 1 2 Siehe www.semgpielaudio.de die PDF mit dem Titel „Pegeladdition von Stützmikrofon und Hauptmikrofon“ Interview mit Alan Meyerson auf http://www.pensadosplace.tv/2012/01/10/episode-50-allan-meyerson/ [WWW02] 45 Filmmusikproduktion 3.6.6 Räumlichkeit Filmmusik muss sich häufig „gegen“ Dialog und Effekte behaupten. Dies gelingt besser über eine direktere Mikrofonierung der Instrumente und die damit verbundene geringere Räumlichkeit, welche durch eine stärkere Prägnanz der Transienten zu einem griffigeren Signal führt. Deshalb kann bei Filmmusik grundsätzlich von einem direkteren Klangbild gesprochen werden. Dennoch unterscheiden sich die Ansichten verschiedener Musiktonmeister im Umgang mit Kunsthall. Es wird berichtet, dass der Hall bei Filmmusikmischungen zunehmend dezenter eingesetzt wird, damit dieser bei der finalen Filmmischung passend zu allen anderen Klangelementen hinzugefügt werden kann. Soll im Anschluss eine CD des Soundtracks veröffentlicht werden, ist in diesem Fall eine erneute Mischung mit stärker ausgeprägter Räumlichkeit notwendig1. Andererseits wird der sparsamere Halleinsatz für die Musikmischung, die im fertigen Film verwendet werden soll, mit der Begründung abgelehnt, dass der Hall von anderen Geräuschen überdeckt wird2. Außerdem wird die Bestimmung der Räumlichkeit nur ungern aus der Hand gegeben. Das Mischen von Musik ohne Verwendung von Kunsthall wird als schwierig betrachtet. Ferner unterscheiden sich die Herangehensweisen im Mehrkanalbetrieb. Beliebt ist sowohl die Verwendung zweier Stereohalls, „einen für die Front und einen für den Surround“ [GMSc], als auch die Nutzung eines 5.0 Halls. Bei der künstlichen Nachverhallung einzelner Instrumente gibt es verschiedene Herangehensweisen, die jeweils ihre Berechtigung haben. Mitunter werden perkussive Elemente mit einer anderen Halleinstellung versehen als die übrigen Instrumente3. Dabei wird die räumliche Ausprägung des Perkussionshalls intensiviert, indem z.B. die Werte für die ersten Reflexionen (early reflections) erhöht und die Nachhallzeit verringert werden. Durch die kürzere Dauer der Hallfahne wird das Klangbild durch die starke Anregung des Kunsthalls nicht verwaschen. Außerdem erweckt ein durch perkussive Instrumente angeregter Raum den Eindruck, dass das Instrument einen hohen Lautstärkepegel von sich geben musste, welcher durch eine hohe Krafteinwirkung des Instrumentalisten erzeugt wurde. Soll ein Schlagzeug voluminös und bedrohlich wirken, wird eine stärkere Raumantwort benötigt. Unabhängig von der Verwendung von Kunsthall ist es daher ratsam, bereits bei der Aufnahme von 1 2 3 persönliches Gespräch mit Michael Schubert [GMSc] telefonisches Gespräch mit Peter Fuchs [GPFu] So gesehen bei den Tonmeistern der Bauer Studios. 46 Filmmusikproduktion Schlagwerk Raummikrofone aufzubauen, deren Signalanteile bei der Mischung hinzugezogen werden können. Weiterhin ist es manchmal schwierig, Signale aus unterschiedlichen Aufnahmeräumen zu verbinden. Oftmals kann dem begegnet werden, indem die Signale eine Kette von Hallgeräten mit kürzeren und längeren Halleinstellungen durchlaufen. Zunächst werden die Signale mit einer kurzen Raumantwort versorgt. Anschließend wird das generierte Signal einem weiteren Hallgerät mit längerer Nachhallzeit zugeführt. Auf diese Weise kann häufig ein einheitlicher Raumeindruck erweckt werden, auch wenn die Musiker nicht im selben Raum aufgenommen wurden. 3.6.7 Besonderheiten des Tonformats Ein weiterer wichtiger Aspekt der Filmmusikmischung liegt in der Mehrkanaligkeit. Im Gegensatz zu autonomen Musikproduktionen, bei welchen sich aus unterschiedlichen Gründen die Verbreitung mehrkanaliger Formate leider nicht durchsetzen konnte, wird Filmmusik zunächst (noch) in 5.1 gemischt. Der Center-Lautsprecher wird dabei sehr vorsichtig behandelt, da dieser bei einer Kinomischung primär dem Dialog vorbehalten ist, welcher möglichst nicht durch andere Klangelemente beeinträchtigt werden sollte. Meist wird dem Mittenlautsprecher bei Orchestermusik nur das Center-Signal des Hauptmikrofonsystems diskret zugeordnet [GMSc]. Dies entspricht nicht ganz den ursprünglichen Überlegungen der Entwickler des Decca-Trees1. Die Zuordnung des Mittensignals auf den Center führt zu einer monofonen Klangdarstellung, da der Schall aus dem Center-Lautsprecher - auf Grund der Fronlautsprecheraufstellung auf einer Ebene im Kino - das Publikum zuerst erreicht. Die Wiedergabe nach ITU begegnet diesem Problem durch den gleichen Abstand aller Lautsprecher zum Hörer. Ein möglicher Umgang mit dieser Situation bei der Wiedergabe im Kino ist die Verzögerung des Center-Kanals2. Stützsignale werden (wenn überhaupt) über den Divergenz3-Regler anteilig dem Center-Lautsprecher beigemischt. Ebenso wird die Darstellung der Stützsignale über Phantomschallquellen im Panorama als hinreichend betrachtet. Alan Meyerson erachtet es zudem für wichtig, dass Elemente, die mittig wahrgenommen werden sollen, gleichmäßig auf die drei Frontkanäle verteilt werden [WWW02]. Ein Grund 1 2 3 Der Decca-Tree war ursprünglich ein stereofones Hauptsystem, welches durch die Verwendung eines Mittenmikrofons eine größere Basisbreite zwischen linkem und rechtem Mikrofon ermöglichte, siehe A 3.3.1. siehe Diplomarbeit von Stefan Haberfeld [DASH] Divergenz: Regler zur Verteilung eines Signals auf die umliegenden Lautsprecher. Dadurch ist die Wiedergabe der Signale nicht mehr diskret, was zu einer Beeinflussung der Phasenlage und zu Kammfiltereffekten führen kann. 47 Filmmusikproduktion hierfür ist, dass beispielsweise ein Zuschauer, der im Kino links sitzt, den Centerlautsprecher von rechts wahrnimmt. Laut Meyerson ist bei einer Musikmischung fürs Kino der Center-Lautsprecher nicht als Mittelpunkt des Panoramas zu verstehen. Die Surround-Kanäle werden gerne zur Umhüllung des Zuhörers genutzt. Deshalb werden diese, über die eventuell schon bei der Aufnahme aufgestellten Raummikrofone hinaus, für zusätzlichen Kunsthall und flächige Signale genutzt. Von der Verwendung der Surrounds für direkte oder perkussive Signale wird jedoch meist abgeraten, da die seitliche und vor allem rückwärtige Lokalisation beim Menschen nicht besonders gut entwickelt ist. Außerdem soll die Filmmusik den Zuschauer nicht dazu bringen, sich von der Leinwand abzuwenden. Hinzu kommt der Umstand, dass die Surround-Lautsprecher in von Dolby zertifizierten Kinos meist bandbegrenzt sind. Trotzdem können, abhängig vom vorhandenen Material, dem Genre des Films und der Offenheit des Regisseurs für Experimente, kreative Surround-Mischungen der Musik angefertigt werden, wenn sie zuvor konzipiert und mit allen verantwortlichen Beteiligten abgesprochen wurden [GMSc]. Auch der LFE-Kanal1 wird von Fall zu Fall und abhängig vom Tonmeister unterschiedlich behandelt. Zuweilen wird er diskret mikrofoniert und gefiltert ausgeliefert [GPFu]. Da das Wiedergabesystem in den Kinos variieren kann, sollten die Signale auf dem LFE-Kanal oberhalb 120Hz beschnitten werden. Ein Vernachlässigen der Begrenzung kann bei nicht optimal eingestellten Subwoofern zu einer Überhöhung des Pegels tieffrequenter Effekte und zu einem dumpfen Gesamtklangeindruck führen. Es ist zudem unsicher, ob und wie der Subwoofer in den verschiedenen Kinos funktioniert. Aus diesem Grund sollte das Bassmanagement nicht auf den LFE-Kanal aufgebaut werden [WWW02]. Wenn keine bestimmten Elemente, wie Bässe oder Trommeln zugegen sind, die anteilig in den LFE-Kanal geroutet werden können, so wird er auch nicht zwangsläufig bedient [GMSc]. Außerdem sollte berücksichtigt werden, dass die Wiedergabe des LFE-Kanals bei Filmproduktionen sowohl im Kino als auch zu Hause mit einer Pegelanhebung von +10dB erfolgt2. Somit sollen Übersteuerungen hochpegeliger Signale bei der digitalen Aufnahme verhindert werden. Bei der Filmmusikmischung in einem Musikstudio muss diese Anhebung wiedergabeseitig nachempfunden werden. 1 2 LFE: Low Frequency Effect siehe Recommendation ITU-R BS.775-3 [ITU12] 48 Filmmusikproduktion 3.6.8 Dialog und Effekte bei der Musikmischung Bei der Musikmischung sind angelieferte O-Ton Spuren sehr willkommen. Sie ermöglichen einen tieferen Eindruck über die Geschehnisse und dramaturgischen Abläufe im Film als es das Bild allein kann. Auch Geräusch- und Effektspuren wirken sich positiv auf die Musikmischung aus, da dadurch Überlagerungen in den verschiedenen Soundebenen vermieden werden können. Leider ist es aber die Regel, dass lediglich der Originalton, manchmal noch nicht einmal geschnitten, zur Verfügung steht. Dramaturgisch wichtige Szenen werden häufig von allen Gewerken sehr aufwändig gestaltet, sowohl im Sounddesign als auch in der Komposition. Dies führt während der Endmischung zu Kompromissen, mit welchen die Beteiligten nicht immer zufrieden sind. Eine bessere Kooperation zwischen Tongestaltern und Komponisten während des Entstehungsprozesses wäre die effektivste Möglichkeit, das Potential der Tonspur für das jeweilige Projekt voll auszuschöpfen. Alan Meyerson berichtet, dass er seine Musikmischungen unter Verwendung der bereits angefertigten Vormischungen von Dialog und Effekten durchführt. Dadurch kann er abschätzen, ob die Musik eventuell von anderen Klangelementen maskiert wird. Gemeinsam mit dem Komponisten können dann wichtige musikalische Inhalte zeitlich leicht verschoben werden, damit sie im Zusammenspiel mit Dialog und Effekten wahrgenommen werden können [WWW02]. Weiter könnten während der Musikmischung einige Elemente, sowohl im spektralen Bereich als auch in der Positionierung im Surround-Schallfeld, so gemischt werden, dass sie bereits vorliegende Toneffekte unterstützen. Diese Zusammenarbeit ist jedoch auch bei großen amerikanischen Produktionen leider die Ausnahme [EDBe]. 3.6.9 Auslieferung der Mischung Ein wichtiger Aspekt der Musikmischung für Filme ist neben der Erstellung eines alle Elemente enthaltenden Mixfiles die Anfertigung spezifischer Stems. Sie erleichtern während der finalen Filmmischung die Anpassung der gemischten Musik an die jeweilige Szene. Ein Stem beinhaltet die bearbeiteten Signale eines Teils der gesamten Mischung, wie beispielsweise das Hauptsystem oder einzelne Instrumentengruppen. Die Addition aller Stems ergibt die gesamte Musikmischung, in die oftmals nicht weiter eingegriffen wird. Trotzdem bleibt dem Film-Mischtonmeister oder der FilmMischtonmeisterin die Möglichkeit offen, bei Bedarf bestimmte Bestandteile zu verändern. Im Optimalfall muss nicht mehr in die Balance der einzelnen Instrumentengruppen eingegriffen werden. Sollte es aber doch einmal aufgrund von Überlage49 Filmmusikproduktion rungen im Frequenzgang mit dem Dialog oder dem Sounddesign notwendig sein, klangliche Veränderungen an der Musik vorzunehmen, so ist es von Vorteil, wenn lediglich die Stems behandelt werden müssen, die für diesen Zweck relevante Signalanteile enthalten. Gängig ist die Anfertigung eines Orchester- oder Hauptstems, der das Hauptmikrofonsystem und somit den Gesamtklang des Orchesters inklusive Aufnahmesaal liefert. Hinzu kommen, je nach Wunsch des Filmmischtonmeisters, Stems einzelner Instrumentengruppen, wie Holz- oder Blechbläser. Bei sogenannten Hybridscores1 kommen Stems für zusätzliche Perkussion, Synthesizer oder weitere Elemente wie Gitarren oder Chöre hinzu. Diese können aus verschiedenen nach Bedarf gestalteten Spurbelegungen (Stereo, LCR, 5.0, 5.1) bestehen. Außerdem werden wichtige Solostimmen getrennt ausgeliefert. Dezidierte Hallstems erstellen die Musiktonmeister nur auf Anfrage. Die Bestimmung des Anteils von Rauminformationen stellt einen wichtigen Teil der Musikmischung dar, so dass die Beeinflussung dieses Parameters ungern aus der Hand gegeben wird. Diese ermöglicht weiter reichende Eingriffe in die Filmmusik, als dies mit Stems, die bereits Hall enthalten, möglich ist. In jedem Fall ist es sinnvoll und wichtig, flächige Signale von perkussiven Elementen getrennt zu halten2, da besonders bei diesen Signalen erst in der Filmmischung eine endgültige Gewichtung im Zusammenspiel mit Dialog und Effekten vorgenommen werden kann. Oft werden Filmmusiken nachträglich auf einer Soundtrack-CD ausgewertet. Da das Budget normalerweise für eine separate CD-Mischung nicht ausreicht, wird diese aus den bereits erstellten Stems angefertigt. Ohne den Einfluss von Bild und O-Ton können andere, musikalische Abstimmungen zwischen den einzelnen Instrumenten und deren Räumlichkeit gefunden werden. Anteile der Rhythmusgruppe oder der Solisten zum Orchester können nochmals nach anderen Gesichtspunkten beurteilt werden. Meist wird diese Mischung mit stärkerer Gewichtung hoher Frequenzen gestaltet und mit mehr Kunsthall versehen [GMSc]. 1 2 Hybridscore - Filmmusik bestehend aus synthetischen Sounds und echtem Orchester persönliches Gespräch mit Martin Steyer [GMSt] 50 Filmmusikproduktion 3.7 Film-Mischung Bei der finalen Mischung des Films kommen alle Klangelemente zusammen. Während dieser Phase muss sich der Film-Mischtonmeister oder die Mischtonmeisterin auf die inhaltlichen Aspekte des Films konzentrieren. Wegen der oft großen Spurenanzahl und einer Vielzahl von Tonelementen, die es zu berücksichtigen gilt, ist es üblich zunächst einzelne Vormischungen für die verschiedenen Bereiche des Soundtracks durchzuführen. Diese Bestandteile sind üblicherweise Dialog, Atmosphären, Foleys und Toneffekte. Auch die Filmmusikmischung kann als Vormischung bezeichnet werden. Ziel hierbei ist es, einzelne Elemente sinnvoll zusammenzufassen und im Hinblick auf die endgültige Gewichtung im Zusammenspiel mit allen Tonelementen zu bearbeiten. Deshalb ist es für die Vormischung eines Tonelementes wichtig, sogenannte Simulationsmischungen der jeweils anderen Tonbestandteile, zu welcher auch die Filmmusik gehört, vorliegen zu haben. Dennoch sind Vormischungen so gestaltet, dass weiterhin tief greifende klangliche Veränderungen möglich bleiben. Während der Vormischung von Dialog (O-Ton, ADR und Voice Over) und Sounddesign (Effekte, Foleys, Atmos) werden realistisch wirkende oder fiktionale Räumlichkeiten gestaltet und einzelne Elemente im Raum positioniert sowie der Dialog auf Sprachverständlichkeit und Entfernung von Störgeräuschen hin bearbeitet. Die Vormischung der Musik wurde aber in der Regel in einem Musikstudio und nicht in einem Mischkino angefertigt. Dies hat zur Folge, dass die Musik unter anderen räumlichen Bedingungen, oftmals anderer Lautsprecheraufstellung (ITU im Gegensatz zu Kino) und auch auf Lautsprechern mit anderen Klangeigenschaften (Fullrange Lautsprecher im Gegensatz zu Hornsystemen) gemischt wurde. Da auch während der Filmmischung nicht mehr in jedes musikalische Detail eingegriffen werden kann, ist vom Filmmusikmischtonmeister eine genaue Kenntnis der Wiedergabebedingungen im Kino gefordert. Bei der finalen Filmmischung werden die endgültigen Relationen zwischen Dialog, Sounddesign und Musik hergestellt. Häufig wird die Filmmusikmischung so genutzt, wie sie angeliefert wurde, bis sie mit anderen Klangelementen kollidiert. Der Frequenzgang, der Hallanteil und das Bassmanagement werden dann entsprechend dem Wiedergabesystem im Kino angepasst. Um schnell die Sprachverständlichkeit zu verbessern, wird der Center-Kanal der Musikmischung im Frequenzbereich der Sprachverständlichkeit (etwa bei 2 und 4 kHz) während Dialog stattfindet abgesenkt. 51 Filmmusikproduktion Ein Grund für diese Vorgehensweise ist die oftmals knapp bemessene Zeit, die während einer kostenaufwändigen Filmmischung zur Verfügung steht. Außerdem ist die Filmmusik nur eines von mehreren Elementen, die es auf der tonlichen Ebene eines Films zu berücksichtigen gilt. 3.7.1 Verwendung stereofoner Musik Manchmal kann es vorkommen, dass eine Musik in den Film gemischt werden muss, die nur stereo- oder monofon vorliegt und an die 5.1 Wiedergabe angepasst werden muss. Dies ist besonders bei der Verwendung von bereits bestehenden Songs als Filmmusik der Fall. Der einfachste Weg um mehrere Mehrkanalsignale zu generieren, ist die Nutzung eines mehrkanalfähigen Hallgerätes mit sogenannter „Upmix“Funktion. Die einzelnen Bearbeitungsschritte des Gerätes können jedoch auch nachempfunden werden. Um aus einer Stereospur ein Signal für den mittleren Lautsprecher zu erhalten, kann die Dolbymatrix genutzt werden. Mit ihr lassen sich aus dem Stereosignal vier Spuren erstellen. Je eine für den linken, mittleren und rechten Lautsprecher und ein gegenphasiges, monofones und bandbegrenztes Signal, welches für den Surround vorgesehen ist. Was in der Matrix geschieht ist im Prinzip die Unterteilung des Stereosignals in ein Mitten- und Seitensignal1. Die drei vorderen Lautsprecher im Kino werden dann mit dem auf diese Weise generierten Center-Signal und den unbehandelten Stereosignalen beschickt. Monofone Signale können mit einem Stereosynthesizer (z.B. von Orban) „stereoisiert“ werden. Dies geschieht über inverse Filterkurven, die trotzdem eine stabile Mitte hinterlassen. Um Signale für die Surround-Lautsprecher zu generieren, können die Signale für vorne Links und Rechts verzögert und mit Hall versehen werden. Eine Eingrenzung des Frequenzgangs wird ebenfalls oft vorgenommen. Es kann aber auch aus dem monofonen Surround-Signal der Dolbymatrix über inverse Filterkurven ein pseudostereofones Signal erzeugt und für die beiden Surround-Kanäle verwendet werden [GMSt]. 1 Für die M/S Stereofonie gelten folgende Formeln: M=L+R; S=L-R; L=M+S und R=M-S. Ein Extrahieren des MittenSignals erfolgt, indem man die linke und rechte Spur auf eine Monospur zusammen mischt. Das Seitensignal erhält man, wenn einer der beiden Kanäle zuvor in der Phase gedreht werden. 52 Filmmusikproduktion 3.7.2 Positionierung von Musik im diegetischen Raum Eine Besonderheit bei der Mischung von Musik für einen Film ist es, wenn diese aus dem Handlungsraum (Sourcemusik) erklingen soll. Innerhalb des Films wird sie beispielsweise aus einem Radio, Fernseher oder einer Beschallungsanlage wiedergegeben. Die Aufgabe des Mischtonmeisters besteht darin, den Klang der Filmmusik an die jeweilige Wiedergabesituation im Film anzupassen. Dazu stehen ihm verschiedene gestalterische Mittel zur Verfügung. Da große Teile des Originaltons bzw. des Dialogs monofon über den Centerlautsprecher wiedergegeben werden, wird auch Musik, die aus einem Lautsprecher erklingen soll meist monofon verwendet. Zur Erzeugung des gewünschten Klangeindrucks stehen neben Filtern und Equalisern auch diverse Plugins zur Verfügung, die das Signal mit einer Impulsantwort des jeweiligen Wiedergabegerätes falten. Neben Kanalanzahl und Frequenzgang wird auch die Räumlichkeit der Musik den im Film vorherrschenden akustischen Gegebenheiten angepasst. Übergänge innerhalb eines Musikcues aus der diegetischen in die nicht-diegetische Ebene oder umgekehrt kommen häufig vor und werden während der Filmmischung vom Mischtonmeister gestaltet. 53 Konzertproduktionen B. Konzertproduktionen Nicht nur Filmmusikproduktionen zählen zu den bildbezogene Musikproduktionen. Auch wenn ein Konzert eines Orchesters oder einer Band mit mehreren Kameras mitgeschnitten oder übertragen wird, kann von einer bildbezogen Musikproduktion gesprochen werden. Es gibt zahlreiche Beispiele, wie Musikübertragungen im Fernsehen, Opernproduktionen im Kino oder Live-DVDs populärer Künstler, die den Bedarf von Aufnahmen musikalischer Aufführungen mit Bild belegen. 1 Inhaltliche Besonderheiten von Konzertproduktionen Die Besonderheit eines Auftrittes im Gegensatz zu einer Aufnahme im Tonstudio liegt darin, dass die Künstler unverfälscht ihre Fähigkeiten unter Beweis stellen können. Sie haben die Möglichkeit, die Musik ohne Unterbrechungen an einem Stück einem Publikum darzubieten, auf welches sie reagieren können. Anders als bei Studioproduktionen, in denen einzelne Abschnitte bis zur Perfektion wiederholt werden können und oft einzelne Musiker getrennt voneinander ihre Stimmen einspielen1, kann aus dem gemeinsamen Spielfluss heraus eine unikale Energie entstehen. Im Zeitalter der digitalen Perfektionierung von Ton und Bild scheint eine authentische Aufführung für viele Menschen einen besonderen Reiz auszuüben. Hinzu kommt die Interaktion, die zwischen Publikum und Bühne entsteht. Dieses einmalige Ereignis lässt sich jedoch technisch nicht einfach festhalten. Deshalb muss die Darstellung des Konzertes auf eine Weise erfolgen, die dem Zuschauer, der nicht Teil des Geschehens sein konnte, das entsprechende Gefühl des Veranstaltungsabends vermittelt. 1 Um ein gemeinsames Spielgefühl zu erzeugen, wird bei Studioproduktionen oftmals zunächst eine Aufnahme mit allen Musikern durchgeführt. Im weiteren Verlauf wird den einzelnen Musikern über Kopfhörer der gemeinsam eingespielte Take als Grundlage zugespielt, um darauf ihre Passagen exakt und ohne Übersprechen einzuspielen. 54 Konzertproduktionen 2 Anforderungen des Zielmediums Für den Produktionsablauf ist entscheidend, ob es sich um eine Live-Übertragung eines Konzertes handelt, in deren Darbietung nicht mehr künstlich eingegriffen werden kann, oder ob es sich um einen Mitschnitt handelt, der nachträglich mitunter stark bearbeitet wird. Live-Mitschnitte werden, wenn sie auf einer DVD erscheinen sollen, häufig in 5.1 produziert, obwohl der Konsument das Endergebnis meist stereofon erleben wird. 2.1 Übertragung Konzert-Übertragungen werden überwiegend im Fernsehen oder im Internet ausgestrahlt bzw. gestreamt. Doch zunehmend wird auch das Kino als Veranstaltungsraum genutzt, um ein örtlich versetztes Ereignis einer breiteren Öffentlichkeit zugänglich zu machen. Die Metropolitan Opera in New York veranstaltet regelmäßig Live-Übertragungen der Opern ihrer laufenden Spielzeit, die in großen Multiplex-Kinos angeboten werden. Auch weitere Opernhäuser, wie das Royal Opera House in London und die Opéra National de Paris lassen ausgewählte Veranstaltungen live übertragen. Um dies zu bewerkstelligen ist es notwendig eine Sendestrecke herzustellen, welche die großen Datenmengen unterbrechungsfrei übertragen kann. Im Havariefall muss die Übertragung trotzdem gewährleistet werden. Dies stellt eine große Verantwortung für die Zuständigen der Übertragung dar. Außerdem ist bei der Live-Übertragung zwingend die Möglichkeit zur Klangbearbeitung mittels eines Mischpultes und eines angemessenen Abhörplatzes notwendig. Anders als bei einem Mitschnitt, bei dem „lediglich“ die Einzelsignale1 korrekt aufgezeichnet werden müssen, weil die Mischung zu einem späteren Zeitpunkt im Studio erfolgen kann, muss bereits vor Ort die klangliche Gestaltung und Optimierung der Signale für die Übertragung in das jeweilige Zielmedium erfolgen. 1 Möglich ist auch eine Aufzeichnung, die als „direct to 2-track“ bezeichnet wird. Dabei ist ebenfalls ein Mischpult erforderlich, um eine adäquate stereofone Mischung der Einzelsignale zu erstellen. 55 Konzertproduktionen 2.2 Mitschnitt Häufig werden Rock- oder Pop-Konzerte mitgeschnitten und anschließend für die Fans auf DVD und Blu-ray Disc veröffentlicht. Auch Opernaufführungen, die aufgrund der schauspielerischen Aktion auf der Bühne einen visuellen Reiz mitbringen, sind für einen Mitschnitt mit Kameras geeignet. Durch die Möglichkeit der wiederholbaren Betrachtung des Endprodukts ist die Durchführung einer Postproduktion notwendig. Eventuelle Fehler und Störgeräusche können ausgebessert werden, damit den Zuschauern eine makellose Darbietung geboten werden kann. Zu diesem Zweck ist auch der Mitschnitt mehrerer Konzerte am gleichen Aufführungsort und das Zusammenfügen der besten Teile von verschiedenen Abenden nicht unüblich. Der Vorteil eines Mitschnittes im Gegensatz zu einer Übertragung ist, dass während der Aufführung der Aufbau einer aufwändigen Sendestrecke eingespart werden kann. Die klanglichen Unterschiede der Wiedergabe im Kino und im Wohnzimmer wurden bereits unter A 2.1 und 2.2 erläutert. Allerdings wirkt sich die automatische dynamische Anpassung des AC3-Stroms besonders beim Downmix im DVD-Abspielgerät bei rein musikalischen Inhalten deutlich stärker aus als bei Filmen. Dies hängt mit den bereits erwähnten Metadaten, im Besonderen mit DialNorm1 und DRC (siehe Fußnoten Seite 16), zusammen. Um die vergleichsweise starke Beeinflussung des Materials zu umgehen, werden die Mischungen eines Konzertmitschnitts oftmals in 5.1 als AC3 oder im DTS-Format2 und unkomprimiert und ohne Metadaten in stereo gespeichert, da auf diese Weise keine Bearbeitung der Originaldynamik bei der Wiedergabe erfolgt. DTS gehört allerdings nicht zu den vorgeschriebenen Tonformaten der DVD-Spezifikation3, weshalb zusätzlich immer ein AC3-Strom oder die Stereomischung in linearer Pulse Code Modulation (LPCM) auf die DVD gepresst wird. Dabei sollte während der Erstellung des DVD- oder Blu-ray Disc-Menüs darauf geachtet werden, dass standardmäßig die ohne Metadaten versehene Stereomischung wiedergegeben wird und die Mehrkanalmischung im DTS- oder AC3-Format bewusst vom Verbraucher im Audiomenü ausgewählt werden muss. Sonst kann es vorkom- 1 2 3 Die DialNorm gibt die durchschnittliche Lautheit der Dialoge einer Mischung an. Bei Filmen erhält sie standardisiert den Wert -27dB. Die DRC verändert Signale, die 4 bis 8dB leiser oder lauter sind, in ihrer Lautstärke, um einen für die heimische Wiedergabesituation angemessenen eingeschränkten Dynamikumfang zu erzwingen. Bei Musik liegt die durchschnittliche Lautheit des Programms oftmals höher. Ohne eine Messung der Lautheit führt der Standardwert 27dB zu einer nahezu kontinuierlichen Absenkung der Mischung. DTS: Digital Theatre Systems, Mehrkanaltonsystem mit einer Datenrate von 1509kbit/s Tonformate bei der DVD, sogenannte „Mandatory Audio Formats“, sind LPCM (nur stereo, mit hoher Datenrate, ohne Metadaten), MPEG-2 (hat sich nicht durchgesetzt) und AC3. [DADZ] 56 Konzertproduktionen men, dass der Zuschauer den automatischen Downmix inklusive dynamischer Anpassung des Abspielgerätes hört. Dieses gibt nicht die ursprüngliche Mischung wieder. Bei der Blu-ray Disc gehört DTS mit zu den Tonformaten, die jeder Player wiedergeben können muss1. 3 Produktionsablauf Im folgenden Kapitel soll der Produktionsablauf eines Livemitschnitts und einer Liveübertragung beschrieben werden. Zunächst wird in den Kapiteln auf die besonderen Produktionsstrukturen eines Livemitschnitts eingegangen. Im Anschluss werden die Besonderheiten und Unterschiede einer Liveübertragung erläutert. 3.1 Rollenverteilung Neben den bereits bekannten Rollen sind bei Live-Produktionen weitere Beteiligte Personen für folgende Posten möglich. Dies bedeutet nicht, dass alle genannten Aufgaben bei jedem Livemitschnitt oder jeder Liveübertragung übernommen werden müssen: • Redaktion • Kamera • Technische Leitung • Bildschnitt/Bild-Ingenieur • MAZ-Technik • Lichttechnik • Drahtlostechnik Ein reibungsloser Arbeitsablauf der Ton- und Bildabteilung ist bei Konzerten, die live übertragen werden sollen, besonders wichtig. Bei Konzertmitschnitten dagegen können Bildbearbeitung und Tonpostproduktion technisch unabhängig voneinander durchgeführt werden. 1 siehe http://broadcastengineering.com/audio/dts-technology-mandatory-audio-format-blu-ray-and-hd-dvd-nextgeneration-disc-standards [WWW08] 57 Konzertproduktionen 3.1.1 Redaktion Die Redaktion gestaltet bei Fernsehübertragungen die inhaltliche Planung des Programms und erarbeitet eine geeignete Fassung, die veröffentlicht werden kann. Redaktionelle Aufgaben befassen sich mit der Sammlung von Informationen über die Veranstaltung, den mitwirkenden Künstlern, den aufgeführten Stücken und dem Veranstaltungsort. 3.1.2 Technische Leitung Der Posten des technischen Leiters tritt meist bei Live-Übertragungen für das Fernsehen auf. Bei Konzertmitschnitten übernimmt oftmals der Tonmeister oder der verantwortliche Kameramann die technische Planung und Verantwortung für das jeweilige Gewerk. Bei Konzertübertragungen kümmert sich der technische Leiter sowohl um die Belange der Ton-, als auch der Bildseite. Er erarbeitet ein Konzept zur kompletten technischen Umsetzung der Produktion, fertigt Listen mit dem benötigten Equipment für alle Gewerke an und plant auch Zeiten zum Packen und Laden ein. Die Dauer für nötige Fahrten sowie Parkplätze mit Wendemöglichkeit für die Übertragungswagen werden von ihm mit berücksichtigt. Vor Ort ist er für die technische Umsetzung der Produktion verantwortlich. 3.1.3 Drahtlostechnik Die Aufgabe eines gesonderten Drahtlostechnikers tritt häufig im Zusammenhang mit Opernproduktionen auf. Deshalb werden anhand einer Opernproduktion dessen Aufgaben beschrieben. Dort werden die Sänger meist mit einem versteckten Funkmikrofon ausgestattet. Dabei ist es wichtig, eine optimale Position für das Mikrofon zu finden1, es so anzubringen, dass es fest sitzt, nicht raschelt und möglichst unsichtbar ist. Oft hilft es Rücksprache mit den Masken- oder Kostümbildnern zu halten um gemeinsam eine optimale Lösung zu finden. Der Sender, das Kabel und das Mikrofon (wenn es nicht am Kopf des Sängers befestigt werden soll) müssen in das Kostüm eingenäht werden, damit während der Aufführung kein Teil abfallen oder heraushängen kann, aber trotzdem die Bewegungsfreiheit der Darsteller nicht beeinträchtigt wird. Auch darf beispielsweise das Mikrofon nicht auf der rechten Kragenseite angebracht werden, wenn später im Spielverlauf eine andere Figur ihren Kopf auf die 1 Als Faustregel für eine gute Distanz zwischen Mikrofon und Mund des Sängers kann die Spannweite zwischen Daumen und kleinen Finger einer gespreizten Hand als Maß genutzt werden. 58 Konzertproduktionen rechte Schulter legen wird. Häufige Verstecke für Ansteckmikrofone sind Kragen, Knopfleisten, Brusttaschen, Perücken, im Scheitel am Haaransatz, Mützen, Hüte und künstliche Bärte. Dabei sollte der Vorteil berücksichtigt werden, dass am Kopf fixierte Mikrofone bei Bewegungen und Drehungen des Kopfes ihre Klangfarbe beibehalten. Zudem sollte die Farbwahl des Mikrofons an das Kostüm angepasst werden. Mitunter kann es vorkommen, dass ein Darsteller sich während der Aufführung auf der Bühne umziehen muss. In dem Fall sollte in jedem Kostüm ein Funkmikrofon angebracht sein. Bsp.: Ein Sänger sollte sich während des Stückes einen Mantel aus- und später wieder anziehen. Dafür wurde ein Funkmikrofon sowohl im Knopfloch des Mantels als auch im Kragen des Hemdes, welches er darunter trug, angebracht. Auf diese Weise stand für beide Situationen ein verwendbares Signal zur Verfügung, denn das Hemdmikrofon wurde durch den Mantel verdeckt und hätte nicht genutzt werden können. Seit dem Ausbau des LTE Datendienstes muss der Drahtlostechniker zusätzlich sicherstellen, dass die verwendeten Funkfrequenzen zur Verfügung stehen und eine störfreie Übertragung garantieren. 3.2 Vorbereitung Bei Konzertmitschnitten und -übertragungen ist besondere Achtsamkeit in der Vorbereitung notwendig. Um ein Programm aufzunehmen, welches nicht wiederholt werden kann, muss eine Unzahl an Fehlerquellen ausgeschlossen werden. Angefangen bei fehlenden Kabeln bis hin zu unzureichender Kommunikation mit dem Veranstalter. Ein redundantes Aufnahmesystem kann mögliche technische Ausfälle kompensieren. Darüber hinaus kann es vorkommen, dass der zur Verfügung stehende Veranstaltungsraum nicht den optimalen Aufführungs- oder Aufnahmebedingungen genügt. In der Regel wird im Vorfeld ein detaillierter Ablaufplan bzw. ein Drehbuch entwickelt und erprobt. 59 Konzertproduktionen 3.2.1 Organisatorische Planung Über das nötige Equipment zu verfügen ist nicht der Regelfall, deshalb sollten rechtzeitig Verleiher gefunden werden, die spezifische Geräte für eine Aufnahme bereitstellen können. Benötigte Geräte können sein: • diverse Mikrofone • Kabel, Multicore • Vorverstärker • Stative • Aufnahmecomputer • Word-Clock- Generator Zu den organisatorischen Vorbereitungen gehören allerdings auch die Planung von An- und Abreisezeiten, der Anmietung von Fahrzeugen sowie die Organisation von Verpflegung und Übernachtungsmöglichkeiten. Diese Aufgaben werden bei großen Produktionen vom technischen Leiter sowie der Produktionsfirma übernommen. 3.2.2 Technische Vorüberlegungen Vor der Durchführung einer Musikproduktion müssen Informationen über Größe und Art der Besetzung des aufzunehmenden Ensembles eingeholt werden, damit die Anzahl der Signalwege abgeschätzt werden kann, welche aufgezeichnet werden sollen. Bei kammermusikalischen Ensembles kann pauschal mit einem Mikrofon pro Instrument und drei bis sieben Mikrofonen für das Hauptsystem gerechnet werden. Allerdings ist für die Aufnahme von Tasteninstrumenten (Klavier, Orgel, evtl. Cembalo) vorzugsweise eine stereofone Mikrofonie einzuplanen. Bei Chören kann ein Mikrofon pro Stimmgruppe ausreichen. Bei großen Orchesterbesetzungen kann man je nach Produktionsbedingungen nicht immer jedem Instrument ein Mikrofon zuweisen, aber es können für die verschiedenen Stimmgruppen wiederum stereofone Stützmikrofonsysteme (z.B. Holz AB) verwendet werden. Das Abschätzen der zu erwartenden Signalwege kann sich bei popmusikalischen Besetzungen schwierig gestalten. Selbst eine Band bestehend aus nur drei Musikern kann mitunter 50 Kanäle beanspruchen. Nicht selten müssen sowohl die unverzerrten 60 Konzertproduktionen DI1-Signale von E-Gitarren und Bass, als auch die diese Signale wiedergebenden Verstärker aufgenommen werden. Die Gitarrenboxen werden oft mit mehreren Mikrofonen abgenommen. Keyboards und Sampler können stereofone Signale ausgeben, was die benötigten Aufnahmespuren verdoppelt. Zudem führt dies zur Problematik unterschiedlicher Eingangsimpedanzen. Die Besonderheit eines Konzertmitschnitts oder einer Konzertübertragung, bei dem das Publikum gleichzeitig beschallt wird, ist die gleichzeitige Verwendung der Mikrofonsignale zur Beschallung und zur Aufnahme. Im Vorfeld ist mit der Beschallungsfirma über die Art und Weise der Übernahme der Mikrofonsignale zu sprechen. Diese kann den tontechnischen Aufwand eines Mitschnitts entscheidend beeinflussen. Im Folgenden werden verschiedene Möglichkeiten beschrieben: • Die Signale werden bereits auf der Bühne analog für Monitor- und FOH2Mischpult und Mitschnitt aufgeteilt. Das bedeutet, dass ein Multicorekabel zur Weiterleitung an die Aufnahmemaschine oder den Übertragungswagen sowie eine entsprechende Anzahl an Mikrofonvorverstärkern und Digital-Analog (DA) Wandler eingeplant werden muss. • Das FOH- oder Monitorpult verfügt über ausreichend direkte Line-Ausgänge, so dass die Aufnahmemaschine darüber beschickt werden kann. Auch hier müssen genügend analoge Lineeingänge und DA-Wandler zur Verfügung stehen. Ein Nachteil dieser Aufnahmemöglichkeit ist die Positionierung der Aufnahmemaschine in der Nähe des FOH- oder Monitorpultes und die daraus resultierende sehr schlechte Abhörmöglichkeit der laufenden Aufnahme. Außerdem besteht in diesem Fall die Abhängigkeit zur Eingangsvorverstärkung des jeweiligen Mischpultes. • Die Beschallung erfolgt über eine digitale Signalverteilung und das Signal wird über einen Digitalausgang (meist MADI3) eines Mischpultes zur Verfügung gestellt. Auf diesem Weg können sehr leicht bis zu 64 Kanäle über eine MADI Leitung und ein entsprechendes Audiointerface aufgezeichnet werden. • Eine Möglichkeit, die bei Live-Übertragungen vermehrt zum Einsatz kommt, ist der Aufbau eines digitalen Netzwerkes (wie z.B. Ravenna oder RockNet). Hierbei wird das Signal bereits an der Bühne digitalisiert und in ein Netzwerk eingespeist. Alle Nutzer des Netzwerkes (Tonregie, Bildregie, Monitorpult, FOH-Pult) können die Tonsignale abgreifen. 1 2 3 DI-Box: (direct injection) wandelt asymmetrische Signale in symmetrische Signale FOH: Front Of House; ist die Bezeichnung des Bereichs innerhalb des Zuschauerraums, in welchem der Tonmeister oder die Tonmeisterin die Mischung für die Live-Beschallung erstellt. MADI: Multichannel Audio Digital Interface, digitale Schnittstelle zur mehrkanal Audioübertragung. Die Verbindung kann aus koaxialen als auch optischen Leitungen bestehen und bis zu 32 AES/EBU-Kanäle übertragen. 61 Konzertproduktionen Wenn die Mikrofonsignale analog übernommen werden, ist es in jedem Fall ratsam darauf zu achten, dass die Aufnahmemaschine galvanisch von den Bühnensignalen getrennt ist. Außerdem ist es wichtig, den Stromkreis der Beschallungscrew mit zu verwenden, um Brummschleifen zu vermeiden. Der Anschluss an den Bühnenstrom ist im Vorfeld der Veranstaltung zu besprechen und zu planen. In der folgenden Abbildung ist der Spurbelegungsplan eines Live-Mitschnitts mit analoger Signalübergabe über einen Splitter auf der Bühne zu sehen. Als Grundlage diente die Input-Liste mit den festen Multicorebelegungen, die bei der Band immer Verwendung fanden. Anhand dieser wurden die Signalwege auch nach ihrer möglichen Signalart in LINE und MIC unterschieden und separaten Preamps zugeordnet. 28Kanal System Line RME RME ADAT 1 1.Alesis HD24 ADAT 1 ADAT 2 Preamp Saffire 40 Pro - 1 2 3 keine WordClock i/O - 4 5 6 7 8 Mic 9 Mic 10 Mic 11 Mic 12 OctoPre 1 - 13 14 15 16 17 18 19 20 Audient - 21 22 23 24 25 26 27 28 OctoPre 2 - 1 2 3 4 5 6 7 8 OctoPre 3 - 9 10 11 12 13 14 15 16 Preamp In 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 Abb. 15 Beispiel eines Spurbelegungsplans 62 MuCo 13 14 22 23 15 16 24 25 30 31 32 29 1 2 3 4 5 6 11 12 7 8 9 10 17 26 27 18 19 20 21 34 35 36 37 40 41 42 43 28 33 RME - Signal Sampler l Sampler r 2. Git L 2. Git R Bss DI Bass pre Amp 2. Git Acc clean 2. Git Acc dirt Voc 1 Voc 2 Voc 3 1. Acc Git Kick Kick Snare top Snare btm Snare 2 Hat OH SR OH SL Rack Tom Floor 1 Floor 2 Ride Bass mic 1. Git L 1. Git R Keys l Keys r Piano l Piano r Sender Voc 1 Sender Voc 2 Sender Voc 3 Sender spare Ambience SR Ambience SL Mac l Mac r 3. Acc Git Voc 3 spare Syncmix - Signalart line line line line line line line line mic mic mic line mic mic mic mic mic mic mic mic mic mic mic mic mic mic mic line line line line mic/line mic/line mic/line mic/line mic mic line line line mic/line - Konzertproduktionen Die resultierende Anzahl der Signalwege und die Art der Signalübernahme beeinflusst die Planung des Aufnahmesystems entscheidend. Dies kann von einer kompletten Aufnahmeapparatur mit Vorverstärkern und DA-Wandlern bis zu einem Laptop inklusive MADI-Interface reichen. Bei Mitschnitten für bis zu acht Spuren bietet es sich an, einen handlichen Festplattenrecorder, wie z.B. den Tascam HSP82, zu nutzen. Diese sind mit Vorverstärkern und DA-Wandlern ausgestattet, so dass die Komponenten nicht mehr verbunden werden müssen und ein Computer ist ebenfalls nicht erforderlich. Je nach Modell können Marker gesetzt und Metadaten editiert werden. Nach der Aufnahme können die Daten mühelos per USB- oder FireWire-Schnittstelle auf einen Computer übertragen werden, an welchem eine Bearbeitung im Detail erfolgen kann. Für größere Musikproduktionen, die mehr Aufnahmespuren erfordern, wird in der Regel ein computergestütztes Aufnahmesystem, wie Pro Tools, Pyramix oder Sequoia sowie ein Mischpult und eine Abhörumgebung aufgebaut. Bei Aufnahmen außerhalb eines Tonstudios plant der Tonmeister oder die Tonmeisterin ein mobiles Aufnahmesystem und stellt dessen Funktionalität sicher. Soll ein musikalisches Ereignis im Fernsehen oder im Kino übertragen werden, muss vorab sichergestellt sein, dass die gesamte Übertragungskette fehlerfrei funktionieren wird. Dabei ist nicht nur die Signalkette zwischen Bühne und Tonregie sondern auch die Übertragung der verkoppelten Ton- und Bildsignale von der Bildregie zum Funkhaus zu garantieren. Dafür werden meist redundante Signalwege aufgebaut, um im Havariefall die Übertragung zu gewährleisten. Zudem müssen sämtliche Abläufe, wie Kamerafahrten, Bühnenumbauten sowie Aufund Abgänge einzelner Solisten zuvor geplant und geprobt werden, damit es während der Live-Sendung nicht zu unerwarteten Situationen kommt. Daher wird für den gesamten Ablauf der Veranstaltung ein Drehbuch verfasst, an welches sich alle Beteiligten halten müssen. 63 Konzertproduktionen Abb. 16 Projektphasen einer Live-Übertragung In der Abbildung ist zu erkennen, dass die Vorbereitungsphase mit vielen Aufgaben versehen ist, während die eigentliche Durchführungsphase überschaubar bleibt. 3.2.3 Synchronisation zum Bild Um während der Postproduktion ein einfaches Zusammenfügen von Bild und allen aufgezeichneten Tonspuren zu ermöglichen, ist es unerlässlich Bild- und Tonaufnahme während eines Livemitschnitts miteinander zu verkoppeln. Dies geschieht in der Regel über ein Timecode (TC) -Signal, welches über mobile Geräte (wie beispielsweise die Clockit Geräte der Firma Ambient Recording) an Kameras und Tonaufzeichnungsgeräte verteilt wird. Da nicht jedes Audiointerface über einen separaten TC-Eingang und die Möglichkeit diesen korrekt auszulesen verfügt, gibt es verschiedene Software-Lösungen1, die ein an einem Audioeingang anliegendes LTC2 TC-Signal auslesen und zur Steuerung einer DAW aufbereiten können. Der anliegende LTC Timecode wird hierbei in einen MIDI3Timecode umgewandelt, mit dem nahezu jede DAW angesteuert werden kann. Beim Schreiben der Audiodateien erhalten diese in den Metadaten eine TC-Marke mit der exakten zeitlichen Position der DAW. 1 2 3 Beispiele für Synchronissationssoftware: SMPTE Reader (http://nobusiness-soft.com/smptereader) Lockstep (http://figure53.com/lockstep/) LTC: Longitudinal Timecode MIDI: Musical Instrument Digital Interface 64 Konzertproduktionen Da verschiedene Schnittprogramme eine TC-Spur, die als Audiosignal vorliegt, auslesen können, ist eine weitere einfache Variante das TC-Signal über einen Audioeingang in der DAW aufzuzeichnen. Somit beinhalten die erzeugten Audiodaten keine korrekte TC-Angabe in ihren Metadaten aber die TC-Positon lässt sich anhand der TCAudiospur feststellen. Bei Live-Übertragungen werden Bild- und Tondaten gleichzeitig erzeugt, auf verschiedenen Wegen bearbeitet und dann wieder zusammengefügt. Um hierbei die Synchronität zwischen Bild und Ton zu gewährleisten, ist beim öffentlich-rechtlichen Rundfunk das Video Audio Lip-sync & Identification (VALID) System der Firma Snell im Einsatz. Zur Messung des Versatzes zwischen Bild und Ton gibt ein Signalgenerator jeweils ein Video- und Audio-Testsignal aus, die beide die komplette Übertragungsstrecke durchlaufen. Am Ende des Bearbeitungssystems werden beide Signale erneut gemessen und der Versatz zwischen diesen bestimmt und anschließend ausgeglichen1. de Delay la delay y VALID Genrerator Delay Übertragungs DE system LA De lay Video und Audio Testsignal Y Delay Video und Audio Testsignal VALID Reader delay D DELAY l a ye l a y de Abb. 17 Messung des Ton-Bildversatzes mittels VALID-System 3.2.4 Übertragungswagen Übertragungswagen werden bei großen Produktionen genutzt, um den Aufwand des Aufbaus mobiler Regien zu minimieren. Sie können sowohl Ton- als auch Bildregien beherbergen und sind schnell fast überall einsatzbereit. Ein Ton-Übertragungswagen enthält alle tontechnischen Geräte, die bei der Bearbeitung der Signale sowie der Erstellung eines sendefähigen Ergebnisses notwendig sind. Er bietet genügend Vorverstärker, Wandler, ein Mischpult, hochwertige Lautsprecher 1 siehe Handbuch „Vistek V6811&V6812 HD Valid Generator v1.3.pdf“ [VA08] 65 Konzertproduktionen in 5.1 Aufstellung, Hallgeräte, Kompressoren, Limiter, Dolby E En-/Decoder1 und Geräte zur Rauschunterdrückung. Der Übertragungswagen bietet zudem den Vorteil eines abgeschlossenen Abhörraumes, in welchem die Tonmeister ungestört und konzentriert arbeiten können. Da alle Geräte bereits miteinander verkabelt sind, ist die Aufnahme oder Übertragung eines Konzertes mit einem Ü-Wagen verhältnismäßig komfortabel, da der Aufbau einer mobilen Tonregie dieses Umfangs um ein Vielfaches aufwändiger ist. Abb. 18 Übertragungswagen von 1953* Während der Anfänge der Live-Übertragung wurden die Audiosignale noch auf Schellack gespeichert. 1 Dolby E ist ein Audio-Kodierverfahren, welches eine Übertragung und Speicherung von bis zu acht Audiokanälen mit einer Datenrate von 1536kbit/s bis 1920kbit/s über einen AES/EBU Tonkanal ermöglicht und wird überwiegend von Fernseh- und Rundfunkanstalten zur internen Datenübertragung verwendet. Die Kodierung von digitalen PCM Audiodaten zu Dolby E und wieder zurück ist nicht ganz verlustfrei. Bis zu zehn enkodier und dekodier Vorgänge sind ohne bemerkbaren Verlust an Audioinformationen möglich. Die Enkodier- und Dekodierprozess benötigt jeweils die Zeitdauer von einem Frame. Diese Verzögerung zwischen Video- und Bildsignal muss wieder ausgeglichen werden 66 Konzertproduktionen Abb. 19 Übertragungswagen von 2012** Ein moderner Übertragungswagen des ZDF beherbergt Tonregie, Bildregie, Maschinenraum und Notfallsprecherplatz. Alle Verbindungen sind digital. Die Audiosignale sind mit dem Bild verknüpft (embedded), so dass die Synchronität immer gewährleistet wird. 3.2.5 Mikrofonie Bei Mitschnitten oder Übertragungen von Konzerten werden die Mikrofone in der Regel relativ dicht am Instrument aufgestellt. Ein möglicher Grund hierfür ist die gleichzeitige Beschallung des Publikums mit dem gleichen Mikrofonsignal. Außerdem wird auf diese Weise Übersprechen von Störgeräuschen aus dem Veranstaltungsraum begegnet. Außenaufnahmen bergen zusätzlich die Gefahr, dass durch Wind verursachte tieffrequente Störsignale auftreten können. Darum ist es ratsam SchaumstoffWindschützer für die Mikrofone zu verwenden. Bei popmusikalischen Mitschnitten werden in der Regel die Mikrofonsignale, die auch zu Beschallung verwendet werden, übernommen. Diese sind ab einer bestimmten Größe des Veranstaltungsortes und der Beschallungsanlage meist ausreichend. Bei kleineren Beschallungen, wo beispielsweise nur Teile des Schlagzeugs mikrofoniert werden, ist im Vorfeld mit Musikern und Beschallern über den Aufbau zusätzlicher Mikrofone zu sprechen. Es kann geschehen, dass es aus optischen Gründen zu Diskussionen über die Aufstellung der Mikrofone kommt. Kleine Stäbchen-Mikrofone mit einer matten Beschichtung 67 Konzertproduktionen sind in diesen Situationen besonders geeignet, da sie keine Reflexionen des Lichts verursachen1. Bühnenmikrofone sollten stets unauffällig sein. Bsp.: Möglich ist auch die Flucht nach vorne. Bei einer Opernproduktion hängte der Tonmeister als Hauptmikrofonsystem für das Orchester zunächst zwei große silberne Mikrofone über den Orchestergraben. Der Regisseur beschwerte sich wie erwartet über die beeinträchtigten Bilder der Kameras. Der Tonmeister erklärte dagegen seine Absicht eine bestmögliche Aufnahme zu erstellen. So konnte ein Kompromiss ausgehandelt werden und das Hauptsystem wurde durch unauffällige Kleinmembranmikrofone ausgetauscht, wie es das ursprüngliche Ziel war. Da bei Opernproduktionen die Sänger nur mit Funkmikrofonen versehen werden können, ist es üblich zahlreiche Mikrofone in Bühnennähe aufzubauen. Meist werden diese an der Kante des Orchestergrabens, im hinteren Bühnenbereich oder von oben hängend2 angebracht. Sollte eines der Funksignale während der Aufführung unbrauchbar sein, z.B. weil die Inszenierung verlangt, dass sich die Sänger umarmen, auf dem Boden rollen oder Blumen an die Brust drücken etc., kann eines der versteckten Bühnenmikrofone ein verwendbares Gesangssignal liefern. Mitunter kann es vorkommen, dass ein Tonassistent in der zweiten Reihe im Publikum sitzt und mit einem Richtmikrofon auf die Sänger zielt3. Eine Opernproduktion lässt sich aus diesen Gesichtspunkten mit der O-Ton-Situation am Filmset vergleichen, wo ebenfalls mit Funkmikrofonen, versteckten Mikrofonen und Angeln versucht wird, ein optimales Vokalsignal zu erhalten. Weiter ist es üblich Mikrofone für das Publikum aufzubauen. Reaktionen, wie Jubel und Applaus verhelfen der Aufnahme oder Übertragung zu einer lebendigen Darstellung des Konzertereignisses. Besonders bei popmusikalischen Konzerten sind Publikumsreaktionen zur Vermittlung eines Konzerteindrucks unbedingt notwendig. Außerdem wird durch die Mikrofone für das Publikum auch die Räumlichkeit des Veranstaltungsortes wiedergegeben. Wie genau das Publikum aufgenommen wird, ist von der Größe und Beschaffenheit des Veranstaltungsortes und der Möglichkeit Mikrofone anzubringen abhängig. In kleineren Veranstaltungsorten wie Clubs können Mikrofone zwischen Bühnenkante und Rückwand des Zuschauerraums von der Decke gehängt werden. Als Richtcharakteristik können für diese Position Kugeln oder Nieren zum Einsatz kommen. Es ist wichtig, dass die Mikrofone möglichst hoch über dem Publikum platziert sind, damit 1 2 3 Die Firma Schoeps hat die modularen Mikrofonsysteme Colette und CMM für den unauffälligen Einsatz entwickelt. Siehe http://www.schoeps.de/de/products [WWW10] Bei hängenden Mikrofonen ist darauf zu achten, dass der Bildausschnitt der Kameras freigelassen wird bzw. dass diese möglichst nicht vom Publikum gesehen werden. persönliches Gespräch mit Günter Fleck, Tonmeister beim ZDF 68 Konzertproduktionen ein Gesamteindruck des Publikums und nicht einzelne Zuschauer aufgenommen werden. Trotzdem müssen die Mikrofone weit genug von der Decke entfernt sein, um nicht zu viel tieffrequenten Schall aufzunehmen. Ein weiterer Ort für die Positionierung von Publikumsmikrofonen ist die Rückwand der Bühne. Ein positiver Effekt bei dieser Mikrofonposition ist die Aufnahme des Raumklangs für das Schlagzeug, welcher ohne Mikrofone an dieser Position fehlt und nur schwer in der Mischung durch Kunsthall erzeugt werden kann. An der Bühne steht in der Regel das lautere und textsichere Publikum. Deshalb ist es sinnvoll dieses mit Mikrofonen aufzunehmen, die an der Bühnenkante zwischen Bühne und den Beschallungslautsprechern positioniert sind. Allerdings ist mit starkem Übersprechen der Beschallungsanlage zu rechnen, weshalb an dieser Position häufig Richtrohr-Mikrofone zum Einsatz kommen. Die Schwierigkeit besteht darin, die Mikrofonposition zu finden, bei der das Publikum am lautesten und am wenigsten Bass der Beschallungsanlage aufgenommen wird. Falls innerhalb des Zuschauerraums kein Mikrofon aufgestellt werden kann, ist die Mikrofonposition an der Bühnenkante zu wählen. Bei einem großen Veranstaltungsraum ist außerdem der Platz um das FOH-Pult oft der einzige Bereich, um weitere Publikumsmikrofone aufzustellen. Diese können sowohl in Richtung Bühne als auch auf die Rückwand des Zuschauerraums gerichtet werden. Außerdem ist bei diesen Positionen ein gewisser Abstand zum Publikum einzuhalten. Der Aufbau von Mikrofonen am FOH-Pult und die Weiterleitung der Mikrofonsignale zur Aufnahmemaschine sollten rechtzeitig mit der Beschallungsfirma und dem Kameradepartement besprochen werden. Bei einer Freiluft-Veranstaltung ist die Position am FOH-Pult meist die einzige Möglichkeit innerhalb des Publikums Mikrofone aufzustellen. Hierbei ist zusätzlich an Wind und eventuell auch Regenschutz der Mikrofone zu denken1. Die Mikrofonierungsstrategien im Konzert-Bereich unterscheiden sich zum Teil stark von einer Studio- bzw. Filmmusikproduktion. 3.2.6 Proben und Soundcheck Bei Aufführungen mit Inszenierung oder Auftritten verschiedener Besetzungen oder Solisten ist es üblich den genauen Ablauf vorher zu proben. In der Partitur wird in den entsprechenden Takten eingetragen, welche Mikrofone verwendet werden. Gerade bei Live-Übertragungen von Opern mit vielen Sängern ist es wichtig zu wissen, wann 1 siehe http://en.audiofanzine.com/live-sound/editorial/articles/capturing-the-energy-of-live-shows.html [WWW13] 69 Konzertproduktionen wessen Funkmikrofon zugemischt werden muss. Für schwierige Situationen, in denen absehbar ist, dass das Funkmikrofon nicht genutzt werden kann, muss eine alternative Mikrofonierung gefunden werden. Außerdem muss in der Partitur vermerkt werden, wann das entsprechende Funksignal aus der Mischung entfernt werden muss, damit keine Störsignale oder das Übersprechen der weiteren Sänger hörbar sind. Welche Mikrofone in den entsprechenden Situationen verwendet werden sollen, muss ebenfalls in der Partitur notiert werden. Während der Aufführung liest meist ein Regieassistent oder eine Regieassistentin die Partitur mit und sagt einige Takte im Voraus die geplante Mikrofonauswahl an. Der Line- und Soundcheck stellt bei popmusikalischen Aufführungen die Gelegenheit dar, alle Signalwege zu testen. Hierbei ist eine gute Kommunikation mit der Beschallungscrew vor Ort wichtig, um eventuelle Wünsche und Änderungen, wie die Verwendung eines anderen Multicorekanals, allen Beteiligten mitzuteilen. Beim Linecheck wird lediglich die Funktionalität aller Audioverbindungen auch ohne Anwesenheit der Musiker getestet. So kann sich während des Soundchecks mehr um die Bedürfnisse der Musiker gekümmert werden. Es ist ratsam bereits den Soundcheck mitzuschneiden, um die Aufnahmen auf gute Audiosignale zu überprüfen. Außerdem kann es vorkommen, dass ein Teil aus dem Soundcheck aufgrund einer technischen Störung in die spätere Aufnahme geschnitten werden muss. 3.3 Aufnahme Wenn das Konzert mitgeschnitten wird und die Klangbearbeitung während der Postproduktion durchgeführt werden soll, müssen nun lediglich das laufende Aufnahmesystem und die Signale überwacht werden. Tauchen jedoch Probleme oder Störsignale auf, muss schnell und unauffällig versucht werden, den Fehler zu finden und zu beheben. 3.4 Postproduktion Bei Live-Übertragungen ist in der Regel keine Postproduktion vorgesehen, da die eingehenden Signale bereits während der Aufführung so bearbeitet und gemischt werden, dass sie übertragen werden können. Die Postproduktion kann sich dann auf eine Archivierung beschränken. Bei Konzertmitschnitten können jedoch nochmals nahezu alle Audiosignale bearbeitet und optimiert werden. 70 Konzertproduktionen 3.4.1 Nachträgliche Aufnahmen Bei Live-Mitschnitten kommt es häufig vor, dass fehlerhafte oder misslungene Passagen neu eingespielt werden. Der Austausch einzelner Instrumente ist bei geringem Übersprechen und direkter Mikrofonierung relativ problemlos. Allerdings muss dann darauf geachtet werden, dass der Zuschauer keinen Unterschied zwischen nachträglich aufgenommenen Material und dem echten Konzert-Material erkennen kann. Die Verwendung der gleichen Mikrofontypen wie zur Konzertsituation kann einen Beitrag zu einem möglichst ähnlichen Klang leisten. 3.4.2 Schnitt Wurden mehrere Auftritte eines Programms aufgezeichnet, kommt es häufig dazu, dass die gelungensten Ausschnitte oder Songs der Konzerte zusammengeschnitten werden. Die Auswahl wird meist von der Produktion oder den Interpreten getroffen. In der Regel werden bei Konzertmitschnitten keine Zeitsprünge erzählt, d.h. dass in ihrer Zeitfolge veränderte Abschnitte unmerklich miteinander verbunden werden. Dies kommt zum Beispiel dann vor, wenn ein Song herausgeschnitten wurde1. Häufig muss dann der Applaus des Publikums passend zur neuen Abfolge geschnitten werden. Dafür muss teilweise Applaus an Stellen geschnitten werden, wo es zuvor keinen gab. Auch ist es nicht unüblich, dass Applaus aus dem Tonarchiv als gestalterisches Mittel genutzt wird, um eine verstärkte Reaktion des Publikums oder eine zahlreicher wirkende Menschenmenge zu erzählen. Dann muss aber darauf geachtet werden, dass der zusätzliche Applaus den eventuell im Bild sichtbaren Zuschauern entspricht. Bei der Überarbeitung eines Mitschnittes sollten als nächstes die auffälligen Störgeräusche herausgeschnitten werden, da diese den Fokus des Zuschauers zuhause von der musikalischen Darbietung wegrücken. Ein hörbares Störgeräusch lenkt den Zuschauer unbewusst von der laufenden Aufführung ab und eine Immersion2 kann schwer hervorgerufen werden. Daher sollten Störgeräusche, wie Huster, knarrende Stühle, umfallende Gläser, Handyklingeln, vorbeifahrende Krankenwagen, Fotoapparate und vieles mehr so gut es geht entfernt werden. 1 2 Dies geschieht ausschließlich bei Unterhaltungsmusikproduktionen. Einer Oper oder einer Symphonie wird kaum ein Ausschnitt entzogen. Als immersiv wird ein Film oder eine Aufführung bezeichnet, die das Publikum dazu bewegt, sich so auf die Handlung einzulassen, dass äußere Einwirkungen ausgeblendet werden. Der Begriff der Immersion geht auf den Text „Zur Kunstphilosophie des Films“ von Béla Balázs zurück. Siehe Franz-Joseph Albersmeier „Texte zur Theorie des Film“, Seite 212 [TTF03] 71 Konzertproduktionen 3.5 Mischung Das Kapitel über Mischung ist aus dem Bereich Postproduktion ausgegliedert, da auf Belange eines Livemitschnitts und einer Live-Übertragung eingegangen wird. Bei dieser ist die Mischung allerdings essentieller Bestandteil während der Produktion. Ziel einer Konzertproduktion sollte es sein eine kontinuierliche Tonebene herzustellen, damit der Zuschauer nicht irritiert und vom Hauptgeschehen abgelenkt wird. Die Klanggestaltung bei der Mischung sollte so angelegt sein, dass der Gesamtklang zum Bildinhalt passt, jedoch dürfen keinesfalls kontinuierlich Bildschnitte oder Kameraperspektivwechsel nachempfunden werden. Es gibt sehr unterschiedliche Mischungen von Konzertmitschnitten. Mischungen von klassischer Musik sind in ihrer Räumlichkeit meist an den Aufführungsraum angepasst. Zusätzlich wird daher oft zur künstlichen Nachverhallung der Stützsignale eine Einstellung gewählt, die in ihren Parametern dem Nachhallverhalten eines Konzertsaals entspricht. Popmusikalische Konzertmischungen sind häufig am direkten Klang von AlbumProduktionen orientiert. Es gibt allerdings auch zahlreiche Beispiele für Live-DVDs, die einen starken Eindruck von dem Veranstaltungsort und dem vorhandenen Publikum vermitteln. Die bereits erwähnten Publikumsmikrofone können einen großen Beitrag leisten, wenn die Stimmung im Saal während des Konzertes dargestellt werden soll. Allerdings ist zur Verwendung dieser die Laufzeit zwischen direkten Bühnenmikrofonen und der Positionierung im Zuschauerraum auszugleichen, da sonst Echos entstehen. Auch ist oftmals der Einsatz von Filtern und Equalizern gefragt, da die Räumlichkeit am Aufführungsort klanglich nicht optimal oder das Übersprechen der Beschallungsanlage (besonders im Bassbereich) sehr stark sein kann. Die Verwendung von Publikumsmikrofonen in den Surround-Kanälen kann den Zuhörer sehr gut in die Konzertsituation hineinversetzen, sofern dieser Effekt gewünscht wird. Im Laufe einer Konzertübertragung kann bildseitig problemlos zwischen mehreren Kameraeinstellungen gewechselt werden, ohne dass der Zuschauer sich dessen bewusst wird, während sich eine ständige klangliche Verfolgung der Perspektive vermutlich negativ auf die Aufmerksamkeit auswirken würde. Trotzdem ist es möglich vereinzelte Bildinhalte akustisch zu augmentieren. Es ist durchaus üblich, dass solistische oder vokale Passagen an die bildseitige Einstellgröße angepasst werden [GSKö]. Wenn beispielsweise bei Großaufnahmen der Schlagzeuger mit aller Kraft auf die Becken schlägt oder die Oboe ihr Solo im Orchester darbietet, kann dieser Einsatz in die vordere Ebene des Klangbildes gemischt werden. Andererseits wird die Aufmerksamkeit des Zuschauers bereits allein durch das Bild auf diesen Vorgang 72 Konzertproduktionen gelenkt. Wie bereits am Ende des Abschnittes A 1.2 (Seite 11) erwähnt, spielen auch hier multimodale Interaktionen1 von Bild und Ton eine wichtige Rolle. Zusätzlich tritt ein weiterer Effekt ein, der beim Zuschauer durch sogenannte Spiegelneuronen2 bewirkt wird. Durch diese wird die Intensität des Ausdrucks des Musikers persönlich erlebbar. Im Falle des rabiaten Schlagzeugers kann der Eindruck erweckt werden, dass auch klanglich mehr Präsenz vorhanden ist, obwohl der Mitschnitt ohne visuelle Komponente vielleicht weniger wirkungsvoll klingt. Es bleibt also eine Frage der beabsichtigten klanglichen Wirkung, wie mit der Mischung eines Livekonzerts umgegangen wird. Wichtig ist es, eine Entscheidung über das Vorgehen bei der Mischung zu treffen, damit eine Kontinuität in der akustischen Gestaltung geschaffen wird. Bei Live-Übertragungen hat ein erfahrener Tonmeister schnell die nötigen Einstellungen getätigt, um den Klang optimal an das Zielmedium anzupassen. In der Regel laufen die Signale über perfekt vorbereitete und organisierte Kanäle, die meist bereits leicht komprimiert und verhallt werden. Die ankommenden Signale werden in sinnvolle Subgruppen zusammengefasst, so dass während der Aufführung leicht in die Balance zwischen den Signalgruppen (z.B. Hauptsystem, Solisten und Orchester, oder Stimmgruppen im Orchester) eingegriffen werden kann. Außerdem kommt es bei umfangreichen Opernproduktionen vor, dass in einem ÜWagen das Orchester und in einem zweiten Ü-Wagen nur die Sänger vorgemischt werden. Beide Wagen übertragen sich gegenseitig ihre Mischung. Die Trennung in zwei Zuständigkeitsbereiche rührt daher, dass die Mischung eines unbeweglichen Orchesters eine andere Aufmerksamkeit erfordert als die Handhabung ständig wechselnder Sänger. Singen sich beispielsweise zwei Sänger an, wird meist nur ein Funkmikrofon verwendet, weil es sonst zu Phasenverschiebungen und Kammfiltereffekten kommen kann. Noch schwieriger ist die Situation, wenn sich Sänger aufeinander zu bewegen. Auch hier muss ab einem gewissen Abstand versucht werden, eines der beiden Funksignale unauffällig auszublenden. In der Sendetonregie werden die Vormischungen zusammen mit Kommentaren oder Jingles zusammengemischt und direkt zum Funkhaus geleitet. 1 2 Multimodale Interaktionen bewirken eine stärkere Reaktion im Gehirn, als es die einzelnen Einflüsse separat bewirken würden. Spiegelneuronen (mirror neurons) sind die wissenschaftliche Erklärung für Empathie. Sie bewirken beim Betrachter ein Verständnis für die beobachtete Bewegung durch Vergleich mit Bewegungen aus eigener Erfahrung. Siehe Anthony Gritten und Elaine King „Music And Gesture“, Seite 23 [MG06] 73 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug C. Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Nachdem nun die Strukturen und Abläufe von Filmmusik- und Konzertproduktionen betrachtet wurden, sollen in den folgenden Abschnitten Parallelen zwischen den Vorgehensweisen gezogen und Unterschiede benannt werden. Dazu werden auch Merkmale der autonomen Musikproduktion (Album- bzw. CD-Produktion) mit eingeschlossen. Bei der Betrachtung der verschiedenen medienspezifischen Vorgehensweisen sind zahlreiche Unterschiede, aber auch Gemeinsamkeiten in ihren technischen und inhaltlichen Anforderungen zu finden. 1 Inhalt und Ästhetik Jede Musikproduktion hat zunächst das Ziel, die musikalische Darbietung auf bestmögliche Weise zu präsentieren. Dabei spielen sowohl das entsprechende Genre als auch dramaturgische Ideen und Notwendigkeiten eine wichtige Rolle. Zum Beispiel kann es im Film nötig sein, dass eine Musik so klingen soll, als würde sie von einem Radio wiedergegeben werden oder als wären die Musiker eines Ensembles Laien. Aber auch bei autonomen Musikproduktionen kann es stilimmanent sein, dass die Räumlichkeit einer Garage gleicht. Elektronische Dance- oder Technoproduktionen leben von den hörbaren Regelvorgängen, die durch stark arbeitende Kompressoren verursacht werden (sogenanntes Pumpen), um ein weiteres Beispiel zu nennen. Wenn ein kommerzieller Erfolg angestrebt wird, sollten auch die Hörerwartungen des Publikums nicht unbeachtet bleiben. Diese sind im Laufe der Zeit auf Grund der tontechnischen Entwicklungen entstanden. Als Ende des 19. Jahrhunderts die ersten mechanischen Geräte zur Aufzeichnung von Schall entwickelt wurden, waren die Mikrofone noch so unempfindlich, dass zur Speicherung eines Klangereignisses der „Trichter [...] vor den Mund des Sängers“1 oder vor das aufzunehmende Instrument positioniert werden musste, damit das Tonsignal nicht zu stark von Störgeräuschen überlagert wird. Die ersten Aufnahmen sind 1 siehe „Tonmeister Jürg Jecklin im Gespräch”, aus der “Analog”-Zeitschrift der Analogue Audio Association [AA11] 74 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug dennoch von starkem Rauschen geprägt, für welches unter anderem das der Wachsmasse zugeführte Gesteinsmehl verantwortlich war1. Da aus technischen Gründen zunächst mit nur einem Mikrofon aufgezeichnet werden konnte, positionierte sich das Ensemble meist kreisförmig um den Schallwandler (siehe Abb. 20, 21). Je näher sich die Musiker am Mikrofon befanden, desto geringer wirkten sich Reflexionen des Raumes auf die Aufnahme aus. Der direkte und relativ trockene Klang prägte die Schallplattenästhetik, die für die gerade aufkommende Jazzmusik die passende intime Atmosphäre suggerierte. Abb. 20 Band im Studio* Abb. 21 1952 Schlagersterne* Quelle: Frieder G. Löbner Quelle: Klaus Herkner Mit dem Voranschreiten der tontechnischen Entwicklung verbesserten sich sowohl aufnahme- als auch wiedergabeseitig die Darstellung hoher Frequenzen und der Signal-Rauschabstand. Damit wurde es möglich, bei der Aufnahme klassischer Musik auch die akustischen Eigenschaften des Aufführungsraumes einzufangen. Diese sollten dem Zuhörer einen klanglichen Eindruck im Aufführungssaal, eine Konzertsaalästhetik vermitteln. Die Konzertsaal-, Schallplatten- und Filmtonästhetik haben sich wiederum gegenseitig beeinflusst. So werden beispielsweise Orchester bei Filmmusikproduktionen mit einer direkteren Mikrofonierweise aufgenommen, als es bei autonomen Musikproduktionen üblich ist. Die Unterscheidung liegt demnach in der Darstellung einer natürlichen, akustischen Aufführungssituation aus Sicht des Publikums oder einer übernatürlichen, intimen oder bombastischen Darbietung, die nur mit tonmeisterlichen Gestaltungsmitteln hergestellt werden können („larger than life“ - überlebensgroß). Dazwischen existieren alle Schattierungen. 1 siehe die Schelllackplatte, der Vorläufer der Vinylschallplatte http://grammophon-platten.de/page.php?14 [WWW15] 75 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Autonome Musik wird fast ausschließlich stereofon wiedergegeben. Die Verbreitung auf DVD-Audio oder SACD konnte sich bisher nicht durchsetzen. Ein Grund hierfür ist, dass der Konsument nicht in der idealen Abhörposition eines 5.1 Wiedergabesystems bleibt, wenn er nicht durch einen Bildschirm oder eine Leinwand dazu veranlasst wird [WWW02]. Aufgrund der Beschaffenheit der Wiedergabesysteme im Kino, mit der Verwendung mehrerer frequenzbegrenzter und das gleiche Signal wiedergebender SurroundLautsprecher und des unbekannten Aufbaus und der Beschaffenheit heimischer 5.1Wiedergabesysteme, bestehen Surround-Signale bei Filmmusik- und Konzertproduktionen meist lediglich aus Hallanteilen, Raummikrofonen oder frequenzbegrenzten und verzögerter Frontsignale. Es gibt nur wenige Beispiele für autonome Musikproduktionen, wie die Audio-DVD „Reanimation“ der Band Linkin Park, die beweisen, dass kreative und beeindruckende Surround-Mischungen in einer nach ITU-R BS 755-1 aufgebauten Wiedergabeumgebung möglich sind1. Bei bildbezogenen Inhalten soll allerdings der Fokus des Zuschauers nach vorn gelenkt und aufrechterhalten werden. Filmmusik bildet gemeinsam mit Dialog und Effekten eine dramaturgische Einheit, die sich dem Ziel, eine Geschichte zu erzählen, unterordnen. Rückwärtige Direktsignale könnten hierbei die Immersion beeinträchtigen. Ob mit der Einführung neuer Kinotonformate wie Dolby Atmos [WWW03] oder Wellenfeldsynthese erweiterte Möglichkeiten der kreativen Verwendung der SurroundLautsprecher möglichen und eine verbesserte Qualität dieser in den Kinos mit sich führen werden, wird sich zeigen. 2 Unterschiedliche Zielmedien und Wiedergabesituationen Bei der Betrachtung der unterschiedlichen Zielmedien stehen die verschiedenen Wiedergabesituationen im Vordergrund. Sie umfassen vor allen Dingen die Anzahl der Kanäle, den Frequenzgang und die Bauform der Lautsprecher, die Programmdynamik, aber auch (besonders bei 5.1) die Normen, nach denen die Lautsprecher aufgestellt wurden. Für autonome Musikproduktionen ist das derzeitige Zielmedium die stereofone2 CD. Da die Wiedergabesituationen des Konsumenten sehr unterschiedlich sein können (Stereoanlage, MP3-Player oder Mobiltelefon) wird das Material vor der Pressung gemastert. Abhängig vom Genre, dem Zielpublikum und den zu erwartenden 1 2 siehe http://www.amazon.de/review/R2KHL0HM9ZKIDC/ref=cm_cr_dp_title?ie=UTF8&ASIN=B000069CWE& channel=detail-glance&nodeID=290380&store=music [WWW16] Im Fall von monofonen Materialgeben beide Lautsprecher dasselbe Signal aus. 76 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Wiedergabegeräten wird die Mischung dabei dynamisch eingeschränkt und die Klangfarbe bearbeitet, damit das Programm bestmöglich wiedergegeben werden kann. Gewöhnlich ist dem Hörer klassischer Musik ein größerer Dynamikumfang zuzumuten als jemandem, der Musik überwiegend unterwegs über Kopfhörer konsumiert. Die heimische Wiedergabe von DVDs oder Blu-ray Discs erfolgt ebenfalls in den meisten Haushalten stereofon. Dabei müssen die bereits unter A 2.2 und B 2.2 beschriebenen Auswirkungen von komprimierten Wiedergabeformaten und deren Metadaten und automatisierten Regelvorgängen, wie AC3 berücksichtigt werden. Die Eigenschaften dieser Datenformate sind auch der Grund dafür, dass für Konzert-DVDs oder Blu-ray Discs meist eine separate, nicht datenreduzierte Stereomischung erstellt wird. Für die Heimwiedergabe in 5.1 ist nach ITU-R BS 755-11 die Aufstellung fünf identischer Lautsprecher in gleichem Abstand zum Hörer vorgesehen (siehe Abb. 22, 23), doch die Realität zeigt, dass 5.1 Heimkinoanlagen für den Consumer-Bereich oft THX zertifiziert sind. Das bedeutet, dass lediglich die drei Frontlautsprecher identisch sind, jedoch dipole Lautsprecher für die Surround-Signale verwendet werden. Dadurch werden Surround-Signale derselben Mischung in einer THX-Wiedergabeumgebung leiser wahrgenommen als in einem Wiedergabesystem nach ITU [GSKö]. nt -L Fro Center oberhalb/unterhalb des TV nach unten/oben auf Zuschauer gerichtet -45° SUB Fron t- R +45° 0° -90° bis 110 ° +90° bis 110 ° Hörer Surround -L Abb. 22 Lautsprecheraufstellung nach Surround -R Abb. 23 Lautsprecheraufstellung nach THX ITU-R BS 755-1 Foto: Ruhnke, Malte | 20. Juli 2005 Die Vorraussetzungen, bezogen auf die Wiedergabesituation, die durch eine Produktion auf DVD oder Blu-ray Disc auftreten, gelten in der Regel für Filmmusik- und 1 siehe www.digital-movie.de/faq/faq-info.asp?ArtNr=116 [WWW11] 77 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Konzertproduktionen, da sich die Verbreitung autonomer Musikproduktionen ohne Bildbezug auf DVD-Audio oder SACD bisher nicht durchsetzen konnte. Die Mehrkanalmöglichkeiten, die sich durch die Nutzung der o.g. Medien erschließen, sollten mit dem Wissen über Metadaten, wie DRC und DialNorm (siehe Fußnoten Seite 16), verwendet werden. Eine weitere Eigenschaft, die heimische Wiedergabesituationen innehaben, ist die eingeschränkte Programmdynamik sowie die stark variierenden Bauformen und Frequenzgänge von Lautsprechern. Diese können von hochwertigen HiFi-Lautsprechern bis zu in Displays eingebauten Flachlautsprechern reichen. Center Front -R Front-L SUB Zuschauer/H örer Surround -L Surround -R Abb. 24 Lautsprecheraufstellung im Kino Im Kino kann die größtmögliche Programmdynamik wiedergegeben werden (siehe Abb. 3, Seite 12). Hier wird Musik hauptsächlich in Zusammenhang mit Filmen oder Opernproduktionen vorgeführt. Die Anordnung und Beschaffenheit der Lautsprecher, die Pegelverhältnisse zwischen Subwoofer, Front- und Surround-Lautsprecher und der Frequenzgang des Saals sind in den meisten Kinos definiert (siehe Abb. 24), so dass zur Gestaltung des Soundtracks bestmögliche Vorraussetzungen gegeben sind. Oftmals sind allerdings die Surround-Lautsprecher nicht in der Lage, das Frequenzspektrum zwischen 20Hz und 20kHz linear darzustellen, da diese den früheren Anforderungen von Dolby Stereo genügten. Über Dolby Digital ließen sich bereits breitbandige Signale im Surround übertragen, doch die Kinobetreiber erneuerten ihre SurroundLautsprecher diesbezüglich noch nicht. Überdies werden die beiden Surround-Kanäle jeweils über eine Reihe Surround-Lautsprecher wiedergegeben, was zu unerwünschten Kammfiltereffekten führen kann. Dies ist ein Grund dafür, dass selten diskrete Signale in den Surround-Bereich gesetzt werden. 78 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug 3 Praktische Umsetzung Neben zahlreichen Gemeinsamkeiten gibt es auch grundlegende Unterschiede bei der Umsetzung der verschiedenen medienspezifischen Musikproduktionen. Der Hauptunterschied ergibt sich aus der Antwort auf die Frage, für welches Zielpublikum produziert wird. Die Kenntnis dieses Faktors bestimmt die Herangehensweise an die Produktion. 3.1 Rollenverteilung in den medienspezifischen Produktionsstrukturen Es ist wichtig über Unterschiede und Gemeinsamkeiten von Strukturen innerhalb verschiedener Produktionsprozesse Bescheid zu wissen. Nur so kann die eigene Position richtig eingeschätzt und erfolgreich mit anderen Beteiligten kommuniziert werden. Eine erfolgreiche Kommunikation innerhalb des Produktionsteams trägt wiederum zu einem besseren Endprodukt bei, da so gemeinsam auf Schwierigkeiten und Probleme reagiert werden kann. Die künstlerische Leitung übernimmt in der Regel der Auftraggeber oder eine durch ihn eingesetzte Person. Bei Filmmusikproduktionen obliegt diese Aufgabe der Regie bzw. dem Komponist oder der Komponistin. Bei autonomen Musikproduktionen wird diese Aufgabe meist von den auftraggebenden Produzenten bzw. dem Label oder den Musikern selbst übernommen. Allerdings können die Vorstellungen der Auftraggeber, wie das Ziel realisiert werden kann, teilweise sehr vage sein, so dass sie die Unterstützung des Tonmeisters benötigen. Der Tonmeister oder die Tonmeisterin hat die Aufgabe, im Vorfeld die künstlerischen Intentionen zu erfassen und mit tontechnischen Möglichkeiten umzusetzen. Je umfassender die Kenntnisse, sowohl über die künstlerische Idee als auch über technische Gestaltungsmittel, sind, desto besser können diese kombiniert werden, um das gewünschte Ziel zu verwirklichen. Während der Aufnahme müssen technische Aspekte in den Hintergrund treten und die Musiker bei der Einspielung unterstützt werden. „Es geht darum einen Moment in einer künstlichen Studiosituation zu erzeugen, der dem Gefühl auf der Bühne zu stehen gleich kommt.“ sagt Stephan Köthe. Dabei ist es auch wichtig, in den entscheidenden Momenten einzugreifen. Im Gegensatz dazu sind dem Tonmeister während Konzertproduktionen, außer beim Aufbau der Mikrofonie und während der Live-Mischung, die Hände relativ fest gebunden. Hier besteht in der Regel nur während der Vor- und Postproduktion die 79 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Möglichkeit, künstlerisch in das Endprodukt einzugreifen. Eine Wiederholung einzelner Passagen ist nicht möglich. 3.2 Vorbereitung „The Secret of Success is Preperation.“ (Das Geheimnis des Erfolgs liegt in der Vorbereitung) sagte Alan Meyerson, favorisierter Tonmeister des Filmmusikkomponisten Hans Zimmer, einmal in einem Interview [WWW02]1. Auch bei Konzertmitschnitten, Opernübertragungen oder Album-Produktionen gilt dieser Leitgedanke. Die Layouts einer Filmmusikproduktion gleichen vorproduzierten Songs einer Album-Produktion. In beiden Fällen werden die Stücke entweder am Computer oder vergleichsweise günstig im Heimstudio vorproduziert, bevor die kostenintensiven Aufnahmen für das Zielmedium durchgeführt werden. Bei orchestralen Filmmusikproduktionen ist eine gute Vorbereitung unerlässlich, da bereits der erste aufgenommene Take im Film verwendet werden kann. Bei Konzertproduktionen dagegen kann in der Regel das Ereignis nicht auf Grund technischer Probleme wiederholt werden, so dass sowohl Mitschnitt als auch Übertragung nur durch gründliche Planung, Tests und Proben sicher umgesetzt werden können. Die Vorlage der Noten ist eine wichtige Vorraussetzung, um sich während der Aufnahme innerhalb der Stücke orientieren zu können. Bei autonomen Musikproduktionen und bei Konzertmitschnitten werden Notizen über die Qualität der Takes in die Noten eingetragen. Allerdings stehen bei popmusikalischen Konzertproduktionen Noten eher selten zur Verfügung, so dass hierbei die Kenntnis der Songs nicht unerheblich ist. Bei Live-Übertragungen dagegen werden die Noten genutzt, um während der Proben Hinweise darüber einzutragen, welche Mikrofone oder anderen Einstellungen während der Aufnahme vorgenommen werden müssen. Weiterhin ist wichtig, eine genaue Vorstellung über den Signalfluss zu haben. Dieser kann mit Hilfe von Saal-, Spur- und Mikrofonplänen organisiert werden. Auch wenn der Aufbau einer mobilen Tonregie weiterreichende Überlegungen über den Signalfluss erfordert, so muss sowohl im Tonstudio als auch im Konzertsaal der Überblick darüber, mit welchem Mikrofon welches Instrumentensignal über welche Leitung aufgezeichnet wird, behalten werden. 1 In Hollywood kostet Meyersons Aussage nach, eine dreistündige Orchestersession 100.000$ und es müssen 25 Minuten Musik in dieser Zeit, mit allen Dopplungen und Overdubs, aufgenommen werden. Zu der anschließenden Mischung der teilweise bis zu 4000 Spuren fassenden Hybridscores (Batman – The Dark Knight Rises), gehört ein enormer Vorbereitungsaufwand. 80 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Nicht zuletzt sollte der benötigte Speicherplatzbedarf berechnet werden. Pauschal können für eine Stunde Aufnahmedauer bei einer Abtastrate von 48kHz und einer Auflösung von 24Bit gut 500MB Speicherplatzbedarf pro Aufnahmespur veranschlagt werden. Für eine genaue Berechnung des benötigten Speicherplatzbedarfs in MB gilt die Formel: Abtastrate[kHz] ! Bitrate ! Spurenanzahl ! Dauer[s] 8 = Speicherplatzbedarf [MB] 1024 3.3 Aufnahmeraum und Besetzung Die Wahl des Aufnahmeraumes sollte ebenfalls mit dem Wissen über das entsprechende Zielmedium bzw. den gewünschten akustischen Eindruck gewählt werden. Soll der Eindruck erweckt werden, dass sich viele Musiker in einem großem Raum oder wenige Musiker in einem kleinen Raum oder wenige Musiker in einem großen Raum befinden? Soll der Raum hell und breit oder dunkel und tief klingen? Diese Fragen sollten geklärt werden, ehe sich für einen Aufnahmeraum entschieden wird. Auch praktische Überlegungen spielen eine Rolle. Handelt es sich um ein Tonstudio, welches technisches Equipment zur Verfügung stellt oder soll die Aufnahme in einer Kirche oder einem anderem Raum stattfinden? Ist der Konzertsaal mit einer Tonregie ausgestattet, die zur Nutzung bereit steht oder muss diese aufgebaut werden? Unbekannte Räume sollten zwingend zuvor besichtigt werden, weil sich Maße und Wandbeschaffenheit negativ auf die Aufnahme auswirken können. Bsp.: Bei der Besichtigung einer Musikschulaula, in der eine Opernsängerin einige Lieder aufnehmen wollte, kam es zu einem solchen Problem. Für ihr Stimmvolumen war der Raum zu klein und die glatten Wände verstärkten ihre Formanten in einer Weise, die ein Gellen im Ohr verursachte. Da dies für eine Aufnahme unvorteilhaft gewesen wäre, wurde nach einem anderen Ort gesucht, obwohl die Sängerin die Aula favorisierte. Aber auch akustisch zufrieden stellende Räume können noch Probleme mit sich bringen, wie etwa summende Beleuchtung, knarrende Böden oder Getränkeautomaten im Flur. Diese Störfaktoren können relativ einfach behoben werden, während Außenlärm kaum reguliert werden kann. So können sich Erschütterungen im Boden, verursacht von vorbeifahrenden Straßenbahnen, über die Gebäudemauern übertragen und im Tiefbassbereich hörbar werden. Sind die Störfaktoren zu stark müssen die Aufnahmen eventuell nachts stattfinden. 81 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Mögliche Störfaktoren in unmittelbarer Nähe sind: • stark frequentierte Straßen • Baustellen • Verkehrsknotenpunkte wie U-Bahn, S-Bahn, Flughafen • Kindergärten, Spielplätze, Schulen • Kirchen (Glocken) • Feuerwehrwache, Krankenhäuser • Straßen mit Kopfsteinpflaster Wenn der Aufbau einer mobilen Tonregie notwendig ist, sollte bei der Vorbesichtigung bereits ein geeigneter, ruhiger Platz gefunden und sichergestellt werden, dass dieser während der Aufnahme zur Verfügung steht. Ein guter Regieraum ist kein Durchgangszimmer, hat keine Fenster, durch die Lärm kommen kann und verfügt über Tisch und Stühle. Alles, was nicht bereits vor Ort ist, muss zusätzlich eingeplant und transportiert werden. Eine örtliche Kontaktperson kann dabei Auskunft geben und weiß z.B. auch, welcher Raum über Nacht abgeschlossen werden kann. Zu überprüfen sind die Anzahl zugängiger Steckdosen sowie Entfernung zum Aufnahmesaal, damit die Längen für etwaig benötigte Multicore-Kabel abgeschätzt werden können. Oft ist die Wahl einer Garderobe günstig, da diese über oben genanntes Mobiliar, Strom und gute Lichtverhältnisse verfügt und sich in Bühnennähe befindet. Tatsächlich spielen jedoch meist die Kosten der Miete der idealen Aufnahmeräume eine große Rolle, so dass nicht immer alle Kriterien erfüllt werden können. Auch die Aufstellung der Musiker sollte bereits so erfolgen, wie es für das Zielmedium sinnvoll ist. Beispielsweise kommt es bei orchestralen Filmmusikproduktionen vor, dass die Kontrabassisten, im Gegensatz zur klassischen Orchesteraufstellung, mitten in das Orchester gesetzt werden. Auch bei der Aufstellung des Orchesters sind hauptsächlich zwei Varianten üblich, deren klangliche Auswirkungen im Vorfeld der Aufnahme bedacht werden sollten. Bei der deutschen1 Aufstellung sitzen sich die ersten und zweiten Violinen gegenüber, während sie bei der amerikanischen Variante nebeneinander sitzen. Klanglich betrachtet, kann mit Hilfe der deutschen Aufstellung ein breiteres Klangbild erreicht werden, dafür funktionieren Arrangements, bei denen sich die ersten und zweiten Geigen gut hören müssen, besser mit der amerikanischen Aufstellung. 1 auch europäische oder antiphonische Aufstellung genannt 82 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Bei Musikproduktionen in realen Aufführungsstätten, wie Konzert- oder Opernproduktionen, sind die Bedingungen selten ideal. Weder die Räumlichkeit noch die Aufstellung der Musiker ist immer optimal. Mitunter muss beispielsweise ein Chor viel zu nah am Orchester stehen, weil es die Bühnensituation nicht anders erlaubt. Die Aufgabe des Tonmeisters ist es dann, aus der schwierigen Situation trotz alledem brauchbare Signale zu extrahieren. Da sind, auch aus optischen Gründen unter Rücksichtnahme auf die Bildgestaltung, kreative Lösungen zur Aufstellung oder Anbringung der Mikrofone gefragt (z.B. indem einzelnen Sängern eines Chores Funkmikrofone auf die Schultern gesetzt werden, um die Hintermänner aufnehmen zu können). 3.4 Synchronisation zum Bild Wenn ein Zusammenhang zwischen Ton und Bild bestehen soll, muss ein Weg gefunden werden, diese beiden Elemente miteinander zu synchronisieren. KonzertProduktionen, bei welchen Audio- und Videosignale zeitgleich aufgezeichnet werden sollen, erfordern eine rein technische Synchronisation. Diese erfolgt meist über einen gemeinsamen Timecode (siehe B 3.2.3). Bei Filmmusikproduktionen dagegen werden Bildbearbeitung und Tonpostproduktion technisch unabhängig voneinander durchgeführt. Die Synchronität von musikalischen Effekten und Bildinhalten unterliegen künstlerischen Ideen. Für die Aufzeichnung von Musik passend zum Bild wird in der Regel ein Clicktrack erstellt, an dem sich die Musiker während der Aufnahme wie an einem Metronom orientieren. Auch die Synchronisation der Musiker mit einem optischen Click ist möglich [siehe A 3.4.2]. Die Nutzung des Clicks ist allerdings nicht nur der Filmmusikproduktion vorbehalten. In der Produktion von Popmusik ist die Verwendung des Clicks ebenfalls ein Mittel, um die einzeln eingespielten Instrumente musikalisch miteinander auf ein Tempo zu synchronisieren. Auch bei Pop-Konzerten werden zur Synchronisation der Band mit zugespielten Playbacks Clicktracks genutzt. Diese werden dann in der Regel nur vom Schlagzeuger gehört, welcher das Tempo für seine Mitmusiker vorgibt. 83 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug 3.5 Mikrofonie Die Anzahl und die Positionierung der Mikrofone ermöglichen dem Tonmeister oder der Tonmeisterin die Gestaltung des Klangbildes. Dieser entscheidende Faktor sollte bereits vor und während der Aufnahme berücksichtigt werden, um die Mischung entsprechend den Anforderungen des Zielproduktes zu gestalten. Bei Aufnahmen von akustischen Ensembles wird in der Regel das Signal eines Hauptmikrofonsystems als Grundlage für den Aufbau des Klangbildes verwendet. Mitunter wird viel Zeit bei der optimalen Positionierung des Hauptsystems verwendet. Stützmikrofone werden bei klassischen Musikproduktionen oft relativ weit entfernt von den Instrumenten positioniert, so dass auch Reflexionen des Aufnahmeraumes hörbar werden. Der Klang wird als „luftig“ bezeichnet. Zudem wirken sich bewegungsabhängige Frequenzänderungen des Musikers mit zunehmendem Abstand schwächer aus und die Klangfarbe entspricht eher den Hörerfahrungen des Publikums. Dafür erhöht sich jedoch das Übersprechen, was zu einer geringeren Kontrollierbarkeit der Signale während der Mischung führt. Instrumente, die einer elektrischen Verstärkung bedürfen, werden meist räumlich oder zeitlich getrennt voneinander aufgenommen, so dass der Aufbau eines Hauptsystems überflüssig wird. Die Mikrofone werden eher nah positioniert, so dass während der Mischung alle Möglichkeiten der Klangbearbeitung, wie Klangfarbe, Pegel und Lokalisation, offen stehen. Die Aufnahme eines einzelnen Instrumentes ermöglicht wiederum den kreativen Einsatz von Raumantworten (z.B. Schlagzeugaufnahmen im Gang). Bei orchestralen Filmmusikproduktionen wird in der Regel ein dreikanaliges Hauptmikrofonsystem gewählt. Mit diesem gehen die Ausprägung der Räumlichkeit oder der Tiefenstaffelung einher. Der häufig verwendete Decca-Tree beispielsweise trägt zu einer hohen Präsenz der Streicher bei, kann aber in bestimmten Fällen bei großen Ensembles zu einer Störung der Tiefenstaffelung führen (im Gegensatz zum OCTHauptmikrofonsystem). 84 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Die Ästhetik der Filmmusikproduktion verfolgt einen sehr direkten Klang, welcher durch verhältnismäßig nahe Stützen erstellt wird. Damit lassen sich einzelne Melodiebögen oder Soli differenziert behandeln. Der klassische, luftige Klang wird über weiter entfernte Stützen erzeugt, was jedoch zu einem erhöhten Übersprechen der anderen Instrumente und einer geringeren Kontrollierbarkeit der Signale führt. Wie stark während der Mischung der Gesamtklang beeinflusst werden kann, hängt mit der Ausprägung des Übersprechens weiterer Instrumente zusammen, welches auch von der Entfernung des Mikrofons zum Musiker abhängig ist. Eine Möglichkeit zur Dämpfung des Übersprechens ist z.B. das Aufstellen von Stellwänden zwischen den Musikern oder die Aufnahme in Sections (siehe A 3.4.3). Bereits bei der Aufstellung der Stützmikrofone sollte die Abstrahlcharakteristik des jeweiligen Instruments mit einbezogen werden. Innerhalb der Hauptabstrahlachse einer Schallquelle (z.B. Verstärkerbox) ist die Ausprägung hoher Frequenzen am stärksten. Wird das Mikrofon aus dieser Achse herausbewegt, verringert sich die Präsenz und das Signal klingt matter bzw. „weicher“ [GSKö]. So können während der Aufnahme solistische und die Melodie unterstützende Instrumente auf unterschiedliche Weise aufgenommen und vorab schon Klangeinstellungen vorgenommen werden, die sonst während der Mischung umgesetzt werden würden. Während der Aufzeichnung oder Übertragung von Konzerten ist die Wahl der Mikrofonposition meist durch optische und praktische Faktoren beeinflusst. Beispielsweise müssen Mikrofone bei Opernproduktionen sehr unauffällig sein. Die Aufstellung eines Hauptsystems in optimaler Position ist fast unmöglich. Dafür werden die Bühnenkanten mit zahlreichen Mikrofonen versehen. Zudem erhalten die Sänger meist Funkmikrofone, die im Kostüm eingearbeitet werden. Bei klassischen Konzertmitschnitten ist die Positionierung der Haupt- und Stützmikrofone etwas einfacher, da meist relativ unauffällige Stäbchenmikrofone eingesetzt werden können. Der Abstand des Hauptmikrofonsystems kann meist gut eingestellt werden, während die Stützen recht nah positioniert werden müssen. Bei popmusikalischen Konzertmitschnitten ist die Sichtbarkeit von Tontechnik kein Problem. Die Positionierung der Mikrofone ist auf Grund der popmusikalischen Klangästhetik und der meist lauten Beschallung sehr nah. Die Mikrofonierung übernimmt in diesem Fall der oder die für die Beschallung verantwortliche Mischtonmeister oder Mischtonmeisterin. 85 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug 3.6 Schnitt Außer bei Live-Übertragungen erfolgt spätestens nach der Aufnahme der Schnitt. Dem Zuhörer soll ein Musikstück dargeboten werden, welches den Eindruck eines organischen, ganzheitlichen Werkes vermitteln soll. Nur in der realen Konzertsituation ist so etwas sonst möglich. Üblich ist es bei Musikproduktionen fast jeder Art, einzelne Abschnitte sowie einzelne Instrumente getrennt voneinander aufzunehmen, die anschließend zusammengesetzt werden müssen. Selbst bei Konzertmitschnitten werden häufig nachträglich Störgeräusche entfernt, Musikstücke aus unterschiedlichen Aufführungsterminen zusammengefügt oder andere Korrekturen vorgenommen. Bei autonomen Musikproduktionen wird ein ganz erheblicher Aufwand betrieben um ein erstklassiges Ergebnis zu erzielen. Mitunter werden einzelne Viertel aus verschiedenen Takes zusammengefügt. Besonders bei Stücken, die keinem festen Tempo unterliegen, wie es z.B. bei romantischer Musik meist die Regel ist, kann es zu beachtlichen Schwierigkeiten bei den Übergängen im Tempo unterschiedlich gespielter Takes kommen. Zudem werden die Takes bei autonomen Musikproduktionen meist nacheinander aufgenommen, so dass bei der Suche eines geeigneten Austauschtaktes lediglich durch Abhören der Takes und Orientierung an der Wellenform der ungefähre Zeitpunkt der benötigten Passage gefunden werden kann1. Ausführliche Notizen zu den Aufnahmen werden zwingend benötigt. Zudem muss berücksichtigt werden, dass das Endergebnis keine visuelle Komponente mit sich bringt, welche die Aufmerksamkeit des Konsumenten beeinflusst. Durch mehrmaliges Hören einer CD können Unstimmigkeiten mit der Zeit auffallen und immer störender wirken. Deshalb hat sich eine Arbeitsweise mit sehr hohem Schnittaufwand entwickelt. Verglichen mit dem Aufwand, den Musiktonmeister bei autonomen Musikproduktionen auf sich nehmen, ist der Schnitt bei Filmmusikproduktionen relativ einfach. Da die Musik in den meisten Fällen genau zum Timecode eingespielt wird, liegen in der DAW die gleichen Takte aller Takes übereinander. Üblicherweise werden die favorisierten Takes bereits grob zusammengesetzt, so dass anschließend lediglich die Übergänge austariert werden müssen. Zusätzlicher Schnittaufwand entsteht durch die Notwendigkeit akustische Aufnahmen an das synthetische Material anzugleichen. 1 Die DAW SEQUOIA der Firma Magix ermöglicht die Suche nach ähnlichem Material, indem zeitliche, akustische und musikalische Parameter analysiert und verglichen werden. Weiterhin lassen sich musikalisch gleiche Inhalte zeitlich idealisiert übereinander angeordnet darstellen, so dass die Suche nach gleichem Material aus anderen Takes stark vereinfacht wird. Siehe http://pro.magix.com/de/sequoia/funktionen/audio-analyse.202.html [WWW14] 86 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug 3.7 Mischung Live-Mischungen stellen eine besondere Herausforderung dar, da es, im Gegensatz zu allen anderen Produktionsformen, keine Möglichkeit gibt Korrekturen durchzuführen. Dafür ist am Ende der Veranstaltung die Arbeit getan. Die Dauer der Mischung anderer Produktionen hängt überwiegend vom vorhandenen Budget und der gegebenen Zeit ab. Bei der Mischung von Hybridscores in Filmen wird meist das sehr genau ausgearbeitete synthetische Material als Grundlage genommen und der Orchesterklang zur Erhöhung der Lebendigkeit hinzugefügt. Dafür können tiefe Frequenzen im Orchester eingeschränkt werden, damit sie sich nicht unnötig mit den synthetischen Bässen addieren [WWW02]. Die Mischung von Computerspielmusiken stellt den Tonmeister oder die Tonmeisterin vor das Problem, dass keine festgelegten Wiedergabebedingungen beim Konsumenten vorherrschen. Diese können sowohl in 5.1 als auch stereofon oder monofon über hochwertige oder kostengünstige, bandbegrenzte Lautsprecher erfolgen. Alan Meyerson berichtet, dass er solche Mischungen wie eine Trailermischung betrachtet. Das bedeutet, dass er alle Elemente sehr stark in den Vordergrund setzt und sich relativ wenig auf die Tiefenstaffelung konzentriert. Um die Basswiedergabe über bandbegrenzte Lautsprecher zu ermöglichen, fügt er künstliche Verzerrungen hinzu [WWW02]. Zusätzlich wird die Dynamik sehr stark eingeschränkt. Im Gegensatz zur Stereofonie, bei der immer mit Phantomschallquellen zwischen dem linken und rechten Lautsprecher gearbeitet wird, steht bei der 5.1 Wiedergabe ein diskreter Center-Lautsprecher für die Darstellung mittiger Signale zur Verfügung. Bei Filmproduktionen ist der Center-Kanal vorrangig dem Dialog vorbehalten, welcher immer verständlich sein soll [GMSc]. Zudem wird ihm das Center-Signal des dreikanaligen Hauptmikrofonsystems zugeführt. Alle weiteren Filmmusiksignale werden meist stereofon zwischen linkem und rechtem Kanal verteilt, so dass sie als Phantomschallquelle wahrgenommen werden. 87 Gegenüberstellung unterschiedlicher medienspezifischer Musikproduktionen mit und ohne Bildbezug Weiterhin kann der Center-Kanal zur Stabilisierung der Lokalisation der Instrumente im Orchester genutzt werden. Dabei sollte aber stets beachtet werden, dass die Sprachverständlichkeit nicht angegriffen wird, da der „Musik-Center“ sonst während der Filmmischung vermutlich abgesenkt wird. Dies würde wiederum zum Zerfall des Klangbildes und zur Bildung eines Mittenlochs führen. Abhängig von der bearbeiteten Szene kann der Center durchaus stärker eingesetzt werden, wenn z.B. gerade kein Gespräch stattfindet und die Musik dramaturgisch die Führung übernehmen soll. Bei rein musikalischen Produktionen, wie Konzert- oder Opernproduktionen, wird der Center-Kanal oft mit diskreten Signalen, wie Bass und Soli, beschickt. Allerdings sollte bei der Mischung bedacht werden, dass die heimische Wiedergabesituation häufig lediglich stereofon ist oder der Center-Lautsprecher nicht an der vorgesehenen Position steht. Daher erstellen viele Tonmeister zunächst eine Stereomischung, die anschließend für eine Wiedergabe in 5.1 aufbereitet wird [MA07, S. 239]. Somit werden Elemente, die mittig wiedergegeben werden sollen oftmals auf alle drei Frontlautsprecher verteilt. Die Nutzung des Center-Kanals ist abhängig vom Zielmedium und von der dramaturgischen Bedeutung der Musik im Zusammenspiel mit dem Dialog. Bei allen mehrkanaligen Wiedergabesystemen wird der Center-Kanal aus verschiedenen Gründen eher vorsichtig genutzt. Auch die Nutzung der Surround-Kanäle erfolgt sowohl aus dramaturgischen, als auch aus technischen Gründen meist relativ zurückhaltend. Einerseits soll der Fokus auf den Bildschirm gerichtet bleiben, andererseits ist die Wiedergabesituation (Wiedergabelautstärke der Surround-Signale aufgrund der Aufstellung, Beschaffenheit und Norm) nicht bekannt. Gemeinsam haben alle mehrkanaligen Musikproduktionen, dass das Bassmanagement nicht auf die Wiedergabe über den LFE-Kanal aufgebaut werden sollte. Es ist weder in der Heim- noch in der Kinowiedergabesituation sicher gestellt, dass der LFE-Kanal frequenzbegrenzt und mit dem entsprechenden Pegel wiedergegeben wird. Ein wichtiger Unterschied bei der Wiedergabe des LFE-Kanals ist, dass dieser sowohl im Kino als auch über Blu-ray Disc oder DVD 10dB lauter wiedergegeben wird als die anderen Kanäle. Für Musikproduktionen auf DVD-Audio oder SACD ist diese Anhebung derzeit nicht üblich [ITU12]. Bei der Mischung jeglicher Musik sind neben den inhaltlichen, dramaturgischen und musikalischen Vorstellungen auch die speziellen Vorgaben durch das Zielmedium sowie die Erwartungshaltung des Publikums einzuarbeiten. 88 Schlussbetrachtung D. Schlussbetrachtung Jede medienspezifische Produktionsstruktur setzt eine andere Verfahrensweise bei der Bearbeitung des jeweiligen Produktionsabschnittes voraus. Dabei ist das Zielmedium bzw. das Zielpublikum, für welches produziert wird, maßgeblich. Durch diese Faktoren ändern sich die Herangehensweisen an Aufnahme und Mischung. Das Zielmedium zieht sowohl technische Faktoren, die mit dem Wiedergabesystem einhergehen, als auch künstlerische und dramaturgische Kriterien nach sich. Bereits die Planung einer bildbezogenen Musikproduktion wird entscheidend von Zielmedium und Wiedergabesituation beeinflusst. Die Positionierung der Mikrofone bei der Aufnahme sollte im Hinblick auf das gewünschte Klangbild erfolgen. Bei der Aufnahme „klassischer“, akustischer Ensembles ist es die Art des Hauptmikrofonsystems und die Anzahl der Stützmikrofone, welche den Klang mit Blick auf das Zielmedium gestalten. Bei Konzertproduktionen muss allerdings bei der Mikrofonierung Rücksicht auf räumliche Gegebenheiten und die Bildgestaltung genommen werden. Für Musikmischungen mehrkanaliger Wiedergabesituationen muss ebenfalls berücksichtigt werden, dass die Musik beim Film im Gegensatz zur reinen Musikproduktion besondere inhaltliche Funktionen übernimmt. Zudem kommen weitere Tonelemente hinzu, so dass Filmmusik, Dialog und Soundeffekte sich gegenseitig beeinflussen. Daher unterscheidet sich beim Film die Nutzung des Center-Kanals von den Möglichkeiten bei autonomen Musikproduktionen, wie Konzert- oder Opernproduktionen. Unabhängig von der ungewissen heimischen Wiedergabesituation muss abhängig davon, ob es sich um eine Film- oder Musikproduktion handelt, klar zwischen den verschiedenen Richtlinien von ITU und THX unterschieden werden. Diese bestimmen sowohl den Frequenzgang und die Aufstellung der Lautsprecher als auch die Höhe der Verstärkung des LFE-Kanals. Es ist nachvollziehbar, dass für die jeweiligen Musikproduktionen spezialisierte Tonmeister und Tonmeisterinnen benötigt werden, da für die professionelle Umsetzung der jeweiligen Situation ein hohes Maß an Kenntnissen und Erfahrungen erforderlich sind. Vor der Ausübung jedweder medienspezifischer Musikproduktion sollte sich daher mit den dramaturgischen, künstlerischen und technischen Anforderungen des Zielmediums, den genretypischen Hörerwartungen des Zielpublikums und den Vorstellungen und Wünschen des Auftraggebers auseinandergesetzt werden. 89 Anhang Anhang Literaturverzeichnis [KF96] Adorno, T. W., “Komposition für den Film”, 1996, Europäische Verlagsanstalt, Hamburg [BT93] Ahnert, W., Steffen, F., „Beschallungstechnik – Grundlagen und Praxis“, 1993, Hirzel Verlag, Leipzig [TTF03] Albersmeier, F.-J., „Texte zur Theorie des Films“, 5. Durchgesehene und erweiterte Auflage, 2003, Reclam, Stuttgart [PRT05] Bartlett, B. und J., „Practical Recording Techniques“, 2005, Elsevier Inc, Burlington [SKT02] Bayersdörfer, H.-P., “Stimmen – Klänge – Töne”, 2002, Narr, Tübingen [AM99] Brüderlin, R., „Akustik für Musiker“, 1999, Gustav Bosse Verlag, Kassel [HT08] Dickreiter, M., Dittel, V., Hoeg, W., Wöhr, M., „Handbuch der Tonstudiotechnik“, 7. Bearbeitete und ergänzte Ausgabe, 2008, De Gruyter Saur Verlag, München [AE07] Friesecke, A., „Die Audio-Enzyklopädie: Ein Nachschlagewerk für Tontechniker“, 2007, K. G. Saur Verlag, München [DT03] Gernemann, A., „Decca Tree – gestern und heute“, aus „Bericht 22. Tonmeistertagung 2002“, 2003, Verlag K.G. Saur, München [LXF12] Gervink, M., Bückle, M., „Lexikon der Filmmusik“, 2012, Laaber-Verlag, Laaber [MG06] Gritten, A., King, E., „Music And Gesture“, 2006, Ashgate, Hampshire [FM64] Helman, A., „Probleme der Musik im Film“ aus Baumert, H., „Filmwissenschaftliche Mitteilungen“, Nr. 3/1964, 5. Jahrgang, Deutschen Hochschule für Filmkunst, Berlin [FM65] Helman, A., ”Hauptrichtungen der Musikentwicklung im modernen Film”, Übersetzt von Mückenberger, C., aus Baumert, H., „Filmwissenschaftliche Mitteilungen“, Nr. 1/1965, 6. Jahrgang, Deutschen Hochschule für Filmkunst, Berlin [MA07] Katz, B., „Mastering Audio- the art and the science“, zweite Auflage, 2007, Elsevier Inc, Burlington [TF64] Kracauer, S., „Theorie des Films“, 1964, Suhrkamp Verlag, Frankfurt am Main [AG82] Rabenalt, P., „Die auditiven Gestaltungsmittel in der Film- und Fernsehkunst“, aus „Lehrbrief / Hochschule für Film und Fernsehen / Lehrstuhl für Film- und Fernsehwissenschaft“, 44/1982, Potsdam-Babelsberg [DF86] Rabenalt, P., „Dramaturgie der Filmmusik“, aus „Theorie und Praxis des Films“, 3/1986, Potsdam-Babelsberg [KF97] Schneider, N.J., “Komponieren für Film und Fernsehen”, 1997, Schott Musik International, Mainz [SO05] Segeberg, H., Schätzlein, F., “Sound. Zur Technologie und Ästhetik des Akustischen in den Medien”, 2005, Schüren Verlag GmbH, Marburg 90 Anhang [MM03] Stavrou, M. P., „Mixing with your mind – closely guarded secrets of sound balance engineering“, 2003, Flux Research Pty Ltd, Mosman [FG81] Thiel, W., “Filmmusik in Geschichte und Gegenwart”, 1981, Henschelverlag Kunst und Gesellschaft, Berlin [TT58] Trommer, F., “Tontechnik”, 1958, Fotokinoverlag, Halle [CAT01] „Produktinformation GFM132-Grenzflächenmikrofon“, Georg Neumann GmbH [ITU12] International Telecommunication Union – Radiocommunication Sector of ITU, „Recommendation ITU-R BS.775-3 - Multichannel stereophonic sound system with and without accompanying picture“, 08/2012 [VA08] Snellgroup, Handbuch „Vistek V6811&V6812 HD Valid Generator v1.3“, 2008, Snell Ltd, Berks Persönliche Gespräche und eMails [GBWe] [GMSc] [GPFu] [GBAl] [GMSt] [EDBe] [GSKö] Gespräch mit Bernd Wefelmeyer, 31.5.2012 Gespräch mit Michael Schubert, 12.6.2012 Gespräch mit Peter Fuchs, 25.6.2012 Gespräch mit Bernhard Albrecht, 11.7.2012 Gespräch mit Martin Steyer, 13.7.2012 eMail von Dick Bernstein, 18.7.2012 Gespräch mit Stephan Köthe, 24.9.2012 Diplomarbeiten [DAWM] [DASH] [DADZ] Maderlechner, W., „Von Richard Strauss zu Errol Flynn“ Haberfeld, S., „LCR-Stereophonie im Kino“ Ziegler, D., „Der AC3 Standard in Theorie und Praxis“ Zeitschriften [AA11] Müller, E., “Tonmeister Jürg Jecklin im Gespräch”, aus der “Analog”Zeitschrift der Analogue Audio Association, 2011, Oberhausen [ARSC86] GRAY, M. H., „The birth of DECCA Stereo, aus „ARSC journal“, Band 18/1, 1986, Stanford Internetquellen (Stand: 24.10.2012) [WWW01] Synchronisation von Musik im Film http://www.richardbrice.net/cue_calc.htm [WWW02] Interview mit Alan Meyerson http://www.pensadosplace.tv/2012/01/10/episode-50-allan-meyerson/ [WWW03] Dolby Atmos http://investor.dolby.com/releasedetail.cfm?ReleaseID=666401 [WWW04] Begriffe, Standards und Systeme der Audiotechnik beim Kinofilm http://www.akustische-medien.de/texte/zmm_tontechnik98.htm [WWW05] Surroundlautsprecher von JBL http://www.audiopro.de/live/jbl_44651_DEU_AP.html 91 Anhang [WWW06] Soundworks Collection „Dark Knight Rises“ http://soundworkscollection.com/darkknightrises [WWW07] Überblick zur Geschichte der Mischpulte http://www.mixingconsole.org/web/main/history/ [WWW08] DTS als vorgeschriebenes Wiedergabeformat auf Blu-ray Discs http://broadcastengineering.com/audio/dts-technology-mandatoryaudio-format-blu-ray-and-hd-dvd-next-generation-disc-standards [WWW09] Informationen zur Arbeitsweise von Dolby-E www.dolby.com/us/en/professional/technology/broadcast/dolbye.html [WWW10] Schoeps Mikrofone http://www.schoeps.de/de/products [WWW11] Kurzdefinition der ITU-R BS 755-1 www.digital-movie.de/faq/faq-info.asp?ArtNr=116 [WWW12] Produktübersicht der Firma Teufel http://www.teufel.de/heimkino-thx.html [WWW13] Artikel zur Aufnahme von Konzertmitschnitten „Capturing the Energy of Live Shows“, Bob Owsinski, 2012 http://en.audiofanzine.com/live-sound/editorial/articles/capturing-theenergy-of-live-shows.html [WWW14] Audioanalysefunktionen von SEQUOIA http://pro.magix.com/de/sequoia/funktionen/audio-analyse.202.html [WWW15] die Schelllackplatte der Vorläufer der Vinylschallplatte http://grammophon-platten.de/page.php?14 [WWW16] Kundenrezension „Absolute Surround-Referenz“ http://www.amazon.de/review/R2KHL0HM9ZKIDC/ref=cm_cr_dp_tit le?ie=UTF8&ASIN=B000069CWE&channel=detailglance&nodeID=290380&store=music [WWW17] Tontechnik-Rechner für Laufzeiten http://www.sengpielaudio.com/Rechner-schallweg.htm [WWW18] Produktübersicht JBL 5672 3-Wege Frontsystem für große Säle http://www.audiopro.de/live/jbl_40768_DEU_AP.html 92 Anhang Abbildungsverzeichnis Abb. 1 Foto einer Strohgeige Urheber: Christophe Monié..............................................................................................7 Abb. 2 Darstellung eines Streamers auf einem Filmstreifen...................................................9 Abb. 3 Vom Konsumenten tolerierter Dynamikumfang in verschiedenen Wiedergabeumgebungen nach Bob Katz .....................................................................13 Abb. 4 Projektphasen einer Filmmusikproduktion.................................................................17 Abb. 5 Aufgaben von Ton und Komposition bei einer Filmmusikproduktion; Darstellung als Matrixorganisation...............................................................................18 Abb. 6 Beispiel eines Zeitplans....................................................................................................27 Abb. 7 Mitschriften auf gesondertem Blatt ...............................................................................36 Abb. 8 Notizen in der Partitur .....................................................................................................37 Abb. 9 Tabellen für aufgenommene Instrumente je Cue.......................................................37 Abb. 10 handlicher Schnitt mit Playlisten.................................................................................38 Abb. 11 Grenzwertfestlegung für die Signalverzögerung der Stützmikrofone als Funktion des Pegelverhältnisses und des Abstands nach Sengpiel ....................41 Abb. 12 Intensitätsstereofonie......................................................................................................42 Abb. 13 Laufzeitstereofonie..........................................................................................................42 Abb. 14 Leistungssumme von Haupt- und Stützmikrofon als Funktion des relativen Pegels nach Sengpiel ......................................................................................................45 Abb. 15 Beispiel eines Spurbelegungsplans .............................................................................62 Abb. 16 Projektphasen einer Live-Übertragung ......................................................................64 Abb. 17 Messung des Ton-Bildversatzes mittels VALID-System ........................................65 Abb. 18 Übertragungswagen von 1953* ....................................................................................66 Abb. 19 Übertragungswagen von 2012** ..................................................................................67 Abb. 20 Band im Studio* Quelle: Frieder G. Löbner ..............................................................................................75 Abb. 21 1952 Schlagersterne* Quelle: Klaus Herkner....................................................................................................75 Abb. 22 Lautsprecheraufstellung nach ITU-R BS 755-1 Foto: Ruhnke, Malte | 20. Juli 2005 .............................................................................77 Abb. 23 Lautsprecheraufstellung nach THX ............................................................................77 Abb. 24 Lautsprecheraufstellung im Kino ................................................................................78 Abb. 25 Großer Sendesaal im Funkhaus Nalepastraße Bundesarchiv, Bild 183-36132-0005 Foto: Sturm, Horst | 8. Februar 1956 ..........................................................................96 Abb. 26 Skizzierte Stereoaufteilung ...........................................................................................97 * ** - mit freundlicher Genehmigung des Sorbischen Museums Bautzen, Herr Nawka - mit freundlicher Genehmigung des ZDF, Frau Fornarelli 93 Anhang Gespräche Bernd Wefelmeyer Komponist, Arrangeur und Dirigent, HFF Ausschnitte aus dem Gespräch am 31.Mai 2012 Zunächst ist festzustellen, dass Filmmusik nie kritisiert wird, weil sie immer in Verbindung mit dem Film betrachtet wird. Musikalische Parameter werden obsolet und musikalische Werte verschieben sich in Richtung der Bild-Ton-Beziehung. Die Filmmusik soll das filmische Geschehen unterstreichen und unterstützen und sich mit allen Facetten des Films verbinden. Außerdem geht es um eine gemeinsame Sprache. Der Zuschauer muss die Musik verstehen. Bei einem Konzertstück kann der Komponist davon ausgehen, dass das Publikum die nötige musikalische Vorbildung hat, die ihn in das Konzert bewegt hat, aber das Publikum im Kino hat diese Vorbildung nicht und soll sie auch nicht benötigen, um die Stimmung des Films zu verstehen. Der Filmmusikkomponist muss Klischees so anwenden, dass sie trotzdem überraschen und auf diese Weise ihre Eigenart erhalten – das Gewohnte interessant erscheinen lassen. Dass Filmmusik wie Romantik klingt, stimmt aber nicht. Es wurde im Film bereits versucht mit Rock zu arbeiten und es wurde für Synthesizer komponiert. Das klingt heute aber wieder altmodisch. Die Filmmusik kehrt eher wieder zum Orchestersound zurück. Nachdem bereits alles Mögliche mit der Harmonik bis hin zur Aleatorik ausprobiert wurde, geht die Musik den Weg, bekannte Instrumente mit neuen Klängen zu verbinden um etwas Neues zu schaffen [Hybridscores]. Einspielungen von Filmmusik sind immer eine Uraufführung und kein Mensch weiß, wie es klingen soll. Selbst der Komponist kann nur zu 70% erahnen, wie seine Musik nach der Aufnahme klingen wird. Der Rest ist Überraschung. Man kann nur hoffen, dass der gewünschte Effekt und die gewünschte Empfindung erzeugt werden. Es muss schnell geprobt werden. Es liegen keine Interpretationsvergleiche vor. Nach ein oder zwei Durchläufen wird der erste Take aufgenommen. Da muss der Instrumentator so gut wie möglich arbeiten und sich um Klarheit und Rationalität bemühen. Ein 10/8-Takt kann noch so innovativ gemeint sein, es wäre aber besser zwei 4/4-Takte und einen 2/4-Takt zu notieren. Prokofjew konnte das gut. John Williams schaffte die Besonderheit in der Einfachheit. Arvo Pärt arbeitete schon mit Tempoüberlagerungen. Eine moderne Avantgarde ist in der Filmmusik nicht möglich. Das Bild bestimmt die musikalische Form. In dieses Korsett muss sich die Filmmusik einfügen. Der Regisseur liefert die Vorgaben und er hat Recht, schließlich ist der Film sein geistiges Kind. Darum ist es hilfreich, wenn man sich gut mit dem Regisseur versteht. Der Filmmusikkomponist muss sein Handwerk besser beherrschen, als ein Komponist absoluter Musik, denn wenn bei der Aufnahme etwas nicht funktioniert, wird er kein zweites Mal engagiert. Er muss allerdings den technischen Aufbau seiner Musik nicht erklären, da die Reflektion der Filmmusik vom Bild aus geht. Die Erfüllung der Filmmusik geschieht, wenn es einen erklärenden Kontrapunkt gibt, der beim Zuschauer einen Denkprozess auslöst. Als Beispiel dient eine Szene aus „Kuhle Wampe“ [1932] in der die traurigen, armen Leute, die nichts mehr haben, beisammen sitzen. Eine tragische Melodie gespielt auf einer Geige wäre üblich gewesen, aber Hanns Eisler lässt im Original eine Marschmusik ertönen, welche die positive Botschaft übermittelt, dass man sich nicht unterkriegen lassen soll. Es muss nicht immer eine paraphrasierende Musik sein, wenn es einen dramaturgischen Anlass gibt. Ansonsten ist der Komponist gefangener der Ästhetik des Bildes. Ist die Musik größer als das Bild, zieht man die Figuren und Probleme in die Lächerlichkeit. Man kann keine Geschichte, die sich in einem kleinen Zimmer mit grauen Wänden abspielt, mit pompösem Blech unterlegen. Eine musikalische Übertreibung ist nur in der Komödie oder im Animationsfilm möglich. 94 Anhang Obwohl sich der Filmmusikkomponist dem Bild unterordnen muss, wird er trotzdem gebraucht und beauftragt. Es gibt schon so viel gute Musik. Bach musste seiner Zeit für jeden Sonntag ein neues Stück für seine Thomaskirche komponieren, weil es keine [protestantische] Musik gab. Der Filmmusikkomponist hat einen dramaturgischen Hintergrund, an den er sich halten kann. Und er ist Mitglied in einem Team, welches etwas erschafft, was sich viele Menschen ansehen werden. Der Komponist absoluter Musik ist die meiste Zeit allein und weiß nicht, ob sein Werk aufgeführt werden wird. Produktionsseitig wird bei der Aufnahme von Filmmusik innovativer gearbeitet, als bei Produktionen für Musik ohne Bildbezug. Oft werden die Kontrabässe in die Mitte des Orchesters gesetzt. Einmal wurden die Streicher in einer Reihe nebeneinander gesetzt, um ein möglichst breites Streicherpanorama zu erhalten. Allerdings habe ich von diesem Aufnahmeverfahren nie wieder etwas gehört. Einzelne Sections werden aufgenommen, um das Übersprechen besser kontrollieren zu können. Bei schwierigen Stellen oder inhomogenen Arrangements wird das Orchester ebenfalls auseinander genommen. Mit Hilfe der einzelnen Orchsterstems hat der Mischtonmeister die Möglichkeit klangliche Eingriffe vorzunehmen, wenn sich während der Filmmischung die Musik mit dem Dialog oder dem Sounddesign frequenzmäßig überdecken. So können z.B. die Streicher weiter nach vorn gebracht werden, damit sie bei einer dialoglastigen Szene mitten im Straßenverkehr nicht unter gehen. Zusätzlich hat man bei der Kinomischung durch die Surround-Lautsprecher mehr als nur die Stereobreite, zwischen denen die akustischen Elemente verteilt werden können. Das bedeutet, dass bei der Filmmischung viel mehr mit der Musik experimentiert werden kann, da ein ästhetisch feststehendes Klangbild fehlt. Räumliche und klangliche Vorgaben sind nur bei absoluter Musik von Bedeutung. Eine Filmmusik für den Verkauf von Soundtrack-CDs wird nochmals anders gemischt. Mit Click wurde erst aufgezeichnet, als es die Möglichkeit gab den Dirigenten und alle Orchestermusiker über Verstärker mit geschlossenen Kopfhörern auszustatten. Nur den Dirigenten zu versorgen würde nicht funktionieren. Bis dahin setzte man sich mit einer Stoppuhr an den Schneidetisch und machte sich Notizen über seine Eindrücke. Zu Hause wurde dann das Stück komponiert, welches man später in der vorgestoppten Zeit einzuspielen hatte. Da es nicht die Möglichkeit gab Layouts am Sequenzer zu erschaffen, war es üblich, dass der Komponist dem Regisseur seine Ideen am Klavier vorspielte und dabei erklärte, dass die Melodie von der Flöte oder das Fundament von den Kontrabässen gespielt werden soll. Somit konnte es geschehen, dass es während der Aufnahme zu Überraschungen kam, weil es unterschiedliche Klangvorstellungen gab. Also wurde mit den Musikern experimentiert. Eine Erfindung aus dem Dresdener Trickfilmstudio ermöglichte erstmals das durchklopfen eines Films. Der Hammer funktionierte wie ein Metronom, welches man an einen Perfomaten synchronisieren kann. Damit war es möglich ein Taktmaß für den Film zu erhalten. Die ersten Clicktracks wurden auf Schnürsenkel1 aufgenommen. Ein Schlagzeuger machte mit seinen Drumsticks das Tempo hörbar, welches ihm der Komponist mit Blick auf die Stoppuhr vordirigierte. Das ¼-Zoll Magnetband wurde dann vor der Aufnahmesession in Echtzeit auf perforiertes Magnetband umgespielt, damit es zusammen mit den anderen Bandmaschinen synchronisiert werden konnte. In den 50er Jahren wurden noch ausschließlich Monoaufnahmen hergestellt. Damals schien die Aufstellung der Mikrofone noch wichtiger zu sein als heute, denn man hatte nur die Tiefenstaffelung als hörbar zu beeinflussenden Parameter. Die Mikrofone mussten möglichst hoch positioniert werden. Im Saal 1 des Funkhauses Berlin wurde eine komplizierte Aufhängung entwickelt, an der die Mikrofone wie Straßenbahnen umherschweben werden konnten. 1 ¼-Zoll Magnetband 95 Anhang Abb. 25 Großer Sendesaal im Funkhaus Nalepastraße, Bundesarchiv, Bild 183-36132-0005 Foto: Sturm, Horst | 8. Februar 1956 Schon damals wurden Stützmikrofone eingesetzt, jedoch mussten sie gleich während der Aufnahme zusammengemischt werden. Dafür war am Ende des Aufnahmetages die Musikmischung abgeschlossen. Die Filmmusiken wurden immer synchron zum Bild dirigiert und aufgezeichnet. Zur Orientierung diente eine Wachsmarkierung auf dem Filmstreifen eine Sekunde vor dem geplanten Einsatz der Musik. Wenn das X aufblitzte, wusste der Dirigent, dass es gleich losging. Im ersten Durchgang drehten sich alle Musiker um, weil die Neugierde zu groß war. Während des folgenden Takes verpassten die Bläser ihren Einsatz. Im darauf folgenden Durchgang spielten die Streicher unsauber. Beim nächsten Versuch wurde der Synchronpunkt nicht erwischt und so weiter. Wenn in Mitten eines Cues neu eingestiegen werden musste, wurde den Musikern die bis dahin aufgezeichnete Aufnahme vorgespielt und sie setzten im vereinbarten Takt ein. Schnitte wurden nur während hörbaren Impulsen, wie dem Einsatz eines Beckens, gesetzt. Trotz der technischen Schwierigkeiten wurden bereits Overdubs auf Schnürsenkel aufgenommen. Sänger wurden immer synchronisiert, wobei darauf zu achten war, dass das Band höchstens dreimal neu bespielt wurde. Danach konnte das Band nicht mehr genutzt werden, weil die Banddämpfung zu stark wurde. Als Ende der 60er Jahre verbreitet auf 4-Spur Geräte aufgezeichnet wurde, konnte man das Hauptmikrofonsignal getrennt von Streichern, Holz oder Blech aufnehmen. Die Verteilung der Instrumente im Stereobild wurde anhand der Partitur aufgemalt. Unterschieden wurde in der Skizze zwischen den Positionen Links, Halblinks, Halbrechts und Rechts. 96 Anhang Abb. 26 Skizzierte Stereoaufteilung Es wurde viel darüber diskutiert, ob z.B. die Violinen von Links bis Rechts, oder nur von Halblinks bis Rechts platziert werden sollen, damit die Kontrabässe und Celli noch Links platz haben etc. Solch nervenaufreibende Probleme gibt es heute nicht mehr. Heute dauern die Aufnahmen und Mischungen länger, weil mehr Entscheidungen getroffen werden können. 97 Anhang Michael Schubert Tonmeister, HfM Detmold Ausschnitte aus dem Gespräch am 12.Juni 2012 Welche Möglichkeiten sind dem Tonmeister gegeben, um ästhetisch in die Musikproduktion einzugreifen? Es gibt eigentlich hauptsächlich zwei Ebenen. Die eine ist die Aufnahmeebene, wo ich natürlich entscheiden muss, was für einen Raum ich für die Aufnahme wähle, bzw. was für einen Raum ich brauche. Ist es ein großes symphonisches Werk, oder eher eine kleine Instrumentengruppe, der später noch Elektronik zugemischt werden soll? Benötige ich einen guten Raum, der auch die Größe des Ensembles darstellt, oder reicht mir ein kleines, gut klingendes Studio, welches nicht so wahnsinnig viel Hall hat. Das wäre die erste Geschichte. Dann ist natürlich wichtig, wie ich die Produktion aufstelle. Dabei ist für mich immer interessant, ob es ein Fernseh- oder ein Kinofilm ist. Bei Kinofilmen versuchen wir zunehmend, zum Glück auch wieder in Deutschland, die deutsche Aufstellung an den Start zu bringen. Die ersten und zweiten Violinen sitzen sich gegenüber, Celli und Violen etwa halb links und halb rechts, und die Kontrabässe mittig (wenn man es verwirklichen kann) oder halb links, so dass man für Kino ein ausgewogenes Frequenzspektrum hat. Wenn man die amerikanische Aufstellung näher betrachtet, wo die Ersten und die Zweiten, die hohen Frequenzen demnach alle links sind und es dann nach rechts hinten rüber immer tiefer wird, dann kann man sich vorstellen, was man da so im Kino hört, wenn man nicht genau in der Mitte sitzt. Und die wenigsten sitzen genau in der Mitte im Kino. Wenn man z.B. sehr weit links sitzt, hört man immer nur helle, hohe Streicher aus dem linken Lautsprecher und nimmt von rechts eigentlich gar nichts mehr wahr. Und das verschiebt das Klangbild natürlich ziemlich. Mit der alten deutschen Aufstellung hat man bessere Möglichkeiten das zu balancieren. Außerdem nutzen einige Komponisten diese Aufstellung, um beispielsweise einen Echoeffekt, zwischen den ersten und zweiten Geigen, zu erzeugen, wie es früher in der Rockmusik vorkam. Wichtig sind als erstes der Raum und die Aufstellung der Orchestermusiker. Dann muss ich mir mit dem Komponisten reden, um was für eine Art Film es sich handelt. Ist es ein Drama, ein Gegenwartsfilm, Krimi oder ein Horrorfilm, und was für eine Art Musik hat er dafür komponiert. Daraus geht hervor, ob ich einen sehr direkten Klang, oder einen eher räumlichen Klang benötige. Die Art der Musik und das Genre. Davon hängt auch später ab, was in der Mischung passiert. Brauche ich eher bisschen kräftigere, zupackende Signale, oder brauche ich eher so einen schönen Mahler- oder Strauss-klang. Danach richte ich die Anzahl und die Position der Stützmikrofone aus. Bei schöner, flächiger Musik komme ich mit relativ wenigen Stützmikrofonen aus, dann würden sie mich eher stören, weil sie später Artefakte mit in die Mischung bringen. Ist es eher eine rhythmische Geschichte, ein Aktionfilm, Horrorfilm oder etwas in der Art, wo ich nachher einen direkten Klang benötige, gehe ich mit dem Mikrofon näher an die Instrumente heran und baue auch sicherheitshalber mehr Stützmikrofone auf. Das Problem bei der Filmmusikmischung im Gegensatz zur klassischen Mischung ist, dass ich z.B. bei einer Symphonie das Klangbild zu 90% bereits während der Aufnahme gestalte und auch weiß, wie es klingen soll - wo ich hin will. Bei der Filmmusikaufnahme weiß ich das nicht immer so genau, weil später noch Sänger oder Instrumente dazu kommen, die vom Sound her oftmals noch die gesamte Mischung umbauen und zusammenschieben. Deshalb brauche ich viele Möglichkeiten, mit Spotmikrofonen verschiedene Sounds zu erzeugen. Das sind die wichtigsten Dinge, die ich im Vorfeld mit dem Komponisten bereden muss, weil diese Einfluss nehmen auf die künstlerische Gestaltung, auf die Musikaufnahme und die Mischung. Bei der Mischung geht es dann weiter. Erst sollte man sich anhören, was der Komponist schon für Vorstellungen hat. Er hat meist schon einige Layouts. Ich selber kenne die Musik vorher nicht, die ich da aufgenommen habe und sehe auch den Film nur in Ausschnitten. Man hat manchmal einen inhaltlichen Überblick darüber. Dann fange ich meistens alleine an und erarbeite mir ein Klangbild, wie ich es mir vorstelle, meistens vom Orchester. Wobei es da heutzutage auch international verschiedene Richtungen gibt. Die Tendenz, die ich auch von Kollegen gehört habe, ist so, dass man großen Orchesteraufnahmen im Kino relativ trocken mischt, was ich auch versuche. Ich versuche den Raumanteil, auch wenn es schön und breit klingen soll, in Grenzen zu halten. Denn wenn zu viel drauf ist, bekommt man es schlecht weg, mehr kann man immer dazu geben. Größen des Geschäfts mischen relativ trocken, manche sogar völlig ohne Hall. Das wird alles erst bei der Filmendmischung dazu dosiert. Allerdings finde ich es schwierig, etwas völlig ohne Hall zu mischen, da ich dann gar keinen Eindruck von meiner Mischung habe. 98 Anhang Der heutige Mischstil tendiert dahin, die Räumlichkeit des Orchesters im Kinofilm etwas dezenter anzulegen, weil man hinterher immer noch die Gelegenheit hat, diese zu erweitern. Wenn etwas aber zu schwammig und zu hallig ist und man sich in den Sound verliebt hat, sagt der Mischtonmeister danach, das hat so viel Hall, damit kann ich nichts anfangen, dann hat man schlechte Karten. Zu dem Klangbild passe ich die entsprechenden elektronischen Stems und Tracks mit ein, die heute fast immer mit dabei sind. Percussion wird heute zum Großteil von Samplern programmiert, kaum noch gespielt, was Vorteile und Nachteile hat. Dann wird das nach den Vorstellungen des Komponisten zu einen Gesamtwerk verbunden. (Anonymus ohne Hall) Ich frage dann immer, ob die Mischung so ist, wie es der Komponist sich vorstellt, oder ob noch was verbessert werden kann. Man muss eben manchmal was Neues ausprobieren, um was Neues auszuprobieren. In der gesamten Musikproduktion und im Film noch mehr, ist es so, dass sich inzwischen kein Mensch mehr festlegen will. Jeder will sich das kleinste Detail bis zuletzt offen halten. Früher hat man schön auf die Perfos die Mischung drauf gemacht und dann war Feierabend. Das wieder aufzumachen war sehr aufwändig. Heutzutage hängen dutzende DAWs aneinander, damit man auch das kleinste Detail noch mal bearbeiten kann, noch mal ran gehen kann. Das ist in der Musik mittlerweile auch so, was ich eigentlich nicht so schön finde. Denn, was bei allen Dingen immer verloren geht, ist das Dynamische und Organische beim Spielen und auch bei der Mischung. Aber das muss jeder selber entscheiden. Ich kann das nur für die Musik beurteilen. Ich gucke zwar viele Filme, bin aber kein Experte dafür. Das kann Vor- und Nachteile haben und da wir heute Musikmischungen immer auch in Stems abgeben müssen, denn eine fertige Mischung nimmt kein Mensch mehr entgegen, ist natürlich auch die „Gefahr“ da, dass hinterher in Balancen und Raumanteile eingegriffen wird, von anderen Leuten, von Produzenten, Regisseur, Mischtonmeister, die nicht die Intentionen des Komponisten beachten, weil ihnen der Film wichtiger ist und sie meinen, sie müssten jetzt etwas verändern. Das das notwendig ist, ist mir klar, gerade wenn man Orchester, Percussion und Effektparts hat, ist es Notwendig, dass man die Möglichkeit hat in der Endmischung eine Rebalance zwischen den Dingen herzustellen. Wenn aber zu sehr rebalanced wird, kann es auch die Musik und die Intention des Komponisten zerstören, und das habe ich schon einpaar mal erlebt. Das ist genauso von dem künstlerischen, musikalischen Einfühlungsvermögen des Mischtonmeisters abhängig, das Durchsetzungsvermögen, bei den Produzenten und dem Regisseur - wie spielen alle zusammen. Mischen Sie zum Bild? Ich mische immer zum Bild, obwohl ich in letzter Zeit feststelle, dass viele immer weniger hingucken. Auch von den Komponisten her habe ich manche erlebt, die es meist gar nicht mehr interessiert, sie es aber mit laufen lassen, nur für bestimmte Stellen. Die O-Tonspur, so nennen wir das, was uns mit angeliefert wir, hören wir oft mit. Das kann schlechter OTon sein, oder ein Premix mit Effekten und paar Geräuschen. Wenn man das hat, neben dem, was man sieht, weiß man besser, was im Film passiert und kann die Musikmischung darauf hin besser anstellen. Gerade in der Balance bei Orchester zu Soloinstrumenten, da würde man U-Musik anders mischen, als wenn man sie unter weiteren Klangelementen hört. Wenn man sie leiser macht und oben drüber noch Atmos und Geräusche hat, dann wird ein Soloanteil schon mal viel zu laut, muss den also viel leiser mischen, als man ihn, wenn man nur Musik mischen würde, mischen würde. Und das ab und zu zu kontrollieren finde ich ganz wichtig. Aber manchmal gibt es Komponisten, die sehr genau wissen, was sie wollen, und deshalb auf solche Kontrollen verzichten. Heute ist es so, dass durch die ganzen elektronischen Möglichkeiten, der Computerprogrammierung auch alles programmiert wird. Dass etwas genau auf dem Bild, auf dem Schnitt passieren soll, wird im Vorfeld ganz genau festgelegt. Es ist nicht mehr so wie früher, dass sich der Dirigent vor das Orchester stellt und dirigiert, und das Tempo dann korrigiert wird, wenn es nicht genau zum Bild funktioniert. Aber durch die heutigen Möglichkeiten der Vorproduktion und der Click-basierten Produktion kann bereits alles so genau vorbereitet werden, dass man immer die Kontrolle darüber behält, dass ein bestimmter Part in der Musik oder ein bestimmter Hit genau auf die gewünschte Stelle fällt. Bei der Mischung muss so etwas dann überhaupt nicht mehr kontrolliert werden, das ist alles schon im Vorfeld passiert. Bei der Mischung kontrolliere ich die Lautstärken zusammen mit den Geräuschen oder dem Dialog, um zu sehen, was passiert. Wenn die Musik 20dB leiser ist, dann klingt sie ganz anders als bei 0dB. Das 99 Anhang betrifft sowohl die Balance der Instrumente und die Tracks untereinander, als vor allem auch die Räumlichkeiten zu einander. Deswegen finde ich es besonders wichtig, dass man immer wieder eine solche Kontrolle durchführt. Wie nutzen sie den Center? Der Center ist fast so wie eine No-Go-Area. Auf ihn lege ich eigentlich nur den Center vom DECCA1. Das ist das einzige Signal und es tut eigentlich nicht wirklich weh. Alle anderen Signale, alle Spotmics verteile ich im Panorama, und nutze am Digitalpult die Divergence2. Die Signale sind dann zwar im Panorama drin, aber nur als Phantomschallquelle. Damit bleibt der Center frei für den heiligen Dialog. Was machen Sie mit dem Center bei einer Musik im Abspann ohne Dialog? Dann könnte man ihn natürlich nutzen. Ich würde die Mischung aber nicht ändern. Wenn wir nur die Front betrachten – LCR – dann spielt es bei einer Orchestermusik nicht so eine große Rolle, ob da jetzt viel auf dem Center ist oder als nur als Phantomschallquelle. Bei eine Bandproduktion oder Popmusik, spielt es eine geringere Rolle, als man denkt. Man merkt es, wenn sehr viel auf dem Centerkanal ist, wie z.B. Gesang, Basedrum oder Snare, weil es eigentlich ungewohnt ist. Wir sind einfach dermaßen gewohnt, Phantomschallquellen zu hören, dass es irritierend wirkt plötzlich etwas direkt aus der Mitte zu hören. Aber der klangliche Unterschied ist nicht mehr so groß. Bei einer Orchesterfilmischung ist er eigentlich überhaupt nicht mehr signifikant. Ich würde dann eher, wenn man eine schöne Abschlussmusik mit Solisten hat, diese schön in den Center geben. Aber ansonsten lasse ich ihn eigentlich möglichst frei. Wie verhält es sich mit Surrounds? Aus meiner Sich ist das eine Entwicklung über viele Jahre. Ich kann mich erinnern, dass es, als ich anfing Surround-Mischungen anzufertigen und abzugeben, viele Mischtonmeister gab, die das gar nicht haben wollten. Sie sagten, dass ich ihnen lieber eine Stereomischung geben sollte und sie sich dann alles so einstellen würden, wie sie es brauchten. Ich sagte, du kannst es doch erst mal nehmen, wegnehmen kannst du es immer noch. Aber das ist lange vorbei. Man ist da immer etwas konservativ in der Beziehung. Inzwischen nehmen das alle sehr gerne. Natürlich nutze ich sie zum einen für die Räumlichkeit. Wenn man mal ehrlich ist, dann hört man, wenn man im Kino sitzt und einen schönen John Williams Soundtrack hört, auch nichts Direktes im Surround. Entweder werden sie gar nicht benutzt, oder auch die Surrounds sind so heilig für die Effekte, dass man wenige Chancen hat. Was ich zunehmend mache ist, dass ich versuche verschiedene Elemente und auch direkte Signale, in den Surround zu legen. Zum Beispiel lässt sich eine Synthfläche breit über alle vier Kanäle ziehen, von Links nach Rechts und in den Surround, oder bestimmte rhythmische Gitarren können mit ein bisschen Verzögerungen nach hinten verbreitert werden. Allerdings sollte man vorsichtig damit umgehen, ganz konkrete Signale nur in den Surround zu legen. Da muss man mit dem Regisseur gut Absprechen, ob er das wirklich haben will, denn wenn es einmal im Surround stört, kriegt man es auch nicht mehr so leicht weg. Es ist ein kleines Problemkind, aber es entwickelt sich. Das ist immer auch etwas von der Kreativität der Leute abhängig, vom Komponisten und wie weit alle dabei mitspielen, oder ob sich die Musik dafür anbietet, ob es Elemente gibt, die man in den Surround packen kann, usw. Außerdem muss man etwas vorsichtiger mit den Surrounds umgehen, damit der Mischtonmeister auch etwas damit anfangen kann und sich nicht dadurch gestört fühlt, wenn andere Signale im Film dann doch mal wichtiger sind. Die Möglichkeiten, eine kreative Surround-Mischung zu erstellen, sind da, wenn man sie im Vorfeld konzipiert. Man kann nicht alle Überraschen und sagen, hey guckt mal, ich hab hier eine super SurroundMischung gemacht und alle fragen, was soll ich damit anfangen? Die Möglichkeiten finde ich sehr schön. 1 2 Der DECCA-Tree ist eine Hauptmikrofonanordnung mit 3-5 Mikrofonen (LL-L-C-R-RR) Mit Hilfe des Divergence-Reglers werden die Signale anteilig auch über die umliegende Lautsprecher ausgegeben. 100 Anhang Ich würde mich freuen, wenn man da mehr machen könnte. Aber es ist immer die Frage, wie die Musik angelegt ist und was der Regisseur will. Wenn er sagt, ich will das so, macht mir mal einen Sound, der mich umhüllt, dann kann er das gerne bekommen, aber da muss man, gerade was den Surround betrifft, meiner Erfahrung nach, alles sehr gut absprechen. Es muss mit ins Konzept gehören. Sonst wird es schnell problematisch. Verfolgen sie bestimmte Mischphilosophien? Erstellen sie z.B. mehrere Stereoebenen im Raum? Nein, so bin ich noch nicht an eine Mischung herangegangen. Das könnte man im Surroundpanorama realisieren. Es geht nur darum, wie ich das betrachte. Ich finde, dass es für den Surround-Bereich noch viel zu wenig Akzeptanz gibt. Man muss sehr aufpassen. Wir können Phantomschallquellen vorne und auch noch einigermaßen von der Seite wahrnehmen. So bis zu 30-40° kriegt man das noch hin, danach ist eigentlich Schluss. Das muss man beachten. Es macht gar keinen Sinn ein Signal direkt nach hinten zu pannen, denn man kann es ohnehin nicht so direkt wahrnehmen. Man kann ein Signal wandern lassen, das war’s dann aber auch schon. Es gibt ja auch verschiedene Möglichkeiten mit Hall zu arbeiten. Es gibt Kollegen, die arbeiten mit 5.1 oder 5.0 Hall und schwören darauf. Ich arbeite lieber mit zwei Stereohalls, einen für die Front und den zweiten für den Surround. Dann habe ich die Möglichkeit sie verschieden lang zu gestalten und sie auch in der Intensität zu verändern, je nachdem, was ich brauche. Das entspricht dem, wie man es früher gerne gemacht hat. Früher hat man mit drei Mono-Hallgeräten gearbeitet, als es noch Dolby Stereo gab, damit es nach der Matrix nicht so eine Auslöschung gab. Das ist noch so ein bisschen aus den alten Zeiten, aber ich komme damit ganz gut hin. Ich brauche keinen reinen 5.0 Hall, sondern ich habe das lieber in der Hand und kann es dosieren. Aber das ist wirklich eine Geschmacksfrage. Daran macht sich kein Klangbild fest. Und der LFE? Ich mag es ja eigentlich, aber auch da muss man immer mit dem Dialog aufpassen, dass man da nicht in Schwierigkeiten gerät mit dem Mischtonmeister. Der LFE ist, soweit ich das gelernt habe, ursprünglich etwas für die ganz tiefen Soundeffekte und nicht für die Musik gedacht. Man muss auch aufpassen, dass man da nicht zu viel drauf gibt oder einen Frequenzbereich bedient, welchen der Zuschauer gar nicht gewöhnt ist. Wenn ich einen normalen Orchesterklang höre, bin ich nicht gewöhnt, dass da eine Grand Cassa1 noch gewaltig aus dem LFE rauskommt. Ich versuche immer so ein bisschen was dazu zu geben. Vom Orchester immer relativ wenig, höchstens mal Gran Cassa Das ist etwas, was man gut verwenden kann, meist ist bei den Kontrabässen gar nicht so viel da, was sich lohnen würde. Wenn man aber eine Mischung hat, wo noch viele elektronische Tracks dazu kommen, dann ist oftmals ein Element dabei, bestimmte Basssounds oder Trommeln, die dann anteilig in den LFE geroutet werden. Das hängt aber sehr von der Musik ab. Nie zwangsmäßig, oder weil er bedient werden muss. Wenn sich nichts anbietet, dann kommt da nichts drauf. Ist unsere künstlerische Arbeit vielleicht die, das wir intuitiv die richtigen EQ’s, Halls und Panpositionen für jedes Instrument je nach Musik und Film wählen? Bei aller künstlerischen Arbeit, die wir uns zu Gute halten, die auch wichtig ist, ist ein Tonmeister oder Toningenieur, der Filmmusik aufnimmt und mischt, ein Dienstleister. Wir erstellen ein Zwischenprodukt. Jemand der eine CD macht oder eine Band produziert oder eine Symphonie aufnimmt, der erzeugt ein Endprodukt. Das Ergebnis wird gepresst oder vertrieben. Aber wir erzeugen immer erst ein Zwischenprodukt. Deshalb ist es auch spannend sich mit den anderen künsterlischen Parts wie Sounddesign und Regie und allen möglichen zusammenzuschließen und abzusprechen, wie man aus allen Dingen das Beste machen kann. Das finde ich ganz spannend daran. Dass es mit der Abstimmung manchmal ein bisschen hapert, ist eine andere Geschichte - eine Frage der Herangehensweise. Ich will da niemandem zu Nahe treten, ich bin kein Regisseur und auch kein Produzent, aber ich habe auch schon Dinge erlebt, die nicht funktioniert haben, weil sie zwischen Musik und Sounddesign nicht abgesprochen wurden. Aber auch das wird besser. 1 Große Trommel im Orchester 101 Anhang Was gibt es für Unterschiede bei Filmmusik und autonomer Musik? Wenn ich eine CD-Produktion aus der Filmmusik machen wollen würde? Man kann ja beim Genre bleiben. Heutzutage wird von fast jeder Filmmusik auch eine CD-Auskopplung erzeugt. Dann muss man sich Gedanken machen, was man mit dem, was man gemischt hat, machen will. Schließlich gebe ich ja Stems ab, habe trockener und auch noch nicht so Höhenreich gemischt, damit der Mischtonmeister noch seinen Anteil dazugeben kann und damit es zu den anderen Dingen passt. Ich muss damit irgendwas anfangen, denn es hat keiner mehr Geld um die gesamte Mischung noch mal aufzulegen und für eine CD neu zu mischen. Da hat man den Vorteil, dass man, wenn man die entsprechende Musik hat, auch in Stems mischt. Ich mache es dann so (bzw. ich empfehle es den Komponisten, die das meist alleine zuhause zu ende bringen), dass ich mir die Stems auflege. Dann hat man die Möglichkeit nach rein musikalischen Aspekten noch mal eine bestimmte Balance zwischen rhythmischen Elementen, Orchesterelementen oder solistischen Elementen nach eigenen Gesichtspunkten zu schieben. Weil man bei der Filmproduktion immer auf das Bild guckt und den O-Ton kontrolliert und danach das Verhältnis mischt, kann man da noch mal eingreifen. Man kann auch noch mal ganz gezielt verschiedene Stems in ihrer Räumlichkeit oder Hall bearbeiten oder equalizen. Man geht nicht an das Gesamtprodukt heran, sondern behandelt bestimmte Subgruppen, und mischt diese noch mal mit viel geringerem Aufwand zusammen. Was ich gar nicht mehr mache - wogegen ich mich fast weigere - ist, wenn ich gebeten werde schnell einen Downmix mit raus laufen zu lassen. Das mache ich ungern. Manchmal ist es so, dass Produzenten oder Regisseure einen Stereomix brauchen, dann mach ich das auch. Aber der ist dann wirklich nur dafür da. Das ist nicht dazu da, eine CD daraus zu machen, denn das ist wirklich die schlechteste Variante von allen. Und damit entstehen ganz gute Ergebnisse. Wenn man frei vom Bild ist, kann man musikalische Belange noch mal anders entscheiden. Dann macht man meistens immer noch etwas mehr Hall drauf, oder geht mit einem Masteringtool noch bisschen an die Höhen ran und macht den Klang noch bisschen seidiger. Selbst Jazz und Klassik wird bereits komprimiert. Filmmusik im Film dagegen weniger? Das ist mir nicht so bekannt. Meine Kollegen in Detmold sehen das als No-Go-Area. Und im Jazz ist das auch sehr schwierig. Die Jazz- und Klassikmusiker wollen möglichst viel Dynamik haben. Eigentlich sind das zum Glück noch zwei Baustellen, bei denen man noch nicht so stark damit konfrontiert ist. Bei Filmmusik ist es immer so, dass ich versuche die maximale Dynamik zu erhalten. Ich habe über Jahre versucht mich im Vorfeld mit den Mischtonmeistern zu unterhalten, um herauszufinden, was für sie wichtig und was unwichtig ist und habe dadurch entsprechend genügend Erfahrung gesammelt. Eine Aussage war immer: Möglichst nicht komprimieren. Denn das ist etwas, was sie am Ende entscheiden wie viel Kompression oder Dynamik sie in der Musik brauchen. Manchmal soll eine Stelle ganz leise beginnen und die Geigen sich dann plötzlich vom Pianissimo ins Forte steigern, und wenn ich das bei der Mischung schon zusammenpacke muss der Mischtonmeister dann gegenregeln. Ich verwende höchstens bei Soloinstrumenten, wenn es mal notwendig ist im Gesang, den Kompressor. Dann behandle ich sie bisschen so wie in der Musikproduktion. Aber dass ich im Gesamten eine Summenkompression verwende, oder die Stems komprimiere, das mache ich gar nicht und das will auch keiner. So hat die Musik die Dynamik, die man auch mischt. Welche Stems spielen Sie aus? Das hängt von der Musik, von dem Komponisten und vom Mischtonmeister ab. Bei Produktionen wie mit Helmut Zerlett, Ralf Wengenmayr oder Lorenz Dangel, wo immer auch eine Menge Elektronik dabei ist, erzeuge ich immer auch ein Master, obwohl das viele gar nicht haben wollen, aber ich möchte für mich ein Endprodukt vorweisen können. Meistens gibt es einen Orchesterstem und dann kommt es schon darauf an, was man noch dabei hat. Wenn es noch eine ganze Menge an Synthsounds und Bässen gibt, wird es noch einen Synthstem geben. Auch wenn man Gitarren hat, gibt es einen Gitarrenstem, Schlagzeug- oder Percussionstem. Die braucht man meistens einzeln. Meist hat man auch einen Solostem. Das sind so die gängigsten Arten. Orchester, Solisten, Percussion, flächige Parts und wenn viele Gitarren dabei sind noch ein Gitarrenstem. Und dann ist es auch Möglich, dass sämtliche Hallreturns auf einen extra Stem verlangt werden. Nun kann man natürlich nicht für jeden, wenn man schon fünf Stems hat, noch mal für jeden fünf Hallstems aufmachen. Da muss man sich bisschen entscheiden. Letztes Jahr habe ich einige Filme gemacht, da gab es zwei Stereostems für den Orchesterhall, einmal Front einmal Back, einen Hallstem, in dem alle anderen 102 Anhang Hallreturns drauf geroutet wurden, so dass die anderen, eigentlich instrumentalen Stems trocken waren. Dadurch hat der Mischtonmeister die Möglichkeit, wenn ihm an der Mischung etwas nicht gefällt, den Orchesterhallstem lauter oder leiser zu machen. Gefällt ihm aber in den andern Stems etwas nicht, muss er einen neuen Hall anlegen. Aber er hat die Möglichkeit es noch mal völlig trocken zu haben und etwas neu dazu zu machen. Das war zumindest die Vorstellung vom Komponisten und Mischtonmeister, also haben wir das auch so gemacht. Das machen auch nicht wenige. Ich bin eher dafür, möglichst viel fertig zu produzieren. Ich frage den Komponisten immer, willst du wirklich, dass später noch jemand so in deine Musik eingreifen kann? Das ist immer eine Gratwanderung. Einerseits muss er bestimmte Möglichkeiten für die Mischung offen halten, andererseits möchte er auch, dass sein Werk so rüberkommt, wie er es sich gedacht hat, in allen Verhältnissen. Was hat er für ein Standing? Wenn er einen großen Namen hat und sagen kann, so will ich das haben und es dann auch weiß, dass es so funktioniert, dann wird ihn auch keiner dran hindern, aber wenn er etwas unsicher ist oder die Produktion schon von vielen schwierigen Faktoren geprägt ist, dann muss es eben mehr Möglichkeiten geben. Es bleibt dann die Gefahr, dass bei der Endmischung doch an der Musikbalance noch etwas verändert wird. Meist ist das ein Sicherheitsaspekt. Ich glaube, dass sie am Ende die Mischung so genommen haben. Wenn aber wenn, dann könnte man. Dieses, man weiß ja nicht was kommt. Letzten Endes kann man sich dem auch nicht verweigern, wenn so eine Anforderung steht. Ich kann da auch nicht irgendwie rumbocken und sagen, nee, mach ich nicht, find ich doof. Dann werden sie das nächste Mal einen anderen mischen lassen. Wenn etwas total gegen meine Überzeugung geht, versuche ich mit dem Mischtonmeister zu reden, um meine Vorstellungen zu äußern und dann findet sich immer ein guter Weg miteinander. Aber Schlussendlich bin ich ein Dienstleister, arbeite etwas zu und stehe dann auch in gewissen Verpflichtungen. Seit wann haben sie die Möglichkeit Stems raus zufahren? Technisch ist es erst Möglich, seit dem wir die Neve Konsole haben. Eigentlich braucht man nur eine Konsole oder eine DAW, die genügend Busmöglichkeiten hat. Mit ProTools ist man heutzutage kaum eingeschränkt. Beim Mischpult muss man gucken, welche Möglichkeiten es hat. Technisch gibt es da immer eine Grenze. Meistens haben wir nur 24 Bus Musikkonsolen. Aber bereits mit der analogen Konsole, die wir vor 5-10 Jahren hatten, ging es langsam los und jetzt ist es Standard bei Kinofilmen. Bei Fernsehfilmen nicht. Fernsehen will immer ein fertiges Stereoband haben. Beim Kino ist es Standard, es sei denn man hat einen rein orchestralen Soundtrack, aber das ist auch kaum noch anzutreffen - ein Streichquartett spielt die ganze Zeit - ansonsten ist es seit vielen Jahren üblich. Und was hat man vorher gemacht? Da gab es nur eine Endmischung in Stereo. Die ersten Jahre von Mitten der 90er, als ich angefangen habe, bis wir dann die Neve hatten, habe ich DAT Bänder abgegeben. Nach der Aufnahme war also die Mischung fertig? Ja, wenn man noch mal ran musste, musste man die gesamte Mischung noch mal aufmachen, aber das habe ich nie erlebt. Wenn es einmal draußen war, war es draußen. Ab und zu findet man noch einen Fehler, oder ein Geräusch, welches man nicht wahrgenommen hat. Dann ist der Vorteil bei einer Digitalkonsole, dass man alles wieder aufrufen und sofort noch mal nachsehen kann, was da war, das Problem fixen und wieder raus schmeißen kann. Beim Analogpult ist das aufwändiger. Ist das besser? Ich finde die Möglichkeit schon besser, dass man beim Mischen alles machen kann. Ich arbeite oft so, dass ich erst einmal alleine anfange zu mischen. Dann kommt der Komponist dazu und wir einigen uns über das Klangbild und man macht ein paar Sachen zusammen. Dann mische ich wieder eine Weile alleine. Die Komponisten sind auch meistens so beschäftigt und komponieren schon ihr nächstes Stück oder an einen anderen Film. Dann misch ich schon mal drei-vier Nummern und hole den Komponisten nachher wieder rein und spiele ihm mein Werk vor. Dann gibt es noch paar Korrekturen und dann wird es geprinted. Dabei ist so eine Digitalkonsole sehr günstig, da alles abgespeichert ist und ich alle Parameter einfach abrufen kann. Ich mag analogen Sound zwar sehr, gerade bei der Aufnahme ist es sehr wichtig, dass man einen guten, warmen Sound bekommt, aber in der Mischung finde ich hat das Digitale eben 103 Anhang unglaublich viele Vorteile. Man kann alles abspeichern und hat alle Möglichkeiten, mehrere Fader zu bewegen, Hallanteile oder Auxiliarypegel, Returns und Filter zu programmieren und Elemente im Panorama wandern zu lassen. Das finde ich einen Segen. Surround in autonomer Musik hat sich nicht durchgesetzt. Ja, leider nicht. Das ist eigentlich tot. Ich habe immer noch Hoffnung, dass sich durch die Blu-ray Disc noch Möglichkeiten ergeben. Wenn man auf eine Blu-ray Disc nur Audio drauf geben könnte, dann wäre das wundervoll. Aber es ist auch etwas schwierig. Es gibt ein Projekt von den MSM-Studios unter der Leitung von Stefan Bock Pure Audio BluRay. Die haben versucht eine Java-Applikation zu schreiben, die es ermöglicht, eine Blu-ray Disc zu bedienen, wie eine CD, damit man keinen Bildschirm mehr braucht. Bei der DVD Audio hatte man das Problem, dass man immer ein Bildschirmmenü brauchte um dann wirklich in die Einstellungen rein zu kommen. Sie haben versucht etwas zu schreiben, damit man mit den Funktionstasten, die jeder Blu-ray Disc Player hat, die Farbtasten nutzen kann, um darüber zwischen den verschiedenen Layern zu wechseln. Aber irgendwie kommt das auch nicht so richtig aus dem Knick. Wahrscheinlich, weil das lizenziert werden muss, und alles was Geld kostet, wird von der Industrie ausgebremst. Aber trotzdem sehe ich da eine Chance mit der Blu-ray Disc, schon vom Datenträger her. Ob sich dann wirklich in der populären Musik Leute finden, die das interessiert... Es gab mal eine Phase vor 15-20 Jahren, wo viele versucht haben da etwas zu tun, aber diese Zeit ist auch durch das Sterben der SACD oder DVD Audio völlig hinüber. Mit meinen Tonmeisterstudenten im Unterricht vergleichen wir Stereoaufnahmen mit Surround-Mischungen. Es gibt auch eine ganze Menge an Aufnahmen, die später in Surround remixt wurden. Wenn man früheres, für stereo konzipiertes Material in Surround remixt, dann gibt es, wenn man es ganz kritisch betrachtet, sehr wenig, was auch wirklich gefällt. Das ist eine ästhetische und künstlerische Ebene, die sich nicht entwickelt hat, weil das Medium auch tot ist. Ob das je wieder kommt, weiß ich nicht. Ich finde es interessant, aber es steht für mich bisschen in den Sternen. Die „Klassiker“ (wenn man überhaupt noch eine SACD kaufen kann, dann sind es Aufnahmen mit klassischer Musik) machen - etwas salopp ausgedrückt - noch mit. Es ist wesentlich einfacher, bei einer Orchesteraufnahme gleich ein Surround-Setup aufzustellen, um eine Surround-Produktion daraus zu machen, als wenn ich mir bei einer Popproduktion überlege, was ich mit den Surrounds mache. Das muss ich dann ganz konkret dafür mischen. Eigentlich gibt es nur wenige Beispiele. Ich kenne nur eine SACD der letzten 7-8 Jahren, die wirklich dafür konzipiert und gemischt worden ist, von Peter Gabriel „Growing up“. Alles Andere sind fast immer nur Remixe von irgendwelchen alten Aufnahmen. Da ist interessant, dass die Arrangements früher für Stereo gemacht wurden. Wenn man diese plötzlich im Surround auffächert, dann fällt das auch oftmals auseinander. Man hat nicht mehr die Kompaktheit. Man hat das Gefühl, dass da noch etwas ist, was da klingelt, weil es im Surround sitzt, dabei ist das früher extra so reingemischt worden, damit es passt. Man braucht einen kreativen Input für Surround, gerade bei Pop oder Jazz. Das hat sich leider gar nicht entwickelt. Man muss auch sehen, was die Leute zuhause für Abhöranlagen besitzen und was dem Normalvolk bei den Elektronikmärkten verkauft wird. Es ist ja ein finanzieller Aufwand und es passt auch nicht in jede Wohnung rein. Ich sehe das skeptisch. Stereo dagegen ist seit Jahrzehnten erprobt, auch in der Mischung. Haben Sie je Aufnahmen ohne Click durchgeführt? Ich habe einmal eine Produktion ohne Click gemacht. Mit dem Filmorchester und dem Dirigenten Helmut Imig aus Essen haben wir drei Produktionen zu zwei alten Stummfilmen durchgeführt. „Die Abenteuer des Prinzen Achmed“ und später die Musik für den Film „Panzerkreuzer Potemkin“, letzteres in zwei Fassungen. Die eine mit Orchester und die Zweite als kammermusikalische Fassung. Da es geschriebene, existierende Musik für den Film war, gab es keine Timecodeverkoppelung und keine Clicktracks. Da haben wir uns einen TimeCode extra ins Bild einfügen lassen, damit wir überhaupt kommunizieren konnten, wo wir jetzt einsteigen und so weiter. Herr Imig ist ein Spezialist für Stummfilme und macht viel live. Mit ihm haben wir die Musik für die zwei Filme aufgenommen. Das war eine Herausforderung, weil er nicht immer ganz genau da angefangen hat, wo die Musik einsetzen sollte, eben weil es keinen Clicktrack gab. Dirigiert wurde nach Bild, darum ist das Tempo auch nicht immer ganz exakt, obwohl er immer sehr genau ist. Es gibt immer agogische Bewegungen in der Musik, die bei jedem Take, bei jeder Aufnahme immer ein bisschen anders sind. Das umzuschneiden war schon eine Herausforderung. So viel gestrecht und gepitcht und gestaucht habe ich - glaub ich - noch nie. Aber es ging ja nicht anders. Ein Take hat dann gar nicht mehr reingepasst, weil er ein Stückchen zu lang war. Den musste man aber aus musikalischen Gründen nehmen, also musste man ihn zusammenschieben. Es war auch nur eine 104 Anhang Fernsehproduktion. Mit Pitch’n’Time1 ging das ganz gut. Dabei waren meine Eingriffe auch nicht riesenhaft, aber man musste immer suchen, ob man nicht doch etwas Besseres findet, was zeitlich passt, und wenn es dann gepasst hat, war es nicht unbedingt auch musikalisch in Ordnung. Man muss zwischen ganz vielen Dingen abwägen, während man bei so einer Clickbasierten Produktion eigentlich nur schauen muss, was musikalisch passt, da der Rest eigentlich immer funktioniert. Das war sehr aufwändig und ich habe ganz schön lange daran gesessen, bis ich alles zusammen hatte. Manchmal sagt der Regisseur: Einmal hatten wir da einen Take, der war wunderbar. - Der ging aber deswegen wiederum nicht – Das kann nicht sein – Nein, deswegen und deswegen nicht. In den Schwarzweißfilmen gibt es anderthalb Stunden nur Musik und die muss durchweg passen. Heute ist alles Clicktrack verdorben. Weil dadurch immer etwas Leben heraus genommen wird. Bei früheren Produktionen, bei denen nur das Orchester spielte, war das noch kein so großes Problem. Nur der Dirigent hörte den Click und konnte dem Orchester noch Freiraum lassen. Aber da heute bei fast jeder Produktion noch Elektronics dazu kommen, hat man keine Chance. Dann muss alles drauf sein. Es hat dann eine gewisse Sterilität. Auch die ganzen amerikanischen Aktionfilme sind zwar super produziert, aber auch popmusikalisch genau auf den Punkt und nicht mehr so lebendig, wie eine Orchesterproduktion. 1 Plugin von Serrato 105 Anhang Peter Fuchs Tonmeister Ausschnitte aus der eMail vom 20.Juni 2012 Wie unterscheiden sich Ihrer Ansicht nach die Produktionsweise und Ästhetik bei Filmmusik und autonomer Musik? Produktionsweisen Film-/Gamemusik: • striktes produzieren zum Click • Overdubs mit ganzen Orchestergruppen, nicht nur Soloinstrumenten • aus Budgetgründen oft Doppeln der Streicher- und/oder Blechsektion • 90% der Produktionen sind meiner Erfahrung nach Hybridproduktionen mit synthetischem Anteil von teilweise mehr als die Hälfte • sehr oft Unterstützung der Orchesterstimmen durch Samples • deutlich nähere Mikrofonierung (ca. 20%) • deutlich weniger Schnittarbeit • stärkere Dynamikbearbeitung als bei autonomer Musik Ästhetik Film-/Gamemusik: • deutlich "näheres" Klangbild, um im Zusammenwirken mit Dialog/Effekten die Musik präsent halten zu können • besonders bei Actionscores werden von den Komponisten die Begriffe "druckvoll" und "fett" sehr gerne als den gewünschten Klang beschreibend verwendet • entsprechend wird das Frequenzspektrum speziell in den Randbereichen viel stärker ausgenutzt, natürlich unterstütz durch den LFE Kanal in der 5.1 Mischung (siehe z.B. "Green Lantern" score) • klare Ausrichtung des Klangverlaufs am übergeordneten visuellen Geschehen, z.B. werden u.U. alle Hauptmikrofone "gefahren" oder Hall/EQ Einstellungen dynamisch dem visuellen Geschehen angepasst Was ändert sich bei Musik für Computerspiele? • sehr oft werden mehrere Lagen ("layers") des selben Stücks eingespielt, die dann im Spielgeschehen dem Verlauf entsprechend abgerufen werden können • entsprechend werden oft Sessions nur mit Streichern, nur Blech oder nur Percussion gebucht • es werden auch kurze musikalische Übergänge eingespielt, die Musiken an wichtigen dramaturgischen Schnittstellen im Spiel verbinden können • grundsätzlich müssen die Musiken als Schleife laufen können, d.h. musikalische Schlüsse werden einzeln zusätzlich eingespielt • Holzbläser scheinen insgesamt weniger benutzt zu werden • Tempo- und Tonartkompatibilität ist bei Gamemusik viel wichtiger als bei Filmmusik 106 Anhang Oft wird der Center bei der Filmmusikmischung etwas ausgelassen, damit genügend Platz für die Sprache gelassen wird. Wie verhält es sich bei Computerspielen, in denen eher weniger gesprochen wird? Nach meiner Erfahrung werden nach wie vor die meisten Gamescores nur in Stereo produziert. XBox streamt z.B. die Musik direkt von DVD, da reicht die Bandbreite für 5.1 nicht aus. Soweit ich informiert bin, soll sich das aber bald ändern. Nach welchen Philosophien mischen Sie in 5.1? Behalten Sie die Surrounds eher den Halleffekten und Ambiences vor oder verteilen Sie mehrere Stereoebenen im Raum? Wie behandeln Sie Center und LFE? Ich mache das natürlich sehr stark von der Musik abhängig. Ein klassischer Orchesterscore wird von mir eher mit einer "umhüllenden" Klangphilosophie gemischt, d.h. die Surrounds sind recht konservativ mit den Ambience Mikrofonen und Hallanteilen aus dem 960 oder M60001. Bei elektronischen Scores verteile ich komplett nach Gutdünken und behandle alle sechs Kanäle gleichwertig, so dass z.B. bestimmte Elemente tatsächlich nur von hinten oder auch nur aus dem Subwoofer kommen. Der Center sollte meiner Meinung nach nicht fehlen, vor allem, wenn man an Kinos mit großen Leinwänden denkt. Dennoch versuche ich, ihn "unauffällig“ zu halten. In der Regel wird mein Center Mikrofon des Decca Tree im Verhältnis 1:1 gemischt, die links-rechts Orientierung ergibt sich oft aus den Stützmikrofonen. Ein intensives Studium des Klanges von Hollywood Filmscores hat mich zu der Annahme geleitet, dass dort der "tree" nicht überbewertet wird. Der LFE spielt bei mir eine entscheidende Rolle, wird diskret mikrofoniert und gemischt (d.h. gefiltert abgeliefert). Auch für den stereo Downmix ist er bei mir wichtig. Gibt es dramaturgische Verknüpfungen von Mischung und Bildinhalt/Handlung? Durchaus. Z.B dynamische Veränderungen/Anpassungen, die bei Orchesterproduktionen Idealerweise schon während der Aufnahme beachtet werden sollten. Meiner Meinung nach wird die Dynamik von Komponisten oft unterschätzt. Sehr leise und sehr laute Passagen klingen auf CD gut, passen sich aber oft nur sehr schwer in das auditive Gesamtbild ein. Auch Fragen der Orchestrierung und Besetzung werden oft während der Aufnahme thematisiert, wenn es um dramaturgische Belange geht. Das ist natürlich nur möglich, wenn der Regisseur bei den Musikaufnahmen anwesend ist. Ansonsten versucht man in der Musikmischung so gut wie möglich, Bildinhalt und Handlung zu folgen. Zum Einsatz kommen dynamische Veränderungen von EQ, Halleinstellungen, Hallanteilen, Panoramafahrten, dynamisierte Kompressoren etc. Spätestens in der Filmmischung wird aber vom Regisseur das endgültige Urteil über die Musik gefällt und wir alle wissen, dass man hier immer wieder mit Überraschungen zu rechnen hat... Wie hoch schätzen Sie Ihren dramaturgischen Beitrag bei einer Musikproduktion ein? nun ja…ich bin meistens schon froh, wenn meine Vorschläge auf offene Ohren stoßen… 1 Lexicon 960 und TC M6000 107 Anhang Telefonat mit Peter Fuchs Ausschnitte aus dem Gespräch am 25.Juni 2012 Wie bereiten Sie sich auf eine Aufnahme vor? Ich versuche möglichst bald einen Kontakt zum Komponisten herzustellen und Material zu sammeln. Dazu gehören Layouts der Stücke als MP3, damit ich mir im Vorfeld schon ein Bild von der Musik machen kann. Dann fordere ich eine ProTools Session an, doch leider sind nicht alle Komponisten dazu in der Lage. Dann muss ich sie selber erstellen und muss dabei viele Dinge beachten. Ich brauche eine wasserdichte Session, d.h. dass alle Tempoänderungen und alle Taktwechsel identisch mit der Partitur sind. Ein Bild im passenden Format muss ich anfordern, denn abhängig vom Zuspieler werden unterschiedliche Bildformate benötigt. Das verbuche ich alles unter Logistik. Vermutlich müssen Sie kein Equipment mitnehmen und arbeiten ausschließlich in voll ausgestatteten Studios? Es gibt leider immer weniger gute Studios. Das TELDEX Studio in Berlin sowie Abbey Road und Air in London sind gut ausgestattet, aber ansonsten nehme ich immer meine eigenen Mikrofone mit. Und meine Vorverstärker. Und Wandler! Die Musik für „Die Päpstin“ haben wir mobil aufgenommen. Das erzeugt einen enormen zusätzlichen Druck, da es viele Fehlerquellen geben kann. Es kann passieren, dass man am Vortag noch 12 bis 14 Stunden mit dem Aufbau und der Einrichtung der mobilen Regie beschäftigt ist. Darf ich fragen, welche Geräte Sie benutzen? Ich besitze etwa 25 Mikrofone, die meisten alte Röhren, wofür mich einige Musiktonmeister belächeln. An Vorverstärkern habe ich einen von Grace1, Millenia, ASP, einen alten DigiPre, den ich aber gern für einige Signale benutze, und paar Neve 1073. Ich habe mir alle Geräte zusammen gesucht. Ein M1502 klingt mit dem Millenia zu grell, meist nutze ich lieber Neve Preamps. So hat sich das entwickelt. Wie viel wird im Vorfeld mit dem Komponisten, Regisseur oder Mischtonmeister abgesprochen? Mit dem Komponisten wird viel kommuniziert. Zunächst ist wichtig, wie er sich die Musik vorstellt. Oft dürfen Komponisten bei einer Filmmusik nicht völlig frei komponieren, sondern erhalten einen Temptrack aus dem Schnitt. Die neue Komposition soll dann so ähnlich klingen. Ich höre mir dann sowohl die Temptracks als auch die Layouts an, und höre so auch die Balancevorstellungen heraus. Die Orchesteraufnahme soll eigentlich klingen wie das Layout. Oft sind die Regisseure überrascht von dem Orchesterklang und wundern sich, dass der Sound nicht mehr so ist, wie im Layout. Aus diesem Grund wollen die Komponisten lieber auf Nummer sicher gehen und die Musikmischung klanglich an das Layout anpassen. Im Vorfeld geht es also um musikalische und klangliche Aspekte der Musik, natürlich um die Besetzung, und ob während der Aufnahme grundsätzlich gedoppelt werden soll. Zum Regisseur habe ich keinen Kontakt, zu ihm habe ich keine Berührungspunkte. Mit dem Mischtonmeister unterhalte ich mich auch über eher logistische Dinge. Manchmal kann er mir vorab bereits Effektspuren zu kommen lassen, aber meistens reicht es nur für einen O-Ton in mono. Mit ihm spreche ich ab, wie viele Stems ich abgeben soll, wie viele Spuren es insgesamt maximal oder minimal geben darf. Das ist oft von den technischen Gegebenheiten des Kinos abhängig, in dem die Endmischung später durchgeführt wird. Mit ihm wird besprochen, ob er Surround-Stems haben, oder ob die Stems in Stereo oder dreikanalig abgeliefert werden sollen. 1 2 Grace Design Röhrenmikrofon von Neumann 108 Anhang Welche Stems spielen Sie aus? Das ist absolut abhängig vom Projekt. Manche Mischtonmeister wollen nur Stereostems, aber ich nehme grundsätzlich so auf, dass ich hinterher diskrete 5.1 Stems abliefern kann. Bei Kinoproduktionen werden meist 5.0 oder 5.1 Stems angefordert, aber beim Fernsehen sind es überwiegend Stereostems, außer beim ARD und ZDF. Die senden auch in 5.1. Manchmal sollen alle Stems, die nicht gemeinsam mit dem Orchester eingespielt wurden, wie Drums, Gitarren oder Synthesizer, in Stereo abgegeben werden. Aber ich versuche immer darauf einzuwirken und alle Stems in Surround abzuliefern, denn ich kann während der Musikmischung schon viel mit den zusätzlichen Spuren gestalten, während der Mischtonmeister bei der Endmischung kaum die Zeit hat, sich so intensiv mit allen Instrumentenspuren zu befassen. Orchesterstützen liefere ich auch als LCR aus, wenn es angefordert wird. Das ist natürlich unschön, da auf diese Weise stark in die Musikmischung eingegriffen werden kann. Viele Komponisten wollen deshalb bei der Endmischung dabei sein und dafür sorgen, dass ihre Musik bestmöglich rüber kommt. Andere dagegen wollen gar nicht dabei sein. Ich habe oftmals den Eindruck, dass die Gewichtung bei deutschen Produktionen stark auf dem Sounddesign liegt. Die Musik ist mindestens 30% leiser, als bei internationalen Mischungen. In den USA können die Tonmeister scheinbar besser abstrahieren, was von Bedeutung ist. Sie können das Gesamtbild besser beurteilen. Es gibt wenige prägnante Elemente, die zur Handlung beitragen, aber der Rest ist sehr gut balanciert. Außerdem werden in den USA weniger Vormischungen durchgeführt, sondern drei Leute sitzen am Pult und mischen gemeinsam. Ich habe gehört, dass tendenziell mit weniger Hall gemischt wird, damit der Mischtonmeister während der Endmischung den Hallanteil zum restlichen Klanggeschehen anpassen kann. Da ich die CD-Mischung zeitgleich durchführe und den Downmix ständig gegen höre, kann ich nicht so sehr mit dem Hall sparen. Die CD-Mischung ist ohnehin wichtiger, weil die Surroundmischung so ohne weitere Geräusche und Dialog ohnehin niemals zu hören ist. Wenn ich die Surrounds mit in den Stereomix mische, dann bringen sie auch noch etwas Hall mit. Zuviel Hall kann kaum störend sein, weil er ohnehin von anderen Geräuschen überdeckt wird. Wenn sparsam mit dem Hall umgegangen wird, und der Mischtonmeister nimmt einen anderen Hall, dann trifft er seltenst meinen Geschmack. Darum versuche ich immer bereits die Hall- und Raumanteile zu definieren. Ich versuche auch jedem Stem seinen eigenen Hall zu geben. So ganz ohne Hall klingt es nicht gut. Ich bin dafür so zu mischen, wie man es empfindet. Gut, bei Actionsequenzen benötigt man weniger Hall, weil dann der Raum bereits von sich aus lebt. Es ist immer Abhängig von der Musik und der Dynamik. 109 Anhang Bernhard Albrecht Tonmeister, HFF Ausschnitte aus dem Gespräch am 11.Juli 2012 Der Vorteil an der Wellenfeldsynthese ist, dass man – unabhängig von der Art der Musikproduktion - die räumliche Klanggestaltung viel differenzierter umsetzten kann. Dabei sei dahin gestellt, ob diese räumliche Gestaltung realistisch ist. Das Spannende ist die Möglichkeit, Dinge räumlich zu entzerren. Man hat nicht nur die drei Frontkanäle, wie im konventionellen Kino, zur Verfügung, um eine Dynamik zwischen den einzelnen Mischungselementen zu gestalten. D.h. dass ich nicht nur eine Dynamik zwischen Laut und Leise herstellen muss, sondern auch eine Dynamik zwischen Dialog und Musik. Es entsteht also eine Klangbalance zwischen den Elementen in der Mischung. Ich muss mir sehr viele Gedanken machen, wenn ich nur drei Kanäle habe, oder im Extremfall, wenn ich nur einen Kanal habe, oder zwei bei der Stereophonie. Im Kino habe ich eigentlich nur drei Kanäle, denn den Surround-Kanal kann ich für bestimmte, hochqualitative Signale in der aktuellen Dolby DigitalVariante, mit einem Surround, der Bandbegrenzt ist und so diffus strahlt, nicht wirklich realisieren. Bei der Wellenfeldsynthese kommt es darauf an, wie ich es aufgebaut habe. Wenn ich sie in 360° aufbaue, ist es ein gleichmäßiges Wiedergabesystem, das erst einmal keine Vorzugsrichtung hat, sondern in alle Raumrichtungen gleichmäßig gewichtet strahlt. Da wird es interessant, weil ich jetzt viel mehr Möglichkeiten habe Räume auszudifferenzieren, Elemente in der Richtungsverteilung viel präziser zu positionieren und habe den Vorteil, dass ich auch viel stärker parallelisieren kann. Wenn ich also verschiedene Elemente habe, verschiedene Dialogelemente und musikalische Elemente, und ich diese räumlich stärker verteile, habe ich die Möglichkeit sie viel gleichwertiger zu setzten, weil sie sich nicht überlappen. Da die Lokalisation einzelner Elemente in so einem Mix exakter ist, habe ich den Vorteil, dass ich Dinge, die ich Hervorheben will, nicht unbedingt lauter mischen, sondern nur ein Stückchen woanders exakt positionieren muss. Spannend ist auch bei einem WFS-System, im Gegensatz zu einem stereofonen System, die Interaktion mit dem Raum. Wenn ich, als Rezipient, mich bewege - wenn ich so ein System in ein Kino einbaue, natürlich nicht, weil ich dann sitze – wenn ich mich bewege, und ich den Schallquellen absolute Positionen gegeben habe, verschiebt sich meine Mischung ganz anders als bei einem stereofonen System. Bei einem stereofonen System höre ich, wenn ich rechts stehe, den rechten Lautsprecher, wenn ich in der Mitte stehe, den mittleren Lautsprecher und wenn ich dazwischen stehe, einen Mix aus beiden. Wenn ich im Sweet Spot stehe, höre ich alles in einem ausgewogenen Verhältnis. Das ist zumindest die grundsätzliche Aussage. Wenn ich mich in einem WFS-System bewege, finden die Veränderungen auch statt, aber sie verhalten sich ähnlich einer realen Raumsituation. Wenn ich z.B. in einem Musikclub bin in dem keine Elektroakustik vorhanden ist, sondern ein akustisches Set, und den Saxofonisten lauter hören will, muss ich zu ihm hingehen. So ähnlich ist es bei WFS auch. D.h. dass ich während der Mischung viel weniger festlege, was der Rezipient hört. Deswegen gibt es keine pauschalen Empfehlungen. Durch die bessere Auflösung der Systeme, durch die Differenzierbarkeit auch im räumlichen Bereich, kann ich viel stärker Parallelisieren. Ich kann akustische Elemente gleichwertig laut setzten, so dass der Zuhörer trotzdem die Möglichkeit hat sie nachher noch auseinander zu bekommen. In der Hörwahrnehmung würde das bedeuten, dass ich sagen könnte: ich fokussiere mich, weil ich das möchte, auf den Dialog, und kann ihn deshalb bei der Mischung wahrscheinlich viel leiser machen, als bei einem dreikanaligen System, wo der Dialog deutlich getrennter sein muss. Bei der Stereofonie habe ich die Möglichkeit entweder alle anderen Elemente aus dem Center raus zu lassen, oder ich mache den Dialog lauter. Bei der Wellenfeldsynthese, mit ihrer sehr hohen Differenzierbarkeit, kann ich spezielle Elemente ganz anders setzten. Es gibt noch keine 20-Jahre lange Misch-Erfahrung in dem Bereich und – was auch noch viel wichtiger ist – es gibt im Bereich der Wellenfeldsynthese wenige Beispiele, die fiktionale Inhalte erzählen. Es gibt viel dokumentarisches Material, weil der Anspruch war, dass die Wellenfeldsynthese Audio so wieder geben soll, wie es in der Realität ist. Die realitätsrichtige Abbildung war so ein Markenzeichen des WFS. Das sehe ich nicht so. Es ist ein System, welches Wellen physikalisch richtig wiedergeben kann. Damit heißt das für mich nicht automatisch, dass es mich als System beeindruckt. Unter dem Postulat der Realitätsnähe – physikalisch richtig – wurde sehr viel quasi-dokumentarisches Material erstellt. Konzertsituationen wurden in eine elektroakustische Wiedergabeumgebung transferiert, gemäß dem Motto: „Wenn ich das physikalisch richtig mache, habe ich den Konzertsaal mitgenommen.“ Für mich sind das Versuche, die vergessen, dass dabei Dimensionen, wie die visuelle Rückkopplung, fehlen. Was ich aber beim Film habe, ist, dass ich nicht unbedingt einen realen Raum, sondern einen filmischen Raum erzähle, bei dem sich alles, was sich akustisch daran beteiligt, sich dieser Idee - das kann eine Geschichte, 110 Anhang eine Stimmung oder ein dramaturgischer Handlungsverlauf sein - unter ordnet. D.h. es gibt Elemente, die akustisch glaubwürdig sein sollen, aber ob sie akustisch realitätsrichtig sind, das ist nicht die zentrale Frage. Die Situation, die ich sehe, muss sich mit dem Verbinden, was ich höre und das, was ich emotional überbringen will ordnet sich dem unter. Aber genau diese Situationen gibt es in der Wellenfeldsynthese bisher wenig. Wir haben an der Hochschule vier Hörspiele gemacht, die eine fiktionale Komponente enthalten, aber meistens sind es Demos realer Situationen. Im Kinokontext ist WFS noch nicht so richtig angekommen. Ich denke, dass das, was die Kollegen von der WFS-Fraktion vorhatten, jetzt Dolby ATMOS1 übernimmt. Sie erstellen keine Wellenfeldsynthese, sondern ein Intensitätspanning, welches wahrscheinlich auch im Kino funktionieren wird. Es wird eine Objektorientierung geben und es wächst die Auflösungsfähigkeit des Systems, so dass die Beschallungssituation gleichmäßiger wird. Ob dann WFS dranhängt oder etwas anderes interessiert die Filmschaffenden nicht so sehr. Welche Projekte werden in WFS produziert? Seit Rhythm is it2 findet jährlich das Education-Dance-Project statt. Das ist ein soziales Projekt, bei dem die Philharmoniker gemeinsam mit Schülern aus Berlin eine Tanz-Performance entwickeln. Dieses Jahr wurde das Stück Carmen unter der Leitung der Choreografin Sasha Walz aufgeführt. Es gibt eine Probephase und dann wird das Stück zwei oder drei Mal aufgeführt. Diese wurden von den Kollegen des Heinrich-Hertz-Instituts mit einer 180° Kamera-Variante, mit einem Aufnahmewinkel von 180° und einer Bildauflösung von 7k, mitgeschnitten. Die Kamera ist allerdings sehr unflexibel und nicht mobil, was Bewegungen sehr aufwändig macht. Daher war das Konzept, dass während der drei Aufführungen drei Perspektiven aufgezeichnet wurden, die jetzt untereinander verschnitten werden müssen. Hinzu kommen noch Broadcast HD-Kameraaufnahmen als Inserts, um ein kurzes Demo der Aufführungen zu erstellen. Die Mischung dafür wird insofern spannend, weil das Endprodukt sehr filmisch wird, da diesmal nicht das musikalische Ereignis im Mittelpunkt steht. Die Rahmenhandlung ist zwar die Musik, aber die Musiker sind eigentlich nie im Bild, sondern nur die Tanz-Performer, die Schüler. Man sieht die Philharmoniker nur am Rande. Es gibt keinen Dialog und keinen Gesang, aber Geräusche, die von der Tanzfläche kommen. Wie diese mit der Musik kombiniert werden, ist eine dramaturgische Entscheidung. Stelle ich die Philharmoniker als breites Orchester, Filmmusik-mäßig dar, oder sortiere ich sie räumlich richtig ein, wie sie auch vom Bild kommen? Ich habe die Idee verschiedene Herangehensweisen auszuprobieren, die ich unter dem Stichwort „Räumlich Atmend“ zusammenfasse. Dabei würde ich die Musik gerne einmal ganz punktuell beginnen lassen um sie dann groß aufzubauen und sie dann, je nach dramaturgischen Handlungsverlauf, wieder in eine Realsituation hinein zu bringen. Ich würde versuchen, den Raum mal zu öffnen, so dass es Fokuspunkte gibt, aber auch die Musik mal breit und groß werden zu lassen, so dass sie das Bild damit untermalt. Das sind allerdings noch nur Ideen, die mit den Kollegen des Heinrich-Hertz-Instituts diskutiert werden müssen. Expansions- und Kompressionsbewegungen finde ich sehr spannend, weil sie in der Wellenfeldsynthese funktionieren und sie auch eine neue Form der Entfernungsbewegung darstellen. Möglicherweise nutz sich dieser Effekt auch nicht so stark ab. Bewegung um mich herum, so wie es im Kino manchmal vorkommt, finde ich nicht so spannend, weil es dramaturgisch sehr gut begründet sein muss, damit sie nicht nur wie spielerische Effekte wirken. Welche tondramaturgischen Konzepte könnte man verfolgen? Konzeptionen bei der Filmvertonung sind eher selten. Meistens werden individuelle Herangehensweisen, nach dem Trial and Error-Prinzip, angewendet. Das aktuelle Kinobeschallungsformat reizt mich nicht zu einer tondramaturgischen Surround-Gestaltung. Es gibt zwar gegenteilige Beispiele, aber man hat nur wenige Gestaltungsmöglichkeiten im Surround, weil sie – für mich – technologisch so mangelhaft sind, dass ich versuche deren Einsatz so klein wie möglich zu halten. Wenn ich im Kino Surround-Effekte höre, werfen sie mich technisch aus der Handlung. Darum gefällt mir auch die Wellenfeldsynthese, weil sich da das System als solches nicht in den Vordergrund spielt. Was sich mit Hilfe der Surrounds schön darstellen lassen, sind Veränderung der Atmosphären, Drehung von Räumen oder Gestaltung von Entfernungen. Wenn ich einen glaubwürdigen, quasi-realen Raum akustisch positioniere, dann brauche ich nur wenig Zeit um ihn zu etablieren und habe die Möglichkeit etwas in dem Raum zu erzählen. Wenn ich diesen Raum dann entferne, drehe oder bewege, erzeuge ich 1 2 Dolby ATMOS: neue Technologie von Dolby; weitere Informationen unter www.investor.dolby.com/releasedetail.cfm?ReleaseID=666401 Dokumentarfilm aus dem Jahre 2004, der drei Jugendliche während der Probezeit zum damaligen Tanz-Projekt „Le sacre du printemps“ begleitet 111 Anhang damit eine Fiktionalität, die ich sehr spannend finde. Der Film „Noise“ spielt mit diesen Effekten. Er hat auch einen WFS-Soundrtrack, wurde aber auch in 5.1 gemischt. Für mich ist grundsätzlich die Aussage des Filmes wichtig. Aber es ist tatsächlich auch bei mir so, dass vieles einfach entsteht, wenn man verschiedene Dinge ausprobiert. Viele Projekte, die ich in letzter Zeit gemacht habe, waren dokumentarischer Natur. Für die 180° Variante entsteht jetzt ein Film, der hoffentlich im nächsten Jahr fertig wird, der eine Geschichte für diese Technologie erzählt. Da muss es eine sehr enge Verzahnung zwischen den Elementen geben, die das Bild gestalten und die den Ton gestalten. Zurzeit sind solche Projekte in der Planung, und ich hoffe, da es dabei enge Zusammenarbeiten geben wird. Bei der Produktion von Hörspielen ist es manchmal so, dass beim Entwurf des Hörspieltextes gleichzeitig ein Tonkonzept von den Autoren vorgegeben wird, weil das teilweise schon für die Aufnahmetechnik wichtig sein kann. So werden Räume mit Hauptsystemen mikrofoniert, die anschließend vollständig bespielt werden. Die Szenen werden auch als Ganzes inszeniert und gar nicht aus einzelnen Stücken zusammengesetzt. Dann werden Konzepte im Vorfeld unbedingt benötigt, aber im Filmbereich habe ich mich damit selten beschäftigt. Wie man sinnvoll ein Konzept zu einem vorhandenen Bild entwickelt, ist meist Aufgabe des Sounddesigners. Im Mischungsbereich ist es oftmals so, dass viele Dinge bereits durch das Sounddesign vorgegeben sind. Aber durch räumliche Gestaltung, Tiefenstaffelung und Entfernungslayering kann ich Bedeutungen in der Mischung verstärken. Ein interessantes Beispiel dafür ist der Film „Der Gott des Gemetzels“ von Roman Polanski, der nur Dialog als Gestaltungsmittel zur Verfügung hat. Er ist eigentlich mono, arbeitet aber viel mit Tiefenstaffelung. Teilweise sind vier vorhandene Protagonisten von der Entfernung her räumlich richtig positioniert und dann teilweise wieder nicht. Es gibt eine Dialoghandlung, die eine bestimmte Zeit umfasst. Alle zum Dialog gehörenden Protagonisten, sind räumlich in der Entfernung richtig eingeteilt, und alle Dialogelemente, die in diesen Dialogbogen einbrechen, weil sie nicht direkt dazugehören, haben eine andere Tiefenstaffelung. Obwohl sie im Raum viel weiter hinten zu sehen sind, sind sie manchmal weiter vorne zu hören, gehen dann aber wieder weg. Dadurch schafft es der Film, der eigentlich ausschließlich Dialogelemente zulässt – es gibt einige Bewegungsgeräusche, aber nicht viele, und fast keine Atmos – über die Tiefenstaffelung eine spannende Tondramaturgie zu kreieren. Er funktioniert allerdings nur in der Originalfassung. Das räumliche Konzept, ich empfinde es zumindest als solches, wurde bei der Synchronfassung leider nicht nachgebaut. Ich finde tondramaturgische Konzepte spannend, die weggehen von dem Konzept, dass ich ein Bild sehe und es auch akustisch in irgendeiner Form bedienen muss, ob nun leiser oder lauter, sondern die ganz bewusst auf eine Reduktion setzten. Ich finde Konzepte spannend, in denen der filmische Raum als eigener Raum betrachtet wird, in dem bestimmte Elemente aus der Realität richtig einsortiert sind, die wichtig sind und vorkommen müssen, aber - und das sind auch meistens die guten Soundtracks - eine Fokussierung in sich beinhalten. Dabei erhalten die Elemente, die da sind trotzdem so eine Beiläufigkeit, dass ich nicht das Gefühl habe, dass ich hier etwas hören muss - ein Foley oder ein Schritt - der wichtig sein muss. Konzepte sind daher für mich, die Abstraktion der Tonebene, bewusste Fokussierung auf einzelne Elemente, aber mit einer Leichtigkeit versehen, dass der Soundtrack so wirkt, als müsste er so sein. Aber das ist nicht selbstverständlich. Oft ist es so, dass der Soundtrack vom Kunden nachsynchronisiert wurde und damit automatisch eine Fokussierung hat, der aber dann wieder so präsentiert wird, dass ich alles höre. Ich habe dann das Gefühl, dass ich alle Foleys hören muss und das finde ich furchtbar. Ziele sind, unabhängig vom Film, atmenden Räume zu schaffen, über Tiefenstaffelung Bedeutungsstaffelungen herzustellen, und in der Fokussierung trotzdem zu einer Beiläufigkeit zu kommen, dass sich einzelne Elemente nicht einfach nach vorne spielen. Es ist wenig da und wirkt damit glaubwürdig. Das sind zwar keine Konzepte, aber das sind Ziele. Eigentlich finde ich die Idee, Konzepte zu entwickeln, sehr gut. Ich bin jemand, der gerne Konzepte entwickelt, auch wenn sie im Prozess meistens komplett umgeworfen werden. Ich entwerfe eine Gliederung oder einen Entwurf und sehe dann im Bearbeitungsverlauf, dass das Konzept geändert werden muss. Wenn ich aber kein Konzept habe, kann ich auch nichts ändern. Ich habe keine Referenz, an der ich meine Arbeit rückkoppeln kann. Deshalb finde ich es gut, im Vorfeld eine Idee zu generieren. Aber es ist natürlich so, dass es in der Realität selten passiert. Man bekommt ein Bild und dann beginnt auch direkt die Arbeit und man hat keine Gelegenheit im Vorfeld ein Konzept zu entwickeln. Oft ist es im Mischungsbereich so, dass ich die Sachen zuvor gar nicht gesehen habe, die Mischung aber gleich losgeht. Man kann manchmal erst am Ende entscheiden, ob das Konzept funktioniert hat. Teilweise wird gleich mit der Arbeit begonnen und dann noch mal ein rekursiver Prozess eingeführt, bei dem dann Anfang, Mitte und Schluss noch mal bearbeitet werden. Das ist zumindest sinnvoll für so eine Form des Arbeitens, wo man das Material vorher noch nicht gesehen hat und gleich loslegen muss. 112 Anhang Filmmusik-Mischtonmeister haben berichtet, dass tendenziell recht trockene Mischungen abgegeben werden, damit in der Endmischung die richtige Dosierung gefunden werden kann. Wenn das in einem extra Stem rausgespielt wird, geht ja eigentlich alles. Ich finde, dass Räumlichkeiten tatsächlich nur im Kontext des Gesamtsoundtracks entschieden werden können. Man muss den Hallstem in der Hand haben können. Musikpremixe finde ich sehr gut und sehr wichtig, aber dann benötige ich einen Musik- und einen Effektstem mit demselben Spurlayout, und dann habe ich alles, was ich brauche. Eine Räumlichkeit auf eine Gesamtsumme zu packen, ist nicht optimal. Ich kann verstehen, dass man die Räumlichkeit in der Mischung getrennt haben will. Es geht ja um den filmischen Kontext und nicht um die Musik. Die Filmmusik ist nur ein Element des Soundtracks und kann nicht finalisiert werden, ohne alle weiteren Elemente zu kennen. Sie ist eine funktionale Musik und nicht autonom. Wenn sie autonom ist, ist sie wahrscheinlich falsch gewählt. Auch der Soundtrack ist ein Element des Films, welcher sich aus verschiedenen Elementen zusammensetzt, und davon ist ein Element die Musik, in welche ich eingreifen können muss. Die grundsätzliche Modifizierbarkeit finde ich sehr wichtig. Die Stems sind dafür da, dass ich noch eingreifen kann, wenn bedarf ist. Dabei sollte das Stemlayout schon dem finalen Layout entsprechen und auch die Gestaltung der Surrounds kann durchaus bereits erfolgt sein. 113 Anhang Martin Steyer Filmmischtonmeister, HFF Ausschnitte aus dem Gespräch am 13.Juli 2012 Was sind die Möglichkeiten eines konzeptionellen Vorgehens in der Gestaltung der Tonebene mit Dialog, Sounddesign und Musik? Es gibt eigentlich zwei Pole, zwischen welchen sich eine Filmmusik herausbilden kann. Zum einen ist es der Stoff, bzw. der Urimpuls des Films, welcher den Komponisten dazu bringt, die Musik passend zum Plot und zu den Figuren zu komponieren. Der andere Pol ist die zeitliche Struktur im Film. Sie ist ein Instrumentarium, die der Musik eine Struktur verleiht. Diese kann nach klassischen Formen oder improvisatorisch gewählt werden, auch ohne eine Begründung liefern zu müssen. Die zeitliche Struktur ist der Gegenpart alles Spielerischen. Dazwischen befindet sich der Bereich der Inspiration, die der Komponist mitbringt. Die Amerikaner haben eine Bezeichnung für kreative Herangehensweisen in der Tongestaltung: „Doing the opposite.“ Wenn eine komplett gegensätzliche Idee umgesetzt wird, bringt das oftmals eine neue Sichtweise mit. Welche Stems präferieren Sie? Bei den Stems sollten immer perkussive und flächige Anteile getrennt werden. Dabei sollte der Hauptstem mit einer 3er Front, besser aber in 5.0 oder 5.1 vorhanden sein. Bei „Die Vermessung der Welt“ gibt es sogar 7.1 Stems, also vier Raummikrofone für die vier Surround-Lautsprecher zur Verfügung stehen. Weiter ist wichtig, dass die Stützstems oder Instrumentenstems einer Delaykorrektur unterzogen wurden. Diese Korrektur ist notwendig für einen präziseren Sound. Ohne die Delaykorrektur wird der Sound diffuser, verbindet sich dann aber besser mit den restlichen Tongeschehen zu einem Gesamtklang. Ansonsten benötige ich einen extra Bass und separierte Soloinstrumente. Ich habe von Musiktonmeistern erfahren, dass früher lieber Stereostems als fertige Surround-Stems angenommen wurden. Das lag wohl daran, dass diese Surround-Mischungen von Anfang an nicht für die Anwendung im Kino geeignet waren. Eine SACD-Mischung z.B. ist fürs Kino überhaupt nicht brauchbar, weil sie viel zu wenig Dynamik aufweist. Die Idee der Musik im Film ist eine andere als bei autonomer Musik, z.B. die internen Verschiebungen der Orchesterinstrumente sind ganz andere. In den USA werden Piano und Harfe grundsätzlich in einem separaten Raum aufgenommen, damit keine Schwierigkeiten bei der Klangbearbeitung auftreten. Das Klavier im Kino, als perkussives Instrument, sollte immer mit einer Laufzeitstereofonie aufgezeichnet werden, nie mit Intensitätsstereofonie, damit die Sprache frei bleibt. Klavierstems sind meist auch nur quadrofon. Wie behandeln sie stereofone Musik im Kino? Der klassische Weg verläuft über die SDU41, um ein Surround-Signal zu generieren. Auch der entstehende Center wird genutzt. Der Monosurround wird dann mit einem Stereosynthesizer in ein stereofones Signal umgewandelt. Für den Film „Knallhart“ musste ich monofone Rockmusik verarbeiten. Dazu half mir der Orban Stereosynthesizer, der mit inversen Filterkurven ein monokompatibles Stereosignal generierte, was dann wieder den Weg über die SDU4 nahm. 1 SDU4: Dolby Surround Decoder 114 Anhang Leider verschwinden immer mehr analoge Geräte aus den Studios. Nur noch Plugins bleiben übrig. Dabei unterscheide ich die zwei Hauptbereiche der Filter, die ganz exakt störende Frequenzanteile entfernen, und der Raumsimulationen, wie Altiverb, die sehr vielfältige Räume nachbilden können. Eine grundsätzliche Anpassung von Stereomusiken an die Hornlautsprecher halte ich nicht für notwendig. Ich greife erst in den Frequenzgang ein, wenn ich etwas Störendes höre. Jeder Film muss anders behandelt werden, deshalb kann es auch keine standardisierten Verfahren geben. Es gibt auch Tonmeister, die voreingestellte Filter haben, die alles unterhalb 80Hz und oberhalb 12kHz abschneiden, aber von solchen Sicherheitsfiltern halte ich relativ wenig. Für mich gilt immer „Erst hören, dann machen.“. Außerdem verliert der Klang mit jeder Filterung an Robustheit. Für den Raum, in dem gemischt wurde mag alles funktionieren, aber wenn der Film dann in einem anderen Raum aufgeführt wird, können sich stark eingesetzte Filterungen negativ auswirken. Ein weniger stark bearbeitetes Signal dagegen setzt sich in jedem Raum durch. Lediglich Atmos, besonders bei der Gestaltung von Räumen, dünne ich im mittleren Frequenzgang etwas aus. Gesang in der Musik parallel zu Dialog ist immer sehr schwierig zu mischen. Sowas sollte man eigentlich nicht machen. Dann muss der Gesangsstem gefiltert werden. Für den Film „Casino“ wurden sämtliche Vokalteile ausgeschnitten, damit sie nicht den Dialog überdecken. Das ist allerdings schwierig, da dafür die Erlaubnis des Künstlers eingeholt werden müsste, was aber meist nicht geschieht. Es hat den Anschein, dass Szenen ohne Filmmusik ernsthafter wirken. Ich mag Filmmusik, wenn sie sich sachte unter die Szene schiebt, sie also ohne Musik beginnt und am Ende den Zuschauer noch etwas in der Stimmung behält. Oft haben Regisseure nicht genügend Erfahrung und wissen erst am Ende was sie wollen. Daher sollte der Tonmeister Ahnung von Musik haben. Der Rhythmus einzelner Geräusche ist auch für den Sounddesigner wichtig, wenn sie im Off richtig eingesetzt werden müssen. Musikalisches Empfinden kommt dem Einfühlungsvermögen gleich. Was hat die Digitalisierung gebracht? Die Effektivität hat sich nicht geändert. Als Filme noch mit analogem Band linear geschnitten wurden, gab es keine neue Schnittfassung während der Tonpostproduktion. Die erste digitale Schnittmaschine konnte nur chronologisch schneiden. Man konnte nicht zurück und den ersten Schnitt noch mal verändern. Der Schnitt, die Möglichkeiten von Mehrkanalaufnahmen und die Musikrezeption ändern sich ständig. Daher sind Traditionen bald nicht mehr sinnvoll und weichen den Inventionen. 115 Anhang Dick Bernstein Music Editor Ausschnitte aus der eMail vom 18.Juli 2012 What would be the ideal production cycle during the score production and what is real? What could be optimized? Scheduling, per se, seems to be a moving target. The picture cut never settles, so new picture is always being delivered, and often the music team is chasing the cut. Then there is the paramount issue of the availability of scoring stages, which has become quite impossible since the demolition of the Paramount stage and the Radford stage. Fox, Warners, and Sony are the only viable stages in Los Angeles these days, and they are perpetually booked. Then there are huge glitches, like reshoots, or tossing an entire score and hiring a different composer. Things used to work better with television, where there was a three-week schedule and three composers. One week for writing, one week for copying and recording, one week for editing and mixing. What could be optimized? Start with the brains of directors, and then the brains of studio execs. Have plenty of time available on scoring stages, and a surplus of excellent, highly trained musicians. What are sound-dramaturgical concepts you prearrange with the full sound department? There usually isn't much interaction besides passing temp music to the sound editors for their spotting, and sometimes discussing a specific sound element such as church bells, which have a tonality (although these days we just kind of re-pitch as we go). Then sometimes we discover discordant elements in the sound effects that really mess with the music for no apparent reason - car honks, traffic, bird calls. We sometimes ask the sound editors to "help us out." Other times we appeal to the director during the final mix. Do you edit the temptracks in 5.1 or stereo? Almost exclusively stereo. Rarely I'll steal from an old show where I had the complete score in 5.1. Rarely. How long do you need for spotting the session and score preparation? Spotting is one long or two reasonable days. Doing notes from that is another day or two, and, if breakdown notes are required, they can take a couple of weeks. It's all about having enough material for the composer to keep working. Score prep -- for a music editor, this has to wait until sketches are delivered to the copyist, who sends along another copy to the music editor. Then we can start inputting bars, timings, etc. Uncovering math errors. This starts about a week before scoring and continues right through the scoring sessions, as scores are being delivered at the last minute. as a matter of course (at least with James Horner), streamers and punches are added during rehearsals and between takes. The first streamer was a diagonal line over 48frames of the strip, but how it got's visible? What software do you use today to visualize the punches and streamers? The streamer "on the film" is old technology. These days we use video effects generators or "filters" to superimpose streamers on digital or taped video. This makes the streamers non-destructive and edit-able. I use Streamline, a program I invented along with my brother Bill and my friend Bob Badami. It's a long story, but our attempts to sell and support the program fell short because we are all working music editors and didn't have time to be salesmen and support people. Check out our technical achievement award from 1989 (at the bottom of the page): http://www.imdb.com/event/ev0000003/1989 116 Anhang Stephan Köthe Tonmeister, HFF Ausschnitte aus dem Gespräch am 24.September 2012 Was ist der Ausgangspunkt bei einer Musikproduktion, worauf kommt es an? Die Wahl der Mittel ist als erstes durch eine inhaltliche/dramaturgische Fragestellung eines Werkes bestimmt. Was möchte der Kunde, mit welchem Inhalt erreichen? Die Anforderungen an ein Produkt formen sich dabei häufig aus verschiedenen Meinungsbildern, die es zu sondieren gilt. Dazu kommt, dass der Kunde am Anfang oft eine mehr oder weniger diffuse Vorstellung von dem eigentlichen Endergebnis und damit vom Umfang der Produktion hat. Es ist zu klären, was wen, wie bei welchem Budget erreichen soll. Dass unterschiedliche Endformate, jeweils mit einer anderen Herangehensweise bewältigt werden, muss durch den Tonmeister „übersetzt“ werden. Es ist wichtig immer zu hinterfragen was der Kunde wünscht. Dafür müssen die richtigen Worte gefunden werden, die immer abhängig von der „Szene“ sind, in der man sich gerade befindet. Klassische Musiker sprechen eine andere Sprache als Tonleute untereinander oder Tonleute mit Popmusikern. Bei der Übertragung sind wir gefragt. Wir sind Übersetzer, ergründen die Intention des Regisseurs und des Komponisten, was für eine Stimmung evoziert werden soll, und danach wählen wir z.B. die passende Aufnahmetechnik. Am Ende jedoch kommt es bei diesem komplexen Themenkonglomerat darauf an, im richtigen Moment auf Aufnahme zu drücken bzw. eine Situation zu schaffen, eine Atmosphäre herzustellen, in der eine gute Performance des Künstlers möglich wird, auch in einer künstlichen Studiosituation. Sich mit Mikrofontypen, Pulten, Technologie an sich auszukennen, ist dabei Vorraussetzung für den Beruf. Welche unterschiedlichen Aufgaben ergeben sich daraus für den Tonmeister? Der Aufnahmeleiter, also der Tonmeister, der die Aufnahme leitet, betreut dabei die Aufnahme inhaltlich und der Recording Engineer am Pult technisch. Der Aufnahmeleiter formuliert mit dem Komponisten die klanglichen Anforderungen und Vorstellungen während der Session. Der Recording Engineer setzt diese technisch um, vorausgesetzt es liegt eine klassische Rollenaufteilung von Workstation-Operator, Pultingenieur und die Aufnahme leitenden Tonmeister vor. Heutzutage sind kleine und mittlere Produktionen aus wirtschaftlichen Gründen dazu gezwungen, die Arbeiten in einer Position zusammenzufassen. Das führt dazu, dass unzählige inhaltliche, organisatorische und technische Vorgänge von einer Tonmeisterin gleichzeitig bewältigt werden müssen. Wir müssen diese verschiedenen Bereiche bedienen und gleichzeitig darauf achten, dass die ursprüngliche Intention – ein Gefühl hervorzurufen – nicht aus den Augen verloren geht. Von der Qualität der Übersetzung der ursprünglichen Idee zum Werk in die komplexen Einzel-Prozesse durch den Tonmeister, hängt eine Menge ab. Er muss für das entsprechende Werk, Stück oder die entsprechende Szene individuelle Konzepte zur Umsetzung entwickeln. Das betrifft u.a. die Aufstellung der Musiker, die Mikrofonierung und spätere Mischtaktik, den gesamten Produktionsprozess. Gibt es sonst darüber hinaus ästhetische Unterschiede durch die Produktion für verschiedene Zielgruppen? Die zu beachtenden genreabhängigen Unterschiede im Produktionsprozess haben wie gesagt einen inhaltlichen Ausgangspunkt. Beim Film sind es dramaturgische Beweggründe, die meistens vom Regisseur ausgehen. Im Film muss sich die Musik im Gegensatz zur absoluten Musik, dem Handlungsverlauf einer Geschichte unterordnen, die funktionieren soll, um möglichst viele Besucher ins Kino zu locken. Wie wichtig die Zielgruppe ist, zeigt sich nicht nur bei einer Hollywoodproduktion, sondern auch bei einer Opernübertragung, die von einem Fernsehsender produziert wird, um auf Arte oder 3sat ausgestrahlt zu werden. Es gibt hier natürlich ebenfalls ein ganz bestimmtes Zielpublikum mit einer bestimmten ästhetischen Erwartung. Es gibt z.B. ganz unterschiedliche Arten von mehr oder weniger „authentischen“ Opernaufzeichnungen. Der durchschnittliche „Arte-Kulturhörer“ erwartet hier tendenziell eine authentische Übertragung eines Konzerterlebnisses, wobei wir wissen, dass wir uns schon lange nicht mehr in der ursprünglichen Konzertsituation befinden. Bei einer „Gala-Opern-Show“ in konzertanter Form können sich schon mal die Genregrenzen vermischen. Trotzdem kann man immer sagen: man muss 117 Anhang ausdifferenzieren, welche Ästhetik wir befriedigen und welches Publikum wir in welchem Umfang erreichen wollen. Die Klassikproduktion und die Filmmusikproduktion gehorchen einerseits ihren eigenen ästhetischen Gesetzen, bändeln jedoch beide häufig miteinander und der Popästhetik an. Die Entwicklung geht hier weiter. Genauso wie sich die Ästhetik des reinen Konzerterlebnis zu einer Aufzeichnungs- bzw. Schallplattenästhetik gewandelt hat, mit eher gestützten Einzelquellen kombiniert mit einem Hauptssystem. Genauso wie die Nachhallzeit von Konzertsälen nach 1945 von 2 bis 2,2 Sekunden im Prinzip einer gewachsenen Aufführungspraxis geschuldet ist, welche Werke unterschiedlicher Epochen von Barock bis Romantik an einem Abend bewältigen soll. Diese Entwicklung koppelt wiederum zurück mit der Einstellung des künstlichen Nachhalls bei einer Klassikproduktion. Als die Stücke ursprünglich komponiert wurden (nicht nur im Barock, sondern nachweislich auch in der Klassik und in der Romantik) mussten die Werke teilweise mit sehr viel kürzeren Nachhallzeiten bei ihren Uraufführungen ausgekommen. Am Ende gibt es immer die Wechselwirkung von Aufführungspraxis, Medium und Zuhörer. Was ist speziell bei einer Filmmusikmischung? Michael Schubert hat schön gesagt, dass wir ein Zwischenprodukt erstellen. Dabei muss der Filmmusikmischtonmeister auch immer ein wenig Filmmischtonmeister sein, also wissen worauf hin er innerhalb des Produktionsprozesses mischt. Das heißt, er muss wissen, wie die Abhörsituation im Kino funktioniert, welche o.g. Funktionen die Musik erfüllt, welche Kompositionstaktiken es gibt, was jeweils damit im Kontext des Films intendiert wird. Das muss er wieder verbinden mit dem, was sowieso als ästhetische musikalische Konvention in den Köpfen der Leute durch die Hörerfahrung besteht. Bei der Mischung eines z.B. Trauermarsches, welcher im Bild zu sehen ist, erwarte ich als Zuschauer auch eine mit der Lokalisation verbundene Akustik einerseits, andererseits das gewohnte, von Aufzeichnungen bekannte Klangbild. Diesem Umstand versucht man dann als Filmmusikmischtonmeister Rechnung zu tragen. Als Musikmischtonmeister für den Film ist es wichtig, dem Mischtonmeister zuzuarbeiten, ohne zuviel vorwegzunehmen, was er selbst nicht einschätzen kann. Die Berufsrealität zeigt zwar oft, dass man es auch ohne Bild mischen muss, aber eine bessere Arbeit ist möglich, wenn bildbezogen gemischt wird. Dazu gehört auch, dass man gewisse Instrumente bildbezogen hervorhebt, die dramaturgisch, leitmotivisch (z.B. Personencharakterisierung) fungieren. Das kann man während der Musikmischung schon vorarbeiten, auch wenn während der Filmmischung oft noch nachgearbeitet wird. Wenn ein Soloinstrument in der Filmmusik-Orchester-Mischung hervorgehoben werden soll, geht es nicht nur, wie in der klassischen Musik, darum ein möglichst authentisches Bild von einem Konzerterlebnis zu zeichnen, um z.B. eine ausgewogene Tiefenstaffelung zu erreichen, sondern darum, dem Film in dem Moment gerecht zu werden. Die ästhetischen Konventionen der klassischen Musikproduktion spielen mit, können aber in der Filmmusik und in der bildbezogenen Musikmischung durchaus durchbrochen werden. Ein Beispiel dafür ist in der Konzertaufzeichnung das Hervorheben eines Soloparts in der Nahen (Kameraeinstellung). Warum ist der Decca-Tree bei Filmmusikaufnahmen so interessant? Wie wird dazu gestützt? Der Decca-Tree steht nicht vor dem Klangkörper und spiegelt nicht die Perspektive eines Zuhörers im Konzertsaal wieder. Er steht über dem Dirigenten. Das linke Mikrofon ist über den ersten Geigen, das rechte Mikrofon (abhängig von der Aufstellung) über den zweiten Geigen oder den Celli positioniert. Der Center weist in Richtung Bratschen bei der amerikanischen Aufstellung. Die Outrigger befinden sich über den zweiten Pulten. Als Mikrofone werden oft die M150 von Neumann verwendet, Kugelmikrofone, die zu hohen Frequenzen hin gerichtet sind. Damit erhält man eine Mischung aus Hauptsystem und Streicherstützen. Dieses muss in der Mischung später auch so betrachtet werden. Der Decca–Tree betont den Streicherapparat, leider aufstellungsabhängig gleichzeitig eine homogene Tiefenstaffelung opfernd, die in der klassischen Musikproduktion bei Einsatz eines Hauptssystems maßgeblich ist. Bei der Filmmusik will man bis in die Popästhetik hinein, sehr nah stützen und auch über den Decca-Tree erhält man ein relativ direkten und gleichzeitig einen nicht zu überstützten Klang der Streicher. Wie in der Klassik, wo man mit dem Hauptsystem und den Stützen (nicht nur um das Publikum optisch zu schonen) einen relativ großen Abstand zum Klangkörper bzw. zum Musiker hält. Der Abstand und Winkel des Mikrofons zum Instrument beeinflusst den Klang, klar. Näher – weiter; direkter – luftiger; mehr Kontrolle – weniger Kontrolle; Übersprechungsanteil kleiner oder größer. Im Nachhinein sind noch mehr mischdramaturgische Eingriffe möglich, wenn ich weniger Übersprechen habe, auch klar. Das ist nicht nur wichtig, weil sich Filmorchesteraufnahmen immer mehr an der Pop-Ästhetik orientieren, sondern auch für die möglichen Steuerbarkeit zur Unterstützung der Bilddramaturgie. 118 Anhang Der Decca-Tree ist eigentlich ein Stereosystem (ohne abgesenkten Center) und hat Schwächen, wenn man ihn eins zu eins in ein LCR-System, sprich in ein Surround-Array umdefiniert. In einem Kinosystem hat er die Schwäche des überhöhten Centers. Oft wird diesem Problem leider durch eine pauschale Absenkung des Centers spätestens in Filmmischung begegnet, da der Center a priori dem Dialog vorbehalten bleibt. Dabei wird der Center benötigt, damit das musikalische Gesamtbild, gerade im Kino mit seinen großen Basisbreiten, nicht zerfällt. Es gibt Wege dem Effekt bereits bei der Aufnahme oder spätestens in der Mischung vorzubeugen. Es ist nicht einfach Regeln bezüglich Filterung und EQing aufzustellen. Gibt es trotzdem grundsätzliche Vorgehensweisen? Im Zweifelsfall, besonders bei der Orchesteraufnahme, gilt „don’t fix in the mix“. Sprich, bereits bei der Aufnahme ist zu beachten, dass die Instrumente eine bestimmte Abstrahlcharakteristik haben, d.h. gewisse Frequenzbänder nur in bestimmte Richtungen abgestrahlt werden. Wenn ich nur ein Mikrofon für ein Instrument habe, muss ich den Abstand erhöhen, um das Instrument vollständig zu erfassen. Das relativiert auch eventuelle Bewegungen der Musiker. Es bleibt der Zwiespalt zwischen Kontrollierbarkeit und Klangfarbe. Dazu muss ich wissen, wo welche Hauptformanten wichtig für meine Mischung sind. Um EQing vorzubeugen muss das Instrument an der richtigen Stelle, mit dem richtigen Mikrofon abgenommen werden. Ein Gitarrenlautsprecher oder eine Trompete klingen im Zentrum der Hauptabstrahlachse präsenter und heller als am Rand, immer auch abhängig von der Charakteristik des gewählten Mikrofons. Bei der Positionierung der Mikrofone sind neben Übersprechungseffekt und Phasenbildung durch Summation verschiedener Stützen, wie immer auch Genre, Stilistik, und die sonstigen Eigenschaften der Instrumente, wie der Geräuschanteil mit zu berücksichtigen. Neben einem standardmäßigen „Aufräumen“ in den Bässen beispielsweise bei Trompeten, Bratschen und Pauken, sollte man sich während der Mischung immer ansehen, welche Hauptformanten das Instrument natürlicherweise von sich geben sollte, bzw. welchen Platz es im Gesamtbild einnehmen soll oder kann. Dann kann man einordnen, in welchen Frequenzbereichen das Instrument gerade stark oder schwach ist und in welcher Lage welche Formanten mehr oder weniger zum Ausdruck kommen sollen. Eine mysterioso Flöte verhält sich im Aufbau ihrer Teiltöne anders, als eine in hoher Lage gespielte Flöte. In hoher Lage nimmt ihre Richtwirkung zu, so dass sie kaum vom Hauptsystem genommen werden kann. Wenn beim Orchesterapparat gefiltert werden muss, hilft es, wenigstens Haupt- und Nebenformaten der jeweiligen Instrumente zu kennen. Es ist nicht unbedingt wichtig alle Formantbereiche auswendig zu kennen, da in der beschränkten Tontechnik jeweils nur eine Frequenz bearbeitet werden kann. Uns stehen parametrische Mittenfilter sowie Filter zur Absenkung von Höhen und Tiefen zur Verfügung. In der Mitte kann lediglich eine Frequenz angegeben werden, die entzerrt werden kann. Wie kann ein Umhüllungseffekt in der Mischung erreicht werden? Und wie wirken sich Outrigger-Signale im Surround aus? Nach welchen Gesichtspunkten sollte man die Auswahl und Position seiner Raummikrofone grundsätzlich wählen? Die Stärke der empfundenen Umhüllung ist nur von der absoluten Lautstärke des Nachhalls abhängig und nicht von dem Verhältnis Direktschall zu Nachhall. Der Gesamtpegel der Reflexionen muss daher ausreichend hoch sein. Besonders die seitlichen Anteile des Nachhalls sind für den Effekt der Umhüllung maßgeblich, da das menschliche Gehör Rauminformation hauptsächlich aus den seitlich eintreffenden Rauminformationen zieht. Für die Übertragung eines natürlichen Reflexionsmusters stehen die seitlichen Lautsprecher L-LS und R-RS zur Verfügung. Möchte man bei der Übertragung diffuser Reflexionen und Nachhallanteile über das Lautsprecherquadrat L-R-LS-RS eine ausreichende Diffusität erreichen, sind teilkohärente Mikrofonsignale L-R-LS-RS nötig. Wie für Stereosysteme gilt: Bei abnehmenden Kohärenzgrad zwischen L und R, nimmt auch die Bildung von Phantomschallquellen ab, gleichzeitig aber die subjektiv empfundene Diffusität zu. Bei einem Kohärenzgrad kleinergleich 0,2 kommt es dann verstärkt zu einer Lautsprecherlokalisation. Es gilt also einen Mittelweg zu finden was den „Grad der Gemeinsamkeit“ angeht. Das bedingt anhaltende Experimente mit Surround-Arrays und mehr oder weniger gerichteten Kapseln und Ausmaßen, bzw. Basisbreiten. Es ist zu bedenken, dass die Outrigger ursprünglich nicht als Surround-Mikrofone gedacht waren sondern in der stereofonen Wiedergabeumgebung zusammen mit den äußeren Mikrofonen des Decca-Trees eher einen Kugelvorhang bilden. Trotzdem kommt die Anwendung als „Verbindung Vorne-Hinten“ in der Misch-Praxis oft vor. Wenn die Outrigger mit dem Pan-Pot in und über die Mitte nach Hinten zwischen den vorderen und hinteren Lautsprechern positioniert werden, treten in manchen Fällen weitere Probleme 119 Anhang mit der Lokalisation auf. Es kommt zu einer Hintenlokalisation, durch den zu hohen Direktanteil auf den Outriggern. Es kann bereits bei der Aufnahme darüber nachgedacht werden, ob nicht alternative Arrays an Stelle des Decca-Trees kombiniert mit eher sehr entkoppelten, diffusen Raummikropositionierung aufgebaut werden sollten. Beispielsweise könnten Nieren und Supernieren in Verbindung mit Kugeln verwendet werden, um den besagten Umhüllungseffekt zu steuern. Man kann mit den Raummikrofonen experimentieren. Dabei sollte möglichst verhindert werden, dass durch deren Verwendung bei der Mischung eine Zweiräumigkeit entsteht. Nachtrag zu seitlichem Schalleinfall und deren Frequenzabhängigkeit: Umso breiter das in den Reflexionen enthaltene Frequenzband, desto stärker fördern die Reflexionen den Raumeindruck. Wenn das Frequenzband des seitlichen Schalleinfalls eher die tiefen und mittleren Frequenzen betont, entsteht der Eindruck, dass sich der Klang in die Tiefe des Raumes – nach vorne und hinten – ausbreitet. Wenn das Frequenzband die hohen Frequenzen betont, wird der Eindruck einer klanglichen Verbreiterung geweckt. Siehe Blauert. Gibt es Regeln für das Pegelverhältnis von Hauptsystem und Stützen? Nicht wirklich, bzw. ist es eine ästhetische Frage. Es wird oft von „überstützt“ oder „nicht überstützt“ gesprochen. Wenn ich mich hauptsächlich in der Intensitätsstereofonie bewege und mit unverzögerten Stützen arbeite, also über den Panpot die Quellen im Raum verteile, und der Direktschall des Hauptsystems zeitlich nach dem Stützsignal eintrifft, kann man sagen, dass sich z.B. die erste Geige, wenn sie solistisch spielt, im Pegel zwischen +3dB und -4 dB (resultierender Gesamtpegel aus Hauptsystem und Stütze) liegen kann. Da die erste Geige sehr nah am Hauptsystem sitzt, kann der resultierende Gesamtpegel aus Hauptsystem und Stütze ruhig bei +3dB liegen. Stützmikrofonsignale von Instrumenten, die nicht solistisch auftreten sollen, können nach Sengpiel, abhängig von der Entfernung zum Hauptssystem, zwischen -13 und -6dB liegen. Um eine adäquate Tiefenstaffelung mit Hauptssystem und Stützen zu erzeugen, müssen wir bei Darstellung eines Soloinstruments nicht verzögern. Wenn Signale doch zu direkt erscheinen, die Tiefenstaffelung gestört ist, können die Stützen über Verzögerung oder Beifügen von early reflections in das Gesamtbild eingefügt werden. Das klingt jetzt sehr nach Kochbuch. Ob es aber schmeckt, ist abhängig vom persönlichen Empfinden. Außerdem muss noch, wie gesagt, ein Zielpublikum erreicht werden. Ausgenommen davon gibt es auch in der ernsten Musik Werke, wo es Teil der Aufführung ist, dass ein Solist aus dem Orchester nach vorne läuft. Auch kommt es vor, dass bei Opernaufführungen der erste Geiger auf die Bühne läuft, also die Ebenen wechselt. Solche Effekte wurden bewusst genutzt. Nicht mehr abgeschattet vom Orchestergraben, sonder neben dem Sänger stehend und aus gleicher Richtung kommend. Wenn es um die Frage der Laufzeitverzögerung geht, geht es nach der Position des Musikers im Orchester und seiner Rolle, die er dramaturgisch im Klangbild einnimmt. Welche grundsätzlichen Herangehensweisen gibt es bei der Orchestermischung? Zunächst gibt es zwei grundsätzlich Ansätze bei der Mischtaktik von Hauptsystem und Stützen: Mischtaktik (a): nicht verzögerte Stützen Im zeitlichen Verlauf kommt als erstes das Direktsignal von den Stützen. Anschließend kommt die Raumantwort vom Hauptsystem. Erst Direktsignal durch die Stützen, dann Hauptsystem. Danach kommt der künstliche Nachhall. Dabei ist wichtig, dass der Nachhall erst nach den early reflections des Hauptsystems folgen, d.h. das Pre delay am Hallgerät sollte ausreichend groß sein, damit die Hallfahne hinter den early reflections des Hauptsystems landet. Der künstliche Nachhall wirkt als verbindendes Element, erhöht die Lautheit, und sein Pegel entscheidet mit über den Grad der empfundenen Umhüllung. Die ganz klassische Mischtaktik (b): verzögerte Stützen Das Hauptsystem liefert das Direktsignal und die early reflections. Dann gilt auch wieder, dass die Laufzeit vom Musiker/Instrument zum Hauptsystem gemessen, berechnet oder abgeschätzt werden muss. Mit den ermittelten Werten verzögere ich dann meine Stützen. Das heißt, ich muss die Verzögerung der Stützen sogar überkompensieren, so dass man im Schnitt schon mal 20ms dazu geben kann. Das Signal der Stütze muss zeitlich hinter die erste Reflexion des Hauptsystems kommen, damit das Hauptsystem die 120 Anhang Lokalisation bestimmen kann und gleichzeitig die ersten Reflexionen liefern. Wenn wir durch Verzögerung der Stützen eine reine Laufzeitstereofonie erreichen, wir der Panpot - nach Sengpiel - damit unwirksam. Beide Fälle treten in Kombination auf, d.h. beim Fall (a) werden auch einzelne Instrumente verzögert, um die Tiefenstaffelung zu unterstützen. Was ist bei der Mischung in 5.1 zu beachten? Was passiert mit den Phantomschallquellen? Abhängig von der Hörposition entstehen mehrfache, nicht deckungsgleiche Phantomschallquellen. Auch wenn ein Center-Signal vorhanden ist, muss immer beachtet werden, dass sich zusätzlich Phantomschallquellen bilden können. Wir haben daher immer Mischformen der Stereofonie, so dass ich damit rechnen muss, dass mein Center im Widerstreit mit dem Phantomcenter steht. Mit Hilfe der „Divergenztaktik“ ergeben sich zwei Wege: Ich beschicke den Center erstmal nur mit dem Center-Signal des Decca-Trees. So verfahre ich auch mit den anderen Decca-Signalen und den Raummikrofonen. Ich route alles hart auf den 5.1-Bus. Alle weiteren Signale route ich entweder gleich auf einem Stereobus oder ich erledige alles über den Divergenzschalter (Stereobus hart nach links und rechts) und füge dem Center-Lautsprecher die Signale anteilig, und nach Gefühl zur Richtungsstabilität beitragend, zu. Denn Kriterium einer 3-2-Aufnahme ist auch die Lokalisation und diese erhöhe ich, indem ich den Center benutze, der aber nicht den Dialog stören darf. Abhängig von der Szene darf der Center auch schon mal stärker sein, z.B. in einer Rock’n’Roll-Szene mit Autofahrt ohne Dialog. Ausgehend vom Zielformat und ob ich den Center freihalten muss oder nicht, mische ich anteilig weg von ihm. Je nachdem wie viel ich im Center freihalten muss, kann ich die Divergenz erhöhen oder auflösen. Das bedeutet konkret, dass ich mein Center-Signal so auf Links und Rechts verteile, dass es wieder im Center wahrgenommen wird. Es entsteht also eine Phantommitte, so dass diskrete Signale aus dem Center unberührt austreten. Es werden also Phantomschallquellen mit LCR-Quellen vermischt. Es ist natürlich manchmal nötig, dass man den Orchester-Decca-Center absenkt. Das würde in der finalen Kinomischung ohnehin mit dem Center geschehen, wenn er zu stark ist. Dafür fällt jedoch das Orchesterbild auseinander, welches zuvor auf dem Center aufgebaut wurde. Bei einer reinen Musik-DVD kommen mehr diskrete Anteile in den Center (Snare, Base, Gesang). Wenn ich aber für das Kino mische, bleibt am Ende nur der verzögerte oder abgesenkte Center des Hauptsystems im Center-Kanal. Eine andere Möglichkeit ist, bei der Aufnahme ein Hauptsystem zu wählen, welches den Center gar nicht erst überbetont. Zusammenfassend stellen sich folgende Fragen bei der 3/2 -Aufnahmen bzw. Mischung: Lokalisation? Abhängigkeit von Hörposition? Gibt es mehrfache, nicht deckungsgleiche Phantomquellen? Wie groß ist die Hörzone? Wie verändert sich die klangliche Wirkung auf Durchhörbarkeit, Durchsichtigkeit, Klarheit und Breite der Basis durch unterschiedliche Spektralanteile? Wird die Tiefenstaffelung gestört? Welcher räumliche Eindruck wird erzielt? Entsteht eine Hintenlokalisation (durch Kugelmikrofone für SL/SR) und Zweiräumigkeit? Wie steht es um die Stereokompatibilität? Neben der erläuterten Umhüllungseffekt und der Centerthematik, bedarf der LFE- Kanal natürlich besonderer Zuwendung bei der Filmmusikmischung. Anteile der Gran Casa in den LFE zu geben, gehört inzwischen zu den Standards. Wofür ist der Nachhall eigentlich zuständig? Welches Maß lege ich hier an? Der Nachhall ist wichtig für den Eindruck von Verschmelzung der Stimmen, Überbrückung von Lücken in Tonfolgen (auch durch Schnitte) und für die Umhüllung. Kammermusikalische Aufzeichnungen kommen gut mit einem Nachhall von 1,3 bis 1,5 Sekunden aus. Bei orchestralen Werken steht fast immer erstmal 30 Millisekunden Pre delay und 2 Sekunden Nachhallzeit im Preset des Hallgerätes. Damit macht man erst einmal nichts falsch, aber auch nichts Besonderes. Zumindest die Amerikaner sind nicht scheu in ihrer Ästhetik in Richtung Gigantomie bei der Mischung von Filmscores zu gehen. Umso mehr künstlicher Nachhall hinzugefügt wird, desto mehr wird eine differenzierte Wahrnehmung einzelner Stimmen leider erschwert. Eine genaue Lokalisation wird zugunsten eines mächtigen Größeneindrucks vernachlässigt bzw. ist da gar nicht a priori gefragt. Die Nachhallzeiten gehen weit über 3 Sekunden hinaus. Wenn man Hans Zimmer-Scores anhört, dann weiß 121 Anhang und hört man, dass der Mischtonmeister nicht mit 2 Sekunden Nachhall auskommt. Komplexe Holzsätze sind so oft gar nicht mehr in ihrer Stimmführung unterscheidbar und werden oft gleich weggelassen. Abschließende Hinweise zur Mischung/Automation? Alles darf automatisiert werden, wobei ein guter Grundmix, den ich mir als Snapshot speichere, ohne Automation, als Ausgangspunkt sinnvoll ist. Kleine Verläufe, Pegeländerungen und Panpotwege nimmt man oft nicht wahr. Dagegen kommt es oft vor, dass Hauptsystem und Stützen durchaus extreme Pegelwege zurücklegen. Wenn die Streicher sehr leise Pizzicati spielen, dürfen sie durchaus auch in der Hauptsystem-Ästhetik stark gestützt werden. Zum Tutti ziehen sie sich dann aber wieder zurück. Soli, Sololinien und Leitmotive müssen oft gestützt werden. Wenn sie gut gespielt sind muss weniger automatisiert werden bzw. von Hand komprimiert werden. Alles hängt natürlich vom Einzelfall ab und kann pauschal schwer erfasst werden. Man sollte sich alles in Gruppen auflegen, um am Ende in der Mitte sitzen zu können und diese Gruppen gegeneinander mischen zu können. Das sind nachher oft auch teilweise die auszuspielenden Stems. Zum Bild mischen. Abstrahieren. Dies setzt eine eigene Mischpraxis im Mischatelier als Mischtonmeister oder zumindest als Musiktonmeister im Mischatelier und die Kenntnis von THX-lizensierten Kinos voraus. Dazu gehören klangliche Eigenheiten der Kinos, die X-Kurve, sowie die Wirkung der Leinwand, sowie klangliche Eigenheiten der Hornlautsprecher, deren Richtwirkung, die LFE – Ansteuerung, die Beschaffenheit und Position der Surround-Lautsprecher etc. Damit ist auch der Kreis geschlossen, ich muss das Zielmedium kennen. Bei einer DVD, oder reinen Konzert-DVD muss ich beachten, dass ich für fünf gleiche Fullrange-Lautsprecher mische (aus ITU-R BS.775-1). Ich muss wissen, wann und wie ich den LFE-Kanal anpasse. Es ist also immer zu klären, arbeite ich wirklich für eine Kinoauswertung oder für Fernsehen und oder DVD. Wo wird abgehört? Kino oder Heimanlage 5.1? Auch zu Hause sind die Surrounds oft eher diffus aufgebaut. Die Surroundlautsprecher der 5.1-Anlage von Teufel sind eher diffus gedacht. Sie nutzen Dipollautsprecher und orientieren sich an der THX-Norm im Kino. Das heißt, ich mische eigentlich für DVD zu Hause nach ITU-R BS.775-1, aber gleichzeitig muss ich Kino/Dolby-Kenntnisse nutzen. Dieses durchgehende Know-how, welches wir in der Filmmusikproduktion haben, können wir sammeln und auf andere oder ähnliche Produktionen übertragen. Wir sollten weniger auf die Gräben verweisen, sondern auf die Parallelen zwischen den Heimanwendungen, Filmmusikanwendungen als Zwischenschritt für die Kinomischung, bis hin zu alternativen Anwendungen wie z.B. Klanginstallationen. 122 Anhang Eidesstattliche Erklärung Ich erkläre hiermit an Eides statt, dass ich die vorliegende Arbeit selbstständig und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe und die den benutzten Quellen wörtlich oder inhaltlich entnommene Stellen als solche kenntlich gemacht habe. . Potsdam, 26. Oktober 2012 123 Anhang Danksagung Zunächst möchte ich mich bei meinen Gesprächspartnern und allen Tonmeistern bedanken, die bereitwillig ihr Wissen vor mir ausgebreitet haben und denen ich bei ihrer Arbeit über die Schulter sehen durfte. Zu ihnen gehören Bernhard Albrecht, Dick Bernstein, Falco Duczmal, Günter Fleck, Peter Fuchs, Stephan Köthe, Niklas Schminke, Michael Schubert, Martin Steyer und Bernd Wefelmeyer. Weiterhin möchte ich mich bei Frau Giuseppina Fornarelli (ZDF) und Herrn Tomasz Nawka (Direktor des Sorbischen Museums Bautzen) für die Aushändigung des fotografischen Materials bedanken. Abschließend gilt mein Dank meinen Eltern und all denen, die mir auf besondere Weise geholfen haben: Eberhard Filies, Christian Kirdorf, Michal Krajczok, Anna Mandla, Armin Pommeranz, Anne-Kathrin Thumm, Bernd Thumm, Michael Thumm und David Ziegler. 124