MUSIK UND MULTIMEDIA SOUNDDESIGN Unterlagen ausgearbeitet bzw. zusammengestellt von DI Hannes Raffaseder Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 1 Einleitung Was ist „Audio“? „Audio“ umfasst im weitesten Sinne die Phänomenologie aller, das heißt sowohl bewusst erzeugter (z.B. Musik, Alarmsignale,...) als auch auf natürlichem Wege (Vogelgezwitscher, Bachrauschen,...) oder ungewollt (Straßenlärm,...) entstandener Sinnesreize der (menschlichen) Umwelt, die primär mit Hilfe des Gehörorgans wahrgenommen werden können. Warum Audio? Unsere Welt - oder besser: wie wir diese wahrnehmen - wird zweifellos von visuellen Sinneseindrücken dominiert. Ohne Bilder geht gar nichts! Kein Popkonzert ohne Bühnenshow, kein Hit ohne Videoclip, keine CD ohne Cover! Selbst im Bereich der klassischen Musik scheinen mittlerweile jene Künstler am erfolgreichsten zu sein, die die Wichtigkeit ihres optischen Erscheinungsbildes - ihres „Outfits“ - erkannt haben und sich entsprechend präsentieren. Also selbst dort, wo es eigentlich ausschließlich um Musik gehen sollte, gibt meist schon das Auge „den Ton an“. Warum dann überhaupt mit „Audio“ die Zeit verschwenden? Nun, vielleicht ganz einfach schon deswegen, weil sich das Ohr - ganz im Gegensatz zum Auge nicht einfach schließen lässt. Wegsehen ist kein Problem, aber Weghören...? Ob man will oder nicht, das Ohr ist bei jeder Wahrnehmung automatisch beteiligt. Mangelhaftes akustisches Design stört auch (oder gerade) dann, wenn es nur unbewusst wahrgenommen wird! Ein weiterer Aspekt, der mir besonders im Zusammenhang mit Multimedia wichtig erscheint: Musik eignet sich am besten, um Emotionen mitzuteilen! Diese Behauptung stimmt doch mit unserer Erfahrung überein: man denke etwa an Tanzmusik, Musik zu spirituellen Handlungen, Trinklieder, Schlachtgesänge, Freudenlieder, etc. Oder wie leblos wären die meisten Filme, würden Musik und Geräusche nicht die zum Bild passende Stimmung vermitteln? Wem die Erfahrung nicht genügt, der kann auch die Wissenschaft bemühen: Auditive Sinnesreize werden zuerst in Stamm- und Zwischenhirn (also den für KörperGrundfunktionen, Hormonhaushalt, Gefühle, etc. zuständigen Hirnteilen) verarbeitet und dann erst ins Großhirn für rationale Auswertung weitergeleitet. (Aus diesem Grund vermag Musik auch unmittelbare Körperreaktionen, wie z.B. Änderungen von Pulsfrequenz oder Blutdruck, etc., hervorzurufen) Also: Emotion ist die Domäne auditiver Wahrnehmung. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 2 Und sind es nicht gerade die Gefühle, die viele in unserer hochtechnisierten, nahezu ausschließlich rational orientierten Welt schmerzlich vermissen? 1. Die akustische Kommunikationskette 1.1. Schall: Die Grundlage akustischer Erscheinungen Die natürliche Grundlage aller akustischen Erscheinungen ist der S C H A L L, definiert als mechanische Schwingungen und Wellen eines elastischen Mediums im Frequenzbereich des menschlichen Hörens (16 – 20 000 Hz). (vgl.: DTV-Atlas zur Musik, Band 1, S. 15) Federkonstante K Masse M Kraft F (einfaches, mechanisches Schwingungsmodell, „Feder-Masse-System“) Schall breitet sich im Raum in Form von Wellen aus (periodische Druck- bzw. Dichteschwankungen). Für die Ausbreitung ist stets ein Medium (z.B. Luft) erforderlich. Die Ausbreitungsgeschwindigkeit ist von der Dichte dieses Mediums abhängig. Für Luft beträgt die Schallgeschwindigkeit bei 20°C rund 343 m/s. 1.2. Primärempfindungen Akustische Ereignisse weisen unterschiedliche Eigenschaften und Merkmale auf, denen abhängig von den kulturell geprägten Hörgewohnheiten mehr oder weniger große Bedeutung beigemessen wird. Es herrscht jedoch in allen Kulturen weitgehend Übereinstimmung darüber, dass es im Zusammenhang mit akustischen Ereignissen drei primäre Empfindungen gibt: TONHÖHE LAUTSTÄRKE KLANGFARBE Lassen sich einem akustischen Ereignis alle drei Primärempfindungen zu jedem Zeitpunkt einwandfrei zuordnen, so spricht man i. a. von einem KLANG. (Von einem TON wird physikalisch gesehen nur dann gesprochen, wenn er von einer reinen Sinusschwingung hervorgerufen wird.) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 3 Lassen sich einem akustischen Ereignis nur die Lautstärke zu jedem Zeitpunkt einwandfrei zuordnen, Tonhöhe und Klangfarbe jedoch nur schwierig bestimmen so spricht man von einem GERÄUSCH. Weitere wichtige Eigenschaften akustischer Ereignisse sind ZEIT und räumliche RICHTUNG. Dem Faktor Zeit kommt einen besondere Bedeutung zu, da hierin ein wesentlicher Unterschied zur visuellen Wahrnehmung liegt. Akustische Ereignisse sind grundsätzlich flüchtig und nicht dauerhaft. Akustische Ereignisse benötigen die zeitliche Veränderung, um überhaupt existieren zu können. So wird auch Musik von vielen Menschen primär als die Kunst der Zeitgestaltung, der Zeitgliederung angesehen. Das Ohr nimmt im Gegensatz zum Augen, dessen Blickfeld immer nur einen bestimmten Ausschnitt aufnehmen kann, Eindrücke aus dem gesamten uns umgebenden Raum wahr. Räumliche Wahrnehmung geschieht daher sehr wesentlich über das Hören. 1.3. Physikalische Entsprechungen Im Prinzip kann jede durch ein akustisches Ereignis hervorgerufene Primärempfindung mit einer genau definierten, messbaren und in Zahlen fassbaren Größe des ursprünglichen Reizes (d.h. der Schallwelle) in Verbindung gebracht werden. Im wesentlichen entsprechen einander dabei: TONHÖHE LAUTSTÄRKE KLANGFARBE und und und FREQUENZ SCHALLINTENSITÄT SPEKTRUM Diese Übereinstimmungen gelten jedoch nur in erster Näherung und liefern ein übertrieben vereinfachtes Bild auditiver Wahrnehmung. So kann sich beispielsweise die durch einen reinen Ton hervorgerufene Tonhöhenempfindung geringfügig ändern, wenn die Intensität geändert wird. Umgekehrt scheint sich die Lautstärke eines Tones mit konstanter Intensität zu ändern, wenn dessen Frequenz verändert wird. Bei einer Überlagerung mehrerer unterschiedlicher Töne ist die Lautstärkeempfindung nicht in einfacher Weise mit dem gesamten Schallenergiefluss verbunden. Die Erkennung der Klangfarbe eines Musikinstruments verlangt mehr Information als nur das Spektrum. An- und Abklingvorgänge sind dabei beispielsweise ebenso wichtig. Selbst erfahrene Musiker hätten Schwierigkeiten die Tonhöhe eines elektronisch erzeugten, über Kopfhörer gehörten reinen Sinustones zu finden, da zusätzliche Information fehlt, die mit musikalischen Tönen (Klängen) sonst immer verbunden ist (Obertöne). Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 4 1.4. Der Informationsgehalt akustischer Ereignisse Man neigt oft dazu Klänge und Geräusche als nicht greifbare Ereignisse unserer physischen Umgebung abzutun. Sie sind jedoch Energie, die von einem gegebenen Ausgangsmaterial, einer Struktur, einer Substanz, den Vibrationen eines Körpers ausgehen und somit konkrete, meist sehr komplexe und dynamische Informationen über diese beinhalten. Beispielsweise lassen die Geräusche von Regen oder Wind sofort auf deren Stärke und Beschaffenheit schließen. Viele Materialien (und vor allem auch deren Qualität) lassen sich am Klang erkennen. So sind etwa Massivholz oder Sperrholz leicht durch ihren Klang unterscheidbar. Geräusche und Klänge sind konkrete physische Folgen, Manifestationen unserer physikalischen Welt und geben daher die meisten ihrer Eigenschaften und Charakteristika wieder. Klänge werden, um sie objektiv erfassen bzw. beschreiben zu können, häufig auch nach ihrem Entstehungsprozess kategorisiert. So wird beispielsweise zwischen gestrichenen, geblasenen, angezupften, angeschlagenen,... Klängen unterschieden. All diese Klänge haben für die menschliche Wahrnehmung auch etwas Vertrautes. Komplexe, synthetisch-erzeugte Klänge, die sich nicht eindeutig einem dieser vertrauten Entstehungsmechanismen zuordnen lassen, können hingegen zu einer gewissen „Unsicherheit“ in der Wahrnehmung führen. Jede akustische Erscheinung ist TRÄGER von EIGENSCHAFTEN und INFORMATIONEN von einer ausgehenden Quelle. 1.5. Der symbolische Gehalt von Klängen Die Art wie akustische Sinnesreize ausgewertet werden hängt nicht nur von deren physikalischen Eigenschaften und deren Herkunft ab, sondern wird vielmehr auf verschiedenste Weise von Verfassung, Stimmung, Kultur, Bildung, ... des Hörers beeinflusst. Das gleiche Geräusch kann für verschiedene Menschen in verschiedenen Kulturen andere Bedeutung haben (z.B. Meeresrauschen). Auch kann sich die Bedeutung im Laufe der Zeit verändern (z.B. Schreibmaschine) Jede akustische Erscheinung hat somit einen hohen SYMBOLISCHEN GEHALT. Vergleichbar wäre dies etwa mit einem Feinschmecker-Essen, das drei verschiedenen Personen angeboten wird: einem Gourmet-Tester, einem Ausgehungerten und einem Lebensmitteltechniker. Einerseits ist es wohl unbestritten, dass alle drei ein völlig anderes Geschmackserlebnis haben werden, obwohl das Objekt identisch ist, andererseits ist es unmöglich zu beurteilen, wer von den dreien möglichst objektiv, die treffendsten Aussagen über die Speise tätigen könnte. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 5 Es empfiehlt sich daher auch im Zusammenhang mit akustischen Ereignissen, das Kommunikationsmodell der Nachrichtentechnik und die daraus resultierenden Schlussfolgerungen zu berücksichtigen. Die einzelnen Teilkomponenten SCHALLQUELLE (SENDER) AUSBREITUNG in einem MEDIUM (KANAL) HÖRER (EMPFÄNGER) RAHMENBEDINGUNGEN (kulturelles Umfeld, symbolischer Gehalt) übernehmen ganz bestimmte Aufgaben und beeinflussen den gesamten Wahrnehmungsprozess. Das Zusammenwirken der einzelnen Teilkomponenten kann – abhängig vom konkreten Fall – recht komplex sein. Das Sender-Kanal-Empfänger Modell (nach Shannon) RAHMENBEDINGUNGEN SENDER KANAL EMPFÄNGER In der akustischen Wahrnehmungskette ist dieses Modell häufig mehrmals hintereinander anzutreffen. (z.B. Komponist → Interpret → Tontechniker → Aufnahmeleiter → Radiomoderator → Hörer) Die Information soll unverfälscht vom ersten zum letzten Glied der Kommunikationskette gelangen. Die Teilsysteme müssen daher optimal aufeinander abgestimmt werden. Verfälschungen der ursprünglichen Nachricht, die in einem der Teilsysteme auftreten, sollten in einem andere nach Möglichkeit wieder rückgängig gemacht. Beispiel: Die Kommunikationskette bei der Rundfunkübertragung einer Stimme Schwingungen der Stimmbänder Sprechtrakt Information Neurosignale Elektromagnetische Welle Rundfunksender Mikrofon Schallwelle im Raum Rundfunk- Lautsprecher Schallwelle im Raum Ohr Information Neurosignale Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 6 2. Musik und Multimedia Multimedia zählt in den letzten Jahren wohl zu den wichtigsten, häufig gebrauchten Schlagwörtern in der modernen Gesellschaft. Dabei ist dieser Begriff trügerisch, da sogenannte multimediale Projekte i.a. die meisten Sinneseindrücke vernachlässigen und sich im wesentlichen nur auf Sehen und Hören beschränken. Häufig wird auch noch die akustische Ebene lediglich als Anhängsel zur visuellen Komponente behandelt und liefert keine oder nur wenig eigenständige Information. Multimediaprodukte können sachlich informieren, werben, unterhalten oder ablenken. Selbstverständlich wird die jeweilige Zielsetzung auch Beschaffenheit, Funktion und Zusammenwirken von akustischer und visueller Ebene bestimmen. Anmerkung: In der heutigen Industriegesellschaft wird Unterhaltung häufig mit Ablenkung gleichgesetzt, was freilich ein Irrtum ist. Will das Produkt vorrangig ablenken, so sollte möglichst alles vorhersehbar sein. Erwartungshaltungen müssen dann immer erfüllt werden. Der Konsument soll/will nicht (viel) denken. Oberflächliche, leicht erkennbare Zusammenhänge und Erzählstränge sind wichtig, Klischees können nützlich sein etc. (vgl. diverse Vorabendserien) Gute Unterhaltung (Kunst?) soll hingegen Freiräume für Interpretation und Phantasie des Konsumenten lassen. Die Frage, wie es weiter geht, ist berechtigt und erwünscht. Überraschungen in der Entwicklung sind nicht ausgeschlossen, etc. Konsumenten sollen zum Denken angeregt. Ein Mindestmaß an persönlicher Auseinandersetzung wird gefordert. Das Gelingen eines Produktes wird somit zu einem gewissen Teil von der Haltung der Konsumenten abhängig. Sind diese aber bereit sich aktiv mit dem Produkt auseinanderzusetzen, so sollte der erreichte Nutzen im Normalfall dauerhafter sein. Im Idealfall werden Körper, Geist und Gefühl gleichermaßen angesprochen. (Vor allem in der modernen Kunst dominiert jedoch oft die rationale Ebene...) „In einer Zeit, in der das Fernsehen immer schlechter, das Theater immer alberner wird, und es auch der Oper nicht besonders gut geht, hat das Radio keine Chance – aber immerhin einen entscheidenden Vorteil: es hat ja nur das Ohr; und da es nur den akustischen Sinn anspricht, kann es wie die anderen Medien den Unsinn nicht verdoppeln oder vervielfachen, selbst wenn es das wollte – und wir wissen: es will. ...“ (Heiner Goebbels, Rede zur Eröffnung der Woche des Hörspiels, Akademie der Künste Berlin, 9.11.1997) Die Herstellung hochwertiger Multimediaprodukte setzt zunächst einmal die Kenntnis der qualitativen und quantitativen Unterschiede der einzelnen Sinne (insbesondere natürlich von Augen und Ohren) voraus. Es kann dabei freilich nicht um die Frage „Wer ist besser?“ gehen, sondern: „Welche Voraussetzungen sollten erfüllt sein, damit sich die einzelnen Sinnesorgane optimal ergänzen?“ Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 7 2.1. Wichtige Unterschiede zwischen Auge und Ohr: AUGE OHR Schwingungen zwischen 380 und 760 Billionen Hertz (eine Oktave) wahrnehmbar Schwingungen zwischen 20 und 20000 Hertz (zehn Oktaven) wahrnehmbar beweglich, verschließbar unbeweglich, nicht verschließbar gerichtet, gezielt einsetzbar, bewußt, aktiv nicht gerichtet, umfassend, unbewußt, passiv Hinsehen bedeutet gleichzeitig woanders Wegsehen; daher: selektiv, individuell, distanzierend Geräusche und Klänge an einem Ort für alle gleich; daher: verbindend, ganzheitlich liefert gestaltkräftige Information gestaltschwache, diffuse, differenzierbare Information rational (Mensch denkt vielfach in Bildern) archaisch, emotional (Donnergrollen, Vogelgezwitscher, Baltslaute,...) Vielzahl von direkten Verbindungen mit dem Großhirn Übertragungskapazität 5.107 bit/s weniger direkte Verbindungen mit dem Großhirn hilfreich bei der Bewältigung differenzierter Leistungen nicht weiter Übertragungskapazität 4.104 bit/s direkte Verschaltung mit dem Zwischenhirn, das Emotionen, Hormonhaushalt, vegetative Nervenbahnen steuert kann unmittelbare Körperreaktionen auslösen (z.B.: Beschleunigung von Puls) Bilder nur als Einzelereignisse (oder Folge von Einzelereignissen) wahrnehmbar mehrere akustische Ereignisse gleichzeitig wahrnehmbar „ [...] Das Hören entspricht also dem Fühlen (als unbewußte und begrifflose Aneignung der Welt). Das Sehen entspricht dagegen dem Denken (als bewußte und begriffliche Aneignung der Welt). Menschliches Denken vollzieht sich nach Art des Sehens. Es ist nach gängigen denkpsychologischen Darstellungen eine assoziative Verbindung von „wahrnehmungsähnlichen Phantasmen“, von Vorstellungen, von Bildern. [...] Man kann nur einen Gedanken oder ein Filmbild nach dem anderen gleichzeitig wahrnehmen. Höreindrücke und im speziellen Fall die Musik sind nicht konsekutiv, sondern polyphon: Über das Ohr kann man gleichzeitig eine traurige Stimmung, ein heiteres Gefühl und eine Bösartigkeit aufnehmen. [...] Die Formulierung des Psychologen Gustave le Bon (1841-1931), alles Ur-Denken geschehe in Bildern, kann dahin abgewandelt werden, daß alles Urfühlen auf akustischen Informationen basiert (von Vogelgesang, Brunstlauten bis zum Donnergrollen). Emotionales Verstehen war die früheste Form von Welterkenntnis, In der Tierzeit, der Ur- und Steinzeit war das Hören immer die archaische Beantwortungsform für die lebenserhaltende Grundfrage: „Gibt es Gefahr, oder ist Entspannung angesagt? Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 8 Der amerikanische Sounddesigner Randy Thom erzählte mir, wie man bei Adventure-, Sience fiction- oder Horrorfilmen (etwa bei seinen Arbeiten zu den Star Wars-Filmen oder Indiana jones-Filmen) in der emotionalen Strategie auf den in tiefen Hirnschichten verborgenen „Steinzeit-Menschen“ im Zuschauer spekuliert: Schon in der Drehbuchentwicklung wird einkalkuliert, daß – sobald der „Urmensch“ in die dunkle Höhle tritt und sich nicht mehr auf die Augeninformationene verlassen kann – das Ohr plötzlich zum hochsensiblen Empfänger für Gefühlswerte wird. [...]“ (Norbert Jürgen Schneider, Komponieren für Film und Fernsehen, S.32, Verlag Schott, Mainz 1997) „Unsere Ohren versorgen uns ständig mit Informationen, die für unser Überleben, sowohl a uf intuitiver als auch auf intellektueller Ebene, unentbehrlich sind. Sie informieren uns über Ereignisse in unserer Umwelt, die wir nicht sehen können, und vermitteln uns durch die gesprochene Sprache das Wissen, das wir brauchen, um funktionsfähig zu sein. Trotzdem halten viele den Gehörsinn für nicht besonders wichtig. Sie räumen ihm höchstens die gleiche Bedeutung ein wie dem Geruchssinn, aber nicht annähernd die Bedeutung, die sie dem Sehsinn zubilligen. Wir wissen, daß Gehörtes unser Bild der Wirklichkeit ebenso beeinflusst wie Gesehenes - und manchmal sogar stärker. In einem Film z.B. kann eine Szene diametral entgegengesetzte Emotionen hervorrufen, indem man sie ganz einfach mit einem anderen Soundtrack unterlegt. Wir begreifen dabei den Klang als die Wahrheit, und er bestimmt, was wir sehen. Es wäre doch verwunderlich, wenn das nicht auch im wirklichen Leben der Fall wäre. Das menschliche Auge und Ohr sind hochentwickelte Sensoren, die wir beide für die sprachliche Kommunikation einsetzen. Die Frage, ob das Auge dem Ohr überlegen ist oder umgekehrt, ist falsch gestellt. Es ist die alte Geschichte von den Äpfeln und Birnen: Ein Apfel gibt eine schlechte Birne ab, und eine Birne gibt einen schlechten Apfel ab. Das Auge kann Dinge, die das Ohr nicht kann. Das Ohr kann Dinge, die das Auge nicht kann. Visuelle und akustische Wahrnehmung ergänzen einander. Die Frage der Überlegenheit stellt sich nicht: Auge und Ohr passen einfach zusammen. Trotzdem diskutiere ich oft mit Leuten, die sich nicht davon abbringen lassen, daß das Auge dem Ohr überlegen ist. Es fällt mir dann schwer, nicht zu lächeln: denn während meine Gesprächspartner über das Ohr herziehen, vergessen sie ganz, daß sie ohne es ihre Argumente gar nicht anbringen könnten. Unser Gehörsinn funktioniert weitgehend auf der Ebene des Unbewußten. Das bedeutet aber nicht, daß das Gehör auf seine Umwelt weniger stark oder empfindlich reagiert als die anderen Sinne.“ (Max Neuhaus, Sounddesign, Quelle: http://www.thing.or.at/thing/orfkunstradio/ZEITGLEICH/ZG/DEUTSCH/neuhaus-d.html ) „Dämmerlicht, Zeitlupen, verzerrte Perspektiven, Rauch und Nebel, halluzinatorische Übertreibungen – das sind die Stellen, in denen der Sound besonders effektiv arbeitet und uns die betreffenden Szenen als „irreal“ erleben läßt“ (Randy Thom, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S.101 Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996 „Im Unterschied zu den visuellen Informationen, die vornehmlich mit dem Schläfenlappen der Cortex (des Großhirns bzw. „Denk-Hirns“) verschaltet sind, kann Musik ohne den Umweg über eine rationale Verarbeitung oder bewußte Wahrnehmung in den Körper fahren. Der expressive Wert von Tönen („“Musik als Ausdruck“) ist deshalb ein direkt in der Körperlichkeit des Menschen angelegtes universelles Zeichensystem: unmittelbar verkoppelt mit Mimik, Gestik, Physiognomie oder hormonalen Zuständen. „Musikalische Ausdruck“ wird überall in der Welt verstanden, [...]“ (Norbert Jürgen Schneider, Komponieren für Film und Fernsehen, S.32, Verlag Schott, Mainz 1997) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 9 „Im Film geschieht Raumvermittlung vorrangig auf akustischer Ebene. Damit muss keineswegs veritable Filmmusik gemeint sein. Schon das entsprechende Sound-Szenario, etwa die Nachhall-Zeit von Dialogen und Geräuschen, der Charakter ihrer Schallreflektionen, ob dumpf, ob hart und dergleichen, gibt Auskunft über die physikalische Beschaffenheit des betreffenden Raumes. [...] Denn das Bild informiert immer nur in Ausschnitten und Teilansichten und ist in diesem Zusammenhang auf den ganzheitlichen Informationscharakter des Klanges dringend angewiesen.“ ( Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 102 Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) „Der Ton mußte das Gefühl vermitteln, daß dies keine Studioattrappe ist sondern ein lebendes Universum. In dem U-Boot gibt es alles – von Maschinen bis zu Wassertropfen – ein Konzert von unterschiedlichsten Geräuschen. ...“ ( Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 142 Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) „Die Verbindung von Musik und Bild stellt eine neue Herausforderung an die Eindeutigkeit dar. Musik kann immer mehrfach gedeutet werden. Sie weckt immer auch die Erinnerung an andere Geschichten oder Zeiten.“ (John Mauceri, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 102 Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) „Eines der stärksten Mittel, Phantasiebilder im Radio anzuregen, sind Geräuschaufnahmen. Sie wirken wie Melodien, Skulpturen oder Gemälde, sprechen ohne Umwege Gefühle an und geben Stimmungen direkter wieder als alle Worte. Gerade weil wir in einer einseitig auf das Auge ausgerichteten Zeit leben, beeindrucken Geräusche – im Radiodeutsch knapp „Atmos“ – HörerInnen unerwartet stark. Sie geben Radiosendungen sinnliche Tiefe [...]“ (Udo Zindel / Wolfgang Rein (Hg.), Das Radio-Feature – Ein Werkstattbuch, S. 181 UVK Medien, Konstanz 1997) 3.2. Aneinanderreihung unterschiedlicher akustischer Materialien Der Übergang von einem akustischen Material (Musik, Klang, Geräusch, Atmo,...) auf ein anderes kann entweder abrupt (Schnitt) oder kontinuierlich (Blende) erfolgen. Diese beiden Grundtypen lassen sich freilich beliebig vermischen. Die wichtigsten akustischen Übergänge sind: 3.2.1. Der harmonische Schnitt Die beiden akustischen Elemente folgen unmittelbar aufeinander. So lange sich das verwendete Material „verträgt“ (z.B. gewisse Ähnlichkeiten aufweist), wirken solche Schnitte harmonisch. Der Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 10 Höreindruck wird i.a. zwar überraschen, dabei aber als angenehm oder zumindest nicht als störend empfunden werden. Es lassen sich auf diese Weise Tempo und Spannung erzeugen. 3.2.2. Der harte Schnitt Die beiden akustischen Elemente folgen wieder unmittelbar aufeinander. Sie unterscheiden sich in diesem Fall aber stark voneinander, passen nicht zusammen. Der Höreindruck wirkt i.a. erschreckend, brüskierend, unangenehm. Krasse Gegensätze, unangenehme Entwicklungen, etc. können auf diese Weise unterstrichen werden. 3.2.3. Die Kreuzblende Die beiden akustischen Elemente werden so aneinander gereiht, dass das erste, dessen Lautstärke nach und nach gesenkt wird (Fade-out), ganz allmählich vom zweiten, dessen Lautstärke nach und nach erhöht wird (Fade-in), abgelöst wird. Die Kreuzblende führt i.a. zu einem ruhigen, harmonischen Übergang. Wird eine Kreuzblende allerdings zu lange ausgelegt, so kann es allerdings zu Verwirrung, zu Orientierungslosigkeit führen. 3.2.4. Die Sturzblende Die beiden akustischen Elemente werden in diesem Fall zwar nicht unmittelbar aneinander gereiht, der Übergang von einem auf das andere erfolgt jedoch sehr rasch.. Sturzblenden stellen durch das Entäuschen von Hörgewohnheiten und Erwartungen i.a. wiederum ein geeignetes Mittel dar, um Spannung,Tempo oder Unruhe zu erzeugen. 3.3. Das Verhältnis unterschiedlicher akustischer Ebenen In vielen Fällen multimedialer Produktionen - insbesondere im Zusammenhang mit bewegten Bildern - existieren mehrere akustische Ebenen nebeneinander. In erster Linie sind dies Sprache, Originalgeräusche (O-Ton) und (unterlegte) Musik. Für die Mischung dieser unterschiedlichen Ebenen lassen sich zwei gegensätzliche Herangehensweisen unterscheiden. Im allgemeinen kann dabei weder der einen noch der anderen eindeutig der Vorzug gegeben werden. Meist wird vielmehr ein gezieltes Abwechseln beider Methoden (bzw. verschiedener Zwischenstufen davon) zum besten Ergebnis führen. 3.3.1. Dokumentarische (realistische) Mischung Das übergeordnete Prinzip in diesem Fall ist die authentische Darstellung von Realität. Alle im Bild sichtbaren Geräuschquellen werden demnach auch hörbar gemacht. Da es für den Dialog schon schwer sein kann sich entsprechend durchzusetzen, kommt der Musik dabei meist eine untergeordnete Rolle zu. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 11 3.3.2 Emotionale (perspektivische) Mischung Hier steht nicht die "äußere", auf rationaler Ebene wahrnehmbare Realität, sondern vielmehr die "innere" Realität, also der emotionale Gehalt, die Stimmung der gezeigten Situation im Mittelpunkt der Überlegungen. Das Geschehen soll nicht mehr von außen beobachtet werden, sondern als aktiver Teil beispielsweise aus der Sicht des Hauptdarstellers heraus - erlebt werden. An die Stelle einer möglichst objektiven Realität tritt eine subjektiven Realität einer handelnden Person. In besonderen Gefühlsmomenten (Trauer, Liebe, Stress..) kann die Umgebung völlig bedeutungslos werden. Im Extremfall werden Originalgeräusche vollständig ausgeblendet, und es ist nur mehr Musik, die sich im Kopf des Protagonisten abspielt, zu hören. Oder es ist nur ein einziges, für die jeweilige Szene sehr bedeutendes Geräusch (dann meist in unnatürlicher Lautstärke) zu hören. 3.4. Das Verhältnis von Bild und Ton 3.4.1. Polarisieren Einem neutralen Bild wird durch die Musik eine bestimmte Bedeutung auf einer Polaritätsskala (wie "gut und böse", "passiv - aktiv", "lustig - traurig") gegeben. Relativ ausdrucksarme Bilder können auf diese Weise "Emotionalität" erhalten. „Äußere Realität gehört primär der Kamera, dem Auge. Innere Realität gehört dem Ohr, dem Hören. Die Kamera kann zum Beispiel einen Atomreaktor zeigen, also ein von sich aus neutrales Bild. Aber mit der Musik und den Tönen kann ich deutlich machen: Atomreaktor gleich Gefahr oder zumindest Dubiosität. Das bedeutet, daß das Hören gemessen an der visuellen Wahrnehmung weitaus tiefenwirksamer ist und unterschwellig die Weichen stellt für Sympathie- oder Antipathieempfinden.“ (Norbert Jürgen Schneider, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 131, Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) 3.4.2. Paraphrasieren Dies ist die wohl häufigste Form der Bild-Ton-Beziehung. Die Musik versucht dabei den Bildinhalt zu umschrieben. (Liebesmusik zu Liebesszenen, Trauermusik zur Beerdigung, etc.) Der Informationsgehalt des Bildes wird in der Musik also wiederholt und somit verdoppelt. Dies wirkt häufig tautologisch (der kleine Zwerg) oder mit erhobenem Zeigefinger belehrend und ist vom künstlerischen Standpunkt aus wenig interessant. Pharaphrasierung sollte daher sehr gezielt eingesetzt werden (z.B. Höhepunkt, Happy End,...) 3.4.3. Kontrapunktieren Die Musik behandelt einen anderen, oft scheinbar gegensätzlichen Aspekt und vermittelt somit zusätzliche Information. Es können Gegensätze entstehen, die vom Betrachter hinterfragt werden und mittels Phantasie nach Auflösung trachten. Die Rezipienten werden dadurch zum Nachdenken Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 12 angeregt, müssen selbst kreativ werden und werden auf diese Weise aktiv in das Geschehen mit einbezogen. Wird eine der Auftritt einer Figur aus der Hippie-Ära nicht mit Flower-Power-Musik unterlegt, was im ersten Anschein wohl auf der Hand liegen würde, sondern etwa mit einem klassischen Streichquartett, so wird dieser (scheinbare) Widerspruch Fragen aufwerfen, die es zu beantworten gilt. Kontrapunktierende Musik ist vergleichbar mit dem aus der Literaturtheorie bekannten Oxymoron (z.B.: „süßer Tot“, „heilige Hure“, ...). 3.5. Kognition und Emotion - das affektive Gedächtnis Das menschliche Großhirn und somit Gedächtnis und Erinnerungsvermögen sind nicht mit einem sachlich-neutralen Speicher vergleichbar. Vielmehr sind Verstand und Emotionen eng miteinander verknüpft. Alle Informationen, also die mit den Sinnesorganen wahrgenommenen Ereignisse, werden mit einem Gefühls- und Erlebniswert, einer emotionalen Einfärbung versehen. Um gezielt bestimmte Informationen aus dem Gedächtnis abzurufen, ist es meist effektiver, die emotionale Einfärbung nachzuerleben, als sich auf der rein intellektuellen Denkschiene zu erinnern. Vor allem die emotionale Komponente von Musik kann somit das Erinnerungsvermögen beeinflussen. Dieser Zusammenhang zwischen Kognition und Emotion kann bei Musik für Film (oder allgemeiner: Multimedia) gezielt eingesetzt werden. Wird eine bestimmte Szene eines Films unterschwellig (also unbemerkt) mit einem musikalischen Ereignis (Klang, rhythmische Sequenz, instrumentale Farbe) unterlegt und somit gleichsam markiert, so erfolgt eine Kopplung von Bild und Musik. Erklingt derselbe Klang viele Szenen später wieder, so erinnert sich der Betrachter mit großer Wahrscheinlichkeit an die entsprechenden Bildereignisse. Es läßt sich somit ein Netz von Beziehungen und tiefenpsychologisch wirksamen Querverweisen etablieren, das neben der rational rezipierten Bildebene im Unbewußten wirksam wird. 3.6. Musikdramaturgie Unter Musikdramaturgie wird das Wissen um Gestalt und Funktionsweise der gesamten Musik im multimedialen Produkt verstanden. Diese darf keinesfalls dem Zufall überlassen werden. ("Hier ist es gerade fad, da brauchen wir Musik.") Auch Musik lediglich als ein notwendiges Beiwerk zu betrachten, kann leicht negative Auswirkungen für das Produkt haben. In der Werbung kann beispielsweise Musik, die in keiner Beziehung zum Produkt steht, aufgrund der Konkurrenz zwischen Text und Musik schnell von der eigentlichen Aussage ablenken. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 13 3.6.1. Wichtige Ziele der Musikdramaturgie - Schlüssigkeit (nachvollziehbare Bezugspunkt v.a. zwischen verschiedenen Wahrnehmungsebenen) Form (nachvollziehbare Spannungsbögen ) erinnerbare Klanggestalt individuelles Konzept persönliche Handschrift 3.6.2. Wichtige Grundsatzentscheidungen - "Ist die Musik überhaupt notwendig?" "Soll die Musik neu komponiert oder aus bereits bestehender kompiliert werden?" Keineswegs zielführend ist die isolierte Betrachtung der Musik für sich. Die musikalischen Mittel müssen stets in Bezug zu den außermusikalischen Ebenen des multimedialen Produktes gesetzt und im Zusammenhang mit diesen betrachtet und bewertet werden. Ein intuitiver, improvisatorisch gestalterischer Ansatz ist ein durchaus legitimer Weg im kreativen Prozess, der recht häufig zu guten Ergebnissen führen kann. Intuition und Improvisation sollten jedoch stets sehr bewusst reflektiert werden. Da Multimediaproduktionen meist in Teamwork entstehen, ist diese bewusste Reflexion umso wichtiger, da die gemeinsame künstlerische (und auch technische) Arbeit auch in eine gemeinsame Richtung gehen muss. 3.6.3. Die Hörperspektive Wer hört die Musik? Welche Emotionen weckt die Musik? Woher kommt die Musik? Ist die Musik Teil der akustischen Umwelt (z.B.: Hit aus dem im Bild sichtbaren Radio)? Wird die Musik bewusst wahrgenommen? 3.6.3. Das Klangmaterial Die Auswahl des Klangmaterials hängt wesentlich damit zusammen, wem die Musik zugeordnet wird. Wer wird durch welchen Klang am besten beschrieben? In diesem Zusammenhang ist besondere Vorsicht mit Klischees geboten (Hirte - Flöte). 3.6.4. Die Stilistik Welcher Musikstil (Klassik, Jazz, Rock, Pop, Techno, Rap,...) eignet sich am besten? Welcher Stil passt zum Produkt? Welcher Stil passt zu diesem oder jenem Protagonisten? Welcher Stil spricht das Zielpublikum am meisten an? Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 14 3.6.5. Quantität von Musik Welche Szenen brauchen wieviel Musik? Wie viele Stellen mit Musik soll es geben (viele kurze oder wenige lange)? Ändert sich die Dichte des Musikvorkommens (z.B.: viel Musik am Anfang und nur mehr sehr wenig am Ende)? 3.6.6. Beginn und Ende von Musik Wo genau soll die Musik einsetzten bzw. enden? Soll die Musik ganz plötzlich einsetzen (enden) oder ganz langsam und unbemerkt ein- bzw ausfaden? Soll die Musik exakt mit einem Bildschnitt einsetzen oder diesen bereits vorbereiten? Soll die Musik in der nächste Szene noch andauern, um ein bestimmtes Gefühl, eine Stimmung länger andauern zu lassen? 3.6.7. Funktion der Musik Musik kann beispielsweise Atmosphäre herstellen Akzente setzen form- bzw. strukturbildend wirken Bewegungen illustrieren Bildinhalte akustisch abbilden Emotionen abbilden oder verstärken Charaktere verdeutlichen Karikieren und Parodieren gesellschaftlichen Kontext vermitteln regionale Bezüge herstellen historische Bezüge herstellen Raum- und Zeitempfinden herstellen bzw. verändern Wahrnehmung kollektivieren „Traurig verfallene Vorstadthäuser, Slumdistrikt in all seinem Elend und Schmutz. Die Stimmung des Bildes ist passiv, deprimierend. Sie lädt zum Trübsinn ein Dagegen ist rasche, scharfe Musik gesetzt, ein polyphones Präludium, Marcato-Charakter. Der Kontrast der Musik – der strengen Form sowohl wie des Tons – zu den bloß montierten Bildern bewirkt eine Art von Schock, der, der Intention nach, mehr Widerstand hervorruft als einfühlende Sentimentalität“ (Hans Eisler über seine Musik zu Kuhle Wampe, in Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 126, Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) „Es geht nicht darum, das Publikum mit irgendwelchen Geräuschen zu schockieren, die da von hinterrücks aus den Surround-Lautsprechern kommen. Denn dadurch reißt man es nur aus seinen Film-Träumen heraus.“ (Randy Thom in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 131, Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 15 „Die Musik war von Anfang an bezogen auf die Charaktere und nicht auf die Handlung. Anstelle von Themen für die einzelnen Figuren handelt es sich hier um mentale Statements: [...] Ich habe versucht, den Übergang von den originalen (jazz)Tunes zum filmmusikalischen underscoring so unauffällig wie möglich zugestalten.“ (Alex North über seine Musik zu Elia Kazans „A Streetcar named Desire“, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 86, Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) „Was ich ablehne, ist der forcierte Gebrauch von Popmusik in Filmscores aus ganz offensichtlichen kommerziellen Gründen. Er ignoriert vor allem die tatsächliche Funktion von Filmmusik, die darin besteht, die Wirkung eines Films in gedanklicher und emotionaler Weise zu unterstützen.“ (Jerry Goldsmith, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 79, Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996) 3.7. Arten von Musik 3.7.1 Jingle kurze signalartige Erkennungsmusik (z.B.: Werbung, Senderkennung, etc.) 3.7.2. Musikteppich Klangflächen, rhythmische Muster, etc. die ohne Bezug zu Bild oder Text eingeblendet werden (vgl. z.B.: Ö3-Schlagzeilen, Ziehung der Lottozahlen, manche Werbungen, etc.) 3.7.3. Vorspannmusik (Titelmusik, Signation) relativ kurze, meist signalartige (Wieder)erkennungsmusik (z.B.: bei Fernsehserien,...) 3.7.4. Einleitungsmusik (Vorspannmusik) Das erste, oft etwas längere Musikstück (z.B.: bei Kino- oder Fernsehfilmen) 3.7.5. Illustrationsmusik fiktive Musik (aus dem "off"), die Stimmungen herstellen oder Situationen verdeutlichen soll (z.B.:Filmmusik im engeren Sinne) 3.7.5. Szenenmusik (Source Musik) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 16 Musik die real (aus dem "on") zu hören ist (z.B.: Filmszene in einem Lokal in den Livemusik gespielt wird) 3.7.6. Melodram-Musik meist ruhiges Musikstück zur Grundierung bzw. Emotionalisierung von Dialogen 3.7.7. Brücke (Bridge) kurzes überleitendes Musikstück, das Zusammenhänge zwischen zwei Szenen herstellen soll 3.7.8. Akzent kurzes akustische Rufzeichen (oft nur ein Ton), das ein bestimmter Detail hervorheben soll (z.B.: diverse Sounds der Windows-Betriebssysteme) 3.7.9. chase music "action-music" vor allem bei Bewegungen (z.B.: Verfolgungsmusik) 3.7.10. mickey-mousing Bewegungsmusik mit sehr vielen Synchronpunkten, sodass die sich bewegende Figur wie eine musikgesteuerte Marionette wirkt 3.7.11. Highlightning Musikstück, das auf einen Höhepunkt zustrebt, plötzlich unvorbereitet abreißt und mit der dadurch entstehenden spannungsvollen Stille auf eine (Bild)handlung vorbereitet. 3.7.12. Red Herring Musikstück, das einem Höhepunkt zustrebt, der sich aber als Finte herausstellt. Musik, die auf eine falsche Fährte lockt. 4. Musik und Zeit Musik (oder ganz allgemein jedes akustische Ereignis) ist ohne den Zeit-Aspekt undenkbar. Beide - Musik und Zeit - sind nicht greifbar. Es ist nicht möglich mit dem Finger auf eine schöne Musikstelle zu zeigen, sie zu sehen, etc. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 17 Es ist unmöglich sich die Gegenwart gedanklich vorzustellen. Zeit manifestiert sich in der Vergangenheit oder in der Zukunft an die man sich erinnern oder vorstellen kann. Zeitwahrnehmung geschieht immer gesamtkörperlich. Die von den Sinnesorganen aufgenommen Rhythmen der Außenwelt (Tag und Nacht, Wochen, Jahreszeiten, Jahre,...) werden mit den körpereigenen Rhythmen (Atem, Herzschlag, Schritte, Stoffwechsel, etc.) in Beziehung gebracht. Die Musik scheint sich häufig der körpernahen und anschaulichen Grundrhythmen zu bedienen. Vor allem Atem und Puls spielen eine wichtige Rolle. Im Durchschnitt stehen ca. 18 Atemzüge pro Minute etwa 72 Herzschlägen pro Minute gegenüber. Es lässt sich daraus die menschliche „Normalzeit“ als quasi psychologische Größe ableiten. Das Verhältnis 18:72 entspricht einer 1:4-Proportion und trägt somit die in der Musik so häufig auftretende Viererperiodik (4/4-Takt) in sich. Viele Volklieder, Schlaflieder, Kirchenlieder, Musik vor 1600 etc. haben das natürliche Tempo des Herzschlages. Tänze oder Wanderlieder werden in der Regel hingegen schneller vorgetragen. Es spiegelt sich hierin die höhere Pulsfrequenz eines bewegten Menschen wieder. Der Puls (jener von der Beinarterie der Mutter) ist auch das Erste, was das menschliche Embryo (ab der 24. Woche) wahrnimmt. Es sollte wohl außer Zweifel stehen, dass dies prägenden Einfluss auf jeden Menschen hat. Der Puls ist kein eindimensionaler Taktgeber (wie beispielsweise ein Metronom), sondern setzt sich immer aus Systole und Diastole zusammen. Es handelt sich also um ein binäres System von betont und unbetont. Der menschliche Puls stellt also eine Art Ur-Rhythmus dar. 4.1. Psychologische Grundlagen der Zeitwahrnehmung 4.1.1. Die psychische Präsenzzeit Die psychische Präsenzzeit ist jene Zeit in der unmittelbar Vergangenes noch ohne Gedächtnis, also unmittelbar, bewusst ist. Beispielsweise ist beim Sprechen des Wortes „Fachhochschule“ die erste Silbe „Fach“ noch ohne Gedächtnisleistung bewusst während das Wort „Schule“ gesprochen wird. Die Größe dieser Zeitspanne wurde von verschiedenen Forschern mit 6 – 12 Sekunden angegeben. 4.1.2. Der Moment Unter Moment wird (in der Psychologie) die kürzeste, gerade noch gesondert wahrnehmbare Dauer eines Reizes verstanden. Beim Menschen liegt der Moment bei etwa 1/18 Sekunde. Einzelne Sinnesreize die kürzer Dauern als einen Moment werden nicht mehr gesondert wahrgenommen, sondern verschmelzen mit dem darauffolgenden. Werden ca. 18 Bilder pro Sekunde gezeigt, so entsteht der Eindruck einer kontinuierlichen Bewegung. Genauso werden ca. 18 Impulse in einer Sekunde nicht mehr als Impulsfolge gehört, sondern als Klang oder Geräusch. Wäre Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 18 unser Moment kürzer, so würden uns Bewegungen in der Umwelt länger erscheinen. Wäre er länger so könnten wir Bewegungen von Dinge erkennen, die uns unbewegt erscheinen (z.B.: das Wachsen von Pflanzen). 4.1.3. (Subjektive) Beeinflussung der Zeitwahrnehmung Die subjektive Zeitwahrnehmung kann von der Art der Erlebnisinhalte und der Ereignisdichte stark beeinflusst werden. Bei langweiligen Vorlesungen oder vor Prüfungen scheint die Zeit oft still zu stehen. Während anregender Gesprächen, auf einer Party etc. vergeht die Zeit hingegen meist wie im Flug. „Man glaubt im ganzen, daß Interessantheit und Neuheit des Gehaltes die Zeit „vertreibe“, das heißt: verkürze, während Monotonie und Leere ihren Gang beschwere und hemme. Das ist nicht unbedingt zutreffend. Leere und Monotonie mögen zwar den Augenblick und die Stunden dehnen und „langweilig“ machen, aber die großen und größten Zeitmassen verkürzen und verflüchtigen sie sogar bis zur Nichtigkeit. Umgekehrt ist ein reicher und interessanter Gehalt wohl imstande, die Stunde und selbst noch den Tag zu verkürzen und zu beschwingen, ins Große gerechnet jedoch verleiht er dem Zeitgange Breite, Gewicht und Solidarität, so daß ereignisreiche Jahre viel langsamer als jene armen, leeren, leichten, die der Wind vor sich her bläst, und die verfliegen.“ (Thomas Mann, Der Zauberberg) Die Zeitwahrnehmung kann auch durch pharmakologische Substanzen (Beruhigungsmittel, Drogen, etc.) beeinflusst werden. Aus diesem Grund wird angenommen, dass die Zeitschätzung, das Zeiterleben von organischen Gegebenheiten – vor allem vom Stoffwechsel – abhängt. Es ist auch möglich, dass der „Zeitsinn“ im vegetativen Nervensystem liegt, welches den Stoffwechsel reguliert. Anmerkung: Akustische Ereignisse werden bekanntlich zunächst in den untersten (vegetativen) Hirnschichten (vor)verarbeitet ehe sie im Großhirn rational ausgewertet werden. Es ist somit auch möglich, dass Klänge und Geräusche die Zeitwahrnehmung unmittelbar beeinflussen. 4.2. Die Struktur der Wahrnehmung Die Welt wird vom Menschen nicht als Summe von isolierten Einzelereignissen wahrgenommen, sondern gestaltet und gegliedert erlebt. Es werden Gestalten oder Strukturen erfasst. Beispielsweise sieht man ein Dreieck nicht als drei isolierte Striche, sondern eben als Dreieck. Genauso werden in der Musik nicht Einzeltöne, sondern musikalische Strukturen (melodische Floskeln, rhythmische Gesten,...) wahrgenommen. Dabei sind die Gestalten in der Regel mehr als eine Synthese ihrer Einzelteile. Sie besitzen also eine ihnen eigenen „Gestaltqualität“. Beispielsweise bleibt ein gleichseitiges Dreieck immer ein gleichseitiges Dreieck egal wie groß es ist, egal wie dick die drei Linien sind, egal welche Farbe diese haben,... Genauso bleibt eine Melodie als solche wahrgenommen unabhängig davon, in welcher Tonhöhe oder Tonart diese vorgetragen wird. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 19 Auch wenn sich die Einzelelement unterscheiden, kann die Ganzheit, die Gestalt, die Struktur die gleiche bleiben. Das Ganze ist also mehr als die Summe seiner Teile. Die Gestaltpsychologie untersucht die Umstände oder Gegebenheiten, die dazu führen, dass Einzelereignisse als zusammenhängende Strukturen wahrgenommen werden. Diese Bedingungen (Umstände, Gegebenheiten) werden als Kohärenzfaktoren bezeichnet. Zu den wichtigsten Kohärenzfaktoren gehören: 1. Nähe (zeitliche oder räumliche Nachbarschaft): Elemente, die nahe beieinander liegen, werden mehr als zusammengehörig empfunden, als ähnliche die weiter voneinander entfernt sind. 2. Gleichheit oder Ähnlichkeit: Ähnliche Element werden im Vergleich zu (zeitlich oder räumlich) gleichweit entfernten aber weniger ähnlichen Elementen als zusammengehörig empfunden. 3. Kontinuität: Elemente, die eine Fortsetzung vorausgehender Elemente zu sein scheinen, werden als zusammengehörig empfunden. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 20 4. Geschlossenheit: Unvollendete Figuren werden häufig zu geschlossen ergänzt. 4.3. Ebenen der Zeitgestaltung in der Musik 4.3.1. Material und Stil Viele Musikstile und musikalische Materialien haben einen starken Bezug zu eine bestimmten zeitlichen Epoche. Der Einsatz solcher Stile und Materialien soll den/die HörerIn an diese Zeit erinnern bzw. in diese Zeit versetzen. Als Beispiele sollen genannt werden: - Verwendung historischer Aufnahmen (Das Knistern, Rauschen, Knacksen alter Grammophon- oder Schallplattenaufnahmen kann in bestimmten Fällen eine ganz besondere Atmosphäre erzeugen. Die moderne Musikelektronik bietet daher auch bereits Effekte, die perfekten Aufnahmen in CD-Qualität diese aus vergangenen Zeiten bekannten Nebengeräusche bewusst beifügt.) - Musikstile mit starkem Zeitbezug (Gregorianische Choräle, Charlston, Techno, Rock&Roll, Renaissance-Musik,…) - Verwendung von Instrumenten und Klängen mit starkem Zeitbezug (Leierkasten, Moog-Synthesizer, Posthorn, ...) 4.3.2. Form/Dramaturgie Die Form bestimmt den gesamten Zeitverlauf eines Musikstücks Die wichtigsten Grundtypen formaler Gestaltung sind: - Crescendoform Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 21 - Bogenform - Reihungsform 4.3.2.1. Formen in der Musik In der (westlichen) (Kunst)musik wurden die Grundtypen formaler Gestaltung wesentlich erweitert und verfeinert. Einige Beispiele: Liedform A B A Rondo A B A C Variationsform A1 A2 A3 A4 A Kanon D A A A A Sonatensatzform Durchführung Exposition Reprise Coda Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 22 Als wichtigstes Grundprinzip formaler Gestaltung ist zumindest in der westlichen Musik die Balance zwischen verschiedenen Gegensatzpaaren wie Kontinuität – Diskontinuität, Wiederholung – Veränderung, Spannung – Entspannung anzusehen. 4.3.3. Metrum/Puls/Tempo Unter Puls wird der Grundschlag, die zugrundeliegende Zeiteinheit der Musik verstanden. Durch das Tempo wird die absolute Dauer dieser Grundeinheit bestimmt. 8 Sekunden Das Metrum (der Takt) gliedert den Puls in Gruppen. (z.B.: 4/4-Takt, 3/2-Takt, 11/16-Takt 8 Sekunden Auf diese Art und Weise wird für die Musik eine Ordnungsstruktur, ein Raster vordefiniert, das einerseits erst einen geregelten Ablauf und Orientierung ermöglicht, andererseits aber auch zu einem allzu strengen, die Unmittelbarkeit des Ausdrucks einengenden Korsett werden kann. Durch das Metrum kommen den einzelnen Pulsschlägen mehr oder weniger Bedeutung zu. So wird beispielweise der erste Schlag (die „Eins“) eines Taktes stärker betont als die nachfolgenden Schläge dieses Taktes. Es können auch mehrer unterschiedliche Ordnungsstrukturen gleichzeitig eingesetzt werden. Diese als Polymetrik (oder auch Polyrhythmik) bezeichnete musikalische Zeitkonzept ist vor allem für die afrikanische Musik charakteristisch. 4.3.4. Rhythmus Durch den Rhythmus werden Muster aus betonten und unbetonten Schlägen gebildet. Rhythmus ist nicht an ein Metrum gebunden. Es kann sich auch um eine völlig freie musikalische Geste handeln. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 23 Bei Vorhandensein eines definierten Metrums sollte ein bestimmter Rhythmus aber immer im Zusammenhang mit diesem betrachtet werden, da sich abhängig von der Position im Takt die Wirkung ändern kann. Rhythmus A Wirkung A = Rhythmus A Wirkung B 4.3.5. Melodie Melodische Bögen gliedern i.a. die Musik. Jede Melodie weißt bestimmte Symmetrien auf. Daraus folgt, dass eine bestimmte gegebene Anfangstonfolge immer mit einer anschließenden Schlusstonfolge logisch abgeschlossen werden muss. Der Anfang einer Melodie lässt somit immer zumindest erahnen, wie diese weitergehen wird. Melodien sind somit etwas zielgerichtetes. Einem überwiegenden Großteil der Musik (insbesondere der Unterhaltungsmusik und der Klassik) baut auf achttaktigen Melodien auf. (Ausnahme: 12-taktiges Blues-Schema) Oft lassen sich diese acht Takte in zwei oder vier symmetrische Untergruppen aufteilen. Diese achttaktigen Melodien (meist als Thema bezeichnet) werden als zusammengehörige Einheit empfunden und stellen in gewisser Weise eine Art „musikalische Gegenwart“ dar. Etwa seit der Zeit Mozarts versuchen Komponisten diese „musikalische Gegenwart“ zu dehnen, also melodische Verläufe zu komponieren, die sich über einen längeren Abschnitt erstrecken, als die gewohnten acht Takte. So dauert eine achttaktige Periode bei einer Mozartsonate bei einem Tempo von etwa 100 bpm ca. 19 Sekunden. In der 6. Symphonie („Pastorale“) verwendet Beethoven in einem Satz einen 12/8-Takt und erweitert das Thema auf 12 Takte. Durch ein langsames Tempo dauert das Thema – die musikalische Gegenwart – etwa anderthalb Minuten, in denen die Zuhörer quasi in „Zeitlosigkeit“ versetzt werden. Einen weiteren Höhepunkt erreichte das Streben nach dem Dehnen der musikalischen Gegenwart bei Richard Wagner und seinem Konzept einer „unendlichen Melodie“. Mit immer langsameren Tempi und raffinierten musikalischen Wendungen komponierte Wagner Melodiezüge von bis zu fünf Minuten Dauer. Weitere Beispiele finden sich bei Gustav Mahler und bei einigen Zeitkonzepten der Musik des 20. Jahrhunderts. In der sogenannte „Minimal Music“ wird bewusst auf eine zeitliche Gliederung verzichtet. Kurze Muster („Patterns“) mit minimalen Variationen permanent aneinandergereiht und wiederholt. Durch das Vermeiden einer in der Zeit forschreitenden Struktur soll quasi ein „ewiges Jetzt“ vermittelt werden. Zu den bekanntesten Vertretern der Minimal Music zählen Steve Reich, LaMonte Young, Phil Glass und Michael Nyman, dessen Filmmusiken stilbildend wurden. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 24 4.4. Musik und filmische Zeit Musik kann mit ihrer eigenen Zeit die filmische Zeit beschleunigen oder verlangsamen. Dies kann vor allem auf drei Arten erfolgen: 1. Modifikation durch Betonung/Nichtbetonung von syncpoints (Anmerkung: Unter syncpoint wird das Zusammenfallen eines Bildakzents mit einem Musikakzent verstanden.) Wird zwischen zwei Bildakzenten eine Melodie so eingesetzt, dass Anfang und Ende jeweils mit diesen Akzenten zusammenfallen, so wird dadurch der realzeitliche Eindruck unterstrichen. Punkt A Punkt B Wird die Melodie schneller gespielt, so dass sie vor dem Zeitpunkt B beendet wird, so wird dadurch die filmische Zeit verlangsamt. Punkt A Punkt B (Psychologischer Denkschluss: Die Filmsequenz dauert länger als die Musik) Umgekehrt kann durch eine langsamere Melodie die filmische Zeit beschleunigt werden. Punkt A Punkt B 2.) Modifikation durch Variation des zeitlichen Hintergrunds Eine Zeitstrecke wirkt in der Regel kürzer, wenn dazu langsame Musik erklingt bzw. länger, wenn dazu schnelle Musik erklingt. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 25 3.) Modifikation durch die Dauer des Musiktakes Wird ein langes Musikstück über mehrere aufeinanderfolgende Filmsequenzen gelegt, so werden diese Sequenzen durch die Musik in ein Zeitkontinuum gebunden. Die filmische Zeit wird dadurch beschleunigt. 5. Komponieren mit Raum Der Raum wird in Zusammenhang mit musikalischer Komposition als gestalterischer Parameter häufig wenig beachtet und Musik stets mehr als zeitliches denn als räumliches Phänomen angesehen. Es darf jedoch nicht unbeachtet bleiben, dass beim Hören von Musik stets (wenn auch meist unbewusst) räumliche Imaginationen entstehen. Dies zeigt sich auch darin, dass sehr viele musikalische Begriffe raumbezogen sind: hoch oder tief, enge oder weite Lage von Akkorden, aufsteigende oder abfallende melodische Bewegung, Schritt, Sprung, flächige Klänge, runde und spitze Sounds, etc. In Analogie zu den Entwicklungen der menschlichen Gesellschaft, die sich vor allem mit Hilfe der modernen Technologien immer größere Räume in kürzerer Zeit erschließt, wurde im Laufe der letzten Jahrhunderte auch der musikalische Raum in allen Parametern stets ausgeweitet. (Größere Ensembles, ausgeweiteter Frequenzumfang, stärkere Differenzierung der dynamischen Skala, mehrstufige Tonleitern, etc.) Raum sollte dabei nicht nur als reale Größe verstanden werden. Vielmehr stellt Raum auch eine musikalisch vermittelbare psychische Größe dar. (Weite – „angenehm“, herrschaftlich, Enge – Beklemmung, etc.) In den meisten Fällen von Musik in Film, Werbung, Tanz, etc. verhalten sich realer, optischer und akustischer Raum kongruent (z.B.: weite Prärie – großes Orchester). Oft kann es aber auch sehr wirkungsvoll und somit zielführend sein, wenn gerade Musik nicht reale, sondern gleichsam innere, psychische Räume beschreibt, also nicht ohnehin offensichtliches nochmals wiederholt, sondern vielmehr zusätzliche gerade durch Musik gut vermittelbare Information liefert. Schon mit ganz wenigen oder sogar einzelnen Töne und ebenso wenigen musikalischen Parametern (z.B.: Lautstärke – Nähe, Bassfrequenzen –Tiefe, etc.) können Räume abgebildet werden. (Beispiel: Die Musik zu Stanley Kubriks Film „Eyes Wide Shut“ verwendet in mehreren Abschnitten nur eine einzige Tonqualität. Häufige Tonwiederholungen in Verbindung mit kürzer werdenden Abständen und großer Lautstärke suggerieren Enge, Beklemmung, Bedrängnis.) Kompositorisch lassen sich bestimmte Raumvorstellungen neben den Parametern Lautstärke und Tonhöhe vor allem auch durch die Auswahl bestimmter Intervalle, Akkorde (Dur-Moll, symmetrische Akkorde, Cluster,...), Klangstrukturen (bewegt, statisch, fortschreitend,...) und Satzmuster (enge oder weite Lage) beeinflussen. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 26 Durch die Verwendung moderner Studiotechnologie werden die Möglichkeiten räumlicher Gestaltung von Musik noch um ein Vielfaches gesteigert. Vor allem durch die Art der Mikrophonierung (Auswahl von Mikrophonart und –charakteristik, Aufstellung der Mikrophone im Raum bezogen auf die aufzunehmende Schallquelle), die nuancierte Verwendung von Hallund Delayeffekten und den gekonnten Einsatz des Equalizers lassen sich unzählige, auch virtuelle Räume erzeugen. (Beispiel: In der Schlusszene des Films „Herbstmilch“ von Joseph Vilsmaier erklingt ein Walzer in der Tonqualität einer Schellack-Platte, die real im Film aufgelegt wird. Dieser intime Raum wird nun nach und nach, für die Betrachter kaum merkbar geweitet bis schließlich der volle Ton eines Orchesters erklingt. Die tanzende Filmprotagonisten erhalten dadurch physische Größe und der Film sein Happy End.) Ortung von akustischen Ereignissen – räumliche Wahrnehmung von Schall Um einschätzen zu können, wo sich – relativ zum Hörer – eine Schallquelle befindet, muss das Gehör aus dem ankommenden Signal Informationen über Entfernung und Richtung gewinnen können. Zunächst könnte angenommen werden, dass die Entfernung einfach entsprechend der jeweiligen Lautstärke des Schallsignals bestimmbar sei. Der daraus gewonnene Informationswert ist aber insofern beschränkt, als er die Kenntnis der Ausgangslautstärke der Schallquelle zumindest ungefähr voraussetzt. Es wird daher vor allem das Verhältnis der Pegel von Direktschall zu den Erstreflexionen zur Bestimmung der Entfernung einer Schallquelle herangezogen. Je schwächer die Erstreflexionen im Vergleich zum Direktschall sind, desto näher wird das Schallsignal empfunden. Für die Bestimmung der seitlichen Position einer Schallquelle wird zuerst der Laufzeitunterschied der ersten Wellenfront zwischen linkem und rechtem Ohr ausgewertet. Eine von rechts kommende Schallwelle muss einen um etwa 20 cm längeren Weg (um den Kopf herum) zurücklegen, um zum linken Ohr zu gelangen. Daraus ergibt sich ein Laufzeitunterschied von etwa 0,6 ms. Ob sich die Quelle vorne oder hinten bzw. oben oder unter befindet lässt sich aufgrund des Laufzeitunterschiedes nicht ermitteln. Der Laufzeitunterschied ist insbesondere im Falle von percussiven, kurzen Schallereignissen von Bedeutung. Für Frequenzen kleiner als 1500 Hz wird auch die Information des Phasenunterschiedes zwischen den beiden Ohren ausgewertet. Der Phasenunterschied ergibt sich analog zum Laufzeitunterschied dadurch, dass die Schallquelle von einem Ohr weiter entfernt ist als vom anderen. Für hohe Frequenzen werden die Phasenunterschiede jedoch so gering, dass sie von den Hörnerven nicht mehr ausgewertet werden können. Weiters wird der interaurale Intensitätsunterschied, das ist der Pegelunterschied den ein Schallereignis zwischen linkem und rechtem Ohr hervorruft – ausgewertet. Für diesen Pegelunterschied ist weniger der Abstand zwischen den beiden Ohren verantwortlich, als vielmehr die Tatsache, dass der Kopf als Schallabsorber wirkt. Im Falle tiefer Frequenzen ist der Kopf klein im Verhältnis zur Wellenlänge und stellt somit kein nennenswertes Hindernis Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 27 für die eintreffende Schallwelle dar. Der Intensitätsunterschied gewinnt daher erst ab Frequenzen von etwa 2 kHz an Bedeutung. Vor allem hohe Frequenzanteile werden vom Außenohr richtungsabhängig gebündelt und verstärkt. Die relative Stärke hochfrequenter Schallanteile scheint sich daher zu ändern, wenn eine Schallquelle von hinten nach vorne wandert. Außerdem werden i.a. hohe Frequenzen stärker gedämpft als tiefe, weshalb weiter entfernte Schallereignisse meist dumpfer klingen. Zusätzlich werden i.a. auch Bewegungen des Kopfes ausgeführt, um zu hören, wie sich dabei der Schall ändert. Kurze perkussive Klänge sind deshalb in der Regel schwerer zu orten, als lang andauernde Schallereignisse. Beim Tragen von Kopfhörern fällt diese Möglichkeit der Raumwahrnehmung klarerweise weg, weshalb der Raumeindruck in diesem Fall auch immer etwas verfälscht ist. 6. Komponieren mit Klang Im Zusammenhang mit Musik und Komposition denkt man meist wohl vor allem an Dinge wie Melodie, Rhythmus, fortschreitende Harmonik, usw. In der Regel handelt es sich dabei um ganz bewusst geformte, individuelle, strukturierte Gestalten. Bei der melodischen und rhythmischen Gestaltung werden i.a. in erster Linie Fasslichkeit, Eindringlichkeit, klarer Ausdruck, formale Stringenz beabsichtigt. Aus diesem Grund stellen Melodie, Rhythmus, Harmonik auch den Anspruch auf Hörbarkeit und bleiben nicht im Unterbewussten. Klang war und ist in der Musik zwar zweifellos stets von großer Bedeutung, stand aber zumindest in der europäischen Musiktradition nicht gleichberechtigt neben Melodie und Rhythmus. Dies hat insbesondere viel mit dem linearen Zeitverhalten unserer Musik zu tun, die geprägt von der Idee (logischer) Entwicklung stets von einem Ausgangspunkt zu einem Endpunkt strebt. Diese Zielgerichtetheit steckt auch schon in jeder Melodie, in jedem Rhythmus, weshalb sie sich auch besser für die Umsetzung von Entwicklungen eignen. Klang an sich ist als unteilbares Ausgangsmaterial jeder Musik anzusehen (vielleicht vergleichbar mit den Farben in der Malerei). Klang besitzt i.a. noch keine vorgeprägte Richtung, wenig strukturelle zeitliche Gliederung. Eine Melodie muss bewusst gehört, ihr Verlauf, ihr Entwicklung müssen erfasst werden, um überhaupt eine Wirkung erzielen zu können. Melodien stellen sich somit in gewisser Weise zur Schau, sind extrovertiert. Im Gegensatz dazu kann Klang, als zeitloser, “diffuser” Urgrund von Musik durchaus auch unbewusst wahrgenommen werden und dabei große Wirkung erzielen. Klang kann somit als nach Innen gerichtet bezeichnet werden. Als unteilbare, ursprüngliche Bausteine haben Klänge oft archaische Wirkung und sind in der Lage direkte Emotionen hervorzurufen. (Diese Eigenschaft von Klang wird beispielsweise in der Musiktherapie erfolgreich eingesetzt.) Bestimmte Klangeigenschaften lassen sich daher auch bestimmten (Ur)erfahrungen, bestimmten emotionalen Grundstimmungen zuordnen. (z.B.: rasche Amplitudenmodulation eines hohen Klanges → “flirrender” Klang → Nervosität) In diesem Zusammenhang spielt auch der symbolische Gehalt von Klänge eine wichtige Rolle. In der Musik des 20. Jahrhunderts wurde Klang in gewissem Sinne “emanzipiert”. Akkorde müssen nicht mehr weitergeführt werden, Dissonanzen nicht mehr aufgelöst werden, neue Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 28 Instrumentaltechniken mit dem Ziel, ganz neue Klänge mit herkömmlichen Instrumenten zu erzeugen, werden eingesetzt, exotische Tonsysteme jenseits von Dur und Moll kommen zur Anwendung, etc. Die Hörer sind an diese herausragende Bedeutung von Klang längst nicht mehr gewohnt. Für einen nachhaltigen, längerfristigen Erfolg einer Gruppe im Bereich der populären Musik ist ihr charakteristischer Sound von größter Bedeutung (vgl. Beatles, Stones, Supertramp, Toto, Genesis, M. Jackson, Billy Joel, Elton John, Queen,...). In den aktuellen Charts sind eher nur wenige solcher Gruppen zu finden. Der Sound wird mehr von der Musikrichtung als von der Gruppe geprägt, weshalb vieles sehr ähnlich klingt. In einigen Filmen ist es gelungen, über einen ganz bestimmten Sound, die akustische praktisch für immer an die visuelle Ebene fix zu koppeln. Eines der bekanntesten und besten Beispiele hierfür ist Ennio Moricones Musik zu “Spiel mir das Lied vom Tod”. Dieser Klang der Mundharmonika in Verbindung mit der verzerrten Gitarre wird wohl nach wenigen Zehntelsekunden eindeutig erkannt, zugeordnet und geistig mit den entsprechenden Bildern versehen. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 29 7. Bearbeitung von Schallereignissen 7.1. Bearbeitungen der Dynamik Verschiedenste (nachträgliche) Bearbeitungen der Dynamik eines Audiosignals erfolgen meist sowohl aufgrund technischer Notwendigkeiten als auch aus ästhetischen bzw. praktischen Überlegungen heraus. Dem (linear) aufnehmbaren Dynamikbereich sind nach oben (Übersteuerung) und nach unten (Bandrauschen, Quantisierungsrauschen,...) Grenzen gesetzt. (Der rein technisch theoretisch verfügbare Dynamikbereich einer Compact Disc beträgt ca. 96 dB. Häufig wird bei der Aufnahme ein Digital Headroom von etwa 10 dB berücksichtigt, um sehr störende digitale Übersteuerungen zu vermeiden. Außerdem müssen die leisesten Passagen um 20-30 dB über dem Nullwert (Stille bzw. Rauschen) liegen. Als tatsächlich aufnehmbaren Dynamikbereich erhält man somit nur etwa. 60 dB. Der musikalisch nutzbare Dynamikbereich liegt etwa zwischen 30 und 110 dB, beträgt also 80 dB und somit um 20 dB mehr.) Das menschliche Lautstärkeempfinden hängt nicht vom Spitzenpegel eines Signals, sondern von der Signalenergie, also dem durchschnittlichen Pegel ab. Signale mit großem Dynamikbereich - also mit Schwankungen zwischen sehr lauten und sehr leisen Signalpegeln - werden also leiser wahrgenommen als Signale mit annähernd konstantem Pegel, wenn beide Signale gleich stark ausgesteuert wurden (also der Spitzenpegel bei beiden gleich ist). Die menschliche Stimme deckt einen großen Dynamikbereich ab. Da sie bei vielen Produktionen der wichtigste Teil ist, wird sie - zumindest im Bereich der „Unterhaltungsmusik“ - fast immer dynamisch bearbeitet, um ihr zu mehr Durchsetzungskraft zu verhelfen. Auch die Endabmischungen fertiger Popsongs, Werbejingles, etc. werden in der Regel dynamisch nachbearbeitet, damit sie laut (z.B.: im Vergleich zum vorhergehenden Spot) empfunden werden. 7.1.1. Bearbeitung der Hüllkurven Mit Hüllkurven-Generatoren lassen sich im Prinzip beliebige zeitliche Dynamikverläufe, wie beispielweise Einblenden (Fade-in) oder Ausblenden (Fade-out) erzeugen. 7.1.2. Normalizing Unter Normalizing versteht man die nachträgliche Verstärkung eines Signals auf Vollaussteuerung, so dass also die lautesten Passagen im Signal wirklich den maximal möglichen Wert annehmen. Dadurch wird zwar einerseits der Pegel und somit auch die Durchsetzungskraft eines Audiosignals angehoben, andererseits werden aber auch alle ungewünschten Signalanteile (z.B.: Rauschen) um den selben Faktor verstärkt. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 30 7.1.3. Kompressor Ein Kompressor verringert den Dynamikbereich eines Signals. Hierzu werden alle Bereiche eines Signals, deren Pegel über einem bestimmten Schwellwert (Treshhold) liegen, um einen bestimmten Faktor (Ratio) abgeschwächt. dB Ausgangspegel Kompression: Ratio 2:1 Treshhold 30 dB 50 40 30 20 Eingangspegel 10 10 20 30 40 50 70 80 dB Diese Abschwächung der Spitzenpegel ermöglicht freilich wiederum eine Erhöhung der Gesamtverstärkung (z.B: durch Normalizing). Bei Über- bzw. Unterschreiten des Schwellwertes soll die Abschwächung i.a. nicht völlig abrupt, sondern innerhalb definierter (einstellbarer) Zeiten einsetzen (Attack-Time) bzw. wieder abklingen (Release-Time). Nach der Bearbeitung mit einem Kompressor wird ein Signal lauter (druckvoller) empfunden. Der Signal-Rausch-Abstand wird durch Kompression jedoch verschlechtert. 7.1.4. Limiter Beim Limiter wird das Signal oberhalb eines definierbaren Schwellenwertes nicht nur abgeschwächt, sondern auf diesen begrenzt. Limiter werden also dazu eingesetzt, um ungewünschte Übersteuerungen zu verhindern. dB Ausgangspegel Limiter: Treshhold 40 dB 50 40 30 20 Eingangspegel 10 10 20 30 40 50 70 80 dB 7.1.5. Expander Expander haben die umgekehrte Funktion von Kompressoren. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 31 Sie vermindern also die Verstärkung, wenn der Signalpegel unter einen bestimmten Schwellenwert fällt. Der Dynamikbereich des Signals wird somit erweitert (expandiert). dB Ausgangspegel Expander 50 40 30 20 Eingangspegel 10 10 20 30 40 50 70 80 dB 7.1.6. Noise-Gate Bei einem Noise-Gate wird das Eingangssignal unterhalb des Schwellwertes sehr stark abgeschwächt (stummgeschaltet). Es läßt sich damit beispielsweise ungewolltes Bandrauschen während Signalpausen ausschalten. dB Ausgangspegel Noise-Gate: Treshhold 20 dB 50 40 30 20 10 Eingangspegel 10 20 30 40 50 70 80 dB 7.2. Bearbeitungen im Zeitbereich 7.2.1. Cut, Paste, Loop, etc.: Bei Signalbearbeitungen wie Schneiden, Einfügen, Überschreiben oder Looping (dem mehrmaligen Abspielen eines definierten Bereichs) ist vor allem darauf zu achten, dass keine Unstetigkeitsstellen im Signal auftreten, da plötzliche Sprünge im aufgezeichneten Schallereignis i.a. als unangenehme Fehler wahrgenommen (”Knackser”) werden. Es empfiehlt sich daher als Ausgangspunkt für derartige Manipulationen wenn möglich Nulldurchgänge im Audiomaterial aufzusuchen. Weiters soll die Steigung vor und nach einem Übergang zumindest annähernd gleich bleiben. 7.2.2. Änderung der Abspielgeschwindigkeit (oder der Samplingfrequenz) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 32 Wird bei einem aufgenommenen Audiosignal zwar die Abspielgeschwindigkeit (oder die Samplingfrequenz) um einen bestimmten Faktor geändert, das Signal selbst dabei aber im Originalzustand belassen, so ändert sich bei der Wiedergabe auch die Länge des resultierenden akustischen Ereignisses um diesen Faktor. Zu beachten ist dabei, dass dadurch nicht nur die Länge sondern auch alle Frequenzen des Signals verändert werden. Wird beispielsweise die Abspielgeschwindigkeit (die Samplingfrequenz) verdoppelt, so dauert das Signal nur mehr halb so lang und erklingt um eine Oktave höher. 7.2.3. Interpolation: Hinzufügen (oder Weglassen) von Samples Von musikalisch-klanglichen Problemen ganz abgesehen, kann schon aus rein technischen Gründen die Abspielgeschwindigkeit (Samplingfrequenz) nicht beliebig erhöht werden (z.B.: Grenzen der Taktrate eines Digitalgerätes). Aus diesem Grund werden einfache Längenänderungen in digitalen Geräten (z.B.: Sampler) nicht durch Änderung der Auslesegeschwindigkeit, sondern durch Hinzufügen bzw. Weglassen von Samples. Die eingefügten Werte werden dabei aus den benachbarten berechnet (Interpolation). Auch bei diesem Verfahren ändert sich nicht nur die Länge, sondern auch die Tonhöhe des Audiosignals. 7.2.4. Timestretching In vielen Anwendungsfällen soll zwar die Länge eines Audiosignals verändert werden, die Tonhöhen sollen dabei aber unverändert bleiben. Ein Möglichkeit dies zu erreichen ist, das Signal in möglichst periodische Abschnitte zu unterteilen und einzelne Perioden wegzulassen bzw. zu wiederholen. Dieses Verfahren ist als Time Domain Harmonic Scaling (im Synthesizerbereich auch unter Granularsynthese) bekannt. Nahezu alle gängigen Sampler, HD-Recorder und Sample-Editoren bieten derartige Algorithmen zur Längenkorrektur an. Die Qualität des Ergebnisses hängt stets sehr von der Beschaffenheit des Ausgangssignals ab. Hersteller erlauben daher häufig die Anpassung des Verfahrens an das Audiosignal. 7.3.Bearbeitungen im Frequenzbereich 7.3.1. Transpositionen: Eine Änderung der Abspielgeschwindigkeit (bzw. der Samplingfrequenz) führt wie gesagt nicht nur zu einer Korrektur der Zeitdauer, sondern immer auch zu einer Änderung der Tonhöhe (Transposition). Dies gilt natürlich auch für Interpolation, also für das Weglassen bzw. Erzeugen zusätzlicher Samples. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 33 7.3.2. Pitch Shifting In vielen Fällen soll nur die Tonhöhe verändert, die Länge des Signals aber beibehalten werden. Dies kann ganz einfach durch Timestretching mit anschließender Transposition erreicht werden. In vielen Fällen führt diese Vorgangsweise nur zu unbefriedigenden Ergebnissen, da auch die sogenannten Formanten, das sind jene Frequenzbereiche die unabhängig vom Grundton durch Resonanzkörper angehoben werden und beispielsweise den charakteristischen Klang von Instrumenten ausmachen, transponiert werden. Gute Pitch-Shifter bieten daher auch Algorithmen mit Formantkorrektur. 7.3.3. Filterungen Filterungen beeinflussen das Frequenzspektrum von Signalen. Bestimmte Frequenzbereiche passieren ein Filter unbeeinflusst, während andere abgeschwächt werden. Filter werden einerseits verwendet, um radikale Klangveränderungen zu erzielen (etwa bei Synthesizern), andererseits dienen sie auch zur Entzerrung, also zur (geringfügigen) Korrektur bestimmter Frequenzverläufe. 7.4. Berabeitungen mit Raum-Effekten 7.4.1. Künstlicher Nachhall: Reverb Die räumliche Gestaltung einer Aufnahme ist ein wichtiges Qualitätskriterium jeder Musikproduktion. Bei der Aufnahme von klassischer Musik wird in der Regel bereits bei der Aufnahme versucht, ein angenehmes Verhältnis zwischen Direktsignal und Nachhall zu erreichen, was vor allem durch die Positionierung der Mikrofone erreicht wird. (Ein Aufnahmeraum mit hervorragender Akustik ist hierzu natürlich Voraussetzung.) Wird jedoch intensiv mit Mehrspurtechnik und im sogenannten Playback-Verfahren aufgezeichnet, ist es beinahe unmöglich das richtige Verhältnis zwischen Direktschall und Nachhall schon bei der Aufnahme für jedes Instrument, für jede Aufnahmespur genau festzulegen. Häufig wird daher versucht, den natürlichen Raumeindruck bei der Aufnahme weitgehend zu unterdrücken, also "trocken" (ohne Nachhall) aufzunehmen, und erst im Nachhinein (bei der Endabmischung) den gewünschten Raumeindruck künstlich zu erzeuge. Wichtige Parameter von Hallalgorithmen: àVerzögerung und Intensität der Erstreflexionen (in der Natur abhängig von der Entfernung des Hörers von der Schallquelle und von Größe und Form des Raumes) Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 34 àNachhallzeit (in der Natur abhängig von der Größe des Raumes und vom Dämpfungsfaktor der reflektierenden Flächen) àfrequenzabhängiges Dämpfungsverhalten (Hohe Frequenzen werden in der Natur meist stärker gedämpft und klingen im Nachhall somit rascher ab.) àHalldichte (In Abhängigkeit von der Beschaffenheit des Raumes liegen die nach den Erstreflexionen eintreffenden Vielfachreflexionen mehr oder weniger dicht beieinander.) Der richtige Einsatz von künstlichem Hall ist für das Ergebnis einer Musikproduktion sehr entscheidend. Ein häufiger Fehler ist dabei der übertriebene Einsatz von überdimensionalen, viel zu langem Hall. Meist führt dies nur zu einer undurchsichtigen, diffusen, "verwaschenen", unnahbaren Endabmischung. Lange Hallfahnen haben im allgemeinen nur als sparsam eingesetzte Spezialeffekte Sinn. Der Hall sollte stets den Charakter einer Stimme oder eines Instruments unterstützen. Ein künstlicher Nachhall mit geringer Höhendämpfung verleiht einer Stimme beispielsweise mehr Brillianz. Ein besonders dichter Hallalgorithmus verleiht ihr mehr Volumen. Hingegen leidet die Sprachverständlichkeit sehr unter zu langen Hallzeiten. Ist der Hallanteil groß im Vergleich zum Direktsignal, so klingt der Gesang zu weit vom Hörer entfernt. Für Drums und Percussion werden oft mit sogenannten Ambience-Effekten bearbeitet. Da diese häufig gar nicht als eingenständige Effekte wahrnehmbar sind, werden sie auch als Ambience-Klänge bezeichnet. Erzielt werden diese durch Simulationen sehr kleiner Räume. Da dabei die Nachhallzeit kurz ist und die Erstreflexionen sehr rasch auf das Direktsignal folgen, führt dies zu einer Verdichtung des Signals, die neben dem Raumeindruck vor allem auch den Klang beeinflusst. Meist lässt sich durch diese Verdichtung ein druckvollerer Sound erzielen. Um Schlaginstrumente (vor allem Snaredrum) zu betonen und mit mehr Volumen erscheinen zu lassen, werden sie häufig zusätzlich mit "großem", künstlichen Hall (hoher Effektanteil und lange Nachhallzeit) bearbeitet. Ohne zusätzlichen Maßnahmen würde der lange Nachhall aber andere Schlaginstrumente verdecken und den Groove zerstören, den ja erst das Wechselspiel von Betonungen und Pausen lebendig machen. Man lässt daher den Hall abrupt enden, was in der Natur freilich nicht vorkommt. Das Ausgangssignal des Hallgeräts wird hierzu durch ein Noise-Gate mit hohem Schwellenwert geschickt. Dieser Effekt ist als Gated Reverb bekannt. Das Verhältnis von Direktschall zu Hallanteil ist entscheidend für die Tiefenstaffelung (Vorder-und Hintergrund). Da hohe Frequenzen schneller gedämpft werden, ist zusätzlich auch der Höhenanteil für die räumliche Staffelung mehrerer Signalquellen von Bedeutung. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 35 7.4.2. Echo und Delay Das Phänomen von Echos - also die scheinbare Wiederholung von Klängen in der Ferne - lässt sich in der Natur beispielsweise in den Bergen oder auch zwischen Hochhäusern beobachten. Es handelt sich dabei um Reflexionen, die mit mehr oder weniger langer Verzögerung nach dem Originalsignal (Direktschall) beim Hörer eintreffen. Echos sind in der Natur i.a. dumpfer als das Ursprungssignal, da die Höhen durch die Reflexion und die längere Wegstrecke stärkeren Dämpfungen unterliegen. Mit Hilfe der Digitaltechnik lässt sich der Echoeffekt recht leicht im Tonstudio simulieren. Das Signal wird in einem Zwischenspeicher verzögert und gegebenenfalls abgeschwächt und gefiltert. Sollen Mehrfachechos erzeugt werden, muß das Ausgangssignal an den Eingang zurückgeführt werden (Feedback), um erneut die Verzögerungskette zu durchlaufen. Die meisten Effektgeräte können mehrere solcher Verzögerungsketten mit unterschiedlichen Verzögerungszeiten gleichzeitig realisieren. Auf diese Weise lassen sich komplexe Delay-Effekte erzielen. Gut eingestellte Delayeffekte können einem Audiosignal zu mehr Klangfülle verhelfen oder sogar als zusätzliche (Instrumental)stimmen wahrgenommen werden. Die Verzögerungszeit (delay-time) muss dazu mit dem Metrum (Beat) des Songs abgestimmt werden. Einer Gesangsstimme kann ein leises, kaum wahrnehmbares Delay - um eine Viertel oder Achtel verzögert - zu mehr Klangvolumen verhelfen. Ist dieses Delay jedoch zu laut, so leidet die Sprachverständlichkeit und der melodische Verlauf wird gestört. Auch die Verwendung von auffälligen Echoeffekten kann im musikalischen Kontext reizvoll sein. Es ist dabei jedoch wichtig, dass im Arrangement für diese Echos Platz gelassen wird. 7.5. Berabeitungen mit Phasen-Effekten: Das menschliche Ohr kann zwei unmittelbar aufeinander folgende Klänge erst dann getrennt voneinander wahrnehmen, wenn ihr zeitlicher Abstand mindestens 30 ms beträgt. Ist dieser jedoch kleiner als 30 ms, so werden die beiden Klänge als ein akustisches Ereignis wahrgenommen. Statt einer zeitlichen Differenz wird nun ein Phasenunterschied wahrgenommen, der den resultierenden Gesamtklang mehr oder weniger stark beeinflußt. Wird die Verzögerungszeit von Delay-Effekten kleiner als 30 ms, so werden diese also zu Phasen-Effekten. Generell muß beim Einsatz von Phasen-Effekten auf Monokompatibilität geachtetwerden. Es kann zu gegenphasigen Anteile im linken und rechten Kanal kommen, die sich im Mono-Betrieb gegenseitig auslöschen. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 36 7.5.1. Chorus Mit dem Chorus-Effekt soll im Prinzip der volle Klang eines Orchesters (oder eben eines Chors) simuliert werden. Dort spielen die Musiker einer Instrumentengattung (bzw. singen die Sänger einer Stimmlage) i.a. eine gemeinsame Stimme. Sie werden dabei aber nie jede einzelne Note vollkommen gleichzeitig beginnen und in der exakten Tonhöhe intonieren können. Vielmehr kommt es permanent zu geringfügigen Abweichungen, die erst zum Volumen eines Orchesterklanges führen und diesen auch lebendiger machen. Die Abweichungen sind also einerseits für den gewünschten Klang unerlässlich, müssen dabei aber andererseits so klein sein, dass sie nicht als solche wahrgenommen werden. (z.B.: zeitliche Verschiebungen unter 30 ms) Beim Chorus-Effekt wird eine Kopie des Originalsignals geringfügig verzögert, in der Tonhöhe minimal verändert und wieder dem Original beigemischt. Die Verzögerungszeit und die Tonhöhenänderung werden dabei mit einem LFO mehr oder weniger stark moduliert. Diese bleiben also nicht konstant, sondern schwanken stets um den eingestellten Mittelwert. Der Effekt kann freilich auch mit mehreren Verzögerungsketten erzeugt werden. Er wird dann oft auch als Ensemble-Effekt bezeichnet. 7.5.2. Flanger Ein Flanger funktioniert sehr ähnlich wie der Chorus-Effekt, die Verzögerungszeiten sind dabei jedoch noch geringer (ca. 1 - 8 ms) und die Tonhöhe wird konstant gehalten. Durch die geringen Verzögerungen kommt es zu konstruktiven und destruktiven Interferenzen, das heißt manche Frequenzbereiche werden angehoben andere abgeschwächt. Dieser Effekt wird auch als Kammfilter-Effekt bezeichnet. In Abhängigkeit von Verzögerungszeit sowie Frequenz, Modulationstiefe und Wellenform des LFOs lassen sich zum Teil sehr drastische Klangänderungen erzielen. Ein weiterer wichtiger Parameter ist das Feedback mit dem das Effektsignal an den Eingang zurückgeführt wird. Bei hohen Feedback-Werten ist der Kammfilter-Effekt besonders ausgeprägt und das Originalsignal wird stark verfremdet. Meist wird dieser Effekt jedoch nur sparsam eingesetzt. Vor allem Gitarren- und Beckenklänge erhalten dadurch mehr Leben. Deutlicher hörbare Effekte werden gelegentlich bei verzerrten Gitarren eingesetzt. 7.5.3. Phasing Ein Phaser arbeitet wie ein Flanger, jedoch ohne Feedback und mit etwas längeren Verzögerungszeiten (ca. 5 - 10 ms) Außerdem ist die Verzögerungszeit frequenzabhängig, wobei höhere Frequenzen in der Regel stärker verzögert werden. Aufgrund der Ähnlichkeit der Effekte Flanger und Phaser überschneiden sich auch ihre Anwendungsgebiete. Wegen der Frequenzabhängigkeit klingt ein Phaser jedoch synthetischer und eignet sich somit gut für die Bearbeitung (gleichförmiger) Synthesizersounds. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 37 7.6. Bearbeitungen zur Klang-Restauration: Zur Bearbeitung alter oder defekter Audiosignale existieren verschiedenste, zum Teil sehr gute Algorithmen. 7.6.1. Declicking Mit Decklicking-Algorithmen werden hörbare Clicks, die vor allem bei Übersteuerungen des Signals auftreten, entfernt. 7.6.2. Decracking Mit Decracking-Algorithmen lassen sich beispielsweise Knistern und Knacken alter Schallplattenaufnahmen, digitale Verzerrungen oder ähnliche fehlerhafte Stellen bis zu einem gewissen Grad entfernen. In Abhängigkeit von der Beschaffenheit des Signals und der Wahl der Parametereinstellungen lassen sich mit den i.a. sehr rechenaufwändigen Algorithmen oft recht gute Ergebnisse erzielen. 7.6.3. Denoising Mit Denoising-Algorithmen lassen sich aus einem Audiosignal bis zu einem gewissen Grad Rauschen oder ähnliche breitbandige Störungen entfernen. Einige, meist recht gute Algorithmen benötigen zunächst ein kurzes Stück leeres Bandrauschen (ohne Nutzsignal), das dann in einem ersten Schritt ("Lernphase") analysiert und in einem zweiten Arbeitsschritt aus dem zu bearbeitenden Audiosignal (mehr oder weniger stark) entfernt wird. In Abhängigkeit von der Beschaffenheit des Signals und der Wahl der Parameter lassen sich Rauschen oder ganz allgemein breitbandige Störungen oft zumindest deutlich vermindern. 7.7. LoFi-Effekte Für einige Musikstile vor allem im Dance und Techno Bereich wirken digitale Audiosignale häufig zu steril. Es existieren daher auch eine Reihe sogenannter LoFi-Effekte, die im Grunde die umgekehrte Wirkung von Algorithmen zur Klangrestauration haben. Es lässt sich damit beispielsweise das Knacken und Knistern alter Vinyl-LP´s nachträglich simulieren. Musik und Multimedia / Sounddesign DI Hannes Raffaseder Seite 38