MUSIK UND MULTIMEDIA SOUNDDESIGN

Werbung
MUSIK UND MULTIMEDIA
SOUNDDESIGN
Unterlagen ausgearbeitet bzw. zusammengestellt von
DI Hannes Raffaseder
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 1
Einleitung
Was ist „Audio“?
„Audio“ umfasst im weitesten Sinne die Phänomenologie aller, das heißt sowohl bewusst erzeugter
(z.B. Musik, Alarmsignale,...) als auch auf natürlichem Wege (Vogelgezwitscher, Bachrauschen,...)
oder ungewollt (Straßenlärm,...) entstandener Sinnesreize der (menschlichen) Umwelt, die primär mit
Hilfe des Gehörorgans wahrgenommen werden können.
Warum Audio?
Unsere Welt - oder besser: wie wir diese wahrnehmen - wird zweifellos von visuellen
Sinneseindrücken dominiert.
Ohne Bilder geht gar nichts!
Kein Popkonzert ohne Bühnenshow, kein Hit ohne Videoclip, keine CD ohne Cover!
Selbst im Bereich der klassischen Musik scheinen mittlerweile jene Künstler am erfolgreichsten
zu sein, die die Wichtigkeit ihres optischen Erscheinungsbildes - ihres „Outfits“ - erkannt haben
und sich entsprechend präsentieren. Also selbst dort, wo es eigentlich ausschließlich um Musik
gehen sollte, gibt meist schon das Auge „den Ton an“.
Warum dann überhaupt mit „Audio“ die Zeit verschwenden?
Nun, vielleicht ganz einfach schon deswegen, weil sich das Ohr - ganz im Gegensatz zum Auge nicht einfach schließen lässt.
Wegsehen ist kein Problem, aber Weghören...?
Ob man will oder nicht, das Ohr ist bei jeder Wahrnehmung automatisch beteiligt. Mangelhaftes
akustisches Design stört auch (oder gerade) dann, wenn es nur unbewusst wahrgenommen wird!
Ein weiterer Aspekt, der mir besonders im Zusammenhang mit Multimedia wichtig erscheint:
Musik eignet sich am besten, um Emotionen mitzuteilen!
Diese Behauptung stimmt doch mit unserer Erfahrung überein: man denke etwa an Tanzmusik,
Musik zu spirituellen Handlungen, Trinklieder, Schlachtgesänge, Freudenlieder, etc.
Oder wie leblos wären die meisten Filme, würden Musik und Geräusche nicht die zum Bild
passende Stimmung vermitteln?
Wem die Erfahrung nicht genügt, der kann auch die Wissenschaft bemühen:
Auditive Sinnesreize werden zuerst in Stamm- und Zwischenhirn (also den für KörperGrundfunktionen, Hormonhaushalt, Gefühle, etc. zuständigen Hirnteilen) verarbeitet und dann
erst ins Großhirn für rationale Auswertung weitergeleitet. (Aus diesem Grund vermag Musik
auch unmittelbare Körperreaktionen, wie z.B. Änderungen von Pulsfrequenz oder Blutdruck,
etc., hervorzurufen) Also: Emotion ist die Domäne auditiver Wahrnehmung.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 2
Und sind es nicht gerade die Gefühle, die viele in unserer hochtechnisierten, nahezu
ausschließlich rational orientierten Welt schmerzlich vermissen?
1. Die akustische Kommunikationskette
1.1. Schall: Die Grundlage akustischer Erscheinungen
Die natürliche Grundlage aller akustischen Erscheinungen ist der
S C H A L L,
definiert als mechanische Schwingungen und Wellen eines elastischen Mediums im
Frequenzbereich des menschlichen Hörens (16 – 20 000 Hz).
(vgl.: DTV-Atlas zur Musik, Band 1, S. 15)
Federkonstante K
Masse M
Kraft F
(einfaches, mechanisches Schwingungsmodell,
„Feder-Masse-System“)
Schall breitet sich im Raum in Form von Wellen aus (periodische Druck- bzw.
Dichteschwankungen). Für die Ausbreitung ist stets ein Medium (z.B. Luft) erforderlich.
Die Ausbreitungsgeschwindigkeit ist von der Dichte dieses Mediums abhängig. Für Luft
beträgt die Schallgeschwindigkeit bei 20°C rund 343 m/s.
1.2. Primärempfindungen
Akustische Ereignisse weisen unterschiedliche Eigenschaften und Merkmale auf, denen abhängig von
den kulturell geprägten Hörgewohnheiten mehr oder weniger große Bedeutung beigemessen wird. Es
herrscht jedoch in allen Kulturen weitgehend Übereinstimmung darüber, dass es im Zusammenhang
mit akustischen Ereignissen drei primäre Empfindungen gibt:
TONHÖHE
LAUTSTÄRKE
KLANGFARBE
Lassen sich einem akustischen Ereignis alle drei Primärempfindungen zu jedem Zeitpunkt einwandfrei
zuordnen, so spricht man i. a. von einem
KLANG.
(Von einem TON wird physikalisch gesehen nur dann gesprochen, wenn er von einer reinen Sinusschwingung
hervorgerufen wird.)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 3
Lassen sich einem akustischen Ereignis nur die Lautstärke zu jedem Zeitpunkt einwandfrei zuordnen,
Tonhöhe und Klangfarbe jedoch nur schwierig bestimmen so spricht man von einem
GERÄUSCH.
Weitere wichtige Eigenschaften akustischer Ereignisse sind
ZEIT und räumliche RICHTUNG.
Dem Faktor Zeit kommt einen besondere Bedeutung zu, da hierin ein wesentlicher Unterschied
zur visuellen Wahrnehmung liegt. Akustische Ereignisse sind grundsätzlich flüchtig und nicht
dauerhaft. Akustische Ereignisse benötigen die zeitliche Veränderung, um überhaupt existieren
zu können. So wird auch Musik von vielen Menschen primär als die Kunst der Zeitgestaltung,
der Zeitgliederung angesehen.
Das Ohr nimmt im Gegensatz zum Augen, dessen Blickfeld immer nur einen bestimmten
Ausschnitt aufnehmen kann, Eindrücke aus dem gesamten uns umgebenden Raum wahr.
Räumliche Wahrnehmung geschieht daher sehr wesentlich über das Hören.
1.3. Physikalische Entsprechungen
Im Prinzip kann jede durch ein akustisches Ereignis hervorgerufene Primärempfindung mit einer
genau definierten, messbaren und in Zahlen fassbaren Größe des ursprünglichen Reizes (d.h. der
Schallwelle) in Verbindung gebracht werden.
Im wesentlichen entsprechen einander dabei:
TONHÖHE
LAUTSTÄRKE
KLANGFARBE
und
und
und
FREQUENZ
SCHALLINTENSITÄT
SPEKTRUM
Diese Übereinstimmungen gelten jedoch nur in erster Näherung und liefern ein übertrieben
vereinfachtes Bild auditiver Wahrnehmung.
So kann sich beispielsweise die durch einen reinen Ton hervorgerufene Tonhöhenempfindung
geringfügig ändern, wenn die Intensität geändert wird.
Umgekehrt scheint sich die Lautstärke eines Tones mit konstanter Intensität zu ändern, wenn
dessen Frequenz verändert wird.
Bei einer Überlagerung mehrerer unterschiedlicher Töne ist die Lautstärkeempfindung nicht in
einfacher Weise mit dem gesamten Schallenergiefluss verbunden.
Die Erkennung der Klangfarbe eines Musikinstruments verlangt mehr Information als nur das
Spektrum. An- und Abklingvorgänge sind dabei beispielsweise ebenso wichtig.
Selbst erfahrene Musiker hätten Schwierigkeiten die Tonhöhe eines elektronisch erzeugten, über
Kopfhörer gehörten reinen Sinustones zu finden, da zusätzliche Information fehlt, die mit
musikalischen Tönen (Klängen) sonst immer verbunden ist (Obertöne).
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 4
1.4. Der Informationsgehalt akustischer Ereignisse
Man neigt oft dazu Klänge und Geräusche als nicht greifbare Ereignisse unserer physischen
Umgebung abzutun. Sie sind jedoch Energie, die von einem gegebenen Ausgangsmaterial, einer
Struktur, einer Substanz, den Vibrationen eines Körpers ausgehen und somit konkrete, meist sehr
komplexe und dynamische Informationen über diese beinhalten.
Beispielsweise lassen die Geräusche von Regen oder Wind sofort auf deren Stärke und
Beschaffenheit schließen. Viele Materialien (und vor allem auch deren Qualität) lassen sich am
Klang erkennen. So sind etwa Massivholz oder Sperrholz leicht durch ihren Klang
unterscheidbar.
Geräusche und Klänge sind konkrete physische Folgen, Manifestationen unserer physikalischen
Welt und geben daher die meisten ihrer Eigenschaften und Charakteristika wieder.
Klänge werden, um sie objektiv erfassen bzw. beschreiben zu können, häufig auch nach ihrem
Entstehungsprozess kategorisiert. So wird beispielsweise zwischen gestrichenen, geblasenen,
angezupften, angeschlagenen,... Klängen unterschieden. All diese Klänge haben für die
menschliche Wahrnehmung auch etwas Vertrautes. Komplexe, synthetisch-erzeugte Klänge, die
sich nicht eindeutig einem dieser vertrauten Entstehungsmechanismen zuordnen lassen, können
hingegen zu einer gewissen „Unsicherheit“ in der Wahrnehmung führen.
Jede akustische Erscheinung ist
TRÄGER von EIGENSCHAFTEN und INFORMATIONEN
von einer ausgehenden Quelle.
1.5. Der symbolische Gehalt von Klängen
Die Art wie akustische Sinnesreize ausgewertet werden hängt nicht nur von deren physikalischen
Eigenschaften und deren Herkunft ab, sondern wird vielmehr auf verschiedenste Weise von
Verfassung, Stimmung, Kultur, Bildung, ... des Hörers beeinflusst.
Das gleiche Geräusch kann für verschiedene Menschen in verschiedenen Kulturen andere
Bedeutung haben (z.B. Meeresrauschen). Auch kann sich die Bedeutung im Laufe der Zeit
verändern (z.B. Schreibmaschine)
Jede akustische Erscheinung hat somit einen hohen
SYMBOLISCHEN GEHALT.
Vergleichbar wäre dies etwa mit einem Feinschmecker-Essen, das drei verschiedenen Personen
angeboten wird: einem Gourmet-Tester, einem Ausgehungerten und einem
Lebensmitteltechniker. Einerseits ist es wohl unbestritten, dass alle drei ein völlig anderes
Geschmackserlebnis haben werden, obwohl das Objekt identisch ist, andererseits ist es
unmöglich zu beurteilen, wer von den dreien möglichst objektiv, die treffendsten Aussagen über
die Speise tätigen könnte.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 5
Es empfiehlt sich daher auch im Zusammenhang mit akustischen Ereignissen, das
Kommunikationsmodell der Nachrichtentechnik und die daraus resultierenden
Schlussfolgerungen zu berücksichtigen.
Die einzelnen Teilkomponenten
SCHALLQUELLE (SENDER)
AUSBREITUNG in einem MEDIUM (KANAL)
HÖRER (EMPFÄNGER)
RAHMENBEDINGUNGEN (kulturelles Umfeld, symbolischer Gehalt)
übernehmen ganz bestimmte Aufgaben und beeinflussen den gesamten Wahrnehmungsprozess.
Das Zusammenwirken der einzelnen Teilkomponenten kann – abhängig vom konkreten Fall – recht
komplex sein.
Das Sender-Kanal-Empfänger Modell (nach Shannon)
RAHMENBEDINGUNGEN
SENDER
KANAL
EMPFÄNGER
In der akustischen Wahrnehmungskette ist dieses Modell häufig mehrmals hintereinander
anzutreffen.
(z.B. Komponist → Interpret → Tontechniker → Aufnahmeleiter → Radiomoderator → Hörer)
Die Information soll unverfälscht vom ersten zum letzten Glied der Kommunikationskette
gelangen. Die Teilsysteme müssen daher optimal aufeinander abgestimmt werden.
Verfälschungen der ursprünglichen Nachricht, die in einem der Teilsysteme auftreten, sollten in
einem andere nach Möglichkeit wieder rückgängig gemacht.
Beispiel:
Die Kommunikationskette bei der Rundfunkübertragung einer Stimme
Schwingungen
der
Stimmbänder
Sprechtrakt
Information
Neurosignale
Elektromagnetische
Welle
Rundfunksender
Mikrofon
Schallwelle
im Raum
Rundfunk-
Lautsprecher
Schallwelle
im Raum
Ohr
Information
Neurosignale
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 6
2. Musik und Multimedia
Multimedia zählt in den letzten Jahren wohl zu den wichtigsten, häufig gebrauchten Schlagwörtern
in der modernen Gesellschaft. Dabei ist dieser Begriff trügerisch, da sogenannte
multimediale Projekte i.a. die meisten Sinneseindrücke vernachlässigen und sich im wesentlichen nur
auf Sehen und Hören beschränken.
Häufig wird auch noch die akustische Ebene lediglich als Anhängsel zur visuellen Komponente
behandelt und liefert keine oder nur wenig eigenständige Information.
Multimediaprodukte können sachlich informieren, werben, unterhalten oder ablenken.
Selbstverständlich wird die jeweilige Zielsetzung auch Beschaffenheit, Funktion und
Zusammenwirken von akustischer und visueller Ebene bestimmen.
Anmerkung:
In der heutigen Industriegesellschaft wird Unterhaltung häufig mit Ablenkung gleichgesetzt,
was freilich ein Irrtum ist.
Will das Produkt vorrangig ablenken, so sollte möglichst alles vorhersehbar sein.
Erwartungshaltungen müssen dann immer erfüllt werden. Der Konsument soll/will nicht (viel)
denken. Oberflächliche, leicht erkennbare Zusammenhänge und Erzählstränge sind wichtig,
Klischees können nützlich sein etc. (vgl. diverse Vorabendserien)
Gute Unterhaltung (Kunst?) soll hingegen Freiräume für Interpretation und Phantasie des
Konsumenten lassen. Die Frage, wie es weiter geht, ist berechtigt und erwünscht. Überraschungen
in der Entwicklung sind nicht ausgeschlossen, etc. Konsumenten sollen zum Denken angeregt. Ein
Mindestmaß an persönlicher Auseinandersetzung wird gefordert. Das Gelingen eines Produktes
wird somit zu einem gewissen Teil von der Haltung der Konsumenten abhängig. Sind diese aber
bereit sich aktiv mit dem Produkt auseinanderzusetzen, so sollte der erreichte Nutzen im Normalfall
dauerhafter sein.
Im Idealfall werden Körper, Geist und Gefühl gleichermaßen angesprochen.
(Vor allem in der modernen Kunst dominiert jedoch oft die rationale Ebene...)
„In einer Zeit, in der das Fernsehen immer schlechter, das Theater immer alberner wird, und es auch der Oper
nicht besonders gut geht, hat das Radio keine Chance – aber immerhin einen entscheidenden Vorteil: es hat ja
nur das Ohr; und da es nur den akustischen Sinn anspricht, kann es wie die anderen Medien den Unsinn
nicht verdoppeln oder vervielfachen, selbst wenn es das wollte – und wir wissen: es will. ...“
(Heiner Goebbels, Rede zur Eröffnung der Woche des Hörspiels,
Akademie der Künste Berlin, 9.11.1997)
Die Herstellung hochwertiger Multimediaprodukte setzt zunächst einmal die Kenntnis der
qualitativen und quantitativen Unterschiede der einzelnen Sinne (insbesondere natürlich von Augen
und Ohren) voraus. Es kann dabei freilich nicht um die Frage „Wer ist besser?“ gehen, sondern:
„Welche Voraussetzungen sollten erfüllt sein, damit sich die einzelnen Sinnesorgane optimal
ergänzen?“
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 7
2.1. Wichtige Unterschiede zwischen Auge und Ohr:
AUGE
OHR
Schwingungen zwischen 380 und 760 Billionen
Hertz (eine Oktave) wahrnehmbar
Schwingungen zwischen 20 und 20000 Hertz
(zehn Oktaven) wahrnehmbar
beweglich, verschließbar
unbeweglich, nicht verschließbar
gerichtet, gezielt einsetzbar, bewußt, aktiv
nicht gerichtet, umfassend, unbewußt, passiv
Hinsehen bedeutet gleichzeitig woanders
Wegsehen;
daher: selektiv, individuell, distanzierend
Geräusche und Klänge an einem Ort für alle
gleich;
daher: verbindend, ganzheitlich
liefert gestaltkräftige Information
gestaltschwache,
diffuse,
differenzierbare Information
rational (Mensch denkt vielfach in Bildern)
archaisch, emotional
(Donnergrollen, Vogelgezwitscher, Baltslaute,...)
Vielzahl von direkten Verbindungen mit dem
Großhirn
Übertragungskapazität 5.107 bit/s
weniger direkte Verbindungen mit dem Großhirn
hilfreich bei der Bewältigung differenzierter
Leistungen
nicht
weiter
Übertragungskapazität 4.104 bit/s
direkte Verschaltung mit dem Zwischenhirn, das
Emotionen,
Hormonhaushalt,
vegetative
Nervenbahnen steuert
kann unmittelbare Körperreaktionen auslösen
(z.B.: Beschleunigung von Puls)
Bilder nur als Einzelereignisse (oder Folge von
Einzelereignissen) wahrnehmbar
mehrere akustische Ereignisse gleichzeitig
wahrnehmbar
„ [...] Das Hören entspricht also dem Fühlen (als unbewußte und begrifflose Aneignung der Welt). Das Sehen
entspricht dagegen dem Denken (als bewußte und begriffliche Aneignung der Welt). Menschliches Denken
vollzieht sich nach Art des Sehens. Es ist nach gängigen denkpsychologischen Darstellungen eine assoziative
Verbindung von „wahrnehmungsähnlichen Phantasmen“, von Vorstellungen, von Bildern. [...] Man kann
nur einen Gedanken oder ein Filmbild nach dem anderen gleichzeitig wahrnehmen. Höreindrücke und im
speziellen Fall die Musik sind nicht konsekutiv, sondern polyphon: Über das Ohr kann man gleichzeitig eine
traurige Stimmung, ein heiteres Gefühl und eine Bösartigkeit aufnehmen. [...]
Die Formulierung des Psychologen Gustave le Bon (1841-1931), alles Ur-Denken geschehe in Bildern, kann
dahin abgewandelt werden, daß alles Urfühlen auf akustischen Informationen basiert (von Vogelgesang,
Brunstlauten bis zum Donnergrollen). Emotionales Verstehen war die früheste Form von Welterkenntnis, In
der Tierzeit, der Ur- und Steinzeit war das Hören immer die archaische Beantwortungsform für die
lebenserhaltende Grundfrage: „Gibt es Gefahr, oder ist Entspannung angesagt?
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 8
Der amerikanische Sounddesigner Randy Thom erzählte mir, wie man bei Adventure-, Sience fiction- oder
Horrorfilmen (etwa bei seinen Arbeiten zu den Star Wars-Filmen oder Indiana jones-Filmen) in der
emotionalen Strategie auf den in tiefen Hirnschichten verborgenen „Steinzeit-Menschen“ im Zuschauer
spekuliert: Schon in der Drehbuchentwicklung wird einkalkuliert, daß – sobald der „Urmensch“ in die
dunkle Höhle tritt und sich nicht mehr auf die Augeninformationene verlassen kann – das Ohr plötzlich zum
hochsensiblen Empfänger für Gefühlswerte wird. [...]“
(Norbert Jürgen Schneider,
Komponieren für Film und Fernsehen, S.32,
Verlag Schott, Mainz 1997)
„Unsere Ohren versorgen uns ständig mit Informationen, die für unser Überleben, sowohl a uf intuitiver als auch
auf intellektueller Ebene, unentbehrlich sind. Sie informieren uns über Ereignisse in unserer Umwelt, die wir nicht
sehen können, und vermitteln uns durch die gesprochene Sprache das Wissen, das wir brauchen, um funktionsfähig
zu sein. Trotzdem halten viele den Gehörsinn für nicht besonders wichtig. Sie räumen ihm höchstens die gleiche
Bedeutung ein wie dem Geruchssinn, aber nicht annähernd die Bedeutung, die sie dem Sehsinn zubilligen.
Wir wissen, daß Gehörtes unser Bild der Wirklichkeit ebenso beeinflusst wie Gesehenes - und manchmal sogar
stärker. In einem Film z.B. kann eine Szene diametral entgegengesetzte Emotionen hervorrufen, indem man sie
ganz einfach mit einem anderen Soundtrack unterlegt. Wir begreifen dabei den Klang als die Wahrheit, und er
bestimmt, was wir sehen. Es wäre doch verwunderlich, wenn das nicht auch im wirklichen Leben der Fall wäre.
Das menschliche Auge und Ohr sind hochentwickelte Sensoren, die wir beide für die sprachliche Kommunikation
einsetzen. Die Frage, ob das Auge dem Ohr überlegen ist oder umgekehrt, ist falsch gestellt. Es ist die alte
Geschichte von den Äpfeln und Birnen: Ein Apfel gibt eine schlechte Birne ab, und eine Birne gibt einen
schlechten Apfel ab. Das Auge kann Dinge, die das Ohr nicht kann. Das Ohr kann Dinge, die das Auge nicht
kann. Visuelle und akustische Wahrnehmung ergänzen einander. Die Frage der Überlegenheit stellt sich nicht:
Auge und Ohr passen einfach zusammen.
Trotzdem diskutiere ich oft mit Leuten, die sich nicht davon abbringen lassen, daß das Auge dem Ohr überlegen
ist. Es fällt mir dann schwer, nicht zu lächeln: denn während meine Gesprächspartner über das Ohr herziehen,
vergessen sie ganz, daß sie ohne es ihre Argumente gar nicht anbringen könnten.
Unser Gehörsinn funktioniert weitgehend auf der Ebene des Unbewußten. Das bedeutet aber nicht, daß das
Gehör auf seine Umwelt weniger stark oder empfindlich reagiert als die anderen Sinne.“
(Max Neuhaus, Sounddesign,
Quelle: http://www.thing.or.at/thing/orfkunstradio/ZEITGLEICH/ZG/DEUTSCH/neuhaus-d.html )
„Dämmerlicht, Zeitlupen, verzerrte Perspektiven, Rauch und Nebel, halluzinatorische Übertreibungen – das
sind die Stellen, in denen der Sound besonders effektiv arbeitet und uns die betreffenden Szenen als „irreal“
erleben läßt“
(Randy Thom,
in: Mathias Keller,
Stars and Sounds – Filmmusik-Die dritte Kinodimension, S.101
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996
„Im Unterschied zu den visuellen Informationen, die vornehmlich mit dem Schläfenlappen der Cortex (des
Großhirns bzw. „Denk-Hirns“) verschaltet sind, kann Musik ohne den Umweg über eine rationale
Verarbeitung oder bewußte Wahrnehmung in den Körper fahren. Der expressive Wert von Tönen („“Musik
als Ausdruck“) ist deshalb ein direkt in der Körperlichkeit des Menschen angelegtes universelles Zeichensystem:
unmittelbar verkoppelt mit Mimik, Gestik, Physiognomie oder hormonalen Zuständen. „Musikalische
Ausdruck“ wird überall in der Welt verstanden, [...]“
(Norbert Jürgen Schneider,
Komponieren für Film und Fernsehen, S.32,
Verlag Schott, Mainz 1997)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 9
„Im Film geschieht Raumvermittlung vorrangig auf akustischer Ebene. Damit muss keineswegs veritable
Filmmusik gemeint sein. Schon das entsprechende Sound-Szenario, etwa die Nachhall-Zeit von Dialogen und
Geräuschen, der Charakter ihrer Schallreflektionen, ob dumpf, ob hart und dergleichen, gibt Auskunft über
die physikalische Beschaffenheit des betreffenden Raumes. [...] Denn das Bild informiert immer nur in
Ausschnitten und Teilansichten und ist in diesem Zusammenhang auf den ganzheitlichen
Informationscharakter des Klanges dringend angewiesen.“
( Mathias Keller,
Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 102
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
„Der Ton mußte das Gefühl vermitteln, daß dies keine Studioattrappe ist sondern ein lebendes Universum. In
dem U-Boot gibt es alles – von Maschinen bis zu Wassertropfen – ein Konzert von unterschiedlichsten
Geräuschen. ...“
( Mathias Keller,
Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 142
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
„Die Verbindung von Musik und Bild stellt eine neue Herausforderung an die Eindeutigkeit dar. Musik
kann immer mehrfach gedeutet werden. Sie weckt immer auch die Erinnerung an andere Geschichten oder
Zeiten.“
(John Mauceri, in: Mathias Keller,
Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 102
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
„Eines der stärksten Mittel, Phantasiebilder im Radio anzuregen, sind Geräuschaufnahmen. Sie wirken wie
Melodien, Skulpturen oder Gemälde, sprechen ohne Umwege Gefühle an und geben Stimmungen direkter wieder als
alle Worte. Gerade weil wir in einer einseitig auf das Auge ausgerichteten Zeit leben, beeindrucken Geräusche – im
Radiodeutsch knapp „Atmos“ – HörerInnen unerwartet stark. Sie geben Radiosendungen sinnliche Tiefe [...]“
(Udo Zindel / Wolfgang Rein (Hg.),
Das Radio-Feature – Ein Werkstattbuch, S. 181
UVK Medien, Konstanz 1997)
3.2. Aneinanderreihung unterschiedlicher akustischer Materialien
Der Übergang von einem akustischen Material (Musik, Klang, Geräusch, Atmo,...) auf ein anderes
kann entweder abrupt (Schnitt) oder kontinuierlich (Blende) erfolgen. Diese beiden Grundtypen
lassen sich freilich beliebig vermischen. Die wichtigsten akustischen Übergänge sind:
3.2.1. Der harmonische Schnitt
Die beiden akustischen Elemente folgen unmittelbar aufeinander. So lange sich das verwendete
Material „verträgt“ (z.B. gewisse Ähnlichkeiten aufweist), wirken solche Schnitte harmonisch. Der
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 10
Höreindruck wird i.a. zwar überraschen, dabei aber als angenehm oder zumindest nicht als störend
empfunden werden. Es lassen sich auf diese Weise Tempo und Spannung erzeugen.
3.2.2. Der harte Schnitt
Die beiden akustischen Elemente folgen wieder unmittelbar aufeinander. Sie unterscheiden sich in
diesem Fall aber stark voneinander, passen nicht zusammen. Der Höreindruck wirkt i.a.
erschreckend, brüskierend, unangenehm. Krasse Gegensätze, unangenehme Entwicklungen, etc.
können auf diese Weise unterstrichen werden.
3.2.3. Die Kreuzblende
Die beiden akustischen Elemente werden so aneinander gereiht, dass das erste, dessen Lautstärke
nach und nach gesenkt wird (Fade-out), ganz allmählich vom zweiten, dessen Lautstärke nach und
nach erhöht wird (Fade-in), abgelöst wird. Die Kreuzblende führt i.a. zu einem ruhigen,
harmonischen Übergang. Wird eine Kreuzblende allerdings zu lange ausgelegt, so kann es allerdings
zu Verwirrung, zu Orientierungslosigkeit führen.
3.2.4. Die Sturzblende
Die beiden akustischen Elemente werden in diesem Fall zwar nicht unmittelbar aneinander gereiht,
der Übergang von einem auf das andere erfolgt jedoch sehr rasch.. Sturzblenden stellen durch das
Entäuschen von Hörgewohnheiten und Erwartungen i.a. wiederum ein geeignetes Mittel dar, um
Spannung,Tempo oder Unruhe zu erzeugen.
3.3. Das Verhältnis unterschiedlicher akustischer Ebenen
In vielen Fällen multimedialer Produktionen - insbesondere im Zusammenhang mit bewegten
Bildern - existieren mehrere akustische Ebenen nebeneinander. In erster Linie sind dies
Sprache, Originalgeräusche (O-Ton) und (unterlegte) Musik.
Für die Mischung dieser unterschiedlichen Ebenen lassen sich zwei gegensätzliche
Herangehensweisen unterscheiden. Im allgemeinen kann dabei weder der einen noch der anderen
eindeutig der Vorzug gegeben werden. Meist wird vielmehr ein gezieltes Abwechseln beider
Methoden (bzw. verschiedener Zwischenstufen davon) zum besten Ergebnis führen.
3.3.1. Dokumentarische (realistische) Mischung
Das übergeordnete Prinzip in diesem Fall ist die authentische Darstellung von Realität.
Alle im Bild sichtbaren Geräuschquellen werden demnach auch hörbar gemacht. Da es für den
Dialog schon schwer sein kann sich entsprechend durchzusetzen, kommt der Musik dabei
meist eine untergeordnete Rolle zu.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 11
3.3.2 Emotionale (perspektivische) Mischung
Hier steht nicht die "äußere", auf rationaler Ebene wahrnehmbare Realität, sondern vielmehr die
"innere" Realität, also der emotionale Gehalt, die Stimmung der gezeigten Situation im
Mittelpunkt der Überlegungen.
Das Geschehen soll nicht mehr von außen beobachtet werden, sondern als aktiver Teil beispielsweise aus der Sicht des Hauptdarstellers heraus - erlebt werden. An die Stelle einer
möglichst objektiven Realität tritt eine subjektiven Realität einer handelnden Person.
In besonderen Gefühlsmomenten (Trauer, Liebe, Stress..) kann die Umgebung völlig bedeutungslos
werden. Im Extremfall werden Originalgeräusche vollständig ausgeblendet, und es ist nur mehr
Musik, die sich im Kopf des Protagonisten abspielt, zu hören. Oder es ist nur ein einziges, für die
jeweilige Szene sehr bedeutendes Geräusch (dann meist in unnatürlicher Lautstärke) zu hören.
3.4. Das Verhältnis von Bild und Ton
3.4.1. Polarisieren
Einem neutralen Bild wird durch die Musik eine bestimmte Bedeutung auf einer Polaritätsskala
(wie "gut und böse", "passiv - aktiv", "lustig - traurig") gegeben. Relativ ausdrucksarme Bilder
können auf diese Weise "Emotionalität" erhalten.
„Äußere Realität gehört primär der Kamera, dem Auge. Innere Realität gehört dem Ohr, dem Hören. Die
Kamera kann zum Beispiel einen Atomreaktor zeigen, also ein von sich aus neutrales Bild. Aber mit der
Musik und den Tönen kann ich deutlich machen: Atomreaktor gleich Gefahr oder zumindest Dubiosität. Das
bedeutet, daß das Hören gemessen an der visuellen Wahrnehmung weitaus tiefenwirksamer ist und
unterschwellig die Weichen stellt für Sympathie- oder Antipathieempfinden.“
(Norbert Jürgen Schneider, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 131,
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
3.4.2. Paraphrasieren
Dies ist die wohl häufigste Form der Bild-Ton-Beziehung. Die Musik versucht dabei den Bildinhalt
zu umschrieben. (Liebesmusik zu Liebesszenen, Trauermusik zur Beerdigung, etc.) Der
Informationsgehalt des Bildes wird in der Musik also wiederholt und somit verdoppelt.
Dies wirkt häufig tautologisch (der kleine Zwerg) oder mit erhobenem Zeigefinger belehrend und ist
vom künstlerischen Standpunkt aus wenig interessant. Pharaphrasierung sollte daher sehr gezielt
eingesetzt werden (z.B. Höhepunkt, Happy End,...)
3.4.3. Kontrapunktieren
Die Musik behandelt einen anderen, oft scheinbar gegensätzlichen Aspekt und vermittelt somit
zusätzliche Information. Es können Gegensätze entstehen, die vom Betrachter hinterfragt werden
und mittels Phantasie nach Auflösung trachten. Die Rezipienten werden dadurch zum Nachdenken
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 12
angeregt, müssen selbst kreativ werden und werden auf diese Weise aktiv in das Geschehen mit
einbezogen.
Wird eine der Auftritt einer Figur aus der Hippie-Ära nicht mit Flower-Power-Musik unterlegt, was
im ersten Anschein wohl auf der Hand liegen würde, sondern etwa mit einem klassischen
Streichquartett, so wird dieser (scheinbare) Widerspruch Fragen aufwerfen, die es zu beantworten
gilt.
Kontrapunktierende Musik ist vergleichbar mit dem aus der Literaturtheorie bekannten Oxymoron
(z.B.: „süßer Tot“, „heilige Hure“, ...).
3.5. Kognition und Emotion - das affektive Gedächtnis
Das menschliche Großhirn und somit Gedächtnis und Erinnerungsvermögen sind nicht mit
einem sachlich-neutralen Speicher vergleichbar. Vielmehr sind Verstand und Emotionen eng
miteinander verknüpft. Alle Informationen, also die mit den Sinnesorganen wahrgenommenen
Ereignisse, werden mit einem Gefühls- und Erlebniswert, einer emotionalen Einfärbung
versehen. Um gezielt bestimmte Informationen aus dem Gedächtnis abzurufen, ist es meist
effektiver, die emotionale Einfärbung nachzuerleben, als sich auf der rein intellektuellen
Denkschiene zu erinnern. Vor allem die emotionale Komponente von Musik kann somit das
Erinnerungsvermögen beeinflussen.
Dieser Zusammenhang zwischen Kognition und Emotion kann bei Musik für Film (oder
allgemeiner: Multimedia) gezielt eingesetzt werden. Wird eine bestimmte Szene eines Films
unterschwellig (also unbemerkt) mit einem musikalischen Ereignis (Klang, rhythmische Sequenz,
instrumentale Farbe) unterlegt und somit gleichsam markiert, so erfolgt eine Kopplung von Bild
und Musik. Erklingt derselbe Klang viele Szenen später wieder, so erinnert sich der Betrachter mit
großer Wahrscheinlichkeit an die entsprechenden Bildereignisse. Es läßt sich somit ein Netz von
Beziehungen und tiefenpsychologisch wirksamen Querverweisen etablieren, das neben der
rational rezipierten Bildebene im Unbewußten wirksam wird.
3.6. Musikdramaturgie
Unter Musikdramaturgie wird das Wissen um Gestalt und Funktionsweise der gesamten Musik
im multimedialen Produkt verstanden.
Diese darf keinesfalls dem Zufall überlassen werden. ("Hier ist es gerade fad, da brauchen wir
Musik.") Auch Musik lediglich als ein notwendiges Beiwerk zu betrachten, kann leicht negative
Auswirkungen für das Produkt haben.
In der Werbung kann beispielsweise Musik, die in keiner Beziehung zum Produkt steht, aufgrund
der Konkurrenz zwischen Text und Musik schnell von der eigentlichen Aussage ablenken.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 13
3.6.1. Wichtige Ziele der Musikdramaturgie
-
Schlüssigkeit
(nachvollziehbare Bezugspunkt v.a. zwischen verschiedenen Wahrnehmungsebenen)
Form (nachvollziehbare Spannungsbögen )
erinnerbare Klanggestalt
individuelles Konzept
persönliche Handschrift
3.6.2. Wichtige Grundsatzentscheidungen
-
"Ist die Musik überhaupt notwendig?"
"Soll die Musik neu komponiert oder aus bereits bestehender kompiliert werden?"
Keineswegs zielführend ist die isolierte Betrachtung der Musik für sich.
Die musikalischen Mittel müssen stets in Bezug zu den außermusikalischen Ebenen des
multimedialen Produktes gesetzt und im Zusammenhang mit diesen betrachtet und bewertet
werden.
Ein intuitiver, improvisatorisch gestalterischer Ansatz ist ein durchaus legitimer Weg im kreativen
Prozess, der recht häufig zu guten Ergebnissen führen kann. Intuition und Improvisation sollten
jedoch stets sehr bewusst reflektiert werden. Da Multimediaproduktionen meist in Teamwork
entstehen, ist diese bewusste Reflexion umso wichtiger, da die gemeinsame künstlerische (und auch
technische) Arbeit auch in eine gemeinsame Richtung gehen muss.
3.6.3. Die Hörperspektive
Wer hört die Musik?
Welche Emotionen weckt die Musik?
Woher kommt die Musik?
Ist die Musik Teil der akustischen Umwelt (z.B.: Hit aus dem im Bild sichtbaren Radio)?
Wird die Musik bewusst wahrgenommen?
3.6.3. Das Klangmaterial
Die Auswahl des Klangmaterials hängt wesentlich damit zusammen, wem die Musik zugeordnet
wird. Wer wird durch welchen Klang am besten beschrieben? In diesem Zusammenhang ist
besondere Vorsicht mit Klischees geboten (Hirte - Flöte).
3.6.4. Die Stilistik
Welcher Musikstil (Klassik, Jazz, Rock, Pop, Techno, Rap,...) eignet sich am besten?
Welcher Stil passt zum Produkt?
Welcher Stil passt zu diesem oder jenem Protagonisten?
Welcher Stil spricht das Zielpublikum am meisten an?
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 14
3.6.5. Quantität von Musik
Welche Szenen brauchen wieviel Musik?
Wie viele Stellen mit Musik soll es geben (viele kurze oder wenige lange)?
Ändert sich die Dichte des Musikvorkommens (z.B.: viel Musik am Anfang und nur mehr sehr
wenig am Ende)?
3.6.6. Beginn und Ende von Musik
Wo genau soll die Musik einsetzten bzw. enden?
Soll die Musik ganz plötzlich einsetzen (enden) oder ganz langsam und unbemerkt ein- bzw
ausfaden?
Soll die Musik exakt mit einem Bildschnitt einsetzen oder diesen bereits vorbereiten?
Soll die Musik in der nächste Szene noch andauern, um ein bestimmtes Gefühl, eine Stimmung
länger andauern zu lassen?
3.6.7. Funktion der Musik
Musik kann beispielsweise
Atmosphäre herstellen
Akzente setzen
form- bzw. strukturbildend wirken
Bewegungen illustrieren
Bildinhalte akustisch abbilden
Emotionen abbilden oder verstärken
Charaktere verdeutlichen
Karikieren und Parodieren
gesellschaftlichen Kontext vermitteln
regionale Bezüge herstellen
historische Bezüge herstellen
Raum- und Zeitempfinden herstellen bzw. verändern
Wahrnehmung kollektivieren
„Traurig verfallene Vorstadthäuser, Slumdistrikt in all seinem Elend und Schmutz. Die Stimmung des Bildes ist
passiv, deprimierend. Sie lädt zum Trübsinn ein Dagegen ist rasche, scharfe Musik gesetzt, ein polyphones
Präludium, Marcato-Charakter. Der Kontrast der Musik – der strengen Form sowohl wie des Tons – zu den bloß
montierten Bildern bewirkt eine Art von Schock, der, der Intention nach, mehr Widerstand hervorruft als einfühlende
Sentimentalität“
(Hans Eisler über seine Musik zu Kuhle Wampe,
in Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 126,
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
„Es geht nicht darum, das Publikum mit irgendwelchen Geräuschen zu schockieren, die da von hinterrücks aus den
Surround-Lautsprechern kommen. Denn dadurch reißt man es nur aus seinen Film-Träumen heraus.“
(Randy Thom
in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 131,
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 15
„Die Musik war von Anfang an bezogen auf die Charaktere und nicht auf die Handlung. Anstelle von Themen für
die einzelnen Figuren handelt es sich hier um mentale Statements: [...] Ich habe versucht, den Übergang von den
originalen (jazz)Tunes zum filmmusikalischen underscoring so unauffällig wie möglich zugestalten.“
(Alex North über seine Musik zu Elia Kazans „A Streetcar named Desire“,
in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 86,
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
„Was ich ablehne, ist der forcierte Gebrauch von Popmusik in Filmscores aus ganz offensichtlichen kommerziellen
Gründen. Er ignoriert vor allem die tatsächliche Funktion von Filmmusik, die darin besteht, die Wirkung eines
Films in gedanklicher und emotionaler Weise zu unterstützen.“
(Jerry Goldsmith, in: Mathias Keller, Stars and Sounds – Filmmusik-Die dritte Kinodimension, S. 79,
Bärenreiter-Verlag, Gustav Bosse-Verlag, Kassel 1996)
3.7. Arten von Musik
3.7.1 Jingle
kurze signalartige Erkennungsmusik (z.B.: Werbung, Senderkennung, etc.)
3.7.2. Musikteppich
Klangflächen, rhythmische Muster, etc. die ohne Bezug zu Bild oder Text eingeblendet werden (vgl.
z.B.: Ö3-Schlagzeilen, Ziehung der Lottozahlen, manche Werbungen, etc.)
3.7.3. Vorspannmusik (Titelmusik, Signation)
relativ kurze, meist signalartige (Wieder)erkennungsmusik (z.B.: bei Fernsehserien,...)
3.7.4. Einleitungsmusik (Vorspannmusik)
Das erste, oft etwas längere Musikstück (z.B.: bei Kino- oder Fernsehfilmen)
3.7.5. Illustrationsmusik
fiktive Musik (aus dem "off"), die Stimmungen herstellen oder Situationen verdeutlichen soll
(z.B.:Filmmusik im engeren Sinne)
3.7.5. Szenenmusik (Source Musik)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 16
Musik die real (aus dem "on") zu hören ist (z.B.: Filmszene in einem Lokal in den Livemusik gespielt
wird)
3.7.6. Melodram-Musik
meist ruhiges Musikstück zur Grundierung bzw. Emotionalisierung von Dialogen
3.7.7. Brücke (Bridge)
kurzes überleitendes Musikstück, das Zusammenhänge zwischen zwei Szenen herstellen soll
3.7.8. Akzent
kurzes akustische Rufzeichen (oft nur ein Ton), das ein bestimmter Detail hervorheben soll (z.B.:
diverse Sounds der Windows-Betriebssysteme)
3.7.9. chase music
"action-music" vor allem bei Bewegungen (z.B.: Verfolgungsmusik)
3.7.10. mickey-mousing
Bewegungsmusik mit sehr vielen Synchronpunkten, sodass die sich bewegende Figur wie eine
musikgesteuerte Marionette wirkt
3.7.11. Highlightning
Musikstück, das auf einen Höhepunkt zustrebt, plötzlich unvorbereitet abreißt und mit der dadurch
entstehenden spannungsvollen Stille auf eine (Bild)handlung vorbereitet.
3.7.12. Red Herring
Musikstück, das einem Höhepunkt zustrebt, der sich aber als Finte herausstellt. Musik, die auf eine
falsche Fährte lockt.
4. Musik und Zeit
Musik (oder ganz allgemein jedes akustische Ereignis) ist ohne den Zeit-Aspekt undenkbar.
Beide - Musik und Zeit - sind nicht greifbar. Es ist nicht möglich mit dem Finger auf eine
schöne Musikstelle zu zeigen, sie zu sehen, etc.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 17
Es ist unmöglich sich die Gegenwart gedanklich vorzustellen. Zeit manifestiert sich in der
Vergangenheit oder in der Zukunft an die man sich erinnern oder vorstellen kann.
Zeitwahrnehmung geschieht immer gesamtkörperlich. Die von den Sinnesorganen aufgenommen
Rhythmen der Außenwelt (Tag und Nacht, Wochen, Jahreszeiten, Jahre,...) werden mit den
körpereigenen Rhythmen (Atem, Herzschlag, Schritte, Stoffwechsel, etc.) in Beziehung
gebracht.
Die Musik scheint sich häufig der körpernahen und anschaulichen Grundrhythmen zu
bedienen. Vor allem Atem und Puls spielen eine wichtige Rolle. Im Durchschnitt stehen ca. 18
Atemzüge pro Minute etwa 72 Herzschlägen pro Minute gegenüber. Es lässt sich daraus die
menschliche „Normalzeit“ als quasi psychologische Größe ableiten.
Das Verhältnis 18:72 entspricht einer 1:4-Proportion und trägt somit die in der Musik so häufig
auftretende Viererperiodik (4/4-Takt) in sich.
Viele Volklieder, Schlaflieder, Kirchenlieder, Musik vor 1600 etc. haben das natürliche Tempo
des Herzschlages. Tänze oder Wanderlieder werden in der Regel hingegen schneller vorgetragen.
Es spiegelt sich hierin die höhere Pulsfrequenz eines bewegten Menschen wieder.
Der Puls (jener von der Beinarterie der Mutter) ist auch das Erste, was das menschliche Embryo
(ab der 24. Woche) wahrnimmt. Es sollte wohl außer Zweifel stehen, dass dies prägenden
Einfluss auf jeden Menschen hat.
Der Puls ist kein eindimensionaler Taktgeber (wie beispielsweise ein Metronom), sondern setzt
sich immer aus Systole und Diastole zusammen. Es handelt sich also um ein binäres System von
betont und unbetont. Der menschliche Puls stellt also eine Art Ur-Rhythmus dar.
4.1. Psychologische Grundlagen der Zeitwahrnehmung
4.1.1. Die psychische Präsenzzeit
Die psychische Präsenzzeit ist jene Zeit in der unmittelbar Vergangenes noch ohne
Gedächtnis, also unmittelbar, bewusst ist.
Beispielsweise ist beim Sprechen des Wortes „Fachhochschule“ die erste Silbe „Fach“ noch ohne
Gedächtnisleistung bewusst während das Wort „Schule“ gesprochen wird. Die Größe dieser
Zeitspanne wurde von verschiedenen Forschern mit 6 – 12 Sekunden angegeben.
4.1.2. Der Moment
Unter Moment wird (in der Psychologie) die kürzeste, gerade noch gesondert
wahrnehmbare Dauer eines Reizes verstanden.
Beim Menschen liegt der Moment bei etwa 1/18 Sekunde. Einzelne Sinnesreize die kürzer
Dauern als einen Moment werden nicht mehr gesondert wahrgenommen, sondern
verschmelzen mit dem darauffolgenden. Werden ca. 18 Bilder pro Sekunde gezeigt, so
entsteht der Eindruck einer kontinuierlichen Bewegung. Genauso werden ca. 18 Impulse in
einer Sekunde nicht mehr als Impulsfolge gehört, sondern als Klang oder Geräusch. Wäre
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 18
unser Moment kürzer, so würden uns Bewegungen in der Umwelt länger erscheinen. Wäre er
länger so könnten wir Bewegungen von Dinge erkennen, die uns unbewegt erscheinen (z.B.:
das Wachsen von Pflanzen).
4.1.3. (Subjektive) Beeinflussung der Zeitwahrnehmung
Die subjektive Zeitwahrnehmung kann von der Art der Erlebnisinhalte und der
Ereignisdichte stark beeinflusst werden. Bei langweiligen Vorlesungen oder vor Prüfungen
scheint die Zeit oft still zu stehen. Während anregender Gesprächen, auf einer Party etc.
vergeht die Zeit hingegen meist wie im Flug.
„Man glaubt im ganzen, daß Interessantheit und Neuheit des Gehaltes die Zeit „vertreibe“, das heißt: verkürze,
während Monotonie und Leere ihren Gang beschwere und hemme. Das ist nicht unbedingt zutreffend. Leere und
Monotonie mögen zwar den Augenblick und die Stunden dehnen und „langweilig“ machen, aber die großen und
größten Zeitmassen verkürzen und verflüchtigen sie sogar bis zur Nichtigkeit. Umgekehrt ist ein reicher und
interessanter Gehalt wohl imstande, die Stunde und selbst noch den Tag zu verkürzen und zu beschwingen, ins
Große gerechnet jedoch verleiht er dem Zeitgange Breite, Gewicht und Solidarität, so daß ereignisreiche Jahre viel
langsamer als jene armen, leeren, leichten, die der Wind vor sich her bläst, und die verfliegen.“
(Thomas Mann, Der Zauberberg)
Die Zeitwahrnehmung kann auch durch pharmakologische Substanzen (Beruhigungsmittel,
Drogen, etc.) beeinflusst werden. Aus diesem Grund wird angenommen, dass die
Zeitschätzung, das Zeiterleben von organischen Gegebenheiten – vor allem vom
Stoffwechsel – abhängt. Es ist auch möglich, dass der „Zeitsinn“ im vegetativen
Nervensystem liegt, welches den Stoffwechsel reguliert.
Anmerkung:
Akustische Ereignisse werden bekanntlich zunächst in den untersten (vegetativen) Hirnschichten
(vor)verarbeitet ehe sie im Großhirn rational ausgewertet werden. Es ist somit auch möglich, dass Klänge und
Geräusche die Zeitwahrnehmung unmittelbar beeinflussen.
4.2. Die Struktur der Wahrnehmung
Die Welt wird vom Menschen nicht als Summe von isolierten Einzelereignissen wahrgenommen,
sondern gestaltet und gegliedert erlebt. Es werden Gestalten oder Strukturen erfasst.
Beispielsweise sieht man ein Dreieck nicht als drei isolierte Striche, sondern eben als Dreieck.
Genauso werden in der Musik nicht Einzeltöne, sondern musikalische Strukturen (melodische
Floskeln, rhythmische Gesten,...) wahrgenommen. Dabei sind die Gestalten in der Regel mehr als
eine Synthese ihrer Einzelteile. Sie besitzen also eine ihnen eigenen „Gestaltqualität“.
Beispielsweise bleibt ein gleichseitiges Dreieck immer ein gleichseitiges Dreieck egal wie groß es
ist, egal wie dick die drei Linien sind, egal welche Farbe diese haben,...
Genauso bleibt eine Melodie als solche wahrgenommen unabhängig davon, in welcher Tonhöhe
oder Tonart diese vorgetragen wird.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 19
Auch wenn sich die Einzelelement unterscheiden, kann die Ganzheit, die Gestalt, die Struktur
die gleiche bleiben. Das Ganze ist also mehr als die Summe seiner Teile.
Die Gestaltpsychologie untersucht die Umstände oder Gegebenheiten, die dazu führen, dass
Einzelereignisse als zusammenhängende Strukturen wahrgenommen werden. Diese Bedingungen
(Umstände, Gegebenheiten) werden als Kohärenzfaktoren bezeichnet.
Zu den wichtigsten Kohärenzfaktoren gehören:
1. Nähe (zeitliche oder räumliche Nachbarschaft):
Elemente, die nahe beieinander liegen, werden mehr als zusammengehörig empfunden, als
ähnliche die weiter voneinander entfernt sind.
2. Gleichheit oder Ähnlichkeit:
Ähnliche Element werden im Vergleich zu (zeitlich oder räumlich) gleichweit entfernten aber
weniger ähnlichen Elementen als zusammengehörig empfunden.
3. Kontinuität:
Elemente, die eine Fortsetzung vorausgehender Elemente zu sein scheinen, werden als
zusammengehörig empfunden.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 20
4. Geschlossenheit:
Unvollendete Figuren werden häufig zu geschlossen ergänzt.
4.3. Ebenen der Zeitgestaltung in der Musik
4.3.1. Material und Stil
Viele Musikstile und musikalische Materialien haben einen starken Bezug zu eine bestimmten
zeitlichen Epoche. Der Einsatz solcher Stile und Materialien soll den/die HörerIn an diese Zeit
erinnern bzw. in diese Zeit versetzen.
Als Beispiele sollen genannt werden:
-
Verwendung historischer Aufnahmen
(Das Knistern, Rauschen, Knacksen alter Grammophon- oder Schallplattenaufnahmen kann in bestimmten Fällen eine ganz besondere Atmosphäre erzeugen.
Die moderne Musikelektronik bietet daher auch bereits Effekte, die perfekten
Aufnahmen in CD-Qualität diese aus vergangenen Zeiten bekannten Nebengeräusche
bewusst beifügt.)
-
Musikstile mit starkem Zeitbezug
(Gregorianische Choräle, Charlston, Techno, Rock&Roll, Renaissance-Musik,…)
-
Verwendung von Instrumenten und Klängen mit starkem Zeitbezug
(Leierkasten, Moog-Synthesizer, Posthorn, ...)
4.3.2. Form/Dramaturgie
Die Form bestimmt den gesamten Zeitverlauf eines Musikstücks
Die wichtigsten Grundtypen formaler Gestaltung sind:
-
Crescendoform
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 21
-
Bogenform
-
Reihungsform
4.3.2.1. Formen in der Musik
In der (westlichen) (Kunst)musik wurden die Grundtypen formaler Gestaltung wesentlich
erweitert und verfeinert.
Einige Beispiele:
Liedform
A
B
A
Rondo
A
B
A
C
Variationsform
A1
A2
A3
A4
A
Kanon
D
A
A
A
A
Sonatensatzform
Durchführung
Exposition
Reprise
Coda
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 22
Als wichtigstes Grundprinzip formaler Gestaltung ist zumindest in der westlichen Musik die
Balance zwischen verschiedenen Gegensatzpaaren wie Kontinuität – Diskontinuität,
Wiederholung – Veränderung, Spannung – Entspannung anzusehen.
4.3.3. Metrum/Puls/Tempo
Unter Puls wird der Grundschlag, die zugrundeliegende Zeiteinheit der Musik verstanden.
Durch das Tempo wird die absolute Dauer dieser Grundeinheit bestimmt.
8 Sekunden
Das Metrum (der Takt) gliedert den Puls in Gruppen.
(z.B.: 4/4-Takt, 3/2-Takt, 11/16-Takt
8 Sekunden
Auf diese Art und Weise wird für die Musik eine Ordnungsstruktur, ein Raster vordefiniert,
das einerseits erst einen geregelten Ablauf und Orientierung ermöglicht, andererseits aber auch
zu einem allzu strengen, die Unmittelbarkeit des Ausdrucks einengenden Korsett werden
kann.
Durch das Metrum kommen den einzelnen Pulsschlägen mehr oder weniger Bedeutung zu. So
wird beispielweise der erste Schlag (die „Eins“) eines Taktes stärker betont als die
nachfolgenden Schläge dieses Taktes.
Es können auch mehrer unterschiedliche Ordnungsstrukturen gleichzeitig eingesetzt werden.
Diese als Polymetrik (oder auch Polyrhythmik) bezeichnete musikalische Zeitkonzept ist vor
allem für die afrikanische Musik charakteristisch.
4.3.4. Rhythmus
Durch den Rhythmus werden Muster aus betonten und unbetonten Schlägen gebildet.
Rhythmus ist nicht an ein Metrum gebunden. Es kann sich auch um eine völlig freie
musikalische Geste handeln.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 23
Bei Vorhandensein eines definierten Metrums sollte ein bestimmter Rhythmus aber immer im
Zusammenhang mit diesem betrachtet werden, da sich abhängig von der Position im Takt die
Wirkung ändern kann.
Rhythmus A
Wirkung A
=
Rhythmus A
Wirkung B
4.3.5. Melodie
Melodische Bögen gliedern i.a. die Musik. Jede Melodie weißt bestimmte Symmetrien auf. Daraus
folgt, dass eine bestimmte gegebene Anfangstonfolge immer mit einer anschließenden
Schlusstonfolge logisch abgeschlossen werden muss. Der Anfang einer Melodie lässt somit
immer zumindest erahnen, wie diese weitergehen wird. Melodien sind somit etwas zielgerichtetes.
Einem überwiegenden Großteil der Musik (insbesondere der Unterhaltungsmusik und der
Klassik) baut auf achttaktigen Melodien auf. (Ausnahme: 12-taktiges Blues-Schema) Oft lassen
sich diese acht Takte in zwei oder vier symmetrische Untergruppen aufteilen.
Diese achttaktigen Melodien (meist als Thema bezeichnet) werden als zusammengehörige Einheit
empfunden und stellen in gewisser Weise eine Art „musikalische Gegenwart“ dar.
Etwa seit der Zeit Mozarts versuchen Komponisten diese „musikalische Gegenwart“ zu dehnen,
also melodische Verläufe zu komponieren, die sich über einen längeren Abschnitt erstrecken, als
die gewohnten acht Takte. So dauert eine achttaktige Periode bei einer Mozartsonate bei einem
Tempo von etwa 100 bpm ca. 19 Sekunden. In der 6. Symphonie („Pastorale“) verwendet
Beethoven in einem Satz einen 12/8-Takt und erweitert das Thema auf 12 Takte. Durch ein
langsames Tempo dauert das Thema – die musikalische Gegenwart – etwa anderthalb Minuten,
in denen die Zuhörer quasi in „Zeitlosigkeit“ versetzt werden. Einen weiteren Höhepunkt
erreichte das Streben nach dem Dehnen der musikalischen Gegenwart bei Richard Wagner und
seinem Konzept einer „unendlichen Melodie“. Mit immer langsameren Tempi und raffinierten
musikalischen Wendungen komponierte Wagner Melodiezüge von bis zu fünf Minuten Dauer.
Weitere Beispiele finden sich bei Gustav Mahler und bei einigen Zeitkonzepten der Musik des 20.
Jahrhunderts. In der sogenannte „Minimal Music“ wird bewusst auf eine zeitliche Gliederung
verzichtet. Kurze Muster („Patterns“) mit minimalen Variationen permanent aneinandergereiht
und wiederholt. Durch das Vermeiden einer in der Zeit forschreitenden Struktur soll quasi ein
„ewiges Jetzt“ vermittelt werden. Zu den bekanntesten Vertretern der Minimal Music zählen
Steve Reich, LaMonte Young, Phil Glass und Michael Nyman, dessen Filmmusiken stilbildend
wurden.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 24
4.4. Musik und filmische Zeit
Musik kann mit ihrer eigenen Zeit die filmische Zeit beschleunigen oder verlangsamen.
Dies kann vor allem auf drei Arten erfolgen:
1. Modifikation durch Betonung/Nichtbetonung von syncpoints
(Anmerkung:
Unter syncpoint wird das Zusammenfallen eines Bildakzents mit einem Musikakzent verstanden.)
Wird zwischen zwei Bildakzenten eine Melodie so eingesetzt, dass Anfang und Ende jeweils mit
diesen Akzenten zusammenfallen, so wird dadurch der realzeitliche Eindruck unterstrichen.
Punkt A
Punkt B
Wird die Melodie schneller gespielt, so dass sie vor dem Zeitpunkt B beendet wird, so wird
dadurch die filmische Zeit verlangsamt.
Punkt A
Punkt B
(Psychologischer Denkschluss: Die Filmsequenz dauert länger als die Musik)
Umgekehrt kann durch eine langsamere Melodie die filmische Zeit beschleunigt werden.
Punkt A
Punkt B
2.) Modifikation durch Variation des zeitlichen Hintergrunds
Eine Zeitstrecke wirkt in der Regel kürzer, wenn dazu langsame Musik erklingt bzw. länger, wenn
dazu schnelle Musik erklingt.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 25
3.) Modifikation durch die Dauer des Musiktakes
Wird ein langes Musikstück über mehrere aufeinanderfolgende Filmsequenzen gelegt, so werden
diese Sequenzen durch die Musik in ein Zeitkontinuum gebunden. Die filmische Zeit wird
dadurch beschleunigt.
5. Komponieren mit Raum
Der Raum wird in Zusammenhang mit musikalischer Komposition als gestalterischer Parameter
häufig wenig beachtet und Musik stets mehr als zeitliches denn als räumliches Phänomen
angesehen.
Es darf jedoch nicht unbeachtet bleiben, dass beim Hören von Musik stets (wenn auch meist
unbewusst) räumliche Imaginationen entstehen. Dies zeigt sich auch darin, dass sehr viele
musikalische Begriffe raumbezogen sind: hoch oder tief, enge oder weite Lage von Akkorden,
aufsteigende oder abfallende melodische Bewegung, Schritt, Sprung, flächige Klänge, runde und
spitze Sounds, etc.
In Analogie zu den Entwicklungen der menschlichen Gesellschaft, die sich vor allem mit Hilfe
der modernen Technologien immer größere Räume in kürzerer Zeit erschließt, wurde im Laufe
der letzten Jahrhunderte auch der musikalische Raum in allen Parametern stets ausgeweitet.
(Größere Ensembles, ausgeweiteter Frequenzumfang, stärkere Differenzierung der dynamischen
Skala, mehrstufige Tonleitern, etc.)
Raum sollte dabei nicht nur als reale Größe verstanden werden. Vielmehr stellt Raum auch eine
musikalisch vermittelbare psychische Größe dar. (Weite – „angenehm“, herrschaftlich, Enge –
Beklemmung, etc.)
In den meisten Fällen von Musik in Film, Werbung, Tanz, etc. verhalten sich realer, optischer
und akustischer Raum kongruent (z.B.: weite Prärie – großes Orchester). Oft kann es aber auch
sehr wirkungsvoll und somit zielführend sein, wenn gerade Musik nicht reale, sondern gleichsam
innere, psychische Räume beschreibt, also nicht ohnehin offensichtliches nochmals wiederholt,
sondern vielmehr zusätzliche gerade durch Musik gut vermittelbare Information liefert.
Schon mit ganz wenigen oder sogar einzelnen Töne und ebenso wenigen musikalischen Parametern
(z.B.: Lautstärke – Nähe, Bassfrequenzen –Tiefe, etc.) können Räume abgebildet werden.
(Beispiel:
Die Musik zu Stanley Kubriks Film „Eyes Wide Shut“ verwendet in mehreren Abschnitten nur eine einzige
Tonqualität. Häufige Tonwiederholungen in Verbindung mit kürzer werdenden Abständen und großer
Lautstärke suggerieren Enge, Beklemmung, Bedrängnis.)
Kompositorisch lassen sich bestimmte Raumvorstellungen neben den Parametern Lautstärke und
Tonhöhe vor allem auch durch die Auswahl bestimmter Intervalle, Akkorde (Dur-Moll,
symmetrische Akkorde, Cluster,...), Klangstrukturen (bewegt, statisch, fortschreitend,...) und
Satzmuster (enge oder weite Lage) beeinflussen.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 26
Durch die Verwendung moderner Studiotechnologie werden die Möglichkeiten räumlicher
Gestaltung von Musik noch um ein Vielfaches gesteigert. Vor allem durch die Art der
Mikrophonierung (Auswahl von Mikrophonart und –charakteristik, Aufstellung der Mikrophone
im Raum bezogen auf die aufzunehmende Schallquelle), die nuancierte Verwendung von Hallund Delayeffekten und den gekonnten Einsatz des Equalizers lassen sich unzählige, auch
virtuelle Räume erzeugen.
(Beispiel:
In der Schlusszene des Films „Herbstmilch“ von Joseph Vilsmaier erklingt ein Walzer in der Tonqualität
einer Schellack-Platte, die real im Film aufgelegt wird. Dieser intime Raum wird nun nach und nach, für die
Betrachter kaum merkbar geweitet bis schließlich der volle Ton eines Orchesters erklingt. Die tanzende
Filmprotagonisten erhalten dadurch physische Größe und der Film sein Happy End.)
Ortung von akustischen Ereignissen –
räumliche Wahrnehmung von Schall
Um einschätzen zu können, wo sich – relativ zum Hörer – eine Schallquelle befindet, muss
das Gehör aus dem ankommenden Signal Informationen über Entfernung und Richtung
gewinnen können.
Zunächst könnte angenommen werden, dass die Entfernung einfach entsprechend der
jeweiligen Lautstärke des Schallsignals bestimmbar sei. Der daraus gewonnene
Informationswert ist aber insofern beschränkt, als er die Kenntnis der Ausgangslautstärke der
Schallquelle zumindest ungefähr voraussetzt. Es wird daher vor allem das Verhältnis der Pegel
von Direktschall zu den Erstreflexionen zur Bestimmung der Entfernung einer Schallquelle
herangezogen. Je schwächer die Erstreflexionen im Vergleich zum Direktschall sind, desto
näher wird das Schallsignal empfunden.
Für die Bestimmung der seitlichen Position einer Schallquelle wird zuerst der
Laufzeitunterschied der ersten Wellenfront zwischen linkem und rechtem Ohr ausgewertet.
Eine von rechts kommende Schallwelle muss einen um etwa 20 cm längeren Weg (um den
Kopf herum) zurücklegen, um zum linken Ohr zu gelangen. Daraus ergibt sich ein
Laufzeitunterschied von etwa 0,6 ms. Ob sich die Quelle vorne oder hinten bzw. oben oder
unter befindet lässt sich aufgrund des Laufzeitunterschiedes nicht ermitteln. Der
Laufzeitunterschied ist insbesondere im Falle von percussiven, kurzen Schallereignissen von
Bedeutung.
Für Frequenzen kleiner als 1500 Hz wird auch die Information des Phasenunterschiedes
zwischen den beiden Ohren ausgewertet. Der Phasenunterschied ergibt sich analog zum
Laufzeitunterschied dadurch, dass die Schallquelle von einem Ohr weiter entfernt ist als vom
anderen. Für hohe Frequenzen werden die Phasenunterschiede jedoch so gering, dass sie von
den Hörnerven nicht mehr ausgewertet werden können.
Weiters wird der interaurale Intensitätsunterschied, das ist der Pegelunterschied den ein
Schallereignis zwischen linkem und rechtem Ohr hervorruft – ausgewertet. Für diesen
Pegelunterschied ist weniger der Abstand zwischen den beiden Ohren verantwortlich, als
vielmehr die Tatsache, dass der Kopf als Schallabsorber wirkt. Im Falle tiefer Frequenzen ist
der Kopf klein im Verhältnis zur Wellenlänge und stellt somit kein nennenswertes Hindernis
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 27
für die eintreffende Schallwelle dar. Der Intensitätsunterschied gewinnt daher erst ab
Frequenzen von etwa 2 kHz an Bedeutung.
Vor allem hohe Frequenzanteile werden vom Außenohr richtungsabhängig gebündelt und
verstärkt. Die relative Stärke hochfrequenter Schallanteile scheint sich daher zu ändern, wenn
eine Schallquelle von hinten nach vorne wandert. Außerdem werden i.a. hohe Frequenzen
stärker gedämpft als tiefe, weshalb weiter entfernte Schallereignisse meist dumpfer klingen.
Zusätzlich werden i.a. auch Bewegungen des Kopfes ausgeführt, um zu hören, wie sich dabei
der Schall ändert. Kurze perkussive Klänge sind deshalb in der Regel schwerer zu orten, als
lang andauernde Schallereignisse. Beim Tragen von Kopfhörern fällt diese Möglichkeit der
Raumwahrnehmung klarerweise weg, weshalb der Raumeindruck in diesem Fall auch immer
etwas verfälscht ist.
6. Komponieren mit Klang
Im Zusammenhang mit Musik und Komposition denkt man meist wohl vor allem an Dinge
wie Melodie, Rhythmus, fortschreitende Harmonik, usw.
In der Regel handelt es sich dabei um ganz bewusst geformte, individuelle, strukturierte
Gestalten. Bei der melodischen und rhythmischen Gestaltung werden i.a. in erster Linie
Fasslichkeit, Eindringlichkeit, klarer Ausdruck, formale Stringenz beabsichtigt. Aus diesem
Grund stellen Melodie, Rhythmus, Harmonik auch den Anspruch auf Hörbarkeit und bleiben
nicht im Unterbewussten.
Klang war und ist in der Musik zwar zweifellos stets von großer Bedeutung, stand aber zumindest
in der europäischen Musiktradition nicht gleichberechtigt neben Melodie und Rhythmus. Dies
hat insbesondere viel mit dem linearen Zeitverhalten unserer Musik zu tun, die geprägt von der
Idee (logischer) Entwicklung stets von einem Ausgangspunkt zu einem Endpunkt strebt. Diese
Zielgerichtetheit steckt auch schon in jeder Melodie, in jedem Rhythmus, weshalb sie sich auch
besser für die Umsetzung von Entwicklungen eignen.
Klang an sich ist als unteilbares Ausgangsmaterial jeder Musik anzusehen (vielleicht vergleichbar
mit den Farben in der Malerei). Klang besitzt i.a. noch keine vorgeprägte Richtung, wenig
strukturelle zeitliche Gliederung.
Eine Melodie muss bewusst gehört, ihr Verlauf, ihr Entwicklung müssen erfasst werden, um
überhaupt eine Wirkung erzielen zu können. Melodien stellen sich somit in gewisser Weise zur
Schau, sind extrovertiert. Im Gegensatz dazu kann Klang, als zeitloser, “diffuser” Urgrund von
Musik durchaus auch unbewusst wahrgenommen werden und dabei große Wirkung erzielen. Klang
kann somit als nach Innen gerichtet bezeichnet werden. Als unteilbare, ursprüngliche Bausteine
haben Klänge oft archaische Wirkung und sind in der Lage direkte Emotionen hervorzurufen.
(Diese Eigenschaft von Klang wird beispielsweise in der Musiktherapie erfolgreich eingesetzt.)
Bestimmte Klangeigenschaften lassen sich daher auch bestimmten (Ur)erfahrungen, bestimmten
emotionalen Grundstimmungen zuordnen. (z.B.: rasche Amplitudenmodulation eines hohen
Klanges → “flirrender” Klang → Nervosität) In diesem Zusammenhang spielt auch der
symbolische Gehalt von Klänge eine wichtige Rolle.
In der Musik des 20. Jahrhunderts wurde Klang in gewissem Sinne “emanzipiert”. Akkorde
müssen nicht mehr weitergeführt werden, Dissonanzen nicht mehr aufgelöst werden, neue
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 28
Instrumentaltechniken mit dem Ziel, ganz neue Klänge mit herkömmlichen Instrumenten zu
erzeugen, werden eingesetzt, exotische Tonsysteme jenseits von Dur und Moll kommen zur
Anwendung, etc. Die Hörer sind an diese herausragende Bedeutung von Klang längst nicht
mehr gewohnt.
Für einen nachhaltigen, längerfristigen Erfolg einer Gruppe im Bereich der populären Musik ist
ihr charakteristischer Sound von größter Bedeutung (vgl. Beatles, Stones, Supertramp, Toto,
Genesis, M. Jackson, Billy Joel, Elton John, Queen,...). In den aktuellen Charts sind eher nur
wenige solcher Gruppen zu finden. Der Sound wird mehr von der Musikrichtung als von der
Gruppe geprägt, weshalb vieles sehr ähnlich klingt.
In einigen Filmen ist es gelungen, über einen ganz bestimmten Sound, die akustische praktisch
für immer an die visuelle Ebene fix zu koppeln. Eines der bekanntesten und besten Beispiele
hierfür ist Ennio Moricones Musik zu “Spiel mir das Lied vom Tod”. Dieser Klang der
Mundharmonika in Verbindung mit der verzerrten Gitarre wird wohl nach wenigen
Zehntelsekunden eindeutig erkannt, zugeordnet und geistig mit den entsprechenden Bildern
versehen.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 29
7. Bearbeitung von Schallereignissen
7.1. Bearbeitungen der Dynamik
Verschiedenste (nachträgliche) Bearbeitungen der Dynamik eines Audiosignals erfolgen meist
sowohl aufgrund technischer Notwendigkeiten als auch aus ästhetischen bzw. praktischen
Überlegungen heraus.
Dem (linear) aufnehmbaren Dynamikbereich sind nach oben (Übersteuerung) und nach unten
(Bandrauschen, Quantisierungsrauschen,...) Grenzen gesetzt.
(Der rein technisch theoretisch verfügbare Dynamikbereich einer Compact Disc beträgt ca. 96
dB. Häufig wird bei der Aufnahme ein Digital Headroom von etwa 10 dB berücksichtigt, um sehr
störende digitale Übersteuerungen zu vermeiden. Außerdem müssen die leisesten Passagen um
20-30 dB über dem Nullwert (Stille bzw. Rauschen) liegen. Als tatsächlich aufnehmbaren
Dynamikbereich erhält man somit nur etwa. 60 dB. Der musikalisch nutzbare Dynamikbereich
liegt etwa zwischen 30 und 110 dB, beträgt also 80 dB und somit um 20 dB mehr.)
Das menschliche Lautstärkeempfinden hängt nicht vom Spitzenpegel eines Signals, sondern von
der Signalenergie, also dem durchschnittlichen Pegel ab.
Signale mit großem Dynamikbereich - also mit Schwankungen zwischen sehr lauten und sehr
leisen Signalpegeln - werden also leiser wahrgenommen als Signale mit annähernd konstantem
Pegel, wenn beide Signale gleich stark ausgesteuert wurden (also der Spitzenpegel bei beiden
gleich ist).
Die menschliche Stimme deckt einen großen Dynamikbereich ab. Da sie bei vielen Produktionen
der wichtigste Teil ist, wird sie - zumindest im Bereich der „Unterhaltungsmusik“ - fast immer
dynamisch bearbeitet, um ihr zu mehr Durchsetzungskraft zu verhelfen. Auch die
Endabmischungen fertiger Popsongs, Werbejingles, etc. werden in der Regel dynamisch
nachbearbeitet, damit sie laut (z.B.: im Vergleich zum vorhergehenden Spot) empfunden werden.
7.1.1. Bearbeitung der Hüllkurven
Mit Hüllkurven-Generatoren lassen sich im Prinzip beliebige zeitliche Dynamikverläufe, wie
beispielweise Einblenden (Fade-in) oder Ausblenden (Fade-out) erzeugen.
7.1.2. Normalizing
Unter Normalizing versteht man die nachträgliche Verstärkung eines Signals auf
Vollaussteuerung, so dass also die lautesten Passagen im Signal wirklich den maximal möglichen
Wert annehmen.
Dadurch wird zwar einerseits der Pegel und somit auch die Durchsetzungskraft eines
Audiosignals angehoben, andererseits werden aber auch alle ungewünschten Signalanteile (z.B.:
Rauschen) um den selben Faktor verstärkt.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 30
7.1.3. Kompressor
Ein Kompressor verringert den Dynamikbereich eines Signals. Hierzu werden alle Bereiche eines
Signals, deren Pegel über einem bestimmten Schwellwert (Treshhold) liegen, um einen
bestimmten Faktor (Ratio) abgeschwächt.
dB
Ausgangspegel
Kompression:
Ratio 2:1
Treshhold 30 dB
50
40
30
20
Eingangspegel
10
10
20
30 40 50
70
80
dB
Diese Abschwächung der Spitzenpegel ermöglicht freilich wiederum eine Erhöhung der
Gesamtverstärkung (z.B: durch Normalizing).
Bei Über- bzw. Unterschreiten des Schwellwertes soll die Abschwächung i.a. nicht völlig abrupt,
sondern innerhalb definierter (einstellbarer) Zeiten einsetzen (Attack-Time) bzw. wieder
abklingen (Release-Time).
Nach der Bearbeitung mit einem Kompressor wird ein Signal lauter (druckvoller) empfunden.
Der Signal-Rausch-Abstand wird durch Kompression jedoch verschlechtert.
7.1.4. Limiter
Beim Limiter wird das Signal oberhalb eines definierbaren Schwellenwertes nicht nur
abgeschwächt, sondern auf diesen begrenzt. Limiter werden also dazu eingesetzt, um
ungewünschte Übersteuerungen zu verhindern.
dB
Ausgangspegel
Limiter:
Treshhold 40 dB
50
40
30
20
Eingangspegel
10
10
20
30 40 50
70
80
dB
7.1.5. Expander
Expander haben die umgekehrte Funktion von Kompressoren.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 31
Sie vermindern also die Verstärkung, wenn der Signalpegel unter einen bestimmten
Schwellenwert fällt. Der Dynamikbereich des Signals wird somit erweitert (expandiert).
dB
Ausgangspegel
Expander
50
40
30
20
Eingangspegel
10
10
20
30 40 50
70
80
dB
7.1.6. Noise-Gate
Bei einem Noise-Gate wird das Eingangssignal unterhalb des Schwellwertes sehr stark
abgeschwächt (stummgeschaltet). Es läßt sich damit beispielsweise ungewolltes Bandrauschen
während Signalpausen ausschalten.
dB Ausgangspegel
Noise-Gate:
Treshhold 20 dB
50
40
30
20
10
Eingangspegel
10
20
30 40 50
70
80 dB
7.2. Bearbeitungen im Zeitbereich
7.2.1. Cut, Paste, Loop, etc.:
Bei Signalbearbeitungen wie Schneiden, Einfügen, Überschreiben oder Looping (dem
mehrmaligen Abspielen eines definierten Bereichs) ist vor allem darauf zu achten, dass keine
Unstetigkeitsstellen im Signal auftreten, da plötzliche Sprünge im aufgezeichneten Schallereignis
i.a. als unangenehme Fehler wahrgenommen (”Knackser”) werden.
Es empfiehlt sich daher als Ausgangspunkt für derartige Manipulationen wenn möglich
Nulldurchgänge im Audiomaterial aufzusuchen. Weiters soll die
Steigung vor und nach einem Übergang zumindest annähernd gleich bleiben.
7.2.2. Änderung der Abspielgeschwindigkeit (oder der Samplingfrequenz)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 32
Wird bei einem aufgenommenen Audiosignal zwar die Abspielgeschwindigkeit (oder die
Samplingfrequenz) um einen
bestimmten Faktor geändert, das Signal selbst dabei aber im Originalzustand belassen, so ändert
sich bei der Wiedergabe auch die
Länge des resultierenden akustischen Ereignisses um diesen Faktor.
Zu beachten ist dabei, dass dadurch nicht nur die Länge sondern auch alle Frequenzen des
Signals verändert werden.
Wird beispielsweise die Abspielgeschwindigkeit (die Samplingfrequenz) verdoppelt, so dauert das
Signal nur mehr halb so lang und erklingt um eine Oktave höher.
7.2.3. Interpolation: Hinzufügen (oder Weglassen) von Samples
Von musikalisch-klanglichen Problemen ganz abgesehen, kann schon aus rein technischen Gründen die
Abspielgeschwindigkeit (Samplingfrequenz) nicht beliebig erhöht werden (z.B.: Grenzen der Taktrate
eines Digitalgerätes). Aus diesem Grund werden einfache Längenänderungen in digitalen Geräten (z.B.:
Sampler) nicht durch Änderung der Auslesegeschwindigkeit, sondern durch Hinzufügen bzw. Weglassen
von Samples. Die eingefügten Werte werden dabei aus den benachbarten berechnet (Interpolation).
Auch bei diesem Verfahren ändert sich nicht nur die Länge, sondern auch die Tonhöhe des
Audiosignals.
7.2.4. Timestretching
In vielen Anwendungsfällen soll zwar die Länge eines Audiosignals verändert werden, die Tonhöhen
sollen dabei aber unverändert bleiben. Ein Möglichkeit dies zu erreichen ist, das Signal in möglichst
periodische Abschnitte zu unterteilen und einzelne Perioden wegzulassen bzw. zu wiederholen.
Dieses Verfahren ist als Time Domain Harmonic Scaling (im Synthesizerbereich auch unter
Granularsynthese) bekannt.
Nahezu alle gängigen Sampler, HD-Recorder und Sample-Editoren bieten derartige Algorithmen zur
Längenkorrektur an.
Die Qualität des Ergebnisses hängt stets sehr von der Beschaffenheit des Ausgangssignals ab.
Hersteller erlauben daher häufig die Anpassung des Verfahrens an das Audiosignal.
7.3.Bearbeitungen im Frequenzbereich
7.3.1. Transpositionen:
Eine Änderung der Abspielgeschwindigkeit (bzw. der Samplingfrequenz) führt wie gesagt nicht
nur zu einer Korrektur der Zeitdauer, sondern immer auch zu einer Änderung der Tonhöhe
(Transposition). Dies gilt natürlich auch für Interpolation, also für das Weglassen bzw. Erzeugen
zusätzlicher Samples.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 33
7.3.2. Pitch Shifting
In vielen Fällen soll nur die Tonhöhe verändert, die Länge des Signals aber beibehalten werden.
Dies kann ganz einfach durch Timestretching mit anschließender Transposition erreicht werden.
In vielen Fällen führt diese Vorgangsweise nur zu unbefriedigenden Ergebnissen, da auch die
sogenannten Formanten, das sind jene Frequenzbereiche die unabhängig vom Grundton durch
Resonanzkörper angehoben werden und beispielsweise den charakteristischen Klang von
Instrumenten ausmachen, transponiert werden. Gute Pitch-Shifter bieten daher auch
Algorithmen mit Formantkorrektur.
7.3.3. Filterungen
Filterungen beeinflussen das Frequenzspektrum von Signalen. Bestimmte Frequenzbereiche
passieren ein Filter unbeeinflusst, während andere abgeschwächt werden.
Filter werden einerseits verwendet, um radikale Klangveränderungen zu erzielen (etwa bei
Synthesizern), andererseits dienen sie auch zur Entzerrung, also zur (geringfügigen) Korrektur
bestimmter Frequenzverläufe.
7.4. Berabeitungen mit Raum-Effekten
7.4.1. Künstlicher Nachhall: Reverb
Die räumliche Gestaltung einer Aufnahme ist ein wichtiges Qualitätskriterium jeder
Musikproduktion.
Bei der Aufnahme von klassischer Musik wird in der Regel bereits bei der Aufnahme versucht,
ein angenehmes Verhältnis zwischen Direktsignal und Nachhall zu erreichen, was vor allem
durch die Positionierung der Mikrofone erreicht wird. (Ein Aufnahmeraum mit hervorragender
Akustik ist hierzu natürlich Voraussetzung.)
Wird jedoch intensiv mit Mehrspurtechnik und im sogenannten Playback-Verfahren
aufgezeichnet, ist es beinahe unmöglich das richtige Verhältnis zwischen Direktschall und
Nachhall schon bei der Aufnahme für jedes Instrument, für jede Aufnahmespur genau
festzulegen.
Häufig wird daher versucht, den natürlichen Raumeindruck bei der Aufnahme weitgehend zu
unterdrücken, also "trocken" (ohne Nachhall) aufzunehmen, und erst im Nachhinein (bei der
Endabmischung) den gewünschten Raumeindruck künstlich zu erzeuge.
Wichtige Parameter von Hallalgorithmen:
àVerzögerung und Intensität der Erstreflexionen
(in der Natur abhängig von der Entfernung des Hörers von der Schallquelle und von
Größe und Form des Raumes)
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 34
àNachhallzeit
(in der Natur abhängig von der Größe des Raumes und vom Dämpfungsfaktor der
reflektierenden Flächen)
àfrequenzabhängiges Dämpfungsverhalten
(Hohe Frequenzen werden in der Natur meist stärker gedämpft und klingen im
Nachhall somit rascher ab.)
àHalldichte
(In Abhängigkeit von der Beschaffenheit des Raumes liegen die nach den
Erstreflexionen eintreffenden Vielfachreflexionen mehr oder weniger dicht
beieinander.)
Der richtige Einsatz von künstlichem Hall ist für das Ergebnis einer Musikproduktion sehr
entscheidend. Ein häufiger Fehler ist dabei der übertriebene Einsatz von überdimensionalen, viel
zu langem Hall.
Meist führt dies nur zu einer undurchsichtigen, diffusen, "verwaschenen", unnahbaren
Endabmischung. Lange Hallfahnen haben im allgemeinen nur als sparsam eingesetzte
Spezialeffekte Sinn.
Der Hall sollte stets den Charakter einer Stimme oder eines Instruments unterstützen. Ein
künstlicher Nachhall mit geringer Höhendämpfung verleiht einer Stimme beispielsweise mehr
Brillianz. Ein besonders dichter Hallalgorithmus verleiht ihr mehr Volumen. Hingegen leidet die
Sprachverständlichkeit sehr unter zu langen Hallzeiten. Ist der Hallanteil groß im Vergleich zum
Direktsignal, so klingt der Gesang zu weit vom Hörer entfernt.
Für Drums und Percussion werden oft mit sogenannten Ambience-Effekten bearbeitet.
Da diese häufig gar nicht als eingenständige Effekte wahrnehmbar sind, werden sie auch als
Ambience-Klänge bezeichnet. Erzielt werden diese durch Simulationen sehr kleiner Räume. Da
dabei die Nachhallzeit kurz ist und die Erstreflexionen sehr rasch auf das Direktsignal folgen,
führt dies zu einer Verdichtung des Signals, die neben dem Raumeindruck vor allem auch den
Klang beeinflusst. Meist lässt sich durch diese Verdichtung ein druckvollerer Sound erzielen.
Um Schlaginstrumente (vor allem Snaredrum) zu betonen und mit mehr Volumen erscheinen zu
lassen, werden sie häufig zusätzlich mit "großem", künstlichen Hall (hoher Effektanteil und lange
Nachhallzeit) bearbeitet. Ohne zusätzlichen Maßnahmen würde der lange Nachhall
aber andere Schlaginstrumente verdecken und den Groove zerstören, den ja erst das
Wechselspiel von Betonungen und Pausen lebendig machen. Man lässt daher den Hall abrupt
enden, was in der Natur freilich nicht vorkommt. Das Ausgangssignal des Hallgeräts wird hierzu
durch ein Noise-Gate mit hohem Schwellenwert geschickt. Dieser Effekt ist als Gated Reverb
bekannt.
Das Verhältnis von Direktschall zu Hallanteil ist entscheidend für die Tiefenstaffelung
(Vorder-und Hintergrund).
Da hohe Frequenzen schneller gedämpft werden, ist zusätzlich auch der Höhenanteil für die
räumliche Staffelung mehrerer Signalquellen von Bedeutung.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 35
7.4.2. Echo und Delay
Das Phänomen von Echos - also die scheinbare Wiederholung von Klängen in der Ferne - lässt
sich in der Natur beispielsweise in den Bergen oder auch zwischen Hochhäusern beobachten. Es
handelt sich dabei um Reflexionen, die mit mehr oder weniger langer Verzögerung nach dem
Originalsignal (Direktschall) beim Hörer eintreffen. Echos sind in der Natur i.a. dumpfer als das
Ursprungssignal, da die Höhen durch die Reflexion und die längere Wegstrecke stärkeren
Dämpfungen unterliegen.
Mit Hilfe der Digitaltechnik lässt sich der Echoeffekt recht leicht im Tonstudio simulieren. Das
Signal wird in einem Zwischenspeicher verzögert und gegebenenfalls abgeschwächt und gefiltert.
Sollen Mehrfachechos erzeugt werden, muß das Ausgangssignal an den Eingang zurückgeführt
werden (Feedback), um erneut die Verzögerungskette zu durchlaufen.
Die meisten Effektgeräte können mehrere solcher Verzögerungsketten mit unterschiedlichen
Verzögerungszeiten gleichzeitig realisieren.
Auf diese Weise lassen sich komplexe Delay-Effekte erzielen.
Gut eingestellte Delayeffekte können einem Audiosignal zu mehr Klangfülle verhelfen oder sogar
als zusätzliche (Instrumental)stimmen wahrgenommen werden.
Die Verzögerungszeit (delay-time) muss dazu mit dem Metrum (Beat) des Songs abgestimmt
werden.
Einer Gesangsstimme kann ein leises, kaum wahrnehmbares Delay - um eine Viertel oder Achtel
verzögert - zu mehr Klangvolumen verhelfen. Ist dieses Delay jedoch zu laut, so leidet die
Sprachverständlichkeit und der melodische Verlauf wird gestört.
Auch die Verwendung von auffälligen Echoeffekten kann im musikalischen Kontext reizvoll
sein. Es ist dabei jedoch wichtig, dass im Arrangement für diese Echos Platz gelassen wird.
7.5. Berabeitungen mit Phasen-Effekten:
Das menschliche Ohr kann zwei unmittelbar aufeinander folgende Klänge erst dann getrennt
voneinander wahrnehmen, wenn ihr zeitlicher Abstand mindestens 30 ms beträgt.
Ist dieser jedoch kleiner als 30 ms, so werden die beiden Klänge als ein akustisches Ereignis
wahrgenommen. Statt einer zeitlichen Differenz wird nun ein Phasenunterschied
wahrgenommen, der den resultierenden Gesamtklang mehr oder weniger stark beeinflußt.
Wird die Verzögerungszeit von Delay-Effekten kleiner als 30 ms, so werden diese also zu
Phasen-Effekten.
Generell muß beim Einsatz von Phasen-Effekten auf Monokompatibilität geachtetwerden. Es
kann zu gegenphasigen Anteile im linken und rechten Kanal
kommen, die sich im Mono-Betrieb gegenseitig auslöschen.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 36
7.5.1. Chorus
Mit dem Chorus-Effekt soll im Prinzip der volle Klang eines Orchesters (oder eben eines Chors)
simuliert werden. Dort spielen die Musiker einer Instrumentengattung (bzw. singen die Sänger
einer Stimmlage) i.a. eine gemeinsame Stimme. Sie werden dabei aber nie jede einzelne Note
vollkommen gleichzeitig beginnen und in der exakten Tonhöhe intonieren können. Vielmehr
kommt es permanent zu geringfügigen Abweichungen, die erst zum Volumen eines
Orchesterklanges führen und diesen auch lebendiger machen.
Die Abweichungen sind also einerseits für den gewünschten Klang unerlässlich, müssen dabei
aber andererseits so klein sein, dass sie nicht als solche wahrgenommen werden. (z.B.: zeitliche
Verschiebungen unter 30 ms)
Beim Chorus-Effekt wird eine Kopie des Originalsignals geringfügig verzögert, in der Tonhöhe
minimal verändert und wieder dem Original beigemischt. Die Verzögerungszeit und die
Tonhöhenänderung werden dabei mit einem LFO mehr oder weniger stark moduliert. Diese
bleiben also nicht konstant, sondern schwanken stets um den eingestellten Mittelwert. Der Effekt
kann freilich auch mit mehreren Verzögerungsketten erzeugt werden. Er wird dann oft auch als
Ensemble-Effekt bezeichnet.
7.5.2. Flanger
Ein Flanger funktioniert sehr ähnlich wie der Chorus-Effekt, die Verzögerungszeiten sind dabei
jedoch noch geringer (ca. 1 - 8 ms) und die Tonhöhe wird konstant gehalten. Durch die geringen
Verzögerungen kommt es zu konstruktiven und destruktiven Interferenzen, das heißt manche
Frequenzbereiche werden angehoben andere abgeschwächt. Dieser Effekt wird auch als
Kammfilter-Effekt bezeichnet. In Abhängigkeit von Verzögerungszeit sowie Frequenz,
Modulationstiefe und Wellenform des LFOs lassen sich zum Teil sehr drastische
Klangänderungen erzielen.
Ein weiterer wichtiger Parameter ist das Feedback mit dem das Effektsignal an den Eingang
zurückgeführt wird. Bei hohen Feedback-Werten ist der Kammfilter-Effekt besonders ausgeprägt
und das Originalsignal wird stark verfremdet.
Meist wird dieser Effekt jedoch nur sparsam eingesetzt. Vor allem Gitarren- und Beckenklänge
erhalten dadurch mehr Leben. Deutlicher hörbare Effekte werden gelegentlich bei verzerrten
Gitarren eingesetzt.
7.5.3. Phasing
Ein Phaser arbeitet wie ein Flanger, jedoch ohne Feedback und mit etwas längeren
Verzögerungszeiten (ca. 5 - 10 ms) Außerdem ist die Verzögerungszeit frequenzabhängig, wobei
höhere Frequenzen in der Regel stärker verzögert werden.
Aufgrund der Ähnlichkeit der Effekte Flanger und Phaser überschneiden sich auch ihre
Anwendungsgebiete.
Wegen der Frequenzabhängigkeit klingt ein Phaser jedoch synthetischer und eignet sich somit gut
für die Bearbeitung (gleichförmiger) Synthesizersounds.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 37
7.6. Bearbeitungen zur Klang-Restauration:
Zur Bearbeitung alter oder defekter Audiosignale existieren verschiedenste, zum Teil sehr gute
Algorithmen.
7.6.1. Declicking
Mit Decklicking-Algorithmen werden hörbare Clicks, die vor allem bei Übersteuerungen des
Signals auftreten, entfernt.
7.6.2. Decracking
Mit Decracking-Algorithmen lassen sich beispielsweise Knistern und Knacken alter
Schallplattenaufnahmen, digitale Verzerrungen oder ähnliche fehlerhafte Stellen bis zu einem
gewissen Grad entfernen.
In Abhängigkeit von der Beschaffenheit des Signals und der Wahl der Parametereinstellungen
lassen sich mit den i.a. sehr rechenaufwändigen Algorithmen oft recht gute Ergebnisse erzielen.
7.6.3. Denoising
Mit Denoising-Algorithmen lassen sich aus einem Audiosignal bis zu einem gewissen Grad
Rauschen oder ähnliche breitbandige Störungen entfernen.
Einige, meist recht gute Algorithmen benötigen zunächst ein kurzes Stück leeres Bandrauschen
(ohne Nutzsignal), das dann in einem ersten Schritt ("Lernphase") analysiert und in einem
zweiten Arbeitsschritt aus dem zu bearbeitenden Audiosignal (mehr oder weniger stark) entfernt
wird.
In Abhängigkeit von der Beschaffenheit des Signals und der Wahl der Parameter lassen sich
Rauschen oder ganz allgemein breitbandige Störungen oft zumindest deutlich vermindern.
7.7. LoFi-Effekte
Für einige Musikstile vor allem im Dance und Techno Bereich wirken digitale Audiosignale
häufig zu steril. Es existieren daher auch eine Reihe sogenannter LoFi-Effekte, die im Grunde
die umgekehrte Wirkung von Algorithmen zur Klangrestauration haben. Es lässt sich damit
beispielsweise das Knacken und Knistern alter Vinyl-LP´s nachträglich simulieren.
Musik und Multimedia / Sounddesign
 DI Hannes Raffaseder
Seite 38
Herunterladen