3.2 Analoge und digitale Syntheseverfahren, MIDI und Sampling Von Bernd Enders 3.2.1 Elektronische Syntheseformen Unter Synthese wird üblicherweise das (künstliche) Verbinden verschiedener Elemente zu einer neuen Gestalt verstanden und im Zusammenhang mit Audio und Musik entsprechend das Zusammensetzen von Klangelementen zu einem neuen Klanggebilde oder – etwas enger gefasst – das Erzeugen von neuen Klängen mit »künstlichen« Mitteln, was im Großen und Ganzen heißt: Klangerzeugung oder auch Klangveränderung mit den Mitteln der Elektrik oder Elektronik im Unterschied zur herkömmlichen Klangerzeugung mit »natürlichen«, d.h. mechanisch funktionierenden, Instrumenten. Mit dem analogen Modulsynthesizer, den Robert Moog (1934-2005) Mitte der 1960er Jahre konstruierte,1 konnten erstmals verschiedene Formen der Klangsynthese durch gezielte Kombination verschiedener Module mit unterschiedlichen Funktionen recht variabel zur musikalischen Klanggestaltung eingesetzt werden. Mit Hilfe fortschrittlicher Transistortechnik konnte Moog die großen, röhrenbestückten Apparaturen eines elektronischen Studios (d.s. Oszillatoren, Filter, Verstärker, Effektgeräte, Steuereinrichtungen u.a.m.) auf die einigermaßen handliche Größe eines (größeren)2 Koffergeräts verringern. Die fast völlig beliebige Kombination der einzelnen Module mit Hilfe von Steckkabeln und das geniale Prinzip der Spannungssteuerung3 von Modulfunktionen erlaubten eine flexible und immens variationsreiche Klangprogrammierung.4 1 Einen Vorläufer des spannungsgesteuerten Modulsynthesizers baute R. Moog Ende der 1950er Jahre für den österreichischen Komponisten Max Brand (1896-1980). 2 Für heutige Verhältnisse waren die ersten Modulsynthesizer immer noch recht riesig, z.B. ist der Studiosynthesizer Synthi 100 von EMS mit Unterbau immer noch deutlich größer als ein Klavier. 3 Die Idee der Spannungssteuerung realisierte der Kanadier Hugh LeCaine (1914-1977) schon Ende der 1940er Jahre mit seinem elektronischen Sackbut, das als ein Vorläufer des Modulsynthesizers betrachtet werden kann; M. Becker (1990), Synthesizer von gestern. 4 F. Anwander (2000), Synthesizer; D. Crombie (1986), The new complete synthesizer; B. Enders (1985), Klangwelt des Musiksynthesizers; U.G. Hoenig (2002), Workshop synthesizer; B. Graham (1980), Music and the synthesizer; M. Becker (1990), Synthesizer von gestern; E.R. 262 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Synthesizer haben ihren Namen der Möglichkeit zu verdanken, unterschiedlichste Klangstrukturen durch verschiedene Synthesetechniken zu erzeugen, dazu gehören anfangs vor allem die Additive, die Subtraktive und die FM-Synthese, später brachte die Digitalisierung der elektronischen Instrumente weitere Syntheseformen hervor, die sich analog, wenn überhaupt, nur mit sehr großem Aufwand umsetzen lassen. Mehrere Techniken der Synthesemodellierung von elektronischen Klängen können unterschieden werden: 1. Spektrale Modelle, die den Schwingungsverlauf bzw. die Klangcharakteristik so nachbilden (sollen), wie sie am Gehör ankommt (z.B. additive Klangsynthese); 2. Physikalische Modelle, die versuchen, die Entstehung eines Schwingungsvorgangs an der Klangquelle, am Instrument, zu simulieren (Physical Modelling); 3. Klangspeicherungs- und Resynthese-Modelle, die Originalklänge digital speichern, analysieren und neu zusammensetzen (z.B. Granularsynthese); 4. abstrakte Modelle, die (letztlich beliebige) mathematische Formeln (z.B. aus Fraktalgeometrie) zur Klangerzeugung nutzen, indem das Rechenresultat, i.a. eine Zahlenkette, durch entsprechend schnelles und wiederholtes Auslesen des digitalen Speichers in den Audiobereich beschleunigt wird und auf diese Weise die Schwingungsform bestimmt. Die additive Klangsynthese Die additive Klangsynthese setzt die Erkenntnisse des Fourierschen Theorems [ 1.2] um, d.h. musikalische Klänge (= periodische Schwingungen) werden durch die Addition von Sinusschwingungen erzeugt, deren Frequenzen in einem ganzzahligen Verhältnis zueinander stehen (›Harmonische‹). Wird die additive Klangsynthese mit einem analogen Synthesizer realisiert, werden für alle gewünschten Teiltöne (auch Partialtöne) eines Klangs entsprechend viele Sinusgeneratoren benötigt, die gemäß der Teiltonreihe im Verhältnis 1:2:3:4 usw. zum Grundton gestimmt sein müssen. Miranda (2002), Computer sound design; A. Ruschkowski (1998), Elektronische Klänge und musikalische Entdeckungen. 263 Bernd Enders ______________________________________________________ Da sich die Frequenzen der Oszillatoren eines Analogsynthesizers über eine angelegte Keyboard-Spannung (monophon) steuern lassen, werden alle Frequenzen beim melodischen Spiel auf der (monophonen) Tastatur entsprechend transponiert. Die eingestellten Frequenzverhältnisse der Teiltöne verändern sich nicht, und die additiv erzeugte Klangfarbe bleibt für alle gespielten Töne gleich. Manche Synthesizer erlauben eine Synchronisation der beteiligten Oszillatoren, so dass alle Teiltöne wie bei einem mechanischen Klangerzeuger auch phasenstarr zueinander schwingen. Die Lebendigkeit des synthetischen Klangs wird dadurch allerdings nicht unbedingt erhöht. Überhaupt fällt bei genauerer Betrachtung mechanisch erzeugter Instrumentaltöne auf, dass die einzelnen Teiltöne je nach Lautstärke und Artikulation des gespielten Tons unterschiedlich schnell und stark ein- und ausschwingen und auch in relativ stationären Phasen eines Tonverlaufs (z.B. beim Legato-Spiel auf einer Geige) ihre Amplitude leicht ändern. Jeder Teilton hat quasi einen charakteristischen Lautstärkenverlauf (›Hüllkurve‹), der den typischen Klang eines Instrumentaltons mitbestimmt. Um diese Variabilität des dynamischen Klangverhaltens aller Teiltöne bzw. der klangfarblichen Charakteristik eines Instrumentaltons einigermaßen zu erreichen, müssten Sinusoszillatoren an hüllkurvengesteuerte Verstärker angeschlossen werden, so dass pro Teilton mindestens ein ›VCO‹,5 ein ›VCA‹6 und ein ›ADSR-Generator‹7 (für eine einzige Synthesizerstimme!) benötigt würden. Für eine Stimme mit 10 Teiltönen wären folglich 30 Module mühsam mit Verbindungskabeln (›Patchcords‹) zu kombinieren. (Natürlich können auch obertonhaltige Schwingungen wie Sägezahn- und Rechteckschwingungen additiv gemischt werden, um besonders teiltonreiche Schwingungsformen zu erhalten; die Lebendigkeit eines Klangs wird dadurch allerdings nicht gesteigert.) 5 Oszillatoren eines Analogsynthesizers sind normalerweise spannungssteuerbar, hiervon leitet sich die übliche Bezeichnung VCO (= ›Voltage Controlled Oscillator‹) ab. 6 VCA = ›Voltage Controlled Amplifier/Attenuator‹ 7 ADSR-Generator = Hüllkurvengenerator erzeugt einen Spannungsverlauf mit vier programmierbaren Parametern: ›Attack Time‹, ›Decay Time‹, ›Sustain Level‹, ›Release Time‹ zur Gestaltung eines charakteristischen Lautstärkeverlaufs. 264 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Abb. 1: Einfache additive Synthese mit 5 VCOs und klangfarbendynamischer Hüllkurve Da auch große Studiosynthesizer der analogen Ära nur selten über mehr als 10 VCOs verfügten und eher weniger VCAs und ADSR-Generatoren vorhanden waren, ist leicht nachvollziehbar, dass die Additive Klangsynthese meist nur auf wenige Oszillatoren beschränkt blieb und eine klangtreue Nachbildung von traditionellen Instrumentaltönen auf diese Weise kaum realisiert werden konnte. Dies war allerdings anfangs auch nicht das erklärte Ziel der Konstrukteure elektronischer Instrumente, vielmehr sollten völlig neue Klangwelten erschlossen werden, mit einer eigenen Klangfarbenästhetik und innovativen Klangstrukturen.8 Mit dem Aufkommen digitaler Synthesizer bzw. computertechnischer Schaltungen Ende der 1970er Jahre (Fairlight CMI, 1979; Synclavier, 1980; Yamaha DX 7, 1985) konnte die additive Klangsynthese bequemer und zudem polyphon spielbar realisiert werden,9 auch wenn zunächst die Prozes- 8 Kurioserweise wurde der erste Analogsynthesizer von Robert Moog durch elektronische Arrangements bekannter Stücke von J.S. Bach bekannt, die von Walter (später Wendy) Carlos (*1939) realisierte LP »Switched-On Bach« ist bis heute eine der meistverkauften Platten im »Klassik«-Segment. 9 Analoge VCOs wurden allmählich durch digital gesteuerte Oszillatoren (›Digital Controlled Oscillator‹, ›DCO‹) abgelöst, zunächst handelte es sich um analog aufgebaute Oszillatoren, die lediglich digital gesteuert wurden, im Laufe der weiteren Entwicklung wurden diese durch vollständig digital funktionierende Oszillatoren ersetzt. Digitale Audio-Signale müssen über einen D/A-Wandler in analoge Schwingungen umgewandelt oder direkt von digitalen Filtern, 265 Bernd Enders ______________________________________________________ sorleistung für eine Berechnung komplexerer Klänge mit vielen Teiltönen in Echtzeit (›Real Time‹) nicht ausreichte und die Klangqualität der damals noch üblichen 8-Bit-Schaltungen hörbar unzureichend blieb.10 Jedem Instrumentalton liegen Bewegungsvorgänge zugrunde, die aus nicht-periodischen (geräuschhaften) und periodischen Bewegungsanteilen bestehen, wie z.B. die eines Punktes auf einer Saite. Die periodischen Vorgänge, die man durch Sinusfunktionen beschreiben kann, nennt man ›harmonische Schwingungen‹. Die einfachste Schwingung, die möglich ist, ist die Sinusschwingung, deren Funktion sich aus der Kreisfunktion ableiten lässt [ 1.3.1]. Die Kreisbewegung ist eine zeitlich periodische Bewegung. Kreisfunktionen sind daher periodische Funktionen, da sich nach einer bestimmten Zeit T die Funktionswerte wiederholen. Mit Kreisfunktionen können Instrumentaltöne beschrieben oder mit einem Algorithmus per Computerprogramm eine Schwingung mit erwünschten Klangeigenschaften berechnet und erzeugt werden. 11 Nach einer computerbasierten Berechnung des erwünschten Schwingungsverlaufs wird eine Folge von Punktwerten ausgegeben, die von einem Digital/Analog-Wandler in einen analogen Spannungsverlauf umgewandelt werden muss, damit die so erzeugte elektrische Schwingung mit einem Lautsprecher wieder hörbar wird. Die Präzision und Klangqualität der erzeugten Schwingung hängt dabei von der zeitlichen und dynamischen Auflösung des Systems ab, dabei gilt, dass eine feinere Auflösung natürlich eine aufwendigere Berechnung mit einem höheren Datenaufkommen erfordert. Weitere Kriterien einer charakteristischen Instrumentalklangfarbe sind Rauschanteile, Formanten und spezielle, z.T. kurzzeitige chaotische Vorgänge beim Aufbau einer Schwingung, die sich aufgrund ihrer Komplexität einer elektronischen Nachbildung entziehen oder zumindest einen hohen technischen Aufwand, ggf. eine Kombination mit anderen Synthesetechniken, und Verstärkern und Effekt-Prozessoren weiter verarbeitet werden. Digitale Hardware-Bausteine wurden in den 1990er Jahren jedoch mehr und mehr von Software-Lösungen für handelsübliche Computer verdrängt und digitale Oszillatoren entsprechend als algorithmisch funktionierende Programm-Module realisiert. 10 Für die heutige Zeit zeigen die Klänge allerdings einen nostalgischen Effekt, so dass aktuelle Synthesizer die alten Sounds oftmals als speziellen Klangeffekt wieder aufleben lassen. 11 Detaillierte Beschreibungen der mathematischen und physikalischen Gegebenheiten finden sich bei: Ph. Ackermann (1991), Computer und Musik; M. Neukom (2005), Signale, Systeme und Klangsynthese; P.R. Cook (2002), Real sound synthesis for interactive applications; E.R. Miranda (2002), Computer sound design. 266 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling eine vorausgehende Klangforschung erfordern, um einem Originalklang möglichst nahe zu kommen. Die subtraktive Klangsynthese Die vermutlich bekannteste und vielleicht auch am häufigsten genutzte Synthesetechnik dürfte die subtraktive Klangsynthese sein, mit der vor allem die ersten analogen Synthesizer und diverse elektronische Orgeln, aber auch schon Vorgängerinstrumente des Synthesizers wie z.B. das Mixturtrautonium von Friedrich Trautwein (1888-1956) und Oskar Sala (19102002) oder die Electronic Sackbut von Hugh LeCaine (1914-1977) arbeiteten [ 3.1]. Die subtraktive Klangsynthese beruht auf der Filterung von teiltonreichen Klängen. Sie erzielt also gewissermaßen eine »Synthese« durch Unterdrückung von Frequenzbereichen. Oder einfacher ausgedrückt: Filter regeln die Klangfarbe eines zugeführten Audiosignals. Analoge VCOs erzeugen neben der Sinusschwingung typischerweise auch obertonarme Dreieckschwingungen und obertonreiche Rechteckschwingungen12 – beide jeweils nur mit Teiltönen in ungeraden Verhältnissen (1:3:5:7... usw.) sowie besonders obertonreiche Sägezahnschwingungen (mit allen Teiltönen im ganzzahligen Frequenzverhältnis, also 1:2:3:4... usw.). Besonders Rechteck- und Sägezahnschwingungen – sowie Rauschsignale – dienen als Ausgangsmaterial für die Filter, die meist als ›Tiefpass-‹ (›Low Pass‹, ›LP‹), ›Hochpass-‹ (›High Pass‹, ›HP‹) und ›Bandpassfilter‹ (›Band Pass‹, ›BP‹) ausgelegt sind. Größere Modulsysteme enthalten darüber hinaus noch ein ›Sperrfilter‹ (›Notch Filter‹, ›N‹, auch ›Bandsperre‹ genannt). Wie die einzelnen Benennungen verraten, lässt ein Tiefpassfilter tiefe Frequenzen passieren, unterdrückt also hohe Frequenzen, beim Hochpassfilter ist es umgekehrt, usw. Immer kann die Eckfrequenz (›Cut-Off-Frequency‹) geregelt werden. Bei Bandpass- und Kerbfilter lässt sich die Mittenfrequenz – hier manchmal auch die Bandbreite – einstellen. Häufig kann auch die ›Resonanz‹ 12 Die Schwingungsform der Rechteckschwingung weist – dem Namen optisch auf dem Oszilloskop entsprechend – ein exaktes Verhältnis von 50:50 zwischen Ober- und Unterkante auf. Damit handelt es sich um einen Sonderfall der Pulsschwingung. Verschiedene VCOs können auch regelbare Pulsschwingungen erzeugen, die auch geradzahlige Teiltöne enthalten. Die Pulsbreite ist dann i.a. steuerbar (›Pulse Width Modulation‹, ›PWM‹), so dass bei der Steuerung durch einen tieffrequenten Oszillator z.B. phasing-ähnliche Klangeffekte möglich werden. 267 Bernd Enders ______________________________________________________ (auch ›Güte‹, ›Q-Faktor‹, ›Resonance‹, ›Emphasis‹) des Filters (im Bereich der ›Eck-‹ resp. der ›Mittenfrequenz‹) verändert werden. Analoge Filter schneiden den zu unterdrückenden Frequenzbereich nicht abrupt ab, sondern mit einem weichen Übergang. Die ›Flankensteilheit‹ in dB gibt an, wie stark die Dämpfung im Bereich einer Oktave ist. Filter mit einer Flankensteilheit von 24 dB (vor allem bei Tiefpassfiltern) werden klanglich bevorzugt, vielfach sind aber auch 12 dB- oder 18 dB-Filter im Einsatz. Abb. 2: Grafische Darstellung der Wirkung eines Tiefpassfilters (links) und eines Bandpassfilters (rechts) Die Filter in analogen Synthesizern sind in der Mehrzahl spannungssteuerbar (›Voltage Controlled Filter‹ = ›VCF‹), d.h., die Funktionen sind manuell oder über Steuerspannungen regelbar, z.B. mit einem Joystick zur manuellen Beeinflussung des Klangs beim Spiel. Wie beim VCA ist aber die Steuerung durch einen Hüllkurvengenerator (›ADSR‹) besonders effektiv, so dass – für viele Hörer höchst ungewohnte – klangfarbendynamische Klangverläufe (z.B. Analog Drum) erzeugt werden. Ein perkussiver Einsatz von musikalisch effektvollen 24 dB-Filtern mit hohem Resonanzfaktor, etwa zur Erzielung von zischelnden Schlagzeugeffekten, heulenden Pfeiftönen oder blubbernden Bässen,13 die von ihren akustischen Pendants nicht erzeugt werden können, waren vor allem in den auf Elektronik setzenden Popmusikstilen der 1970–80er Jahre äußerst beliebt14 (»typisch Synthesizer«). Es gibt erkennbar eine intensive 13 Ein Song der deutschen Elektronikgruppe Kraftwerk veranschaulicht klangvoll diese Sounds im Text: »Boing Boom Tschak« (1986). 14 Besonders bekannt für elektronische Klangwirkungen wurden Gruppen wie Pink Floyd, Kraftwerk, Tangerine Dream in Deutschland oder Depeche Mode, The Human League in England oder die als Ein-Personen-Orchester auftretende Synthesisten wie der Franzose JeanMichel Jarre oder der Grieche Vangelis u.v.a.m. 268 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling und nachhaltige Wechselwirkung zwischen den neuen Musiktechnologien und den musikalischen Strukturen der Popularmusikformen in der 2. Hälfte des 20. Jahrhunderts, denn nicht nur die neuartigen Klangfarben (Synth Sounds) und Klangeffekte kennzeichnen die popmusikalische Entwicklung, sondern ebenso bedeutsam, vielleicht noch grundlegender wirken sich die endlos repetierten Loops der (zu Anfang nur) achtschrittigen Step-Sequenzer, die Präzision der Rhythmusautomaten und die Multiplay-Technik übereinandergeschichteter Stimmen auf die stilistischen Merkmale (und Hörgewohnheiten) aus.15 Aber auch langsame ›Sweeps‹ und repetierende, kreisende und glissandierende Filtereffekte, wie sie onomatopoetisch durch Begriffe wie ›WahWah‹ beschrieben werden, sind kennzeichnend für eine mit Filtern realisierte subtraktive Klangsynthese in den ersten Jahren der Synthesizerentwicklung. Je nach Schaltung können Filter unterschiedliche Klangcharakteristiken zeigen. Z.B. hat das 4-Pol-Kaskadenfilter der ersten Moog-Synthesizer wegen seines speziellen Klangs einen legendären Ruf und gilt als »klassischer« Moog-Filter, dessen Nachbau oder Simulation bis heute immer wieder angestrebt wird. Die besonderen Klangeigenschaften analoger Synthesizer hängen wesentlich von den konkret realisierten Filterschaltungen ab. Mit der gezielten (Bandpass-) Filterung von Klängen können bestimmte Resonanzeigenschaften wie z.B. die Formanten von Instrumenten oder der Stimmvokale mit einiger Näherung nachgeahmt werden. Einen Spezialfall der Klangfilterung bietet der 1939 von Homer Dudley (1896-1987) patentierte, eigentlich für militärische Codierungszwecke konstruierte ›Vocoder‹ (Kurzform von Voice enCoder), ein im Wesentlichen aus mehreren Bandpassfiltern, Hüllkurvenverfolgern und VCAs aufgebautes Gerät mit mindestens zwei Audio-Eingängen, das typischerweise die Artikulation eines analysierten Sprachsignals auf die Klänge oder Geräusche eines beliebigen Audiosignals, z.B. eines Musikinstruments, überträgt – mit dem immer wieder überraschenden Effekt eines sprechenden oder singenden Instrumentalklangs oder Geräuschs (z.B. Roboterstimmen in verschiedenen Produktionen der Gruppe Kraftwerk). Das Sprachsignal wird im Analyseteil eines Vocoders mit Bandpassfiltern in mehrere (z.B. 12) Frequenzbereiche zerlegt; 15 Vgl. u.a. W. Sandner (1977), Sound & Equipment; W. Schiffner (1991), Einflüsse der Technik auf die Entwicklung von Rock/Pop-Musik; B. Enders (1995), Der Einfluß moderner Musiktechnologien auf die Produktion von Popularmusik; H. Wandler (2012), Technologie und Sound in der Pop- und Rockmusik - Entwicklung der Musikelektronik und Auswirkungen auf Klangbild und Klangideal. 269 Bernd Enders ______________________________________________________ nachgeschaltete ›Hüllkurvenverfolger (›Envelope Follower‹) erzeugen aus der gemessenen Dynamik in den einzelnen Kanälen entsprechende Steuerspannungen, die zur Steuerung von VCAs dienen, die wiederum im Syntheseteil den Bandpassfiltern nachgeschaltet sind, die – analog zum Analyseteil – das Audiosignal als Trägersignal in mehrere Frequenzbereiche aufgeteilt haben. Für effektvolle Vocoderklänge müssen Sprach- und Trägersignal in etwa die gleichen Frequenzbereiche abdecken und das Trägersignal sollte kontinuierlich klingen (z.B. Orgel).16 Die FM-, PM- und AM-Synthese Obwohl die subtraktive Klangsynthese in den Anfangszeiten analoger Synthesizer sich in der Praxis als die vorherrschende Methode der Klangformung durchsetzte und die Additive Klangsynthese zumindest ansatzweise eingesetzt wurde, standen auch andere Synthesetechniken prinzipiell zur Verfügung. Dazu gehören vor allem nichtlineare Synthesetechniken, die auf der Modulation (= zeitlichen Veränderung) eines Schwingungsparameters beruhen, wenn z.B. ein Oszillator die Amplitude eines Verstärkers (›Amplitudenmodulation‹, ›AM-Synthese‹) oder die Frequenz (›Frequenzmodulation‹, ›FM-Synthese‹) oder die Schwingungsphase (›Phasenmodulation‹, ›PM-Synthese‹) eines anderen Oszillators moduliert. Abgesehen von einer einfachen gegenseitigen Frequenzsteuerung zweier analoger Synthesizeroszillatoren (auch als ›Cross Modulation‹ bekannt) wurden diese Synthesetechniken erst mit der Digitalisierung der Synthesizertechnologie einem größeren Anwenderkreis zugänglich. (Lediglich die Ringmodulation (s.u.) als Sonderfall der Amplitudenmodulation spielte in der experimentellen Elektronischen Musik der 1950–60er Jahre eine gewisse Rolle). Gründe hierfür liegen in der schwer vorhersehbaren Komplexität der erzielten Klangstrukturen, zumal sich einmal gefundene Sounds nicht abspeichern ließen, sowie in der Schwierigkeit, stabile Frequenzverhältnisse einzustellen, so dass ein musikalisches Spiel mit den Klängen möglich wurde. Zwar gelang es mit speziell konstruierten Chips in den 1980er Jahren auch analoge Synthesizer mit frequenzstabilen Modulen zu bauen, aber zu dieser Zeit verdrängten digitale Systeme die analogen Vorgänger bereits fast vollständig.17 16 Vgl. dazu: ›Vocoder‹, in B. Enders (1997), Lexikon Musikelektronik. 17 Z.B. verfügt der mit Curtis-ICs aufgebaute Modulsynthesizer Soundlab, der 1985 von der EOrgelbaufirma Dr. Böhm unter konzeptioneller Mitwirkung des Verfassers dieser Zeilen hergestellt wurde, über die Möglichkeit, stimmstabile Klänge mittels AM-, FM- und PM- 270 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Die Klangsynthese mittels einer Frequenzmodulation (FM-Synthese) beruht auf der Modulation der Frequenz einer Audioschwingung (›Trägerfrequenz‹, ›Carrier Frequency‹) mit einer Frequenz, die ebenfalls im Audiobereich (>20 Hz) liegt. Wird eine Schwingung mit einer Frequenz im Subaudiobereich moduliert, z.B. mit 7 Hz, resultiert daraus ein Vibrato oder je nach Amplitude der Modulationsfrequenz (hier auch ›Frequenzhub‹ genannt) etwa ein periodisches Glissando wie eine Sirene. Liegt die Modulationsfrequenz (›Modulation Frequency‹) jedoch im Audiobereich, werden neue, recht komplexe Klangstrukturen hörbar, deren Teiltonspektren von Frequenz und Amplitude der Modulationsschwingung abhängen. Während z.B. auf additivem Wege mit zwei Sinusoszillatoren lediglich ein Oberton zum Grundton hinzukommt (›lineare Synthese‹), werden mit der (›nichtlinearen‹) FM-Synthese je nach Frequenzverhältnis und Modulationstiefe der beiden Sinusschwingungen bereits zahlreiche harmonische und nichtharmonische Teiltöne generiert. Im Spektrum einer frequenzmodulierten Sinusschwingung kommen oberhalb und unterhalb zur Trägerfrequenz sogenannte ›Seitenbänder‹ hinzu, die das Teiltonspektrum des erzeugten Klangs ausmachen – und zwar im Abstand der Modulatorfrequenz sowie ihrer ganzzahligen Vielfachen (n). fc ± n fm Wenn beispielsweise die Trägerschwingung eine Frequenz fc von 1.000 Hz aufweist und die Modulatorfrequenz fm 200 Hz beträgt, dann werden bei einer Amplitude der Modulationsfrequenz (> 0 !) als erste Seitenfrequenzen 1.000 + 200 = 1.200 Hz oberhalb und 1.000 – 200 = 800 Hz unterhalb der Trägerfrequenz erzeugt, als weitere Frequenzen 1.400 Hz und 600 Hz usw. – jeweils mit den Vielfachen der Modulatorfrequenz fm von 200 Hz. Damit ergibt sich für den resultierenden Klang (200, 400, 600, 800, 1.000, 1.200, 1.400, 1.600, 1.800 Hz) ein Grundton von 200 Hz (der also nicht identisch mit der Trägerfrequenz 1.000 Hz ist). Je nach Relation der beiden Frequenzen ist es möglich, dass ein Residualton [ 2.5.2] als Grundton gehört wird, also eine Frequenz, die im Spektrum der FM-Synthese als eigenständige Schwingungskomponente nicht vorhanden ist. (Wäre die Amplitude des Modulators gleich Null, gäbe es keine Modulation und es wäre nur eine Sinusschwingung von 1.000 Hz zu hören.). Synthese zu erzeugen. Aktuelle Analogmodelle basieren ebenfalls auf Chip-Technologie, z.T. in Kombination mit digitalen Schaltelementen. 271 Bernd Enders ______________________________________________________ Stehen Träger- und Modulatorfrequenz im exakten Verhältnis ganzer Zahlen zueinander, also z.B. 2/3, 5/2 usw., ergeben sich harmonische Spektren, andernfalls erhält man unharmonische Teiltonstrukturen, die sich z.B. für Mischklänge (Schlagzeug, Glocken, Gong) nutzbringend verwenden lassen. Abb. 3: Seitenbänder einer FM-Synthese Das Schwingungsergebnis einer Frequenzmodulation kann in einer Funktionsgleichung wie folgt dargestellt werden: e(t) = A sin [2π + fc t+ I sin (2π fmt)] Hierbei ist e die Elongation, also der momentane Punkt des Schwingungsvorgangs, A steht für die Amplitude bzw. Hüllkurve des gesamten Ausgangssignals, fc ist die Trägerfrequenz. Der Modulationsindex I ergibt sich als Quotient aus der Amplitude d der Modulationsfrequenz (oder Frequenzhub) und der Modulationsfrequenz fm: I = d/fm Da sich die Klangergebnisse der FM-Synthese nur schwer vorhersagen lassen, vor allem bei der Modulation mit mehreren beteiligten Oszillatoren oder bei Verwendung komplexerer Schwingungsformen als Träger und/oder Modulator, ist es verständlich, dass sich erst mit dem Aufkommen digitaler Instrumente eine größere Verbreitung ergab, denn nun ließen sich einmal gefundene, musikalisch geeignete Klangstrukturen im digitalen Set abspeichern und leicht wieder aufrufen. 272 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Im Jahre 1967 wurde die FM-Klangsynthese von John M. Chowning18 (*1934) von der Stanford Universität beschrieben.19 Die Patente ließ sich die Firma Yamaha 1974 lizensieren und baute in den Folgejahren verschiedene FM-Synthesizer. Der 1983 vorgestellte, digital mit fortschrittlicher ChipTechnologie aufgebaute, als FM-Synthesizer bekannte DX 7 entwickelte sich dann rasch zu einem Verkaufsschlager (er gilt als einer der meistverkauften Synthesizer überhaupt), da er zahlreiche gut klingende und fertig programmierte, über Speicher rasch abrufbare, brillante Instrumentalsounds (›Factory Sounds‹) enthielt, 16stimmig polyphon gespielt werden konnte und zudem mit dem neu entwickelten MIDI-System (s.u.) kompatibel war. Überdies war der DX 7 als Keyboard mit klavierähnlicher Anschlagsdynamik relativ leicht transportabel und vergleichsweise günstig im Preis. Die zu dieser Zeit aktuellen Analogsynthesizer, die überwiegend nur über wenige Stimmen verfügten und deren Klangprogramme nicht oder nur bedingt abgespeichert werden konnten, galten daraufhin schnell als veraltet (erleben aber seit den 1990er Jahren aufgrund der charakteristischen »fetten« Sounds analoger Schaltungen eine überraschende Renaissance). Die Nachfolger des DX 7 zeichneten sich durch erweiterte Speichermöglichkeiten und aufgrund der Verwendung von 16 Bit-Wandlern (statt 12 Bit) rauschärmere Klänge aus. Vor allem die Authentizität perkussiver Klänge (wie E-Piano, Clavinet, Cembalo), die nuancenreiche Anschlagsdynamik und Klangfarben mit nicht ausschließlich harmonischen Teiltonspektren (Glocken, Metallophone) wurden allgemein geschätzt. Auf die Programmierung der als zu kompliziert betrachteten FM-Synthese wurde eher verzichtet, so dass in den Folgejahren meistens die mitgelieferten oder hinzugekauften Klangprogramme (›Presets‹, ›Factory Sounds‹) zu hören waren. Erst mit der Entwicklung allgemein verfügbarer Musikprogramme für handelsübliche Computer wurde die eigene Klangprogrammierung wiederbelebt. Auch die ersten Home Computer wie der Commodore C64 oder der MIDI-kompatible Atari ST brachten Soundchips mit, die mit der FM-Synthese arbeiteten, allerdings mit großen Einschränkungen und minderer Klangqualität als die der YamahaInstrumente. 18 J.M. Chowning (1973), The synthesis of complex audio spectra by means of frequency modulation. Für die Nachrichtentechnik wurde das Verfahren schon um 1922 entdeckt, u.a. basiert der UKW-Rundfunk auf der FM-Technik. Auch der bekannte Synthesizerkonstrukteur Donald Buchla (*1937) experimentierte um 1968 mit diesem Verfahren; M. Becker (1990), Synthesizer von gestern. 19 Vgl. T. Tolonen / V. Välimäki / M. Karjalainen (1998), A new sound synthesis structure for modeling the coupling of guitar strings, S. 205–208. 273 Bernd Enders ______________________________________________________ Auch bei der (nichtlinearen) Klangsynthese mittels einer Amplitudenmodulation (AM-Modulation) ergeben sich neue Schwingungsformen mit Seitenbändern. Wird die Amplitude eines Klangs periodisch verändert, hört man bei langsamen Frequenzen der Modulationsfrequenz (z.B. 7 Hz) eine entsprechende Lautstärkenschwankung, ein Tremolo. Wird die Modulationsfrequenz jedoch in den Audiobereich erhöht, resultiert eine Schwingungsform, deren Teilschwingungen sich durch Addition und Subtraktion von Trägerfrequenz (z.B. 200 Hz) und Modulationsfrequenz (z.B. 50 Hz) errechnen lassen (also 200 + 50 = 250 Hz und 200 – 50 = 150 Hz). Auch die Trägerfrequenz (= 200 Hz) ist zu hören, sofern es sich bei der Modulationsfrequenz um eine unipolare Schwingung handelt (mit einem Offset, also nicht symmetrisch um den Nullpunkt schwingend). Wird hingegen eine bipolare Modulationsfrequenz verwendet, werden ebenfalls die beschriebenen Seitenbänder erzeugt, jedoch ist die Trägerfrequenz im resultierenden Signal nicht mehr vorhanden. Diese Syntheseform ist als ›Ringmodulation‹20 bekannt, sie ist ein Sonderfall der Amplitudenmodulation. Digitale Syntheseformen Während die bisher beschriebenen Synthesemethoden mit analoger und digitaler Elektronik realisiert werden können, digital z.T. mit erweiterten Möglichkeiten, erschließt die Digitaltechnik neuartige Syntheseformen, die voraussichtlich eine große Bedeutung für die weitere Entwicklung der Audio- und Musiktechnologie haben werden und mit analoger Technik kaum realisierbar sind. Ein Beispiel hierfür gibt die ›Waveshaping-Synthese‹ (auch ›Wellenformsynthese‹), die prinzipiell auch auf analoger Basis möglich ist, aber erst mit digitaler Technik praktikabel umgesetzt werden kann. Hier entstehen aus einem Eingangssignal über nichtlineare Verzerrungen neue Schwingungsformen mit komplexeren Klangspektren durch hinzutretende Obertöne. Verschiedene Verzerrungseffekte wie z.B. die Übersteuerung eines Gitarrenverstärkers können auf diese Weise überzeugend simuliert werden. Für die Verzerrung des Eingangssignals werden häufig mathematische Funktionen eingesetzt, die als ›Chebyshev-Polynome‹ (auch ›Tschebyschow-P.‹) bekannt sind. Wird z.B. eine 20 Mit einer Schaltung, die vier Halbleiter- oder Röhrendioden in einem Ring anordnet – daher der Name – lassen sich zwei Wechselspannungen recht einfach multiplizieren. Ringmodulatoren wurden schon in den 1950er Jahren in der experimentellen Elektronischen Musik verwendet, z.B. um Instrumentenklänge im Live-Konzert nichtharmonisch zu verzerren. 274 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Cosinusschwingung mit der 3. Chebyshev-Polynom-Funktion (4(xˆ3) – 3x) transformiert, wird eine Cosinusschwingung mit der dreifachen Frequenz (Oktave + Quinte) erzeugt. Durch geeignete Kombinationen der verschiedenen Funktionen lassen sich sehr unterschiedliche, z.T. aber schwer vorhersehbare Teiltonspektren erzielen.21 Die ›Granularsynthese‹ (›Granular Synthesis‹) wurde Ende der 1940er Jahre vom ungarischen Physiker Dennis Gabor entdeckt. Er stellte fest, dass sich beliebige Klangfarben aus einer Kette (›Sequenz‹) von sehr kurzen Klangpartikeln, sogenannten ›Grains‹ (lat. granulum, engl. grain für »Korn, Körnchen«) herstellen lassen, die typischerweise zwischen 10 und 100 ms lang sind.22 Diese Klangpartikel können einfache Sinusschwingungen oder auch komplexere Schwingungsformen enthalten und mit verschiedenen Amplituden, Dauern der Grains und Dauern der Sequenz wiedergegeben werden. Ähnlich wie die Einzelbilder eines Films bei der Wiedergabe zu einem Kontinuum verschmelzen, nimmt der Hörer die einzelnen Schwingungsquanten als einen kontinuierlichen Klangverlauf wahr, wenn ihre Länge 50 ms nicht überschreitet. Sind sie länger, dann werden sie als eigenständige Klangabschnitte gehört. Im Unterschied zur additiven Synthese, die Teilschwingungen im Frequenzbereich addiert, entsteht bei der Granularsynthese die Schwingungsform durch Addition der Klangpartikel im Zeitbereich. Werden die einzelnen Grains gleich mehrfach ausgelesen, sind Effekte wie Time Stretching oder Pitch Shifting möglich, d.h., die Tondauer kann verändert werden, ohne dass sich die Tonhöhe mitändert, und umgekehrt. Obwohl die Grains heutzutage normalerweise digital gespeichert bzw. ausgelesen werden, ist eine Realisation mit analoger Technik durchaus möglich. Schon Karlheinz Stockhausen und Iannis Xenakis (1922-2001) experimentierten mit auf Magnetband gespeicherten, seriell angeordneten Klangfragmenten, die mit hoher Bandgeschwindigkeit abgespielt wurden. Sehr vielversprechend ist eine relativ neue, nur digital mögliche Synthesetechnik, die als ›Physical Modelling‹ (auch: ›Physical Modeling‹) oder ›Physikalische Modellierung‹ bekannt ist. Im Gegensatz zu den bisher beschriebenen Syntheseformen wird ein erwünschtes Klangspektrum nicht über die Manipulation von Schwingungsformen erreicht, sondern über ein Rechenmodell der Erzeugung eines Schwingungsvorgangs am Ort der Entstehung, indem mechanische Schwingungsprozesse untersucht und das Zusammenwirken von Erreger 21 Der französische Komponist Jean-Claude Risset (*1938) experimentierte bereits 1969 musikalisch mit der Waveshaping-Synthese. 22 D. Gabor (1946), Theory of communication, S. 429–457. 275 Bernd Enders ______________________________________________________ und Resonatoren, also der akustisch relevanten Bestandteile eines Instruments, digital simuliert wird. Z.B. muss das Streichen oder Zupfen einer Saite, das Anschlagen einer Trommelmembran oder das Vibrieren eines Rohrblattes mathematisch erfasst und/oder die damit gekoppelten Resonanzvorgänge (z.B. Geigenkörper, Luftsäule, Reflexionen) analysiert und mit Hilfe von verschiedenen Schwingungsmodellen algorithmisch nachgebildet werden. Bevorzugt handelt es sich dabei um ›Feder-Masse-Modelle‹, die das Schwingen von einzelnen Massenpunkten in Federn oder Pendeln mathematisch beschreiben, oder um ›Wellenleitermodelle‹, die auf der (echtzeitfähigen) Berechnung der (eindimensionalen) Wellenausbreitung und Reflexionen bei Saiten und Luftsäulen beruhen.23 Schwingungen von mehrdimensionalen Systemen wie Saiten, Stäbe und Platten können durch gekoppelte Masse-Feder-Systeme modelliert werden.24 Dabei repräsentiert jeder Massenpunkt die durchschnittliche Masse einer Längen-, Flächen- oder Volumeneinheit. Für jeden Massenpunkt lässt sich eine Bewegungsgleichung erstellen. Das Gesamtsystem lässt sich in einem Gleichungssystem zusammenfassen. Die Berechnung erfolgt mit computergestützten Methoden, wie z.B. der Finiten Elemente Methode.25 Nicht nur die Schwingung lässt sich damit modellieren, sondern auch die Schallausbreitung in einem umgebenden Medium, wie z.B. der Luft. Das Klangresultat der Physikalischen Modellierung ist umso realistischer, je genauer die akustischen Kenntnisse sind bzw. je mehr über die jeweilige Klangerzeugungstechnik des simulierten Instruments bekannt ist. Die zur optimalen Nachbildung notwendigen Algorithmen sind allerdings überwiegend sehr komplex und beanspruchen auch beim aktuellen Stand der Computertechnik eine hohe Rechenleistung, weshalb nur wenige Modelle in Echtzeit funktionieren.26 Letzteres wäre aber gerade von besonderem Vorteil, weil eine Physical-Modelling-Synthese eine sehr differenzierte Beeinflussung der verschiedenen Parameter eines Klangerzeugungsvorgangs zulässt, oder anders ausgedrückt: Mit geeigneten Spieleinrichtungen (›Interfaces‹) – wie z.B. einem 23 J.O. Smith III (1992), Physical modeling using digital waveguides. Eine weiterführende Erläuterung der mathematischen Grundlagen aller hier beschriebenen Syntheseformen findet sich u.a. bei M. Neukom (2005), Signale, Systeme und Klangsynthese; C. Roads (2000), The computer music tutorial. 24 D. Hall (1997), Musikalische Akustik, S. 178. 25 N.H. Fletcher / Th.D. Rossing (1991), The physics of musical instruments, S. 122–123. 26 Yamaha hat 1993 mit dem ein/zweistimmigen Vl-1 erstmals ein kommerzielles PhysicalModeling-Instrument auf der Basis eines Blasinstrumentenmodells hergestellt, idealerweise mit einem Blaswandler zu spielen. Mit dem extrem seltenen und noch aufwendigeren VP-1 wurden Streicherklänge simuliert. 276 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Blaswandler – lassen sich auch subtile Modulationen erreichen und für eine musikalisch optimal gelungene Artikulation der Klänge nutzen. Natürlich können die Schwingungsparameter eines Modells auch extrem verändert werden, um neuartige Instrumente zu konstruieren oder bekannte Instrumente zu variieren, gegebenenfalls in einer Weise, die mechanisch nicht erreichbar wäre, wie z.B. eine Gitarre mit baumlangen Saiten. Schon 1983 wurde von Kevin Karplus (*1954) und Alex Strong ein relativ einfaches und bis heute öfter verwendetes Physical-Modelling-Verfahren beschrieben, das im wesentlichen aus einer Verzögerungsschleife mit einem integrierten Tiefpassfilter besteht, in die (z.B.) ein Rauschimpuls eingespeist wird (›Karplus-Strong-Algorithmus‹). Bei jedem Durchlauf der Verzögerungsleitung (›Delay Line‹) mit einer Verzögerungszeit, die der Periodendauer des zu erzeugenden Tons entspricht, werden Teiltöne des Ausgangssignals immer stärker gedämpft, so dass der Ton rasch dunkler wird und ausklingt. Daher eignet sich diese Synthese vor allem für die Nachahmung von gezupften Saitenklängen oder Trommelschlägen.27 3.2.2 Sound Sampling und Resynthese Synthetische Klänge können sehr neuartig klingen, sie können bekannte Instrumente recht gut imitieren, aber eine authentische Nachbildung mit allen Feinheiten des Ein- und Ausschwingverhaltens, der z.T. sehr subtilen und sich verändernden Geräuschanteile und der inneren (feinmodulatorischen) Bewegung auch in einer quasi-stationären Phase eines musizierten Klangs (z.B. einer gestrichenen Geigensaite) sind auch mit digitalen Technologien nur sehr schwer zu reproduzieren. Daher liegt der Gedanke nahe, einfach die Originalklänge von Instrumenten aufzunehmen, zu speichern und beim musikalischen Spiel abzurufen. Als ein erster Versuch könnte die von Edwin Welte (1876-1958) in den 1930er-Jahren entwickelte Lichttonorgel gewertet werden [ 3.1.2]. In den 1950er Jahren konstruierte Harry Chamberlin das ab 1964/65 erhältliche Tasteninstrument ›Mellotron‹, das pro Taste auf Tonbändern (jeweils drei) gespeicherte Originaltöne (z.B. Flöte, Streicher, Chöre) in der entsprechenden Tonhöhe und maximal 8 s Dauer zum Klingen brachte. Der aufgrund der 27 K. Karplus / A. Strong (1983), Digital synthesis of plucked-string and drum timbres; vgl. auch: T. Tolonen / V. Välimäki / M. Karjalainen (1998), A new sound synthesis structure for modeling the coupling of guitar strings, S. 205–208. 277 Bernd Enders ______________________________________________________ komplizierten und störanfälligen Mechanik leicht leiernde Klang ist auf vielen Platten der 1960er und 70er Jahre zu hören, z.B. der Beatles (»Strawberry fields«), der Moody Blues (»Nights in white satin«), Pink Floyd, Led Zeppelin u.v.a. Auch das von den Vertretern der musique concrète – vor allem von Pierre Schaeffer (1910-1995) – in Paris in den 1950er Jahre entwickelte Phonogène basierte auf chromatisch »gestimmten« Tonbändern, die mit einer Klaviatur gespielt werden konnten. Das digitale Sound-Sampling-Zeitalter begann mit dem ersten komplett digitalen Synthesizer, dem Fairlight Musikcomputer CMI, der Ende der 1970er Jahre von den Australiern Peter Vogel und Kim Ryrie auf der Basis einer 8Bit-Technologie entwickelt und insbesondere in den 1980er Jahren von innovativen Künstlern wie Peter Gabriel und Stevie Wonder eingesetzt wurde. Populär wurden gespeicherte Orchesterklänge mit Kate Bushs Album »Never for ever« (1980, mit dem Hit »Babooshka«). Die erste ausschließlich mit dem Fairlight produzierte Langspielplatte war »Erdenklang – Computerakustische Klangsinfonie« der österreichischen Musiker Hubert Bognermayr und Harald Zuschrader. Das Werk wurde 1981 auf der Ars Electronica 1982 uraufgeführt; ein Stück, das sehr stark auf Sound Samples basiert, die häufig transponiert erklingen und insgesamt dadurch recht künstlich wirken. Auch der Franzose Jean Michel Jarre (»Magnetic fields«, 1981) oder die Experimentalgruppe Art of Noise (»Into battle«,1983) setzten früh auf die gesampelten Sounds eines Fairlight CMI. 278 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Abb. 4: Fairlight Musikcomputer CMI mit digitaler Klangsynthese (Wavedrawing mit Lightpen), Sound Sampling (8-bit) und Sequenzer (mit rudimentärer Notendarstellung) Konkurrenz entstand dem Fairlight sofort durch das ›Synclavier‹, das ab Mitte der 1970er Jahre von der Firma ›New England Digital‹ entwickelt wurde, zunächst ebenfalls als 8-Bit-System mit Additiver und FM-Synthese (›Synclavier I‹, 1979), später auch mit der Möglichkeit, Samples abzuspielen (›Synclavier II‹). 1982 kam der schon deutlich erschwinglichere ›Emulator‹ von Emu Systems dazu, 1985 der ›Mirage‹ von Ensoniq, und in der Folgezeit wurden die Systeme immer handlicher und leistungsfähiger, so dass beispielsweise schon 1988 der Akai ›S1000‹ als Einbaugerät für 19"-Racks mit 16-BitAuflösung, CD-Qualität, erweiterbarem Speicher und polyphonem Spiel mit 16 Stimmen daherkam und die musikalische Verwendung von Sound Samples wesentlich den Klang der Popmusik ab Ende der 1980er Jahre prägte. Der 1980 erstmals von Roger Linn konstruierte ›Linn LM-1 Drum Computer‹ gilt als erste programmierbare Rhythmusmaschine, die digitalisierte Klänge eines originalen akustischen Schlagzeugs verwendete. 279 Bernd Enders ______________________________________________________ Mit dem Aufkommen immer preiswerterer und leistungsfähigerer Computer mit schnelleren Prozessoren, größeren Arbeitsspeichern und hochwertigen Soundkarten wurde seit Mitte der 1990er Jahre mehr und mehr auf spezielle Hardware verzichtet und die Entwicklung der Sound Sampler in den Softwarebereich verlagert. Als umfangreiche Programm-Pakete sind heute Sampling-Bibliotheken wie z.B. die erfolgreiche ›Vienna Symphonic Library‹ in der Lage komplette Orchesterstimmen abzubilden, z.T. mit spieltechnischen Raffinessen (z.B. verschiedene Bogenstriche beim Geigenspiel), so dass die klangliche und musikalische Qualität dem Original erstaunlich nahekommt und dem weniger geübten Ohr nicht mehr auffällt. In den Studios vieler Pop- und Filmmusikproduktionen wird inzwischen fast völlig auf die Einbindung von Instrumentalisten und original gespielten Instrumenten verzichtet. Abb. 6: Kontakt-Player mit mehreren »geladenen« Sample-Instrumenten (Native Instruments) 280 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Prinzipiell basiert die Technik eines Sound Samplers [ 3.3.3] auf der digitalen Speicherung von letztlich beliebigen Klängen, also z.B. den einzelnen Tönen eines Musikinstruments, die zum musikalischen Spiel – etwa mit einem Keyboard – in der passenden Frequenz aus dem Speicher ausgelesen werden. Wird beispielsweise die Taste a1 gedrückt, ertönt z.B. ein Trompetenton mit 440 Hz, auf den ersten Blick ein klanglich perfektes Verfahren. Jedoch gibt ein Sound Sampler den Originalklang in einer »fixierten« Aufnahme wieder, vergleichbar mit einem immer identisch ablaufenden Filmausschnitt eines eigentlich sich ständig verändernden Vorgangs. Soll der Klang z.B. länger erklingen als die Originalaufnahme, muss ein bestimmter Teil wiederholt werden (›Loop‹), wobei ein quasistationärer, also möglichst gleichförmiger Abschnitt am geeignetsten ist. Um dabei ein Knacken an den Übergängen zu vermeiden, müssen Nullpunkte im Schwingungsverlauf gefunden werden, entweder automatisch (›Auto Loop‹) oder durch manuelle Setzung. Verschiedene Edit-Werkzeuge erlauben ein präzises Beschneiden (Trim/Truncate) von Samples. Funktionen wie Cut/Copy/Paste erweitern die Möglichkeiten der Bearbeitung, eine grafische Darstellung des Schwingungsverlaufs optimiert die Zugriffsmöglichkeiten. Verschiedene Loop-Typen stehen eventuell zur Verfügung (Forward/Backward oder Reverse/Alternate Loop). Vielfach lässt sich auch einstellen, ob ein Loop beim Tastendruck erklingen soll (Sustain Loop) oder erst nach dem Loslassen der Taste (Release Loop), gegebenenfalls mit verschiedenen Klanganteilen, etwa mit einem abschließenden Geräusch (z.B. Rückfallklick eine Cembalo-Springers). Allerdings funktionieren geloopte Sounds nur einigermaßen akzeptabel bei Klängen mit relativ gleichbleibenden Schwingungsverläufen (Orgel, Posaune o.ä.), denn für Instrumente mit dynamisch sich stetig verändernden Klangstrukturen (z.B. Klavier, Gitarre) muss zwangsläufig ein komplettes Sample vorliegen. Ein anderes Problem entsteht beim Transponieren eines Samples, wenn ein a1-Sample auch für den Ton as1 oder b1 erklingen soll, also um einen Halbtonschritt nach unten bzw. oben verschoben werden muss. Dabei erklingen die Töne der Auslesegeschwindigkeit entsprechend nicht nur länger (oder kürzer), was ggf. durch eine Zeitkorrektur (›Time Correction‹) ausgeglichen werden kann, sondern ihre Oberton- und Formantcharakteristik wird komplett mit nach unten (oder nach oben) im Frequenzbereich verschoben, so dass ein transponiertes Sample sehr schnell unnatürlich klingt.28 Zwar könnte die Spei- 28 Je nach Klangfarbe sind Transpositionen bis zu einer großen Terz auf- oder abwärts manchmal noch akzeptabel. Eine Transposition der Stimme über ein größeres Intervall nach oben (z.B. Oktave) ergibt den sogenannten ›Mickey-Mouse-Effekt‹. 281 Bernd Enders ______________________________________________________ cherung je eines eigenen Samples pro Instrumentalton dieses Problem lösen, jedoch fallen dann je nach erwünschter Klangqualität (z.B. 96 kHz Sample Rate und 24-Bit-Quantisierung), Länge und Aufnahmeart der Originalaufnahme (z.B. in Stereo) doch sehr große Datenmengen an, die etwa beim mehrstimmigen Spiel auch moderne und hochwertige Rechner mit schnellen Festplatten ins Stocken bringen können. Schließlich muss berücksichtigt werden, dass Instrumentalklänge in verschiedenen Lautstärkegraden klangfarblich unterschiedlich klingen, normalerweise wird ein Klang mit zunehmender Lautstärke nicht nur einfach lauter, sondern auch brillanter, heller, schneidender, d.h. die Teiltonstruktur ändert sich, höhere Teiltöne kommen hinzu oder treten stärker hervor. Außerdem hängt die Klangfarbe eines Instruments von der konkreten Spielweise ab, von der Artikulation, bei der Geige z.B. vom Bogenstrich, bei der Flöte gibt es unterschiedliche Anblasgeräusche usw. Es ist daher praktisch kaum möglich, für jede Lautstärke und jede Artikulationsform eigene Originalsamples zu speichern und passend abzurufen. Damit zur Erzielung möglichst authentischer Klänge nicht zu große Datenmengen anfallen, werden verschiedene Verfahren angewendet, um weiche Übergänge zwischen den gesampleten Tönen und verschiedenen Dynamikstufen zu erreichen. Üblicherweise werden die Samples bestimmten Tonbereichen zugeordnet (›Mapping‹), in denen ein Sample trotz Transposition noch natürlich klingt, und die Übergänge zu den benachbarten Samples werden durch eine Überblendungsfunktion fließender gestaltet (›Crossfade‹). Eine ähnliche Technik wird für feinere klangfarbendynamische Abstufungen genutzt, verschiedene Samples mit unterschiedlichen Lautstärken werden übereinandergelegt (›Layer‹) und je nach verlangter Dynamik (z.B. anschlagsdynamisch) umgeschaltet (›Velocity Switching‹). Auch hier können weichere Übergänge vorgesehen werden (›Velocity Crossfading‹). Für spezielle Effekte können natürlich auch völlig verschiedene Instrumente anschlagsdynamisch umgeschaltet oder kombiniert werden. Grundsätzlich werden Sound Samples auch noch weiteren Klangformungsverfahren unterworfen, programmierbare Hüllkurven, Klangfilter und zahlreiche Effekte wie Hall, Echo, Distortion, Phaser/Flanger/Chorus, Tonsystemwahl und instrumentalspezifische Einstellungen (z.B. Öffnungswinkel eines Flügeldeckels) sind je nach Qualität und Leistungsumfang einer SampleLibrary zusätzlich regelbar. Weitere wichtige Aspekte der klanglichen Gestaltung von Sample-Libraries sind die Bedingungen bei der Aufnahme selbst, z.B. die Aufstellung der Mikrofone, der Räumlichkeitsanteil, die Wahl zwischen Solo- oder Gruppenaufnahmen u.a.m. Diese Aspekte lassen sich im Sampler hinterher nicht mehr beeinflussen. 282 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Gleichwohl ist das Sampling-Prinzip zur Zeit die erfolgreichste Methode, die Klangfarbencharakteristik akustischer Instrumente möglichst naturgetreu nachzubilden. Sogar die typischen Sounds meist älterer elektroakustischer Instrumente (z.B. Hammond-Orgel, Fender Rhodes) oder Synthesizer (›Vintage Synthesizer‹) werden gesampelt, obwohl die Synthesetechniken dieser Instrumente heutzutage auf digitalem Wege relativ einfach simuliert werden könnten.29 Da die Herstellung von musikalisch genutzten Sound Samples z.T. recht aufwendig ist und eine digitale Kopie dem Original absolut gleicht, werden zunehmend auch juristische Aspekte diskutiert. Das Urheberrecht wird vor allem dann verletzt, wenn das Sample eine musikalisch erkennbare Struktur enthält. Die ›Granularsynthese‹ liegt auch häufig der sogenannten ›Resynthese‹ zugrunde, bei der ein digitalisierter Klang (Sound Sample, s.u.) in einzelne Grains zerlegt und einer Fourier-Analyse [ 1.2] unterzogen wird (›zeitbezogene Resynthese‹, auch ›Time Domain Synthesis‹). Beim Zusammensetzen der einzelnen Elemente können die verschiedenen Schwingungsparameter sehr flexibel und weitreichend manipuliert werden.30 U.a. sind nahtlose Übergänge von einer Schwingungsform in eine andere möglich (›Morphing‹). Manche Synthesizer-Programme lassen auch das variable Auslesen von Grains aus einem Sound Sample mit verschieden großen Zeitfenstern zu, so dass ausserordentlich neuartige klangliche und musikalische Wirkungen erzielt werden. Verwandt mit diesem Verfahren ist die etwas einfachere ›WavetableSynthese‹, deren Funktionsweise durch einfaches Abspielen von digitalen Klangsegmenten gekennzeichnet ist, um originale Instrumentalklänge zu erzeugen. Die einzelnen Klangstücke werden als digitale Daten in Tabellen gespeichert und ausgelesen, ggf. mit unterschiedlichen Geschwindigkeiten, um verschiedene Tonhöhen zu erzeugen. Verschiedene Formen der Loop-Bildung, Hüllkurven und Modulationstechniken können mit diesem Verfahren kombiniert werden. Im Vergleich zur Speicherung kompletter Sound Samples kostet die Wavetable-Synthese weniger Speicherplatz und Rechenkapazität und ist flexibler einsetzbar. 29 Weiterführende Literatur: P. Gorges (1991), Das großer Sampler Praxisbuch; R. Großmann (2002), Sampling; K. Ploch (1988), Sampling. Theorie und Praxis für Einsteiger und Profis; M. Russ (1998): Sound sampling and synthesis; P.R. Cook (2002), Real sound synthesis for interactive applications; E.R. Miranda (2002), Computer sound design. 30 Gelegentlich wird der Begriff ›Resynthese‹ auch für die additive Klangsynthese verwendet (›Harmonische Resynthese‹). 283 Bernd Enders ______________________________________________________ Die Instrumentenhersteller kombinieren verschiedene Techniken und stellen sie als eigenständige Syntheseentwickungen mit jeweils neuen Benennungen vor, so dass eine Vielzahl von Syntheseverfahren bekannt ist, die aber meist auf den hier angeführten mathematisch-physikalischen Prinzipien aufsetzen. 3.2.3 MIDI Entwicklungsgeschichte ›MIDI‹, ein Akronym aus ›Musical Instrument Digital Interface‹, bezeichnet eine digitale Schnittstelle für Musikinstrumente zur seriellen Übertragung von musikalischen Informationen bzw. zur musikspezifischen Steuerung von Musikinstrumenten und Audiogeräten in Echtzeit. Das sog. MIDI-Protokoll, das die Spezifikationen für die erforderlichen Hard- und Software-Komponenten beschreibt, wurde von führenden Instrumentenherstellern31 in den Jahren 1981–83 entwickelt und in einer eher selten anzutreffenden Einmütigkeit zu einem gemeinsamen musiktechnischen Standard erhoben. Mit der Standardisierung dieser Schnittstelle begann eine bis heute andauernde Erfolgsgeschichte einer (musik)technischen Norm, die (ähnlich wie das ein Jahrzehnt später standardisierte Audioformat mp3) über die Musiktechnologie weit hinaus bis in die allgemeine Informationstechnologie eine unerwartet große und dauerhafte Verbreitung fand,32 so dass mittlerweile auch handelsübliche Personal Computer und verbreitete Betriebssysteme prinzipiell MIDI-Daten verarbeiten können. Die MIDI-Technologie hat wesentlich zur Digitalisierung der Produktion von Musik im Live-Konzert wie im Tonstudio in den 1980er und 1990er Jahren beigetragen – vor allem in den populären 31 Dave Smith und Chet Wood (Sequential Circuits) erprobten mit Tom Oberheim (Oberheim) und Ikutaroo Kakehashi (Roland) die Möglichkeit einer einfachen digitalen Übertragung von Spielinformationen und stellten erste Ergebnisse 1981 auf einem Kongress der AES (Audio Engineering Society) vor. Nach Verhandlungen mit anderen Herstellern (Yamaha, Korg, Kawai) kam es schließlich 1983 zur Gründung der IMA (›International MIDI Association‹), die das erste Dokument (MIDI Detailed Specifications Version 1.0) mit den vereinbarten Spezifikationen veröffentlichte, so dass ein eindeutiger technischer Rahmen für MIDI-kompatible Instrumente und Geräte gegeben war. Zu den Gründungsmitgliedern der IMA gehörten auch die Firmen Moog, Big Briar, Octave Plateau, Passport Design, Lexikon, Bontempi und SIEL. 32 Neuere Standards zur Übertragung von musiktechnischen Informationen wie Open Sound Control (OSC) oder music Local Area Network (mLAN) konnten sich bisher trotz erweiterter und schnellerer Übertragungstechnik nicht durchsetzen. 284 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Musikstilen. MIDI hat die Musikwelt revolutioniert und völlig neue Dimensionen für den kreativen, aber auch stereotypen Umgang mit Musik erschlossen.33 Ursprünglich sollte das MIDI-System lediglich die Kombination von Synthesizer-Instrumenten erleichtern. Vorbereitet wurde diese Entwicklung (u.a.) durch polyphone Synthesizer mit digitaltechnisch funktionierenden Klaviaturen. Die analogen Modulsynthesizer der ersten Stunde – wie etwa der berühmte Moog-Synthesizer – verfügten über Tastaturen, die beim Spiel lediglich eine einzige Steuerspannung für die angeschlossenen VCOs sowie eine Gate- oder Trigger-Spannung zum synchronen Starten von Hüllkurvengeneratoren abgeben konnten. Daher war zum tiefen Bedauern der damals am Synthesizer besonders interessierten Pianisten und Organisten nur ein monophones Spiel möglich, auch dann, wenn der Synthesizer über mehrere Oszillatoren und Hüllkurvengeneratoren verfügte. Erst mit digital funktionierenden Keyboards, die in den 1970er Jahren aufkamen, ließ sich eine polyphone Spielweise realisieren, zunächst nur mit wenigen Stimmen (4 oder 6), später mit 16, 32 und 64.34 Auch wenn die Klangerzeugung der Synthesizer zunächst noch analog ausgelegt war, wurde das Tastenspiel auf einem polyphonen Keyboard demnach digital übertragen, so dass die Überlegung nahelag, die entsprechende Codierung der digitalen Daten zu standardisieren, um den Keyboardern mit der Vorliebe für mehrere Synthesizer die unbequeme Übereinanderschichtung der Instrumente mit je eigenen Tastaturen zu einer »Keyboard-Burg« zu ersparen. 33 Literaturhinweise: Ph. Ackermann (1991), Computer und Musik; M. Boom (1987), Music through MIDI; Chr. Braut (1993), Das MIDI Buch; B. Enders (1997), Lexikon Musikelektronik; B. Enders / W. Klemme (1988), Das MIDI- und Sound-Buch zum Atari ST; M. Oehler (2008), Die digitale Impulsformung; S. Philipp (1986), MIDI-Kompendium 2. Offizielle Homepage der MIDI Manufacturers Association (MMA): http://www.midi.org/index.php (letzter Zugriff 13.07.2013) 34 Eine Ausnahme bildeten (analoge) Synthesizer, die – wie der 48stimmige Korg PS 3300 – für jede Taste jeweils eine komplette Synthesizerstimme aus Oszillatoren, Filter, Verstärker, Hüllkurvengeneratoren u.a.m. vorsahen, ein technisch allerdings sehr aufwendiges und anfälliges (dem Prinzip der Pfeifenorgel ähnelndes) System, das sich aber nicht durchsetzte. 285 Bernd Enders ______________________________________________________ Abb. 6: Herbie Hancocks Synthesizer Equipment Die ersten MIDI-Synthesizer bauten 1983 die Firmen Sequential Circuits (Prophet 600), Roland (Jupiter 6) und Yamaha (DX 7). Konsequenterweise gab es dann auch bald die ersten Synthesizer als sog. Expander ohne eingebaute Tastatur, so z.B. der TX 7 von Yamaha, ein (nicht rackfähiger) Desk- 286 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling top-Synthesizer, der dem extrem erfolgreichen, schon weitgehend digital funktionierenden DX 7 klangtechnisch vollständig entsprach.35 Folglich genügt damit zur Ansteuerung der verschiedenen Synthesizer oder Expander eine einzige MIDI-kompatible Klaviatur, die als Masterkeyboard fungiert. Abb. 7: Roland MIDI-Synthesizer Jupiter 636 MIDI-Synthesizer, die als Masterkeyboard eingesetzt werden, ermöglichen eine schaltbare Trennung (›local off‹- Mode) von Tastatur (›Controller‹) und Klangmodul (›Generator‹), so dass die MIDI-Daten auf einen beliebigen Empfänger (›Slave‹) oder über MIDI-modifizierende Geräte umgeleitet werden können (›Master-Slave‹-Prinzip). Noch konsequenter sind Masterkeyboards aufgebaut, die als reine MIDI-Controller völlig ohne eigenen Klangteil daherkommen, aber über besondere spieltechnische Qualitäten und Funktionen verfügen (Modulationsräder, gewichtete Tasten, großer Tastenumfang, gute Anschlagsdynamik, Aftertouch, programmierbare MIDI-Datenverarbeitung u.a.m.).37 35 Es fehlen allerdings die direkten Edit-Funktionen, die entweder mit einem DX 7, dem speziellen Programmiergerät PR 7 oder einem anzuschließenden Computer ausgeführt werden müssen. 36 M. Becker (1995): Synthesizer von gestern, Vol. 2, S. 116. 37 Im Zusammenspiel mit Computern werden heute aber auch sehr kleine, handliche Masterkeyboards – oft zur Verwendung mit aktuellen USB- oder Firewire-Schnittstellen – angeboten, die weniger zum virtuosen Spiel als vielmehr zur Eingabe von weniger anspruchsvollen musikalischen Elementen (einzelne Motive, Rhythmen, Akkordfolgen, Patterns) dienen, die dann mit geeigneter Sequenzer-Software zum eigentlichen MIDI-Arrangement komplettiert werden. 287 Bernd Enders ______________________________________________________ Relativ schnell griff die MIDI-Technik auch auf andere Instrumente über, so dass im Laufe der weiteren Entwicklungen MIDI-fizierte E-Orgeln und EPianos erhältlich waren, schließlich auch Instrumente, die nicht per Klaviatur zu spielen sind, wie E-Gitarre (z.B. Guitar Controller »SynthAxe«), DrumSets (Drum-to-MIDI) und Blasinstrumenten nachempfundene Blas-Controller (Wind/Breath MIDI Controller). Auf diese Weise erschlossen sich über die MIDI-Steuerung von Synthesizern gänzlich neue Klangwelten für Musiker, die mit den speziell entwickelten MIDI-Controllern ihre gewohnte Spieltechnik weitgehend beibehalten konnten. Umrüstsätze für akustische Pianos, Akkordeons oder Pfeifenorgeln kamen hinzu, so dass auch herkömmliche akustische Instrumente auf MIDI-Daten ansprachen. Immer wieder wurde auch versucht, aus den komplexen Klangsignalen eines Instruments den Grundton zu analysieren, um diesen in eine MIDI-Information zu konvertieren (z.B. Guitar-toMIDI), was mittlerweile einigermaßen zufriedenstellend in Echtzeit gelingt. Verschiedene Erweiterungen der MIDI-Spezifikationen erlaubten später sogar die Steuerung von audiotechnischen Apparaten wie Mixer oder Tonbandgerät oder synchronisierten die Lichttechnik eines Konzerts mit der Musik.38 Vor allem in den Kreisen experimentell interessierter Musiker werden auf der Grundlage von MIDI-Daten innovative, sich vom herkömmlichen Instrumentalspiel lösende Interface-Konzepte erprobt, da es im Umfeld musikelektronischer Gerätschaften im Grunde beliebig ist, wie ein digitales Interface zur musikalischen Steuerung einer klangerzeugenden Apparatur (»Generator«) letztlich konkret beschaffen ist. 38 Sogar die Klingeltöne der mobilen Telefone basierten anfangs auf MIDI-Noten, um Melodien abzuspielen. 288 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Abb. 8: Allgemeines Funktionsprinzip von akustischen, elektroakustischen und elektronischen Instrumenten Betrachtet man die Funktionalität eines beliebigen Musikinstruments, dann besteht es grundsätzlich aus klangerzeugenden Bausteinen (z.B. Saiten, Oszillatoren, Membranen usw.), aus klangverändernden Bausteinen (Resonanzkörper, Filter, Dämpfer, Hörner u.a.m.) und aus klangsteuernden Bausteinen (Tastatur, Joystick, Pedal, Griffklappen, Zug usw.). Hinzu kommt bei elektronischen Instrumenten noch die Möglichkeit der Klangspeicherung (analog beim Mellotron, digital beim Sound Sampler). Abb. 9: Einfache MIDI-Anwendung: Master-Keyboard steuert Slave-Instrument, dessen Sound wiedergegeben wird. 289 Bernd Enders ______________________________________________________ Kaum hatte sich der MIDI-Standard etabliert, zeigte sich – nicht zuletzt zur Überraschung der damit vornehmlich befassten Musikindustrie– dass die vergleichsweise simple Steuerung eines Soundgenerators mit einer MIDITastatur nicht die zukunftsträchtigste Anwendung sein würde, sondern die Kombination mit einem Computersystem, das die digitalen Daten empfangen, speichern, modifizieren und wieder an MIDI-kompatible Klangbausteine ausgeben kann. Die ersten (mikroprozessor-basierten) MIDI-Sequenzer als Hardware-Geräte speicherten die eingespielten MIDI-Daten, ließen in einem gewissen Umfange Änderungen der gespeicherten MIDI-Noten zu und steuerten anzuschließende MIDI-Instrumente an, so dass musikalische Prozesse vollständig automatisch ablaufen konnten, etwa als Begleitcombo für einen Alleinunterhalter auf der Bühne. MIDI-Sequenzer, Begleitautomaten und Rhythmusmaschinen ergaben gewissermaßen eine Vorahnung von den weit umfangreicheren Möglichkeiten der bald darauf folgenden Computereinbindung. Anfang 1981 wurden die ersten Homecomputer mit 8-Bit-Prozessoren und maximal 64-KByte hergestellt und eroberten sich sogleich einen Massenmarkt. Für den 1982 vorgestellten Commodore 64, wohl der meistverkaufte Kleincomputer überhaupt, wurden erste MIDI-Karten zum Anschluss von MIDI-Instrumenten konstruiert (Jellinghaus, C-Lab) und die Firma Steinberg Research programmierte 1985 dafür das erste MIDI-Sequenzerprogramm (›Pro 16‹), das bereits das Einspielen (Record) von MIDI-Daten auf 16 Spuren ermöglichte, die Manipulation der gespeicherten MIDI-Noten unterstützte (Verändern, Löschen, Ausschneiden, Kopieren, Verschieben, Quantisieren, Transponieren) und das fertiggestellte Arrangement über anzuschließende MIDI-Instrumente abspielen konnte (Play). Für den Mitte bis Ende der 80er Jahre in Musikerkreisen sehr beliebten Atari ST (damals schon mit Mausbedienung, grafischem Display, 1 MB Arbeitsspeicher und – ein exklusives Novum – mit direkt eingebauten MIDIBuchsen) wurde dann das Sequenzerprogramm ›TwentyFour‹ mit 24 MIDISpuren (sic!) mit besserer Bedienung und weiteren Bearbeitungsmöglichkeiten vermarktet. Auch andere Computersysteme wie der MacIntosh von Apple oder der Amiga von Commodore boten die digitaltechnische Grundlage für immer komfortablere MIDI-Software, so dass z.B. die Darstellung der MIDIDaten in traditioneller Notenschrift bzw. der Druck von Partituren integriert, die Klangbänke von erfolgreichen Soundmodulen editiert werden konnten und mit immer schnelleren Prozessoren und größerem Arbeitsspeicher schließlich auch die Verarbeitung von Audiodaten gelang. 290 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Abb. 10: Typische Kombination von MIDI-Keyboard und Computer in einem einfachen Homestudio Beharrte die Musikindustrie aus markttechnischen Gründen zunächst noch auf der Herstellung neuer Synthesizer als Hardware-Gerät, wenn musiktechnologische Neuerungen eingeführt werden sollten, so ermöglichte die sich rasend schnell entwickelnde Computerindustrie immer mehr Funktionen und Anwendungen, so dass sich die Konstruktion neuer Instrumente mehr und mehr in den Software-Bereich verlagerte. Schließlich kam es zur Einbindung virtueller Instrumente als sog. ›PlugIns‹, das sind Software-basierte Klangmodule oder Effektgeräte unterschiedlichster Art, die in ein SequenzerHauptprogramm (Host) gewissermaßen »eingesteckt« werden, um die Funktionalität zu erweitern, die aber oft auch für sich alleine funktionieren (›StandAlone-Application‹) und z.B. den Computer mit angeschlossener Tastatur in eine E-Orgel traditionsreicher Herkunft umwandeln.39 Die Technik MIDI ist ein tastenbasiertes Steuerungssystem, denn es werden nach dem Anschlag von Tasten auf einem Keyboard lediglich die Tastennummern (›Notes‹) 39 A. Collins (2003), Professional guide to audio plug-ins and virtual instruments. 291 Bernd Enders ______________________________________________________ für die zu erzeugenden Töne sowie die Schnelligkeit des Anschlags einer Taste (›Velocity‹) für die Dynamik des Tons übertragen. Ob ein angesteuertes Instrument wirklich ein c1 spielt und mit welcher Klangfarbe oder Lautstärke die gesendete Noteninformation tatsächlich zu hören ist, hängt damit ganz von den Einstellungen des empfangenden Instruments ab.40 Es gilt hier unbedingt festzuhalten, dass MIDI nur Spieldaten enthält und nicht zur Übertragung von Audioschwingungen dient. Mit anderen Worten: MIDI enthält letztlich digital codierte Noten, d.h. Spielanweisungen, die zur Herstellung von musikalischen Klängen dienen sollen. MIDI-Daten ähneln daher den Informationen über Musik, wie sie in den Stiftwalzen, Lochplatten oder Notenrollen der mechanischen Musikautomaten früherer Jahrhunderte gespeichert waren und erst beim Abspielen über die angesteuerten Instrumente (quasi live) die Töne erzeugten,41 während Audiogeräte wie Grammophon, Schallplatte, Tonbandgerät oder der Lichtton beim Film (auf mechanischem, elektromagnetischem oder optischem Wege) die real erklingenden Schwingungen von Klängen speichern. Hier gibt es häufig Missverständnisse, vielleicht auch wegen der unglücklich gewählten fünfpoligen DIN-Stecker und -buchsen (»Diodenbuchse«) für die MIDI-Buchsen und -Stecker, die bei älteren Audiogeräten häufig zur Übertragung von Audiosignalen eingebaut und nicht zuletzt aufgrund mangelnder Haltbarkeit und Kontaktsicherheit später nicht mehr verwendet wurden. MIDI-Hardware Hardware-seitig setzt die MIDI-Norm drei MIDI-Anschlüsse mit unterschiedlichen Funktionen voraus: MIDI-IN (= Eingang für den Empfang von MIDIDaten), MIDI-OUT (= Ausgang zum Senden von) und MIDI-THRU (= Durchgang zum Durchschleifen der unveränderten MIDI-Daten). Informationstechnologisch betrachtet handelt es bei MIDI um eine digitale (binär codierte) Schnittstelle zum seriellen, unidirektionalen, asynchronen Da- 40 Das MIDI-System ist für Synthesizer mit gleichschwebend-temperierter Stimmung entworfen, so dass zur klanglichen Realisation von anders aufgebauten Tonsystemen (z.B. von historischen Stimmungen) trickreiche Methoden zur gewünschten Intonation einer Note gefunden werden müssen, etwa mit Hilfe des speziell eingesetzten Pitch-Bending-Befehls. Bei computerbasierten MIDI-Anwendungen können auch spezialisierte Programme zwischengeschaltet werden; so erlaubt das »Hermode-Tuning« eine möglichst reine Intonation von Akkorden unabhängig von den gespielten Tonarten (http://www.hermode.com, letzter Zugriff 13.07.2013). 41 Vgl. hierzu: B. Enders / Chr. Reuter (2002), Verschicken musikalischer Daten – Von MIDI zum Internet, S. 282–285. 292 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling tentransport mit einer Übertragungsgeschwindigkeit von 31.250 Baud (= Bits pro Sekunde).42 Die MIDI-Daten werden für jede Verbindung im Binärcode (als Folge der beiden Spannungszustände 5 Volt und 0 Volt in einer 5 mA-Stromschleife, entsprechend den Werten 0 und 1) nacheinander in eine Richtung gesendet (vom Master zum Slave), ohne dass eine synchrone Abstimmung bzw. Datenkontrolle zwischen Sender und Empfänger stattfindet, d.h. das empfangende Instrument oder Gerät (der Slave) wartet ohne zeitliche Begrenzung einfach auf eintreffende Daten. Geht aus irgendwelchen Gründen (z.B. Kabelproblem) eine MIDI-Information verloren, gibt es keine Prüf- oder Korrekturroutinen. Wird beim Tastendruck eine Note beim Empfänger eingeschaltet, erklingt dort der entsprechende Ton, solange wie kein Ausschaltbefehl eintrifft. Sollte der Ausschaltbefehl fehlerhaft ausbleiben, kann es zu den berüchtigten »Notenhängern« kommen (der Ton ist dann ständig zu hören, wenn das Instrument, z.B. eine E-Orgel, einen Dauerton erzeugt). Alle Daten der gespielten Töne, auch von gleichzeitig gespielten Tönen, werden nacheinander gesendet, normalerweise so schnell, dass keine musikalisch störenden Verzögerungen hörbar werden. Sollen mehrere MIDI-Geräte angesteuert werden, ist ein einfaches Aneinanderreihen möglich (»Daisy Chain« mit der Gefahr von Verzögerungen) oder – besser – ein sternförmiges Ansteuern der Komponenten mit einem geeigneten Instrument oder dazwischengeschalteten MIDI-Verteiler (MIDIThru-Box oder MIDI-Patch-Bay) mit mehreren MIDI-Output-Buchsen. MIDI-Eingänge sind zweckdienlich mit optoelektrischen Übertragern ausgestattet (»galvanische Trennung«), so dass innerhalb einer Audio- oder PAAnlage keine Brummschleifen in Kombination mit der MIDI-Verkabelung (mit max. 15 m Kabellänge) auftreten können.43 Um Ende der 80er Jahre ebenfalls für MIDI entdeckten MS-DOS-PCs MIDI-kompatibel zu gestalten, wurden spezielle Steckkarten konstruiert oder die Gameports der PCs mit Adaptern umgerüstet. Aktuelle Verbindungen 42 Die MIDI-Übertragungstechnik wurde in Anlehnung an die damals bekannte Computerschnittstelle RS 323 entwickelt, allerdings mit einer höheren, für heutige Verhältnisse dennoch sehr geringen Übertragungsrate. Jedes Bit braucht mindestens 320 Mikrosekunden Übertragungszeit. 43 Die Funktionsweise des Interface-Chips (UART = ›Universal Asynchronous Receiver Transmitter‹, der die seriell eintreffenden Daten für den parallel arbeitenden Mikroprozessor eines MIDI-Geräts umwandelt) wird anschaulich beschrieben von Chr. Braut (1993), Das MIDI Buch, S. 35–42; technische Details finden sich in S. Philip (1986), MIDI-Kompendium 2, S. 55–63. 293 Bernd Enders ______________________________________________________ werden – ohne die herkömmlichen DIN-Steckverbindungen – über die verbreiteten Schnittstellen USB44 oder FireWire hergestellt. Da diese Schnittstellen eine ungleich schnellere Datenübertragung erlauben, ist es problemlos möglich, MIDI-Daten in beide Richtungen über ein Kabel zu schicken und mehrere virtuelle MIDI-Anschlüsse mit jeweils 16 Kanälen zu realisieren, so dass hier kaum noch eine Begrenzung der real oder virtuell angeschlossenen Soundmodule oder Instrumente besteht.45 Bei Live-Konzerten werden MIDI-Daten auch drahtlos übertragen (›Wireless MIDI‹), und in professionellen Studios sind auch NetzwerkEinbindungen, z.T. mit proprietären Übertragungsprotokollen, in Gebrauch. MIDI-Software (Die MIDI-»Sprache«) Die MIDI-Befehle (auch: ›MIDI-Nachrichten‹, engl. ›MIDI Messages‹) sind vergleichsweise simpel aufgebaut. Die meisten Befehle basieren auf der Übertragung von 8 Bits in einer Gruppe, die Datenbyte genannt wird und 256 Zustände (= 28) repräsentieren kann. Jedes Byte wird von einem Start- (logisch 0) und einem Stop-Bit (logisch 1) eingeschlossen, so dass insgesamt 10 Bits pro Befehl übertragen werden (auch ›MIDI-Byte‹ genannt). Davon dienen aber nur acht Bits der eigentlichen Datenübertragung. Ein MIDI-Byte sieht also prinzipiell so aus: 1/nnnnnnnn/0, wobei n 1 oder 0 sein kann. Wird z.B. die Taste c1 auf einem MIDI-Keyboard mit großer Lautstärke (d.h. konkret mit großer Geschwindigkeit) angeschlagen, werden Daten gesendet, die die aktive Tastennummer (ein Wert zwischen 0 und 127, im Beispiel: dezimal 60) und die Anschlagsgeschwindigkeit (ein Wert zwischen 0 und 127, z.B. 121 für Fortissimo46) an den Empfänger abschicken.47 44 Das sich unterscheidende USB-MIDI-Protokoll wird beschrieben unter http://www.usb.org/developers/devclass_docs/midi10.pdf, letzter Zugriff 13.07.2013 (in Kap. 4, S. 16ff.); K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung. 45 Dazu wird das MIDI-Übertragungsprotokoll in das USB- oder FirewireKommunikationsprotokoll eingebettet (»Tunneling«), K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung. 46 Es werden letztlich nur relative Werte übertragen, die endgültige Lautstärke des ausgelösten Tons hängt von den entsprechenden Einstellungen am Instrument bzw. der Audioanlage ab. 294 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Dabei wird gleichzeitig noch angegeben, dass diese Information für einen von 16 MIDI-Kanälen bestimmt ist, denn ungeachtet der seriellen Übertragungstechnik ist es möglich, über logische Zuweisungen die Daten an verschiedene Adressen (z.B. unterschiedliche MIDI-Instrumente) zu senden, so dass bestimmte MIDI-Noten eben nur von bestimmten Instrumenten gespielt werden. Lässt man die Angabe der obligaten Start- und Stopbits der Einfachheit halber weg, ergibt sich für das Anschlagen einer Keyboard-Taste folgendes Bild der zugrundeliegenden Datenstruktur einer MIDI-Note: Für das Auslösen eines Tons werden 3 Bytes gesendet: Zunächst das Statusbyte, das dem Empfängergerät signalisiert: Es wird jetzt eine Tastennummer bzw. MIDI-Note auf einem bestimmten MIDI-Kanal (im Beispiel Kanal 6) gesendet, im 1. Datenbyte wird dann die eigentliche Notennummer angegeben, im 2. Datenbyte folgt der Velocity-Wert (= Anschlagsdynamik, im Beispiel ist es der Wert 121). Abb. 11: Drei 8-Bit-Worte mit den Werten dezimal 144/6, 60, 121 (jeweils ohne Berücksichtigung des ersten Bits) Bei Statusbytes ist das erste Bit immer 1 (›Most Significant Bit‹ = MSB 0; binär 1), die 3 folgenden Bits geben den Typus des Statusbytes an (hier wird eine Taste gedrückt bzw. eine Noteninformation geschickt = NOTE_ON), die 2 Hälfte48 des Status-Byte codiert binär den Kanal für die Übertragung des nun folgenden Datenbytes. Bei Datenbytes ist das erste Bit zur Kennzeichnung immer gleich 0, so dass noch 7 Datenbits (= 128 Werte von 0–127, d.s. mehr 47 Formel zum Berechnen der MIDI-Notennummer, wenn die Frequenz gegeben ist: n = (12 · log2 (f / 440)) + 69. 48 Zum Zweck der Übersichtlichkeit werden Bytes auch in 4-Bit-Gruppen (›Nibble‹) unterteilt, d.h. in diesem Fall gibt das erste Nibble über den Befehlstyp Aufschluss, das 2. Nibble dient zur Angabe der Kanalnummer, auf dem gesendet werden soll. Gerne wird auch eine hexadezimale – auf dem 16stelligen Zahlensystem beruhende – Darstellung der MIDI-Daten verwendet. 295 Bernd Enders ______________________________________________________ als 10 Oktaven) zur Darstellung der Tastennummer übrig bleiben. (Im Beispiel ist es die Tastennummer dezimal 60 für das eingestrichene c1). Das 2. Datenbyte ist ganz ähnlich aufgebaut, es gibt den dynamischen Wert an, im Beispiel dezimal 121. Solange nun keine weitere MIDI-Nachricht eintrifft, spielt das empfangende Instrument diesen Ton (im Fall eines Orgeltons bliebe dieser also konstant zu hören). Ein weiteres, ziemlich ähnlich aufgebautes Datenpaket wird gesendet, wenn die betreffende Taste (also hier c1) wieder los gelassen wird. Das Statusbyte enthält nun die Information, dass die Note beendet wird (NOTE_OFF, Taste frei gegeben), es folgt die Notennummer, und im 2. Datenbyte wird sogar ein Wert für die »Loslassgeschwindigkeit« (›Release Velocity‹) gesendet, die jedoch meistens nicht berücksichtigt wird. In einer allgemeinen Darstellung wird der NOTE_ON-Befehl (ohne Start/Stop-Bits) folglich codiert als 1001 kkkk / 0nnn nnnn / 0vvv vvvv wobei k für die binäre Codierung der Kanalnummer, n für die Notennummer und v für den Velocity-Wert (›Anschlagsdynamik‹) steht. Der NOTE_OFF-Befehl lautet entsprechend: Statusbyte: 1000 0111, 1. Datenbyte: 0011 1100, 2. Datenbyte: 0111 1001 oder in dezimaler Schreibweise: 128/6, 60, 121 (der NOTE_OFF-Befehl wird also durch die Zahl dez. 128 im Statusbyte gekennzeichnet). Wird der NOTE_OFF-Befehl empfangen, wird der codierte Ton beendet.49 Die NOTE_ON- und NOTE_OFF-Befehle gehören zu den kanalbezogenen MIDI-Nachrichten (›Channel Voice Messages‹), weil sie immer für einen bestimmten Kanal bestimmt sind (im einfachsten Fall ist es der Kanal Nr. 1). Nach einem ähnlichen Muster werden weitere MIDI-Befehle gesendet, die z.B. die Werte eines Pedals übertragen (›Sustain Pedal‹, nur zweiwertig angelegt) oder die Werte eines Modulationsrads (oder Blaswandlers) zur Tonhöhenbeu- 49 Im Running Status ist auch der Verzicht auf den NOTE_OFF-Befehl möglich, es werden dann nur Datenbytes für den NOTE_ON-Befehl gesendet und zum Beenden eines Tons wird einfach der Velocity-Wert auf 0 gesetzt. Der Wert 0 bewirkt die Meldung »kein Tastenanschlag«, entspricht also dem Ausschalten des Tons. 296 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling gung (›Pitch Bending‹) mit kontinuierlich gesendeten Daten bei hoher Auflösung (und großem Datenaufkommen) oder das Nachdrücken einer bereits angeschlagenen Taste (›Polyphonic Key-Pressure‹, ›polyphoner Aftertouch‹) zur Steuerung von Effekten (falls das Masterkeyboard dies ermöglicht) oder andere Controller-Daten (›Control Change‹) oder der Wechsel eines Klangprogramms (›Program Change‹). Kanalbezogen sind auch die sog. ›Channel Mode Messages‹, die verschiedene Funktionen des Empfängerinstruments steuern: Dazu gehören ein ›Reset All‹ Controller (Zurücksetzen aller Controller auf den Anfangswert = Default), der schon erwähnte Local_ON/OFF-Befehl sowie ein Befehl zum Abschalten aller Noten (›All Notes Off‹), der sehr nützlich bei den erwähnten Notenhängern ist. Außerdem werden hier verschiedene Betriebsarten (›Omni Mode‹, ›Mono Mode‹, ›Poly Mode‹) geschaltet, die bestimmen, wie ein Instrument auf eintreffende Notendaten reagieren soll. Im (veralteten) OmniMode werden kanalspezifische Daten ignoriert, alle Daten werden ausgeführt, im Poly-Mode werden nur die Daten des zugeordneten Kanals (polyphon) gespielt, im Mono-Mode kann pro Kanal nur eine Instrumentalstimme erklingen (monophon, vor allem bei MIDI-Gitarren verwendet), im heute üblichen (ursprünglich nicht definierten) ›Multi-Mode‹ können mehrere Kanäle unabhängig voneinander polyphon spielen, so dass ein Gerät gleich mehrere polyphon klingende Instrumente wiedergeben kann. Eine weitere Gruppe von MIDI-Befehlen wendet sich an das gesamte System, sie sind also nicht kanalbezogen. Es handelt sich um die sogenannten Systemnachrichten (›System Messages‹), die vor allem zur Synchronisation mehrerer MIDI-Komponenten dienen oder gerätespezifische Daten verschiedener Hersteller enthalten. Dazu gehören die ›System Common Messages‹ (MIDI Time Code = MTC zur zeitlich exakten Synchronisation von Geräten, z.B. einer Tonbandmaschine; Song Position Pointer zum Starten einer Sequenz; Song Select zur Auswahl eines im Sequenzer gespeicherten Songs und Tune Request zur Korrektur von Verstimmungen in analogen Synthesizern) und die ›System Realtime Messages‹ (Timing Clock, Start-/Stop-/ContinueBefehle zum Steuern von Sequenzer oder Drumcomputer, Active Sensing zum optionalen Senden eines Bytes im Zeitintervall von 300 msec zur Anzeige einer funktionstüchtigen Datenverbindung, und System Reset zum Zurücksetzen aller MIDI-Geräte in den Anfangszustand = Default-Werte). Ein Sonderfall im MIDI-Protokoll ist durch die ›Systemexklusiven Nachrichten‹ (›System Exclusive Messages‹, ›SysEx‹) gegeben; sie wurden integriert, um den Herstellern von MIDI-Geräten zu ermöglichen, hersteller- und/oder gerätespezifische Daten zu übermitteln, die nicht dem MIDI-Standard entsprechen (müssen). 297 Bernd Enders ______________________________________________________ Erweiterungen Besondere Bedeutung erlangte im Zusammenspiel mit der immer ausgereifteren MIDI-Software der 1990 entstandene ›Standard MIDI File‹ (›SMF‹) (Specification [RP-001]), ein Datenprotokoll, das die Speicherung eines MIDIArrangements regelt, so dass u.a. ein verlustfreier Transfer auf ein anderes Computersystem möglich wird.50 Die Formate SMF 0 und SMF 1 gilt es hier funktional zu unterscheiden:51 Im Format 0 sind einfach alle MIDI-Kanäle in einer Spur zusammengefasst, im Format 1 ist jedem Kanal eine eigene Spur zugewiesen, ggf. mit eigener Benennung, so dass die verschiedenen Stimmen und ihre Instrumentalklänge eines Arrangements getrennt vorliegen. Format 0 lässt sich normalerweise mit einem MIDI-Sequenzer in Format 1 konvertieren. In der Erweiterung ›General MIDI‹ (›GM‹) wurden 1991 von der MMA (›MIDI Manufacturers Association‹) und dem JMSC (›Japan MIDI Standards Committee‹) die Instrumentenbelegung für 128 Klangprogramme festgelegt, um sicher zu stellen, dass bei der Übertragung eines MIDI-Arrangements z.B. auf dem ersten Programmplatz immer ein Piano zu hören ist, auch wenn die genaue Klangfarbe des Instruments weiterhin von den verwendeten Soundcards oder Sound Libraries abhängt. Außerdem wird u.a. vorgeschrieben, dass ein GM-kompatibles Klangmodul mindestens 24 Instrumente gleichzeitig wiedergeben kann. 3.2.4 Digitale Musikproduktion Entwicklungsgeschichte Gegen Ende der 70er Jahre begann die Digitalisierung der Musikelektronik. Zunächst wurden digitale Keyboards für ansonsten analoge Synthesizer konstruiert, um polyphones Spielen zu ermöglichen. Nach und nach wurden weitere Elemente der elektronischen Klangsynthese digital, z.B. die Abspeicherung von Moduleinstellungen oder komplette Klangprogramme, dann die digitale Speicherung von aufgenommenen Klängen (Sound Sampling), digitale 50 Der Name einer Standard-MIDI-Datei wird i.a. durch die Namenserweiterung .mid gekennzeichnet, das Datei-Suffix .kar ist eine alternative Endung für MIDI-Dateien, die für KaraokeAnwendungen auch Liedtexte (als Meta Events) enthalten, und .syx wird an MIDI-SysExDateinamen angehängt, K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung. 51 Der Vollständigkeit halber sei noch das Format 2 erwähnt, das Patternstrukturen verwalten kann, aber in der MIDI-Praxis bisher keine Verwendung findet. 298 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Klangeffekte (Hall, Echo usw.), schließlich die Klangerzeugung selbst (digitale Klangsynthese). Dabei liegt häufig die Modulstruktur des analogen Synthesizers als logisches Konzept der digitalen Klangsynthese zugrunde. In den 1990er Jahren überschlug sich die Entwicklung handelsüblicher Computer, die mit Hilfe von integrierten Soundcards zunehmend auch Klänge speichern, modifizieren, steuern und neu errechnen konnten, so dass sich die Konstruktion neuer Soundmodule immer mehr in Richtung SoftwareImplementation verschob und Sound Sampler, Synthesizer und Effektgeräte schließlich vorrangig als selbständig laufende Programme (Stand-Alone) oder als Zusatzmodule (PlugIns) für geeignete Studiosoftware hergestellt wurden und auf die Anschaffung neuer, teurer Hardware bei verbesserten technischen Lösungen (Updates) nunmehr verzichtet werden konnte. Die kontinuierlich gesteigerte Rechenleistung der Prozessoren, die größeren und immer preiswerteren Arbeitsspeicher und Festplatten erlauben eine schnelle Verfügbarkeit von sehr umfangreichen Klangdateien, so dass praktisch alle Bearbeitungsschritte, die früher nur mit aufwendigen Studioeinrichtungen bewerkstelligt werden konnten, heutzutage komplett und rein digital in einem Computersystem ablaufen können52. Vor allem in den Anfangszeiten wurden MIDI-Sequenzer und Audiorecorder herkömmlichen Mehrspur-Tonbandgeräten nachempfunden, so dass entsprechende Programme eine größere Anzahl an Spuren (›Tracks‹) für die Aufnahme und Wiedergabe bereithielten und über Bedienungselemente wie bei analogen Bandmaschinen verfügten (obwohl es sich zumindest bei den MIDIDaten keineswegs um Audiosignale, sondern eigentlich um Noteninformationen handelt). Erst in jüngerer Zeit sind auch davon abweichende Bedienungskonzepte und Funktionen entwickelt worden, wie z.B. das eher patternorientierte ›Live‹ von Ableton, das sich eher wie ein Musikinstrument verhält und quasi ein spontanes Live-Spiel mit Patterns, Loops und Sequenzen erlaubt. Im Laufe der 1990er Jahre wurden die in den 1980er Jahre noch unabhängig voneinander entwickelten MIDI-Sequenzer bzw. Harddisc-RecordingProgramme zur Echtzeit-Verarbeitung von Musik auf Software-Basis miteinander kombiniert und multifunktional zu kompletten Studioumgebungen erweitert, die heute meist als virtuelles Studio (VST = ›Virtual Studio Technology‹) oder Digital Audioworkstation (DAW) bezeichnet werden. In diesen Sys- 52 Natürlich ist die Einbindung von externen analogen Studiogeräten (z.B. bewährten Halleffektprozessoren) oder eine Vernetzung mehrerer Computer mit speziellen Aufgaben (z.B. zur Verwaltung von großen Sample-Bibliotheken) problemlos möglich. 299 Bernd Enders ______________________________________________________ temen (Cubase/Nuendo, Logic, Samplitude, ProTools, Ableton Live, Cakewalk Sonar, Reaper u.a.) wird die Verarbeitung von MIDI-Daten, Audioaufnahmen, Effektberechnungen, Klangmodulen, Mischpultfunktionen u.a.m. zusammengefasst, und auch die verschiedenen Phasen einer Produktion von der Aufnahme bis hin zur endgültigen Abmischung (stereophon oder mehrkanalig) oder einer speziellen Nachbearbeitung (Post-Production) können komplett mit Computerhard- und -software bewältigt werden.53 Virtuelle Instrumente Um MIDI-Informationen in Klang umzuwandeln, werden MIDI-kompatible Klangerzeuger benötigt, deren Klangmodule entweder in den Soundcards der MIDI-Instrumente oder Multimedia-Computer integriert sind oder die als virtuelle Instrumente, deren Klangeigenschaften, Bedienungsoberflächen und sonstige Charakteristika ausschließlich auf einer Software-Lösung beruhen, zusätzlich geladen und in das virtuelle Studio integriert werden. Interessanterweise gibt es zahlreiche Versuche, mit digitalen PlugIns (»legendäre«) analoge Instrumente und Soundprozessoren möglichst authentisch nachzubilden, um deren vermeintlich verloren gegangene Klangcharakteristika (»warmer« Röhrensound, »satter« Tiefbass o.ä.) im digitalen Equipment neu zur Verfügung zu stellen. Z.B. werden zahlreiche Synthesizer der ersten Stunde als virtuelle Synthesizer oder ältere Gitarrencombos oder Bandechogeräte als sorgfältig entwickelte PlugIns zur Einbindung in gängige Audio/MIDIProgramme (Host) angeboten. Renommierte Firmen widmen sich akribisch der möglichst genauen Nachbildung erfolgreicher Effektgeräte aus früheren Studiozeiten. Sogar die ehemals eher abfällig beurteilten Federhallgeräte oder fiepende 8Bit-Drummachines erleben eine digitale Renaissance. Dabei scheint die Exaktheit der optischen Detailtreue des Erscheinungsbildes eines Gerätes inklusive seiner Bedienungselemente fast eine ebenso wichtige Rolle zu spielen wie die Authentizität der akustischen Eigenschaften, um die »Aura« der analogen Vorbilder einzufangen. 53 Spezielle Stand-Alone-Systeme haben den Vorteil, dass Hard-und Software aus einer Hand stammen und gut aufeinander abgestimmt sind, sogenannte host-basierte Systeme laufen dagegen auf jedem handelsüblichen Rechner (eventuell mit speziellen Hardware-Erweiterungen) und sind dadurch meist preisgünstiger, flexibler, leichter aktualisierbar, jedoch auch fehleranfälliger. 300 _____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling Abb. 12: Die B4 – eine virtuelle Version der Hammond-Orgel (Native Instruments) Aber ebenso erlaubt die computerbasierte Verarbeitung musikalischer Informationen neuartige Synthesealgorithmen, die auf analog-elektronischem Wege nie möglich gewesen wären. Komplexe, modular aufgebaute Synthesizerprogramme wie der Reaktor von Native Instruments (ähnlich: SynthEdit, Tassman, KarmaFX u.a.) unterstützen nicht nur die Programmierung herkömmlicher oder absolut innovativer Synthesizer, sondern darüber hinaus die Realisierung kompletter Studioeinrichtungen mit einem letztlich beliebig großen Funktionsumfang. Musikspezifische Programmiersprachen wie Csound, MAX/Msp, SuperCollider oder PureData erfordern zwar einige Einarbeitung, zeichnen sich jedoch durch eine fast unbegrenzte Flexibilität aus, die nicht nur unterschiedlichste Klangsyntheseformen beinhaltet, sondern auch frei wählbare Kompositionsalgorithmen, automatische Klangprozesse und neuartige Interaktionsformen in der Live-Performance mit den verschiedensten Eingabeund Steuergeräten (z.B. Interfaces mit Gesture Controlling) ermöglicht. Auf der Basis moderner Synthese- und Composer-Software eröffnet experimentelle Computermusik mit künstlerischem Interesse zukunftsträchtige Klangwelten und ungewöhnliche Musikstrukturen, und die Musikinformatik verhilft der Musikwissenschaft mit analytischer Datenverarbeitung zu neuen Erkenntnissen. 301 Literaturverzeichnis O. Abraham, Tonometrische Untersuchungen an einem deutschen Volkslied, in: Psychologische Forschung 4 (1923), S. 1–22. Ph. Ackermann, Computer und Musik, Wien, New York 1991. Agilent Technologies (Hrsg.), The fundamentals of signal analysis, 2000. [http://cp.literature.agilent.com/litweb/pdf/5952-8898E.pdf, letzter Zugriff: 8.3.2013] J. Ahrens / H. Wiestorf / S. Spors, Comparison of higher order ambisonics and wave field synthesis with respect to spatial discretization artifacts in time domain, in: AES 40th International Conference, Tokyo, Japan, 2010. G. Albersheim, Zur Psychologie der Ton- und Klangeigenschaften, Straßburg 1939. J. B. Allen, Short term spectral analysis, synthesis, and modification by discrete fourier transform, in: IEEE 25 (June 1977), S. 235–238. American Standards Association, American Standards Association Terminology (including Mechanical Shock and Vibration), New York 1960. F. Anwander, Synthesizer: So funktioniert elektronische Klangerzeugung, Bergkirchen 2000. T. Arai, Gel-type tongue for a physical model of the human vocal tract as an educational tool in acoustics of speech production, in: Journal of Acoustical Science and Technology 29/2 (2008), S. 188–190. V. Aschoff, Phantasie und Wirklichkeit in der Frühgeschichte der Akustik, in: Acustica 42 (1979), 121–132. J. Askill, Physics of musical sounds, New York u.a., 1979. F. Attneave / R.K. Olson, Pitch as a medium: A new approach to psychophysical scaling, in: American Journal of Psychology 84 (1971), S. 147–166. F. Auerbach, Akustik. Historische Entwicklung und kulturelle Beziehungen, in: Physik, hrsg. von E. Lecher, Leipzig 21925. W. Auhagen, Dreiecksimpulsfolgen als Modell der Anregungsfunktion von Blasinstrumenten, in: Fortschritte der Akustik, 13. DAGA'87, Aachen 1987, S. 709–712. W. Auhagen, Musikalische Satzstruktur und Tempoempfinden, in: Systematische Musikwissenschaft 1/2 (1993), S. 353–369. W. Auhagen, Akustische Grundbegriffe, in: MGG2, Bd. 1, Kassel u. a., 1994, S. 368–394. W. Auhagen, Rhythmus- und Tempoempfinden, in: Musikpsychologie (Handbuch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber 2005, S. 231–249. W. Auhagen, Rhythmus und Timing, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 437–457. R. Bader (Hrsg.), Musikalische Akustik, Neurokognition und Musikpsychologie. Hamburger Jahrbuch für Musikwissenschaft 25, Frankfurt 2009. P. Bailhache, Une histoire de l'acoustique musicale, Paris 2001. J. Backus, The acoustical foundations of music, New York, 1969. J. Backus / T.C. Hundle, Wall vibrations in flue organ pipes and their effect on tone, in: Journal of the Acoustical Society of America 39/5 (1966), S. 936–945. J. Barkowsky, Einführung in die musikalische Akustik, Wilhelmshaven, 2009. C. Barlow / J. Woodhouse, Microscopy of wood finishes, in: Violin Acoustics, hrsg. von C. Hutchins / A. Benade, Woodbury/NY 1997, Sp. 913–919. M. Barron, Auditorium acoustics and architectural design, London 22010. M. Barron / A.H. Marshall, Spatial impression due to early lateral reflections in concert halls, in: Journal of Sound and Vibration 7 (1981), S. 211–232. 326 ________________________________________________ Literaturverzeichnis J.W. Beauchamp, Analysis and synthesis of musical instrument sounds, in: Analysis, Synthesis, and Perception of musical Sounds: Sound of Music, hrsg. von J.W. Beauchamp, New York 2007, S. 1–89. J.W. Beauchamp / A. Horner, Spectral modelling and timbre hybridisation programs for computer music, in: Organised Sound 2/3 (1997), S. 253–258. M. Becker, Synthesizer von gestern, Augsburg 1990. M. Becker, Synthesizer von gestern, Vol. 2, Augsburg 1995. A.H. Benade, Musik und Harmonie, München u.a., 1960. A.H. Benade, Holzblasinstrumente, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 22–31. A.H. Benade / D.J. Gans, Sound production in wind instruments, in: Annals of the New York Academy of Sciences, vol. 155 (1968), S. 247–263. J. Bensa / D. Dubois / R. Kronland-Martinet / S. Ystad, Perceptive and cognitive evaluation of a piano synthesis model, in: Computer Music Modeling and Retrieval 3310/2005, hrsg. von U. K. Wiil, Berlin 2005, S. 232–245. L.L. Beranek, Acoustics, New York 1996. L.L. Beranek, Concert halls and opera houses: Music, acoustics, and architecture, New York 2 2003. R.E. Berg / D.G. Stork, The physics of sound, Upper Saddle River 2005. W.A. van Bergeijk / J.R. Pierce / E.E. David jr., Die Schallwellen und wir, München 1960. L. Bergmann / C. Schäfer, Lehrbuch der Experimentalphysik, Berlin 1943. D.E. Berlyne, Aesthetics and psychobiology, New York 1971. D. Bernoulli, Theoremata de oscillationibus corporum filo flexibili connexorum et catenae verticaliter suspensae, in: Commentationes Academiae scientiarum Petropoli 6, 1732–33, S. 108– 122. D. Bernoulli, Demonstrationes et theorematum suorum de oscillationibus corporum filo flexibili connexorum et catenae verticaliter suspensae, in: Commentationes Academiae scientiarum Petropoli 7, 1734–35, S.162–173. D. Bernoulli (1741/43), De vibrationibus et sono laminarum elasticarum commentationes physico-mathematicae, in: Commentationes Academiae scientiarum Petropoli 13, 1741–43, S. 105–120. J. Bernoulli, Theoremata selecta, pro conservatione virium vivarum demonstranda, in: Commentationes Academiae scientiarum Petropoli 2, 1727, S. 200, Reprint: Opera Omnia, Lausanne und Genf 1742, Bd. 3, S. 124–130. M. Bertsch, Vibration patterns and sound analysis of the Viennese Timpani, in: Proceedings of the International Symposium on Musical Acoustics (ISMA), Stanzial, Domenico, Perugia 2001, S. 281–284. M. Bertsch / T. Maca, Visualisierung des Einblasvorgangs [Warm up] bei Blechbläsern mittels Infrarot-Thermographie, in: Zeitschrift für Musikphysiologie und Musikermedizin 15/1 (2008), S. 1–5. R.T. Beyer, Sounds of our times: Two hundred years of acoustics, New York 1999. J. Blauert, Räumliches Hören, Stuttgart 1974. J. Blauert, Spatial Hearing: The psychophysics of human sound localization. Cambridge and London 1997. F. Bluttner, Objektive und subjektive Untersuchungen zum Einschwingen von Pianoklängen, in: Das Musikinstrument 31 (1982), S. 1140–1146. M. Boom: Music through MIDI, Redmond, Washington 1987. I. Bork / J. Meyer, Zum Einfluss der Form des Mundloches auf die Tonerzeugung bei den Querflöten, in: Tibia 5 (1989), S. 358–368 H. Borucki, Einführung in die Akustik, Mannheim, 1980. 327 Literaturverzeichnis ________________________________________________ J. Bortz, Statistik für Human- und Sozialwissenschaftler, 7. Aufl. Berlin und Heidelberg 2010. Chr. Braut, Das MIDI Buch, Düsseldorf 1993. A.S. Bregman, Auditory streaming: Competition among alternative organizations, in: Perception & Psychophysics, 23 (1978), S. 391–398. A.S. Bregman, The formation of auditory streams, in: Attention and Performance VII, hrsg. von J. Requin, Hillsdale, New Jersey 1978, S. 63–76. A.S. Bregman, Auditory scene analysis, paper presented at the Seventh International Conference on Pattern Recognition, Silver Spring, Md 1984. A.S. Bregman, Auditory scene analysis: The perceptual organization of sound. Cambridge und Massachusetts 1990. A.S. Bregman, Auditory scene analysis and the role of phenomenology in experimental psychology, in: Canadian Psychology, 46/1 (2005), S. 32–40. A.S. Bregman, Auditory scene analysis, in: The Senses: A comprehensive reference, audition, Band 3, hrsg. von A. I. Basbaum / K. Akimichi / G. M. Shepherd / G. Westheimer, San Diego 2008a, S. 861–870. A.S. Bregman, Auditory scene analysis, in: Encyclopedia of neuroscience, hrsg. von L. R. Squire, Oxford, UK 2008b, S. 729–736. A.S. Bregman / P.A. Ahad / P.A.C. Crum / J. O'Reilly, Effects of time intervals and tone durations on auditory stream segregation, in: Perception & Psychophysics, 62/3, (2000), S. 626–636. A.S. Bregman / S. Pinker, Auditory streaming and the building of timbre, in: Canadian Journal of Psychology, 32 (1978), S. 19–31. R. Bresin, Towards a computational model of expression in music performance: The GERM model, in: Musicae Scientiae, Special Issue: Current trends in the study of music and emotion (2001–2002), S. 63–122. D.E. Broadbent, Perception and communication. London 1958. D.E. Broadbent / P. Ladefoged, On the fusion of sound reaching different sense organs, in: Journal of the Acoustical Society of America 29 (1957), S. 708–710. J.P.L. Brokx / S.G. Nooteboom, Intonation and the perceptual separation of simultaneous voices. in: Journal of Phonetics 10 (1982), S. 23–36. M. Bruneau, Fundamentals of acoustics, London 2006. F. Busoni, Entwurf einer neuen Ästhetik der Tonkunst, Leipzig 21916. C. Cagniard de Latour, Sur la sirène, nouvelle machine d'acoustique destinée à mesurer les vibrations de l'air qui constituent le son, in: Annales de chimie et de physique, 2nd ser., 12, 1819, S. 167–171. St. Campidell, Die Mikrostruktur von Ventilbindungen bei Trompeten, Magisterarbeit, Universität Wien 1995. R. Carhart / T.W. Tillman / K.R. Johnson, Release of masking for speech through interaural time delay, in: Journal of the Acoustical Society of America 42 (1967), S. 124–138. O. Carpentier, Les instruments des Coupleux et Givelet 1920–1935, Université de Paris – Sorbonne 2004. S. Carral, Plucking the string: The excitation mechanism of the guitar (abstract), in: Journal of the Acoustical Society of America 128/4,2 (2010), S. 2448. V. Chatziioannou / W. Kausel / Th. Moore, The effect of wall vibrations on the air column inside trumpet bells, in: Proceedings of the Acoustics 2012 Nantes Conference, Nantes 2012, S. 2243–2248. J.-M. Chen / J. Smith / J. Wolfe, Experienced saxophonists learn to tune their vocal tracts, in: Science 319 (2008), S. 726. C.E. Cherry, Some experiments on the recognition of speech, with one and with two ears, in: Journal of the Acoustical Society of America 25/5 (1953), S. 975–979. 328 ________________________________________________ Literaturverzeichnis E.F.F. Chladni, Entdeckungen über die Theorie des Klanges, Leipzig 1787. E.F.F. Chladni, Die Akustik. Berlin 1802. J.M. Chowning, The synthesis of complex audio spectra by means of frequency modulation, in: Journal of the Audio Engineering Society 21 (1973), S. 526–534. J.M. Chowning, Computer synthesis of the singing voice, in: Sound generation in winds, strings, computers, hrsg. von der Royal Swedish Academy of Music Stockholm 1980, S. 4-13. A. Collins, Professional guide to audio plug-ins and Virtual Instruments, Amsterdam und Boston 2003. P.R. Cook, Music, cognition, and computerized sound. An introduction to psychoacoustics, Cambridge und London 2001. P.R. Cook, Real sound synthesis for interactive applications, Natick, MA 2002. D.C. Copley / W.J. Strong, A stroboscopic study of lip vibrations in a trombone, in: Journal of the Acoustical Society of America 99/2 (1996), S. 1219–1226. L. Cremer, Die wissenschaftlichen Grundlagen der Raumakustik, Band 1. Stuttgart 1948. L. Cremer, Die wissenschaftlichen Grundlagen der Raumakustik, Stuttgart 1978. L. Cremer, Physik der Geige, Stuttgart 1981. D. Crombie, The new complete synthesizer, London, New York und Sydney 1986. J.F. Culling / Q. Summerfield, Perceptual separation of concurrent speech sounds: Absence of across frequency grouping by common interaural delay, in: Journal of the Acoustical Society of America 98 (1995), S. 185–797. P. Dallos, Overview: Cochlear neurobiology, in: Springer handbook of auditory research – the cochlea, hrsg. von R.R. Fay / A.N. Popper, New York 2006, S. 1–43. G.L. Dannenbring / A.S. Bregman, Effect of silence between tones on auditory stream segregation, in: Journal of the Acoustical Society of America 59/4 (1976), S. 987–989. O. Darrigol, The acoustic origins of harmonic analysis, in: Archive for history of exact sciences 61 (2007), S. 343–424. C.J. Darwin, Perceptual grouping of speech components differing in fundamental frequency and onset time, in: Quarterly Journal of Experimental Psychology, 33A (1981), S. 185–207. C.J. Darwin / R.P. Carlyon, Auditory grouping, in: The Handbook of Perception and Cognition, Band 6, hrsg. von B.C.J. Moore, London 1995, S. 387–424. C.J. Darwin / R.W. Hukin, Auditory objects of attention: The role of interaural time differences in: Journal of Experimental Psychology: Human Perception and Performance 25 (1999), S. 617–629. J.F. Daugherty, Spacing, formation and choral sound: preferences and perceptions of auditors and choristers. Ph.D. thesis, Florida State University at Tallahassee, School of Music (1996). B. David, Vergleich der akustischen Richtwirkung des Konzertflügels Steinway D–274 mit und ohne Klangspiegel. IWK – Universität für Musik und darstellende Kunst Wien 2010. H. Davis, Psychological and physiological acoustics: 1920–1942, in: Journal of the Acoustical Society of America 61 (1977), S. 264–266. J.B.J. de Fourier, Théorie analytique de la chaleur, Paris 1822. D. de Vries, Wave field synthesis (AES Monograph), New York 2009. J. Devaney, An empirical study of the influence of musical context on intonation practices in solo singers and SATB ensembles, Ph. D. Dissertation McGill 2011. D. Deutsch, Two-channel listening to musical scales, in: Journal of the Acoustical Society of America 57 (1975), S. 1156–1160. D. Deutsch, Musical illusions and paradoxes (CD), La Jolla 1995. J.A. Deutsch / D. Deutsch, Attention: Some theoretical considerations, in: Psychological Review, 70 (1963), S. 80–90. M. Dickreiter / W. Hoeg / V. Dittel / M. Wöhr (Hrsg.), Handbuch der Tonstudiotechnik, Band 1, München 2008. 329 Literaturverzeichnis ________________________________________________ DIN 15905-5, Veranstaltungstechnik–Tontechnik–Teil 5: Maßnahmen zum Vermeiden einer Gehörgefährdung des Publikums durch hohe Schallemissionen elektroakustischer Beschallungstechnik, 2007. DIN 18041, Hörsamkeit in kleinen bis mittelgroßen Räumen, 2004. DIN EN 60268-4, Elektroakustische Geräte – Teil 4: Mikrofone, 2004. DIN EN 60268-5, Elektroakustische Geräte – Teil 5: Lautsprecher, 2003. DIN EN 60268-7, Elektroakustische Geräte – Teil 7: Kopfhörer und Ohrhörer, 1996. DIN EN ISO 3382-1, Messung von Parametern der Raumakustik, 2009. P. Donhauser, Elektrische Klangmaschinen, Wien 2007. P. Donhauser: »Der elektrische Beethoven«. Anmerkungen zur Geschichte und Technik des ersten europäischen elektromechanischen Klaviers, in: Blätter für Technikgeschichte 69/70 (2007/2008), S. 117–135. P. Donhauser, Österreichische Pioniere der »Elektrischen Musik« und die Medienarchäologie, in: Klangmaschinen zwischen Experiment und Medientechnik, hrsg. von D. Gethmann, Bielefeld 2010, S. 73–96. S. Donval, Histoire de l'acoustique musicale, Courlay 2006. S. Dostrovsky / J. F. Bell / C. Truesdell, Physics of music, in: The New Grove Dictionary of Music & Musicians, ed. Stanley Sadie, London 1980. W.J. Dowling, Rhythmic fission and perceptual organization, in: Journal of the Acoustical Society of America 44/1 (1968), S. 369. W.J. Dowling, The perception of interleaved melodies, in: Cognitive Psychology 5 (1973), S. 322–337. W.J. Dowling, Dichotic recognition of musical canons: Effects of leading ear and time lag between ears, in: Perception & Psychophysics, 23/4 (1978), S. 321–325. W.J. Dowling, Music cognition. Orlando 1986. H.H. Dräger, Prinzip einer Systematik der Musikinstrumente, Kassel und Basel 1948. N.L. Durlach / H.S. Colburn, Binaural phenomena, in: Handbook of Perception, Vol. 4, Hearing, hrsg. von E.C. Carterette / M.P. Friedman, New York 1978, S. 365–466. M. Ebeling, Konsonanz und Dissonanz, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 499–521. R. Eberlein, Theorien und Experimente zur Wahrnehmung musikalischer Klänge, Frankfurt 1988. R. Eberlein, Geschichte der musikbezogenen Akustik, in: MGG2, Bd. 1 (Sachteil), Kassel u. a. 1994, S. 376–385. R. Eberlein, Die Entstehung der tonalen Klangsyntax, Frankfurt a.M. 1994. W. Ellermeier / J. Hellbrück, Hören – Psychoakustik – Audiologie, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 41–85. B. Enders, Der Einfluß moderner Musiktechnologien auf die Produktion von Popularmusik, in: Popmusic – Yesterday Today Tomorrow, hrsg. von M. Heuger / M. Prell, Regensburg 1995, S. 47–72. B. Enders, Die Klangwelt des Musiksynthesizers, München 1985. B. Enders, Lexikon Musikelektronik, Mainz 1997. B. Enders, Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele, in: Mathematische Musik – musikalische Mathematik, hrsg. von B. Enders, Saarbrücken 2005, S. 9–37. B. Enders / W. Klemme, Das MIDI- und Sound-Buch zum Atari ST, Haar bei München 1988. B. Enders / C. Reuter, Verschicken musikalischer Daten – Von MIDI zum Internet, in: Elektroakustische Musik (Band 5 der Reihe Handbuch der Musik im 20. Jahrhundert), hrsg. von E. Ungeheuer, Laaber 2002, S. 282–285. 330 ________________________________________________ Literaturverzeichnis R.F. Estrada / E.A. Starr, 50 years of acoustic signal processing for detection: coping with the digital revolution, in: IEEE Annals of the History of Computing 27/2, (2005), S. 65–78. L. Euler, De la propagation du son, in: Mémoires de l'Académie des Sciences de Berlin, 15, 1759, S. 185–264. L. Euler, Tentamen Novae Theoriae Musicae, Petersburg 1739. F.A. Everest, Fundamentals of sound, in: Handbook for sound engineers, hrsg. von G. Ballou, Indianapolis, 1987. F.A. Everest, The master handbook of acoustics, New York 42001. A. Eximeno, Dell' Origine e delle regole della Musica, Rom 1774. W. Fasold / E. Veres, Schallschutz und Raumakustik in der Praxis, Berlin 2003. H. Fastl / E. Zwicker, Psychoacoustics – Facts and Models, Berlin 32006. G.Th. Fechner, Elemente der Psychophysik, (Nachdruck der Ausgabe, Leipzig 1860), 2 Bände, Amsterdam 1964. C. Fensterbusch, Vitruvii De architectura libri decem. Lateinisch und deutsch. Darmstadt 6. Aufl. 2008. H. Fleischer, Vibroakustische Untersuchungen an Paukenfellen, Neubiberg 2005. H. Fleischer, Fell, Kessel und Gestell der Orchesterpauke, Neubiberg 2008. H. Fletcher, A space-time pattern theory of hearing, in: Journal of the Acoustical Society of America 1 (1929), S. 313–316. H. Fletcher, Auditory patterns, in: Reviews of Modern Physics 12 (1940), S. 47–65. H. Fletcher / W.A. Munson, Loudness, its definition, measurement, and calculation, in: Journal of the Acoustical Society of America 5 (1933), S. 82–108. N.H. Fletcher / T.D. Rossing, The physics of musical instruments, New York, 1991. L. Fogliano, Musica theorica, Venedig 1529. P. Fraisse, Rhythm and tempo, in: The psychology of music, hrsg. von D. Deutsch, San Diego 1982, S. 149–180. J.P. Fricke, Über subjektive Differenztöne höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hören, Regensburg 1960. J.P. Fricke, Die Innenstimmung der Naturtonreihe und der Klänge, in: Festschrift K. G. Fellerer zum 60. Geburtstag, hrsg. von H. Hüschen, Regensburg 1962, S. 161–177. J.P. Fricke, Formantbildende Impulsfolgen bei Blasinstrumenten, in: Fortschritte der Akustik, 4. DAGA'75, Braunschweig 1975, S. 407–411. J.P. Fricke, Kompression zur Herstellung natürlicher dynamischer Verhältnisse beim Abhören unter verschiedenen umweltbedingten Störschalleinflüssen, in: Bericht über die 11. Tonmeistertagung Berlin'78, Köln 1978, S. 100–107. J.P. Fricke, Zur Anwendung digitaler Klangfarbenfilter bei Aufnahme und Wiedergabe, in: Bericht über die 14. Tonmeistertagung München, München 1986, S. 135–148. J.P. Fricke, Klangbreite und Tonempfindung. Bedingungen kategorialer Wahrnehmung aufgrund experimenteller Untersuchung der Intonation, in: Musikpsychologie, Empirische Forschungen – Ästhetische Experimente, Band 5, hrsg. von K.-E. Behne, G. Kleinen und H. de la Motte-Haber, Wilhelmshaven 1988, S. 67–88. J.P. Fricke, Der Klang der Musikinstrumente nach den Gesetzen des Gehörs: Wechselwirkung Mensch – Instrument, in: Das Instrumentalspiel. Bericht vom Internationalen Symposion Wien, 12. –14. April 1988, hrsg. von G. Windholm / M. Nagy, Wien und München 1989, S. 275–284. J.P. Fricke, Die Bedeutung der Mikrointervalle im Wandel der Zeiten und Kulturen, in: Mikrotöne IV, Bericht über das 4. Internationale Symposion Mikrotonforschung, Musik mit Mikrotönen, Ekmelische Musik, 1991 in Salzburg, hrsg. von Horst-Peter Hesse, München 1993, S. 221–250. 331 Literaturverzeichnis ________________________________________________ J.P. Fricke, Die Wechselwirkung von Mensch und Instrument im Zusammenspiel von Physik und Psychologie, in: Neue Musiktechnologie, Vorträge und Berichte vom KlangArt-Kongreß 1991 an der Universität Osnabrück, hrsg. von B. Enders, Mainz 1993, S. 169–196. J.P. Fricke, Ein Plädoyer für die Formanten, in: Flöten, Oboen und Fagotte des 17. und 18. Jh., 12. Symposium zu Fragen des Instrumentenbaus 1991, Blankenburg, Michaelstein 1994, S. 66–77. J.P. Fricke, Über Fremdheit und Aneignung in der Musik, in: Lux Oriente. Festschrift Robert Günther zum 65. Geburtstag, hrsg. von K.W. Niemöller / U. Pätzold / C. Kyo-chul, Regensburg 1995, S. 363–376. J.P. Fricke, Systemische Musikwissenschaft – Eine Konsequenz des Dialogs zwischen den Wissenschaften, in: Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift Helga de la Motte-Haber zum 60. Geburtstag, hrsg. von R. Kopiez, B. Barthelmes, H. Gembris, J. Kloppenburg, H. von Loesch, H. Neuhoff, G. Rötter, C.M. Schmidt, Würzburg 1998, S. 161–171. J.P. Fricke, Psychoakustik des Musikhörens, in: Musikpsychologie (Handbuch der Systematischen Musikwissenschaft, Band 3), hrsg. von H. de la Motte-Haber / G. Rötter, Laaber 2005, S. 101–154. J.P. Fricke, Neuronale Koinzidenz mit Unschärfe löst das Problem unbefriedigender Konsonanztheorien, in: Musikpsychologie – Musikalisches Gedächtnis – musikalisches Lernen, Band 20, hrsg. von W. Auhagen / C. Bullerjahn / H. Höge, Göttingen 2009, S. 94– J.P. 122. Fricke: A statistical theory of musical consonance proved in praxis, in: Klangfarbe. Vergleichend-systematische und musikhistorische Perspektiven, hrsg. von A. Schmidhofer / S. Jena, Frankfurt 2011, S. 99–112. J.P. Fricke, Intonation und musikalisches Hören, Osnabrück 2012. J.P. Fricke, The recognition of consonance is not impaired by intonation deviations. A revised theory, in: Proceedings of the 34th Annual Conference of the Gesellschaft für Klassifikation e.V., hrsg. von W. Gaul / A. Geyer-Schulz / L. Schmidt-Thieme / J. Kunze, Berlin 2012, S. 383–391. J.P. Fricke / Chr. Louven, Psychoakustische Grundlagen des Musikhörens, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn / R. Kopiez / A. Lehmann, Rheinbek 2008, S. 413– 436. G. Friedlein (Hg.), De institutione arithmetica libri duo, De institutione musica libri quinque, accedit Geometria quae fertur Boetii, Leipzig 1867, Reprint Frankfurt/Main 1966. J.B. Fritz / M. Elhilali / S.V. David / S.A. Shamma, Auditory attention – focusing the searchlight on sound, in: Current Opinion in Neurobiology 17 (2007), S. 437–455. M. Fruhmann, Ein Modell zur Wahrnehmung der Ausgeprägtheit der Tonhöhe, Diss. München 2006. P.A. Fuchs, The Oxford handbook of auditory science – The ear, Oxford 2010. D. Gabor, Theory of communication, in: Journal of the Institution of Electrical Engineers Part III, 93/26 (1946), S. 429–457. A. Gabrielsson, The performance of music, in: The psychology of music, hrsg. von D. Deutsch, San Diego 21999, S. 501–602. A. Gabrielsson / E. Lindström, The influence of musical structure on emotional expression, in: Music and emotion: Theory and research, hrsg. von P.N. Juslin und J.A. Sloboda, Oxford 2001, S. 223–248. G. Galilei, Discorsi e dimostrazioni matematiche intorno à due nuove scienze, Leiden 1638. S.A. Gelfand, Hearing – An introduction to psychological and physiological acoustics, New York 2004. S.A. Gelfand, Essentials of audiology, New York und Stuttgart 2009. D. Gethmann (Hg.), Klangmaschinen zwischen Experiment und Medientechnik, Bielefeld 2010 332 ________________________________________________ Literaturverzeichnis W. Gieseler / L. Lombardi / R.-D. Weyer, Instrumentation in der Musik des 20. Jahrhunderts, Celle 1985. A. Glinsky, Theremin: ether music and espionage, Illinois 2000. W. Goebl / S. Dixon / G. de Poli / A. Friberg / R. Bresin / G. Widmer, ›Sense‹ in expressive music performance: data acquisition, computational studies, and models, in: Sound to sense – Sense to sound: A state of the Art in Sound and Music Computing, hrsg. von P. Polotti und D. Rocchesso, Berlin 2008, S. 195–242. W. Goebl / I. Fujinaga, Do key-bottom sounds distinguish piano tones? In: Proceedings of the 10th International Conference on Music Perception and Cognition (ICMPC10), Sapporo 2008, S. 292. W. Goebl / C. Palmer. Tactile feedback and timing accuracy in piano performance, in: Experimental Brain Research 186/3 (2008), S. 471–479. W. Goebl / G. Widmer, Unobtrusive practice tools for pianists, in: Proceedings of the 9th International Conference on Music Perception and Cognition (ICMPC9), Bologna 2006, S. 209–214. J. Goldstein, An optimum processor theory for the central formation of the pitch of complex tones, in: Journal of the Acoustical Society of America 54 (1973), S. 1496–1516. J. Goldstein / A. Gerson / P. Srulovicz / M. Furst, Verification of the optimal probabilistic basis of aural processing in pitch of complex tones, in: Journal of the Acoustical Society of America 63 (1978), S. 486–497. P. Gorges, Das großer Sampler Praxisbuch, München 1991. N. Gosselin / P. Jolicoeur / I. Peretz (2009), Impaired memory for pitch in congenital amusia, in: The Neurosciences and Music III – Disorders and Plasticity: Annals of the New York Akademy of Sciences 1169 (2009), S. 270–272. P. Gouk, The role of acoustics and music theory in the scientific work of Robert Hooke, in: Annals of Science 37/5 (1980), S. 573–605. B. Graham, Musik and the synthesizers, Hertfordshire 1980. D.W. Gravereaux / A.J. Gust / B.B. Bauer, The dynamic range of disc and tape records, in: Journal of the Audio Engineering Society 18/5 (1970), S. 530–535. D.M. Green / W.A. Yost, Binaural analysis, in: Handbook of Sensory Physiology: Auditory System, hrsg. von W. Keidel / W. Neff, New York 1975, S. 461–480. O. Grewe / F. Nagel / R. Kopiez / E. Altenmüller, Listening to music as a re-creative process: Physiological, psychological, and psychoacoustical correlates of chills and strong emotions, in: Music Perception 24/3 (2007), S. 297–314. J.M. Grey, An exploration of musical timbre, Stanford 1975. J.M. Grey, Multidimensional perceptual scaling of musical timbres, in: Journal of the Acoustical Society of America 61 (1977), S. 1270–1277. P. Grosche / M. Müller / C.S. Sapp, What makes beat tracking difficult? A case study on Chopin Mazurkas, in: Proceedings of the 11th International Conference on Music Information Retrieval (ISMIR), hrsg. von J.S. Downie und R.C. Veltkamp, Utrecht 2010, S. 649–654. R. Großmann, Sampling, in: Metzler Lexikon Medientheorie / Medienwissenschaft, hrsg. von H. Schanze, Stuttgart, 2002, S. 320 f.. R.H. Gundlach, Factors determining the characterization of musical phrases, in: American Journal of Psychology 47 (1935), S. 624–643. W. Güth, Zur Frage der »Ansprache« von Streichinstrumenten, in: Acustica 46 (1980), S. 259– 267. W. Güth / F. Danckwerth, Die Streichinstrumente. Physik – Musik – Mystik. Stuttgart 1997. A. Gutschalk / C. Micheyl / A.J. Oxenham, Neural correlates of auditory perceptual awareness under informational masking, in: PLoS Biol, 6/6 (2008), S. 1156–1165. 333 Literaturverzeichnis ________________________________________________ A. Guzman, Decomposition of a visual scene into three-dimensional bodies, in: Automatic Interpretation and Classification of Images, hrsg. von A. Grasselli, New York 1969, S. 243– 276. H. Haas, Über den Einfluss eines Einfachechos auf die Hörsamkeit von Sprache, in: Acustica, 1 (1951), S. 49–58. D.E. Hall, Musikalische Akustik – Ein Handbuch, Mainz u.a. 1997. D.E. Hall, Musical acoustics, Pacific Grove 2002. L. Halpern / R. Blake / J. Hillenbrand, Psychoacoustics of a chilling sound, in: Perception and Psychophysics 39/2 (1986), S. 77–80. W.M. Hartmann / D. Johnson, Stream segregation and peripheral channeling, in: Music Perception, 9/2 (1991), S. 155–184. M.L. Hawley / R.Y. Litovsky / H.S. Colburn, Intelligibility and localization of speech signals in a multi-source environment, in: Journal of the Acoustical Society of America 105 (1999), S. 3436–3448. G. Heike / H. Dünnwald, Neuere Klanguntersuchungen an Geigen und ihre Beziehung zum Gesang, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum 65. Geburtstag, hrsg. von W. Niemöller, Frankfurt 2003, S. 235–243. J. Hellbrück / W. Ellermeier, Hören – Physiologie, Psychologie und Pathologie, Göttingen 22004. G.B. Henning, Effect of interaural phase on frequency and amplitude discrimination, in: Journal of the Acoustical Society of America 54 (1973), S. 1160–1178. L. Hermann, Phonophotographische Untersuchungen VI – Nachtrag zur Untersuchung der Vocalcurven, in: Archiv für die gesamte Physiologie des Menschen und der Tiere 58 (1894), S. 264–279. H.P. Hesse, Zur Tonhöhenwahrnehmung. Experimentelle Überprüfung des Ohmschen Gesetzes in der Akustik, in: Hamburger Jahrbuch für Musikwissenschaft, Band. 1, hrsg. von C. Floros / H.J. Marx / P. Petersen, Hamburg 1974, S. 233–248. J.K. Hilliard, Elektroacoustics to 1940, in: Journal of the Acoustical Society of America 61 (1977), S. 267–273. P. Hindemith, Unterweisung im Tonsatz, Mainz 1938. M. Hipp, Das elektrische Clavier, in: Dinglers Polytechnisches Journal 183 (1867), S.200–203. U.G. Hoenig, Workshop Synthesizer. Klangerzeugung für Musiker, Bergkirchen 2002. H. Hoffmann / A. Lüpke, 0 Dezibel + 0 Dezibel = 3 Dezibel, Berlin 1975. E.M. Hornbostel, Musikalische Tonsysteme, in: Handbuch der Physik, Band 8, Akustik, hrsg. von H. Geiger und K. Scheel, Berlin 1927, S. 425–449. T. Houtgast, Subharmonie pitches of a pure tone at low s/n ratio, in: Journal of the Acoustical Society of America 60 (1976), 405–409. D.M. Howard, Intonation drift in a capella soprano, alto, tenor, bass quartet singing with key modulation, Journal of Voice 21/3 (2007). F.V. Hunt, Origins in acoustics: The science of sound from antiquity to the age of Newton, New Haven 1978. D. Huron, Sweet anticipation, Cambridge/MA 2006. F.T. Husain / T.P. Lozito / A. Ulloa / B. Horwitz, Investigating the neural basis of the auditory continuity illusion, in: Journal of Cognitive Neuroscience 17 (2005), S. 1275–1292. H. Husmann, Vom Wesen der Konsonanz, Heidelberg 1953. C.M. Hutchins, A history of violin research, in: Journal of the Acoustical Society of America 73 (1983), S. 1421–1440. C.M. Hutchins, Klang und Akustik der Geige, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 88–99. C.M. Hutchins / K.A. Stetson / P.A. Taylor, Clarification of »free plate tap tones” by holographic interferometry, in: Journal of the Catgut Society 16 (1971), S. 15–23. 334 ________________________________________________ Literaturverzeichnis C. Huygens (1690), Traité de la lumière, Leiden 1690. IMA (Hrsg.), Zauberhafte Klangmaschinen, Mainz 2008. ISO 226–BS 3383 (1988), Specification for normal equal-loudness level contours for pure tones under free-field listening conditions, Genf. H. Jers, Directivity of singers, in: Journal of the Acoustical Society of America 118/3 (2005), S. 2008. H. Jers / S. Ternström. Intonation analysis of a multi-channel choir recording. in: TMH-QPSR Speech, Music and Hearing: Quarterly Progress and Status Report, 47,1 (2005), S. 1–6. E. Jansson / N. Molin / H. Saldner, On eigenmodes of the violin – Electronic holography and admittance measurements. In: Journal of the Acoustical Society of America 95 (1994), S. 1100–1105. I. Johnston, Measured tones: The interplay of physics and music, Bristol 1994. M. Joos, Acoustic phonetics, Baltimore 1948. P. Jost, Zum Begriff der »Klangfarbe«, in: Musiktheorie 16 (2001), S. 181–183. B. Julesz / I.J. Hirsh, Visual and auditory perception – An essay of comparison, in: Human Communication: A unified View, hrsg. von E.E. David / P.B. Denes, New York 1972, S. 283–340. E. Chr. Kapp, Grundlinien einer Philosophie der Technik, Braunschweig 1877. K. Karplus / A. Strong, Digital synthesis of plucked-string and drum timbres, in: Computer Music Journal 7/2 (1983), S. 43–55. W. Kausel, Bore reconstruction of tubular ducts from its acoustic input impedance curve, in: IEEE Transactions on Instrumentation and Measurement, 53/4 (2004), S. 1097–1105. W. Kausel / V. Chatziioannou / Th. Moore, More on the structural mechanics of brass wind instrument bells, in: Proceedings of Forum Acusticum 2011, hrsg. von der Danish Acoustical Society (European Acoustics Association) Aalborg 2011, S. 527–532. W. Kausel / A. Mayer / G. Nachtmann, Experimental demonstration of the effect of wall vibrations on the radiated sound of the horn and a search for possible explanations, in: Proceedings of the International Symposium on Musical Acoustics, Barcelona 2007. W. Kausel / D. Zietlow / Th. Moore, Transmission line modelling of acoustical systems with vibrating walls, in: Proceedings of the Second Vienna Talk on Music Acoustics, hrsg. von W. Goeb, Wien 2010, S. 89–92. W. Kausel / D. Zietlow, / Th. Moore, Influence of wall vibrations on the sound of brass wind instruments, in: Journal of the Acoustical Society of America 128 (2010), S. 3161–3174. W.D. Keidel, Physiologie des Gehörs, Stuttgart 1975. J.J. Kellaris, Consumer esthetics outside the lab: Preliminary report on a musical field study, in: Advances in Consumer Research 19 (1992), S. 730–734. R.A. Kendall / E.C. Carterette, Verbal attributes of simultaneous wind instrument timbres: I. von Bismarck‘s adjectives, in: Music Perception 10 (1993), S. 445–468. R.A. Kendall / E.C. Carterette, Verbal attributes of simultaneous wind instrument timbres: II. Adjectives induced from Piston‘s orchestration, in: Music Perception 10 (1993), S. 469–502. M. Kent / G. Knapen et al.: Universal Serial Bus device class definition for MIDI devices, Release 1.0, 1999 <http://www.usb.org/developers/ devclass_docs/midi10.pdf> (letzter Zugriff: 18.4.2013) R.G. Kiesewetter, Einleitung und Zusatzartikel, in: Der neuen Aristoxener zerstreute Aufsätze über das Irrige der musikalischen Arithmetik und das Eitle ihrer Temperatur-Rechnungen, hrsg. von R. G. Kiesewetter, Leipzig 1846, S. 1–16 und 64–68. R.G. Kiesewetter, Die sogenannte vollkommen gleichschwebende Temperatur, ohne Logarithmen, graphisch, technisch und praktisch ausgeführt, in: Caecilia 26 (1847), S. 137– R.G.142. Kiesewetter, Über die Octave des Pythagoras, Wien 1848. 335 Literaturverzeichnis ________________________________________________ Y.E. Kim, Singing voice analysis/synthesis, Doctoral dissertation, Massachusetts Institute of Technology 2003. A. Kircher, Musurgia Universalis sive Ars Magna Consoni et Dissoni, Rom 1650. F. Kittler / Th. Macho / S. Weigel (Hrsg.), Zwischen Rauschen und Offenbarung, Berlin 2008. M. Kob, A method for measurement of the vocal tract impedance at the mouth, in: Medical Engineering & Physics; 24/7 (2002), S. 467–471. W.E. Kock, Schallwellen und Lichtwellen – Die Grundlagen der Wellenbewegung, Berlin u.a. 1971. S. Koelsch / W.A. Siebel, Towards a neural basis of music perception, in: Trends in Cognitive Sciences 9 (2005), S. 578–583. P. Költzsch, Von der Antike bis in das 20. Jahrhundert: ein Streifzug durch die Geschichte der Akustik (Schriftenreihe zur Geschichte der Akustik 1), Berlin 2010. P. Költzsch, Akustisches Wissen aus der Antike auf den Transferwegen in das »abendländische« Europa (Schriftenreihe zur Geschichte der Akustik 2), Berlin 2010. R. Kopiez, Reproduktion und Interpretation, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 316–337. V. Koshelev, The Emiriton: Phenomen, history, problems and perspectives of study, in: N. Rimsky–Korsakov and his Heritage in historical Perspective, hrsg. V.L.O. Ader et al., Sankt– Peterburg 2010, S. 43–65. St. Kreichi, The ANS synthesizer: Composing on a photoelectronic instrument, in: Leonardo 28/1 (1995), S. 59–62. H. Krim / M. Viberg, Two decades of array signal processing research, in: IEEE Signal Processing Magazine 7 (1996), S. 67–94. H. Kröncke, Mechanische Schwingungen und Schall, Hildesheim 1973. C.L. Krumhansl, Why is musical timbre so hard to understand? in: Structure and Perception of electroacoustic Sounds and Music, hrsg. von S. Nielzen / O. Olsson, Amsterdam 1989, S. 44– 53. C.L. Krumhansl / P.W. Jusczyk, Infants’ perception of phrase structure in music, in: Psychological Science 1/1 (1990), S. 70–73. J.H. Ku, British acoustics and its transformation from the 1860s to the 1910s, in: Annals of Science 63 (2006), S. 395–423. W.R. Kundert, Acoustical measuring instruments over the years, in: Journal of the Acoustical Society of America 68 (1980), S. 64–69. H. Kuttruff, Akustik – Eine Einführung, Stuttgart u.a. 2004. H. Kuttruff, Room acoustics, London 52009. W.H. Kyong Chun / Th. Keenan, New media, old media: A history and theory reader, New York, 2006. S. Lakatos, A Common perceptual space for harmonic and percussive timbres, in: Perception & Psychophysics 62/7 (2000), S. 1426–1439. G. Langner, Die zeitliche Verarbeitung periodischer Signale im Hörsystem: Neuronale Repräsentation von Tonhöhe, Klang und Harmonizität, in: Zeitschrift für Audiologie 46/1, J. Langner, S. 8–21.Musikalischer Rhythmus und Oszillation, Frankfurt/M. 2002. N.J. Lass / C.M. Woodford, Hearing science fundamentals, St. Louis, 2007. J. Laurendeau, Maurice Martenot, luthier de l’électronique, Paris 1990. N. Lavie, Distracted and confused? Selective attention under load, in: Trends in Cognitive Sciences 9 (2005), S. 75–82. P. Lehmann / H. Wilkens, Zusammenhang subjektiver Beurteilungen von Konzertsälen mit raumakustischen Kriterien, in: Acustica 45 (1980), S. 256–268. M. Leman, Music and schema theory, Berlin und Heidelberg 1995. 336 ________________________________________________ Literaturverzeichnis S.-A. Lembke / S. McAdams (2012), Establishing a spectral theory for perceptual timbre blending based on spectral envelope characteristics, in: Proceedings of the 12th International Conference on Music Perception and Cognition (ICMPC-ESCOM), Thessaloniki 2012. A. Lerch, Bitratenreduktion, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 849–884. Th.Y. Levin, »Töne aus dem Nichts«. Rudolf Pfenninger und die Archäologie des synthetischen Tons, in: Zwischen Rauschen und Offenbarung, hrsg. von F. Kittler / Th. Macho / S. Weigel, Berlin 2008, S. 313–356. Th.Y. Levin, »Tones out of nowhere«. Rudolph Pfenninger and the archaeology of synthetic sound, in: Grey Room 12 (Summer 2003), S. 32–79. D.J. Levitin / P.R. Cook, Memory for musical tempo: Additional evidence that auditory memory is absolute, in: Perception & Psychophysics 58/6 (1996), S. 927–935. J.C.R. Licklider, Basic correlates of the auditory stimulus, In: Handbook of experimental Psychology, hrsg. von S.S. Stevens, New York 1951, S. 985–1039. P. Liénard, Petite histoire de l'acoustique: bruits, sons et musique, Paris 2001. R.B. Lindsay, The story of acoustics, in: Journal of the Acoustical Society of America 39 (1966), S. 629–644. R.B. Lindsay, Acoustics: Historical and philosophical development, Stroudsburg/Pa. 1973. R.B. Lindsay, Acoustics and the Acoustical Society of America in historical perspective, in: Journal of the Acoustical Society of America 68 (1980), S. 2–9. A. Lindau / S. Weinzierl, Perceptual evaluation of model- and signal-based predictors of the mixing time in binaural room impulse responses, in: Journal of the Audio Engineering Society 60/11 (2012), S. 887–898. Chr. Louven, Reiz- und wissensgeleitete harmonische Informationsverarbeitung, in: Musikpsychologie (Handbuch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber 2005, S. 208–230. Chr. Louven, Die Konstruktion von Musik. Theoretische und experimentelle Studien zu den Prinzipien der musikalischen Kognition, Frankfurt/M. 1998. D.A. Luce / M. Clark, Durations of attack transients of nonpercussive orchestral Instruments, in: Journal of the Audio Engineering Society 13 (1965), S. 194–199. K. Lüders / R.O. Pohl, Pohls Einführung in die Physik, Berlin u. a., 2004. E. Mach, Zur Geschichte der Akustik, Prag 1892. H.-J. Maempel, Technologie und Transformation. Aspekte des Umgangs mit Musikproduktionsund -übertragungstechnik, in: Musiksoziologie (Handbuch der systematischen Musikwissenschaft 4), hrsg. von H. de la Motte-Haber und H. Neuhoff, Laaber 2007, S. H.-J.160-180. Maempel, Crooning, in: Lexikon der Systematischen Musikwissenschaft (Handbuch der systematischen Musikwissenschaft 5), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber 2010, S. 78. A.H. Marshall / W.J. Cavanaugh / M.A. Ruggero / J. Santos-Sacchi, Cochlear mechanics and biophysics, in: Encyclopedia of Acoustics, Band 3, hrsg. von M.J. Crocker, New York 1997, S. 1357–1371. D.W. Martin / W.D. Ward, Subjective evaluation of musical scale temperament in pianos, in: Journal of the Acoustical Society of America 33 (1961), S. 582–585. J. Mattheson, Der vollkommene Capellmeister, Hamburg 1739. A. Mayer (2003), Riam (reed instrument artificial mouth) – A computer controlled excitation device for reed instruments, in: Proceedings of the Stockholm Music Acoustics Conference 2003, Stockholm 2003, S. 279–282. A. Mayer / H. Rust, An artificial excitation mechanism for an acoustical comparison of the hammered dulcimer, in: Proceedings of the Second Vienna Talk on Music Acoustics, Wien 2010, S. 100–101. 337 Literaturverzeichnis ________________________________________________ S. McAdams. Spectral fusion, spectral parsing, and the formation of auditory images. Unpublished doctoral dissertation. Stanford 1984. S. McAdams, Perspectives on the contribution of timbre to musical structure, in: Computer Music Journal 23/3 (1999), S. 85–102. S. McAdams / A.S. Bregman, Hearing musical streams, in: Computer Music Journal 3/4 (1985), S. 26–43. J.E. McLennan, A new bowing machine, in: Journal of the Catgut Acoustical Society 4/2 (2000), S. 55–60. H. Menge (Hg.), Euclidis opera omnia, Bd. 8, Leipzig 1916. P. Mengoli, Speculationi di Musica, Bologna 1670. M. Mersenne, Harmonie universelle, Paris 1636. M. Mersenne, Harmonicorum libri XII, Paris 1648. J. Meyer, Akustik der Holzblasinstrumente in Einzeldarstellungen. Frankfurt/M., 1966. J. Meyer, Vibrato: am besten 6 bis 8 Hz, in: Instrumentenbau-Zeitschrift 22 (1968), S. 544–546. J. Meyer, Akustik und musikalische Aufführungspraxis, Bergkirchen 2004. J. Meyer, Musikalische Akustik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 123–180. W. Meyer-Eppler / H. Sendhoff / R. Rupprath, Residualton und Formantton, in: Gravesaner Blätter 14 (1959), S. 70–83. B.F. Miessner, The electronic piano, in: Proceedings of the Music Teachers National Association (1937), S. 259–272. B.F. Miessner, Electronic music and instruments, in: Proceedings of the Institute of Radio Engineers 24/11 (1936), S. 1427–1466. D.C. Miller, Anecdotal history of the science of sound, New York 1935. G.A. Miller, The masking of speech, in: Psychological Bulletin 44 (1947), S. 105–129. G.A. Miller / G.A. Heise, The trill threshold, in: Journal of the Acoustical Society of America 22/5 (1950), S. 637–638. G.A. Miller / J.C.R. Licklider, The intelligibility of interrupted speech, in: Journal of the Acoustical Society of America 22 (1950), S. 167–173. H.B. Miller, Acoustical measurements and instrumentation, in: Journal of the Acoustical Society of America 61 (1977), S. 274–282. J.B. Minter, Recent developments in precision master recording lathes, in: Journal of the Audio Engineering Society 4/2 (1956), S. 50–55. E.R. Miranda, Computer sound design, synthesis techniques and programming, Focal Press 2 2002. T.R. Moore, A simple design for an electronic speckle pattern interferometer, in: American Journal of Physics 72 (2004), S. 1380–1384. H. de la Motte-Haber, Handbuch der Musikpsychologie, Laaber 21996. H. de la Motte-Haber, Musikpsychologie. Eine Einführung, Köln 1972. H. de la Motte-Haber, Ein Beitrag zur Klassifikation musikalischer Rhythmen, Köln 1968. S. Müller, Messtechnik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 1087–1169. H.-G. Musman, Genesis of the MP3 audio coding standard in IEEE transactions on consumer electronics, in: IEEE 52/3 (August 2006), S. 1043–1049. E. Netoliczka, Zur Geschichte der Physik: Ueber die ältesten Bestrebungen in der Akustik. Graz 1865. M. Neukom, Signale, Systeme und Klangsynthese, Bern, Berlin und Bruxelles 2005. O. Neumann, Theorien der Aufmerksamkeit, in: Enzyklopädie der Psychologie. Themenbereich C: Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerksamkeit, hrsg. von A.F. 338 ________________________________________________ Literaturverzeichnis Sanders / N. Birbaumer / D. Frey / J. Kuhl / W. Schneider / R. Schwarzer, Göttingen 1996, S. 559–643. K. Nödl, Metallblasinstrumentenbau. Fach- und Lehrbuch für die Herstellung von Metallblasinstrumenten, Frankfurt am Main, 1970. I. Newton (1687), Philosophiae Naturalis Principia Mathematica, London 1687. D.A. Norman, Rhythmic fission: Observations on attention, temporal judgments and the critical band. Unpublished manuscript. Center for Cognitive Studies, Harvard University. Boston, MA 1966. A.C. North / D.J. Hargreaves, The social and applied psychology of music, Oxford 2008. M. Oehler, Die digitale Impulsformung als Werkzeug für die Analyse und Synthese von Blasinstrumentenklängen, Frankfurt/Main 2008. M. Oehler, Dichotisch / Binaural, in: Lexikon der Systematischen Musikwissenschaft, hrsg. von H. de la Motte / H. v. Loesch / G. Rötter / Chr. Utz, Laaber 2010, S. 86–87. J.J. Ohala, The whole body plethysmograph in speech research, in: Journal of the Acoustical Society of America 93/4 (1993), S. 2416. G.S. Ohm, Über die Definition des Tones, nebst daran geknüpfter Theorie der Sirene und ähnlicher tonbildender Vorrichtungen, in: Annalen der Physik und Chemie 59, 1843 = Annalen der Physik und Chemie, Zweite Reihe, 29, 1843, S. 513–565. H.F. Olson, Music, physics and engineering, New York 1967. W. Opelt, Ueber die Natur der Musik, Plauen 1834. C.V. Palisca, The Florentine Camerata: Documentary studies and translations. New Haven, CT, 1989. B.H. Pandya / G.S. Settles / J.D. Miller, Schlieren imaging of shock waves from a trumpet, in: Journal of the Acoustical Society of America 114/6 (2003), 3363–3367. D. Pantalony, Altered sensations: Rudolph Koenig's acoustical workshop in nineteenth-century Paris, Dordrecht 2009. R. Parncutt, Harmony: A psychoacoustical approach, Berlin und Heidelberg 1989. J. Paulus / M. Müller / A. Klapuri, Audio-based music structure analysis, in: Proceedings of the 11th International Conference on Music Information Retrieval (ISMIR), hrsg. von J.S. Downie und R.C. Veltkamp, Utrecht 2010, S. 625–636. E. Petzold, Elementare Raumakustik, Berlin 1927. S. Philipp, MIDI-Kompendium 2, Fränkisch-Crumbach 1986. A.D. Pierce, Basic linear acoustics in: Springer Handbook of Acoustics, hrsg. von T.D. Rossing, New York 2007, S. 25-111. K. Ploch, Sampling. Theorie und Praxis für Einsteiger und Profis, München 1988. R. Plomp / J.M. Levelt, Tonal consonance and critical bandwidth, in: Journal of the Acoustical Society of America 38, 1965, S. 548–560 R. Plomp, Pitch of complex tones, in: Journal of the Acoustical Society of America 41 (1967), S. 1526–1533. D.J. Povel / P. Essens, Perception of temporal patterns, in: Music Perception 2/4 (1985), S. 411– 440. R.L. Pratt / J.M. Bowsher / R.A. Smith, The measurement of the acoustic impedance of brass instruments, in: Acustica 38 (1977), S. 236–246. K.B. Quiring: The new anechoic room at the Institute for Musical Acoustics (IWK), University of Music and Performing Arts, Vienna, in: Proceedings of the Inter-Noise 2007, Istanbul 2007. M. Raffel / C. Willert / S. Wereley / J. Kompenhans, Particle image velocimetry: A practical guide. Berlin und New York 2007. T. Rahne, Beeinflussung von auditorischer Objektbildung durch visuelle Stimulation. Berlin 2008. J. Ph. Rameau, Nouveau système de musique théorique, Paris 1726. 339 Literaturverzeichnis ________________________________________________ O. Ranke / F.H. Lullies, Physiologie der Stimme und Sprache, Berlin 1953. C. Raphael / Y. Gu (2009), Orchestral accompaniment for a reproducing piano, in: Proceedings of the International Computer Music Conference, Montreal 2009, S. 501–504. H.-P. Reinecke, Über den doppelten Sinn des Lautheitsbegriffes beim musikalischen Hören, Hamburg 1953. G. Reiss / W. Walkowiak / H.-P. Zenner / P.K. Plinkert / E. Lehnhardt, Das stato-akustische Organ – Ein Bildatlas zur Evolution, Physiologie und Morphologie, Hannover 1989. Chr. Reuter, Der Einschwingvorgang nichtperkussiver Musikinstrumente, Frankfurt 1995. Chr. Reuter, Die auditive Diskrimination von Orchesterinstrumenten, Frankfurt 1996 Chr. Reuter, Verschmelzung und partielle Verdeckung, in: Fortschritte der Akustik, DAGA 2000, Oldenburg 2000, S. 176–177. Chr. Reuter, Klangfarbe und Instrumentation, Frankfurt 2002. Chr. Reuter, Wie und warum in der Geschichte der Klangfarbenforschung meistenteils am Klang vorbeigeforscht wurde, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum 65.Geburtstag, hrsg. von Wolfgang Niemöller, Frankfurt 2003, S. 293–301. Chr. Reuter, Von der Physik der Klangfarben zur Psychologie der Klangfarben, in: Musikpsychologie – Musikalische Begabung und Expertise, Band 17, hrsg. von K.-E. Behne / G. Kleinen / H. de la Motte-Haber, Göttingen 2004, S. 107–125. G. Révész, Zur Grundlegung der Tonpsychologie, Leipzig 1913. G. Révész, Zur Geschichte der Zweikomponentenlehre in der Tonpsychologie, in: Zeitschrift für Psychologie 99 (1926), S. 325–356. T.L. Rhea, The evolution of electronic musical instruments in the United States, Dissertation, Nashville 1972. H. Riemann, Die objektive Existenz der Untertöne in der Schallwelle, Kassel 1875. H. Riemann, Katechismus der Akustik, Leipzig 1891. R.J. Ritsma, Existence region of tonal residue I, in: Journal of the Acoustical Society of America 34 (1962), S. 1224–1229. C. Roads, The computer music tutorial, Cambridge 2000. F. Robartes, A discourse concerning the musical notes of the trumpet, and the trumpet marine, and of defects of the same, in: Philosophical Transactions of the Royal Society 16, 1686–92, S. 559–563. D.W. Robinson / R.S. Dadson, A re-determination of the equal-loudness relations for pure tones, in: British Journal of Applied Physics 7 (1956), S. 166–181. J.G. Roederer, Physikalische und psychoakustische Grundlagen der Musik, Berlin, 32000. H. Rösing, Objektiver Klang und subjektiver Klangeindruck der Musikinstrumente (I), in: Das Musikinstrument 15 (1966), S. 1232–1234. H. Rösing, Musikgebrauch im täglichen Leben, in: Musikwissenschaft. Ein Grundkurs, hrsg. von H. Bruhn und H. Rösing, Reinbek 1998, S. 107-129. D.F. Rosenthal, / H.G. Okuno (Hrsg.), Computational auditory scene analysis. Mahwah, NJ. 1998. W.D. Ross (1936), Aristotle's Physics. A revised text with introduction and commentary, Oxford 1936. Th.D. Rossing (1988), Die Pauke, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 128–135. Th.D. Rossing (Hrsg.), Springer handbook of acoustics, New York 2007. Th.D. Rossing, Science of percussion instruments, Singapore 2008. Th.D. Rossing, The science of string instruments, New York 2010. Th.D. Rossing / R.F. Moore / P.A. Wheelder, The science of sound, San Francisco u.a. 2002. A. Ruschkowski, Elektronische Klänge und musikalische Entdeckungen, Ditzingen 1998. M. Russ, Sound sampling and synthesis, Oxford 1998. 340 ________________________________________________ Literaturverzeichnis H.S. Sabine, Building acoustics in America, 1920–1940, in: Journal of the Acoustical Society of America 61 (1977), S. 255–263. W.C. Sabine, Collected papers on acoustics, Cambridge/Mass. 1922. C. Sachs, The history of musical instruments, New York 1940. W. Sandner, Sound & Equipment, in: Rockmusik – Aspekte zur Geschichte, Ästhetik, Produktion, hrsg. von W. Sandner, Mainz 1977, S. 81–99. J. Sauveur (1984), Collected writings on musical acoustics, hrsg. von Rudolf Rasch, Utrecht 1984. Z. Schärer / A. Lindau, Evaluation of equalization methods for binaural signals, in: AES 126th Convention, Munich, Germany, 2009, Paper 7721. J. H. Scheibler (1834), Der physikalische und musikalische Tonmesser, Essen 1834. F. Scheminzky, Die Welt des Schalles, Wien, 1943. W. Schiffner, Einflüsse der Technik auf die Entwicklung von Rock/Pop-Musik, Hamburg 1991. H. Schimank, Zur Frühgeschichte der Akustik, in: Akustische Zeitschrift 1 (1936), S. 106. M. Schleske, Modalanalyse im Geigenbau – Vom praktischen Nutzen physikalischer Forschung im Musikinstrumentenbau. Teil I: Grundlagen, in: Das Musikinstrument 41/2–3 (1992), S. 98–106. H. Schole, Experimentelle Untersuchungen an höchsten und an kürzesten Tönen, in: Zeitschrift für Psychologie 131 (1934), S.1–6 3. H. Scholl, Trägheitserscheinungen beim Gehör, in: Aufnahme und Verarbeitung von Nachrichten durch Organismen, Stuttgart 1961, S. 56–62. J.F. Schouten, The perception of pitch, in: Philips Technical Review 5/10 (1940), S. 286–294. J.F. Schouten, The perception of subjective tones, in: Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen te Amsterdam 41 (1938), S, 1086–1094. J.F. Schouten, The residue, a new component in subjective sound analysis, in: Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen 43, 1940, S. 356–365. J.F. Schouten, The residue revisited, in: Frequency Analysis and Periodicity Detection in Hearing, hrsg. von R. Plomp / G.F. Smoorenburg, Leiden, 1970, 41–53. Chr. E. Schreiner / G. Langner, Periodicity coding in the inferior colliculus of the cat. II. Topographical organization, in: Journal of Neurophysiology, 60/6 (1988), S. 1823–1840. M. Schreiner, Wilson & Wilson’s comprehensive analytical chemistry, Vol. XLII: Nondestructive microanalysis of cultural heritage materials, Amsterdam 2004, S. 713–754. M. Schroeder, Acoustics in human communications: room acoustics, music, and speech, in: Journal of the Acoustical Society of America 68 (1980), S. 22–28. H. Schulze / H. Scheich / G. Langner, Periodicity coding in the auditory cortex: What can we learn from learning experiments, in: Psychophysics, physiology and models of hearing, hrsg. von T. Dau / V. Hohman / B. Kollmeister, Singapore, New Jersey 1999, S. 21–26. K.E. Schumann, Akustik, Breslau, 1925. K.E. Schumann, Physik der Klangfarben, Berlin 1929. A. Seebeck, Ueber die Sirene, in: Annalen der Physik und Chemie 60, 1843 = Annalen der Physik und Chemie, Zweite Reihe, 30, 1843, S. 449–481. A. Seebeck, Über die Definition des Tones, in: Annalen der Physik und Chemie 63 (1844), S. 353–368. W. Seidner / J. Wender, Die Sängerstimme. Phoniatrische Grundlagen der Gesangsausbildung. Berlin 31997. H. Selg / W. Bauer, Forschungsmethoden der Psychologie, Stuttgart (Kohlhammer) 1971. C.R. Shackford, Some aspects of perception. II. Interval sizes and tonal dynamics in performance, in: Journal of Music Theory 6 (1962), S. 66–90 C.R. Shackford, Some aspects of perception. III. Addenda, in: Journal of Music Theory 6 (1962), S. 295–303. 341 Literaturverzeichnis ________________________________________________ R.S. Shankland, Architectural acoustics in America to 1930, in: Journal of the Acoustical Society of America 61 (1977), S. 250–254. D.B. Sharp, Acoustic pulse reflectometry for the measurement of musical wind instruments, PhD Thesis, University of Edinburgh, Physics Department 1996. R.N. Shepard, Circularity in judgments of relative pitch, in: Journal of the Acoustical Society of America 36/12 (1964), S. 2346–2353. B.G. Shinn-Cunningham, Object-based auditory and visual attention, in: Trends in Cognitive Sciences, 12/1 (2008), S. 82–86. R. Shuter-Dyson / C. Gabriel, The psychology of musical ability, 2. Aufl. London (Routledge & Kegan Paul) 1982. D.K. Simonton, Thematic fame, melodic originality, and musical Zeitgeist: A biographical and transhistorical content analysis, in: Journal of Personality and Social Psychology 38 (1980), S. 972–983. E. Skudrzyk, Die Grundlagen der Akustik, Wien, 1954. K.M. Slavik, Anschlusstechnik, Interfaces, Vernetzung. in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 945–1034. J.A. Sloboda, Music structure and emotional response: Some empirical findings, in: Psychology of Music 19 (1991), S. 110–120. A. Smirnov / B. Yankovsky, Leben im Klangspektrum, in: Klangmaschinen zwischen Experiment und Medientechnik, hrsg. von D. Gethmann, Bielefeld 2010, S. 97–120. J.O. Smith III, Physical modeling using digital waveguides, in: Computer Music Journal, 16/4 (1992), S. 74–91. J.O Smith / S. Hausfeld / R.P. Power / A. Gorta, Ambiguous musical figures and auditory streaming, in: Perception & Psychophysics 32/5 (1982), S. 454–464. R.A. Smith, It’s all in the bore. ITG Journal 12 (May), Reprint, 1988. G.F. Smoorenburg, Pitch perception of two-frequency stimuli, in: Journal of the Acoustical Society of America 48 (1970), S. 924–942. G.A. Sorge, Anweisung zur Stimmung und Temperatur, Hamburg 1744. G.A. Sorge, Vorgemach der musicalischen Composition, Lobenstein 1745. A.G. Sotiropoulou / R.J. Hawkes / D.B. Fleming, Concert hall acoustic evaluations by ordinary concert-goers: I, Multi-dimensional description of evaluations, in: Acustica 81 (1995), S. 1–9. C. Spence / V. Santangelo, Auditory attention, in: The Oxford Handbook of auditory science. Hearing, hrsg. von C.J. Plack, Oxford 2010, S. 249–270. M. Spitzer, Musik im Kopf, Stuttgart 2002. J. Stange, Bedeutung der elektroakustischen Medien für die Musik im 20. Jahrhundert, Pfaffenweile 1989. J. Stange-Elbe, Das musikalische Interface. Von der Trommel bis zum virtuellen Instrument, in: Mathematische Musik – musikalische Mathematik, hrsg. von B. Enders, Saarbrücken 2005 177–194. W. Stauder, Einführung in die Akustik, Wilhelmshaven u.a. 1979. U. Steudel, Über die Empfindung und Messung der Lautstärke, in: Hochfrequenztechnik und Elektroakustik 41 (1933), S. 116–128. S.S. Stevens, A Scale for the measurement of a psychological magnitude: Loudness, in: Psychological Review 43/5 (Sep 1936), S. 405–416. S.S. Stevens, Calculation of the loudness of complex noise, in: Journal of the Acoustical Society of America 28 (1956), S. 807–832. S.S. Stevens, Procedure for calculating loudness: Mark VI, in: Journal of the Acoustical Society of America 33/11 (1961), S. 1577–1585. S.S. Stevens, On the psychophysical law, in: Psychological Review 64 (1957), S. 153–182. 342 ________________________________________________ Literaturverzeichnis S.S. Stevens / D. Hallowell, Hearing: Its psychology and physiology, New York, London und Sidney 1938. S.S. Stevens / E.B. Newman, The localization of actual sources of sound, in: American Journal of Psychology 48 (1936), S. 297–306. S.S. Stevens / J. Volkmann / E.B. Newman, A Scale for the measurement of the psychological magnitude pitch, in: Journal of the Acoustical Society of America 8 (1937), S. 185–190. A. Stickel, Faszination Gehör – Entdeckungsreise in die Welt des Klangs, Bergkirchen 2003, S. 36. K. Stockhausen, Elektronische Musik und Automatik, in: Texte zur Musik 1963–1970, Band 3, hrsg. von D. Schnebel, Schauberg und Köln 1971, S. 232–236. C. Stumpf, Tonspsychologie, Band 2, Leipzig 1890. C. Stumpf, Die Sprachlaute, Berlin 1926. J. Sundberg, The acoustics of the singing voice, in: Scientific American 3 (1977), S. 82–91. J. Sundberg, Die Wissenschaft von der Singstimme, Bonn 1997. M. Supper, Elektroakustische Musik und Computermusik. Geschichte, Ästhetik, Methoden, Systeme, Hofheim 1997. E. Sussman, Integration and segregation in auditory scene analysis, in: Journal of the Acoustical Society of America 117/3 (2005), S. 1285–1298. I. Szabó, Einführung in die technische Mechanik, Berlin, 82002. T. Tarnoczy (1991), Einführung in die musikalische Akustik, Budapest 1991. G. Tartini, Trattato di Musica, Padua 1754. B. Taylor, De motu nervi tensi, in: Philosophical Transactions of the Royal Society 28, 1712–13, S. 26–32. G. ten Hoopen, Auditive Aufmerkamkeit, in: Enzyklopädie der Psychologie. Themenbereich C: Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerksamkeit, hrsg. von A.F. Sanders / N. Birbaumer / D. Frey / J. Kuhl / W. Schneider / R. Schwarzer, Göttingen 1996, S. 115–161. E. Terhardt, Zur Tonhöhenwahrnehmung von Klängen. I. Psychoakustische Grundlagen, in: Acustica 26 (1972), S. 173–186. E. Terhardt, Ein psychoakustisch begründetes Konzept der musikalischen Konsonanz, in: Acustica 36 (1976), S. 121–146. E. Terhardt, Fourier Transformation of Time Signals: Conceptual Revision, in: Acustica 57 (1985), S. 242–256. E. Terhardt, Akustische Kommunikation, Berlin 1998, S. 220–222. S. Ternström / H. Jers / J. Nix, Group and Ensemble Vocal Music, in: The Oxford Handbook of Music Education, hrsg. Von G. R. McPherson / G. F. Welch, Oxford University Press (2012), 580–593. P. Toiviainen, Musikalische Wahrnehmung und Kognition im Computermodell, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 476–489. T. Tolonen / V. Välimäki / M. Karjalainen, A new sound synthesis structure for modeling the coupling of guitar strings, in: NORSIG’98, Vigso, Denmark 1998, S. 205–208. Y. Tougas / A.S. Bregman, Auditory streaming and the continujty illusion, in: Perception & Psychophysics 47 (1990), S. 121–126. T.H. Townsend / D.P. Goldstein, Suprathreshold binaural unmasking, in: Journal of the Acoustical Society of America 51 (1972), S. 621–624. A.M. Treisman / G. Geffen, Selective attention: Perception or response? in: Quarterly Journal of Experimental Psychology 19 (1967), S. 1–17. D. Ullmann, Chladni und die Entwicklung der Akustik von 1750–1860, Basel 1996. E. Ungeheuer, Wie die elektronische Musik »erfunden« wurde, Mainz 1992. M. Vail, Vintage synthesizers, San Francisco 2000. 343 Literaturverzeichnis ________________________________________________ L.P.A.S. van Noorden, Temporal coherence in the perception of tone sequences. Ph.D. dissertation Tech. Hogeschool, Eindoven 1975. L.P.A.S. van Noorden, Minimum differences of level and frequency for perceptual fission of tone sequences ABAB, in: Journal of the Acoustical Society of America 61 (1977), S. 1041–1045. I. Veit, Technische Akustik, Würzburg 1974. H. Vereecke / W. Kausel, Carbon fiber reinforced polymer, an alternative to brass? In: International Trumpet Guild Journal, October 2012, S. 41–43. C. Vergez / X. Rodet, Experiments with an artificial mouth for trumpet, In: Proceedings of the International Symposium on Musical Acoustics, Leavenworth 1998, S. 153–158. G. Vicario, L’effetto tunnel acustico, in: Rivista di Psicologia 54 (1960), S. 41–52. G. Vicario, Some observations in the auditory field, in: Organization and Representation in Perception, hrsg. von J. Beck, Hillsdale, N.J. 1982. O. Vierling, Das elektroakustische Klavier, Berlin 1936. O. Vierling, Eine neue elektrische Orgel, Habilitation, Berlin 1938. W. Voigt, Untersuchungen zur Formantbildung in Klängen von Fagott und Dulzianen. Regensburg 1975. W. Voigt, Dissonanz und Klangfarbe, Bonn 1985. G. von Békésy, Zur Theorie des Hörens. Über die Bestimmung des einem reinen Tonempfinden entsprechenden Erregungsgebietes der Basilarmembran vermitteIs Ermüdungserscheinungen, in: Physikalische Zeitschrift 30 (1929), S. 115–125. G. von Békésy, Über die Hörschwelle und Fühlgrenze langsamer sinusförmiger Luftdruckschwankungen, in: Annalen der Physik 418/6 (1936), S. 554–566 G. von Békésy, Über die Resonanzkurve und die Abklingzeit der verschiedenen Stellen der Schneckentrennwand, in: Akustische Zeitschrift 8 (1943), S. 66–76. G. von Bismarck, Extraktion und Messung von Merkmalen der Klangfarbenwahrnehmung stationärer Schalle, München 1972. Chr. von Campenhausen, Die Sinne des Menschen, Stuttgart 1981. Chr. von Ehrenfels, Ueber »Gestaltqualitäten«, in: Vierteljahresschrift für wissenschaftliche Psychologie 14/3 (1890), S. 249–292. H. von Helmholtz, Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik, Braunschweig 1863. M. Vorländer, Auralization. Fundamentals of acoustics, modelling, simulation, algorithms and acoustic virtual reality, Heidelberg 2008. H. Wagner, Aristoteles, Physikvorlesung (= Werke in deutscher Übersetzung Band 11), Berlin 5. Aufl. 1995. K.W. Wagner, Einführung in die Lehre von den Schwingungen und Wellen, Halle, 1947. W. Wallach / E.B. Newman / M.R. Rosenzweig, The precedence effect in sound localization, in: The American Journal of Psychology 62 (1949), S. 315–336. J. Wallis, On the trembling of consonant strings: A new musical discovery, in: Philosophical Transactions of the Royal Society 7, 1677, S. 839ff. K. Walliser, Zusammenhänge zwischen dem Schallreiz und der Periodentonhöhe, in: Acustica 21 (1969), S. 319–329. K. Walliser, Zur Unterschiedsschwelle der Periodentonhöhe, in: Acustica 21 (1969), S. 329–336. H. Wandler, Technologie und Sound in der Pop- und Rockmusik –Entwicklung der Musikelektronik und Auswirkungen auf Klangbild und Klangideal, Osnabrück 2012. D. Wang, Primitive auditory segregation based on oscillatory correlation, in: Cognitive Science 20 (1996), S. 409–456. D. Wang / G.J. Brown, Computational auditory scene analysis: Principles, algorithms, and applications. Hoboken 2006. 344 ________________________________________________ Literaturverzeichnis R.M. Warren, Perceptual restoration of missing speech sounds, in: Science 167 (1970), S. 392– 393. R.M. Warren, Auditory perception. An analysis and synthesis. Cambridge 2008. R.M. Warren / J.M. Wrightson / J. Puretz, Illusory continuity of tonal and infratonal periodic sounds, in: Journal of the Acoustical Society of America 84/4 (1988), S. 1338–1342. R.L. Wegel / C.E. Lane, The auditory masking of one pure tone by another and its probable relation to the dynamics of the inner ear, in: Physiological Review 23 (1924), S. 266–285. R. Weidenaar, Magic music from the Telharmonium, Metuchen, New Jersey und London 1995. S. Weinzierl, Beethovens Konzerträume. Raumakustik und symphonische Aufführungspraxis an der Schwelle zum modernen Konzertwesen, Frankfurt 2002. S. Weinzierl, Grundlagen in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008. S. Weinzierl, Aufnahmeverfahren, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 747–812. S. Weinzierl / H. Rosenheinrich / J. Blickensdorff / M. Horn / A. Lindau, Die Akustik der Konzertsäle im Leipziger Gewandhaus. Geschichte, Rekonstruktion und Auralisation, in: Fortschritte der Akustik, DAGA 2010, S. 1045–1046. A. Wellek, Die Aufspaltung der »Tonhöhe« in der Hornbostelschen Gehörpsychologie und die Konsonanztheorien von Hornbostel und Krueger, in: Zeitschrift für Musikwissenschaft XVI, 10/12 (1934), S. 481–553. A. Wellek, Typologie der Musikbegabung im deutschen Volke. Grundlegung einer psychologischen Theorie der Musik und Musikgeschichte. Mit allgemeinpsychologischen Beiträgen zur »Tonhöhen«-Unter-schiedsempfindlichkeit, München 1939 (21970). K. Wendt, Das Richtungshören bei Zweikanal-Stereophonie, in: Rundfunktechnische Mitteilungen 8/3 (1964), S. 171–179. M. Wertheimer, Untersuchungen zur Lehre von der Gestalt, in: Psychologische Forschung 5 (1923), S. 301–350. D.L. Wessel, Timbre space as a musical control structure, in: Foundations of Computer Music, hrsg. von C. Roads / J. Strawn, Cambridge und London 1985, S. 640–657. R. Westphal, Aristoxenos von Tarent: Melik und Rhythmik des classischen Hellenentums, 2 Bde. Leipzig 1883, 1893. E.G. Wever / C.W. Bray (1930), Auditory nerve impulses, in: Science 71, 1930, S. 215. G. Widholm, BIAS – Ein Computersystem zur Beurteilung der Qualität von Blasinstrumenten, in: Instrumentenbau-Zeitschrift, Nr. 40/32 (1993), S. 45–49. G. Widholm, The influence of valve mechanisms on the microstructure of slurs played with brass wind instruments, in: Proceedings of the International Symposium of Musical Acoustics 1997, S. 407–412. G. Widholm, Wiener Klangstil – Fakten und Hintergrundinformation am Beispiel der Wiener Philharmoniker, in: Skriptum Internationales Orchesterinstitut Attergau, Attergau 2012, S. 15–27. W. Wille, Das Verhalten musikalischer Intervalle in mittleren und hohen Tonlagen, Diss. Hamburg 1959. F. Winckel, Phänomene des musikalischen Hörens, Berlin und Wunsiedel 1960. F. Winckel, Optimum acoustic criteria of concert halls for the performance of classical music, in: Journal of the Acoustical Society of America 34 (1962), S. 81–86. I. Winkler / E. Kushnerenko / J. Horváth / R. Čeponienė / V. Fellman / M. Huotilainen / R. Näätänen / E. Sussman, Newborn infants can organize the auditory world, in: Proceedings of the National Academy of Sciences of the United States of America, 100/20 (2003), S. 11812– 11815. R.P. Winnington-Ingram (Hg.), Aristidis Quintiliani de musica libri tres, Leipzig 1963. P.H. Winston, The psychology of computer vision. New York 1975. 345 Literaturverzeichnis ________________________________________________ K. Wogram, Einfluss von Material und Oberflächen auf den Klang von Blechblasinstrumenten, in: Instrumentenbau-Zeitschrift 5 (1976), S. 414–418. K. Wogram, Akustische Auswahlkriterien bei Blechblasinstrumenten, in: Das Instrumentalspiel, Bericht vom internationalen Symposion, hrsg. von G. Widholm / M. Nagy, Wien und München 1989, S. 119–136. N.L. Wood / N. Cowan, The cocktail party phenomenon revisited: Attention and memory in the classic selective listening procedure of Cherry (1953), in: Journal of Experimental Psychology: General 124 (1995), S. 243–262. T. Young, Untersuchungen über Schall und Licht, in: Annalen der Physik 22, 1806, S. 337–396. W.A. Yost, The cocktail party effect: 40 years later, in: Localization – Binaural and spatial Hearing in real and virtual Environments, hrsg. von R. Gilkey / T. Anderson, Hillsdale 1997, S. 329–347. W. Yost, Fundamentals of hearing, San Diego 52007. P.G. Zimbardo / R.J. Gerrig, Psychologie, München 162004. G. Zupanc, Behavioral neurobiology: An integrative approach, Oxford and New York, 2004. E. Zwicker, Subdivision of the audible frequency range into critical bands, in: Journal of the Acoustical Society of America 33/3 (1961), S. 248–249. E. Zwicker, Psychoakustik, Berlin und Heidelberg (Springer) 1982. E. Zwicker / H. Fastl, Psychoacoustics: facts and models, Berlin 1990. E. Zwicker / R. Feldtkeller, Das Ohr als Nachrichtenempfänger, Stuttgart 21967. E. Zwicker / G. Flottorp / S.S. Stevens, Critical band width in loudness summation, in: Journal of the Acoustical Society of America 29 (1957), S. 548–557. MGG2 = Die Musik in Geschichte und Gegenwart, 2. vollständig neu bearbeitete Auflage, hrsg. von L. Finscher; Kassel, Stuttgart 1994 ff. 346