Geschichte und Bedeutung der Digitalisierung

Werbung
TITELBLATT
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Impressum
Themengebiet: Musik-Digitalisierung
IDPA – Januar 2008
„Vom Slide zum Scratch“
Dokumentation
Betreut von T. Wiedenmayer
Und D. Kamber
GIBB Bern
Version 2.8
Gedruckt:
Januar 2008
Philipp Gerber, bmsR8a
Bahnhofstrasse 1
3432 Lützelflüh-Goldbach
[email protected]
Christoph Philipp Hager, bmsR8a
Amselweg 5B
3627 Heimberg
[email protected]
Januar 2008
2
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ABSTRACT
Diese interdisziplinäre Projektarbeit, welche im Zusammenhang der BMS GIBB Bern entstanden ist, befasst sich
mit der Musikdigitalisierung. Ziel ist es, die Bedeutung der Digitalisierung zu ergründen und die Technik dahinter
zu verstehen.
Wir befassten uns mit der Tonaufzeichnung, der Elektrischen Gitarre und der Computermusik. Wir untersuchten
deren Bedeutung und griffen dazu auch mal selbst in die Saiten. Wir vertieften uns in die Digital-Technologie, die
Tonentstehung und untersuchten Klänge, was Erstaunliches zu Tage brachte.
Vom Slide zum Scratch, von der Gitarre zur elektronischen Musik, von analog zu digital. All dies wird auf den
folgenden Seiten erforscht, dargelegt und kommentiert.
Januar 2008
3
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
INHALTSVERZEICHNISS
Abstract ........................................................................................................................................................3
Inhaltsverzeichniss ........................................................................................................................................4
Vorwort ........................................................................................................................................................7
Einführung ....................................................................................................................................................8
Geschichte und Bedeutung der Digitalisierung ................................................................................................8
Geschichte der Tonaufzeichnung ....................................................................................................................9
Anfänge...............................................................................................................................................................................................9
Erfindung der Schallplatte 1888 ........................................................................................................................................................11
Elektrische Aufnahme-Ära ................................................................................................................................................................12
Vinyl-Schallplatten ............................................................................................................................................................................13
Tonbandgeräte und Kassettenrecorder ............................................................................................................................................14
Das digitale Zeitalter .........................................................................................................................................................................15
Kurzfassung .......................................................................................................................................................................................16
Geschichte Computermusik –Elektronische Musik ........................................................................................ 17
Computermusik .................................................................................................................................................................................17
Elektornische Musik ..........................................................................................................................................................................18
Geschichte Gitarre ....................................................................................................................................... 19
Der Aufstieg der Gitarre ....................................................................................................................................................................19
Vergleich Live vs. Computermusik ................................................................................................................ 22
Einleitung ..........................................................................................................................................................................................22
Aufnahmen .......................................................................................................................................................................................22
Vergleich ...........................................................................................................................................................................................23
Bedeutung de Stromgitarre.......................................................................................................................... 24
Bedeutung der Elektro/Computermusik ....................................................................................................... 26
Bedeutung der Digitalisierung allgemein ...................................................................................................... 27
Nachteile – kontroverse ....................................................................................................................................................................27
Stellungnahme Christoph Hager .......................................................................................................................................................28
Stellungnahme Philipp Gerber ..........................................................................................................................................................28
Fazit ..................................................................................................................................................................................................29
Januar 2008
4
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Die Technik hinter der Digitalisierung ........................................................................................................... 30
Entstehung von Ton – Grundlagen der Akustik ............................................................................................. 30
Einführung ........................................................................................................................................................................................30
Grundlagen .......................................................................................................................................................................................30
Wie hören wir? ..................................................................................................................................................................................30
Der Schall ..........................................................................................................................................................................................30
Von Schwingungen und Resonanzen .................................................................................................................................................31
Was ist ein Ton? ................................................................................................................................................................................31
Digitalisierung von Musik............................................................................................................................. 33
Analog gegen Digital.........................................................................................................................................................................33
Sampling ...........................................................................................................................................................................................33
Aliasing .............................................................................................................................................................................................34
Quantisierung ...................................................................................................................................................................................35
Codierung ..........................................................................................................................................................................................36
Kurzfassung .......................................................................................................................................................................................36
Die wichtigsten Audio-Formate .................................................................................................................... 37
Fourieranalyse ............................................................................................................................................ 39
Einführung ........................................................................................................................................................................................39
Die Fourierreihe.................................................................................................................................................................................39
Fazit ..................................................................................................................................................................................................43
Klanganalysen von Instrumenten ................................................................................................................. 44
Einführung ........................................................................................................................................................................................44
Vorbereitung .....................................................................................................................................................................................44
Aufnahmen .......................................................................................................................................................................................45
Analyse..............................................................................................................................................................................................46
Erzeugung und Analyse eines A-Tons und was ist ein Dezibel? .........................................................................................................46
Frequenzanalyse synthetischer a-Ton ...............................................................................................................................................48
Klangerzeugung mit Gitarre ..............................................................................................................................................................49
Analyse einer E-Gitarre (clean)..........................................................................................................................................................50
Verzerrte und akkustische Gitarre.....................................................................................................................................................54
Einbezug Piano ..................................................................................................................................................................................57
Januar 2008
5
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Die Flöte ............................................................................................................................................................................................59
Menschliche Stimme .........................................................................................................................................................................61
Ausweitung auf Musikstück ..............................................................................................................................................................61
Fazit ..................................................................................................................................................................................................62
Der Technische Fortschritt – Die Digitalisierung ............................................................................................ 63
Schlusswort ................................................................................................................................................. 63
Quellenverzeichnis ...................................................................................................................................... 64
Abbildungsverzeichnis ................................................................................................................................. 65
Anhänge ..................................................................................................................................................... 66
Fotodokumentation Aufnahmen .......................................................................................................................................................66
Frequenztabelle zum Ausklappen .....................................................................................................................................................66
Crimson Tide –Notentabulatur ..........................................................................................................................................................66
Audio-CD mit Sounds.........................................................................................................................................................................66
Daten-cd ...........................................................................................................................................................................................66
Eidesstattliche Erklärung ............................................................................................................................. 67
Januar 2008
6
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VORWORT
Liebe Leserin, Lieber Leser
Sie stehen hier am Anfang einer Projektarbeit, welche im vierten Jahr der Berufsmaturität Bern entstanden ist.
Diese Arbeit ist der letzte grössere Schritt, bevor die Abschlussprüfungen anstehen und wir hoffen, dass ein
interessantes und anregendes Werk entstanden ist.
Die Gruppenmitglieder sind Philipp Gerber aus Lützelflüh und Christoph Hager aus Heimberg
Philipp Gerber
Bauzeichner in Ausbildung
Hobby-Tontechniker und Lebenskünstler
Christoph Hager
Bauzeichner in Ausbildung
Hobby-Gitarrist und Bastelfreak
Wir wünschen Ihnen beim Durchstöbern und Studieren viel Spass und hoffen, dass Sie Neues entdecken können.
Januar 2008
7
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
EINFÜHRUNG
Unser Titel lautet; „Vom Slide1 zum Scratch2“. Damit umschreiben wir den Inhalt unserer Arbeit. Es geht um die
Musikdigitalisierung und unsere Themen reichen von der Gitarre zur Elektrischen Musik, von analog zu digital.
Die Arbeit beinhaltet zwei Hauptthemen. Einerseits die Geschichte, mit welcher wir die Bedeutung der
Digitalisierung suchen. Andererseits vertiefen wir uns in die Technik, um zu verstehen, was dahinter steht.
Für das interaktive Leseerlebnis, ist im Anhang eine Audio-CD zu finden, welche Tonmaterial zu unserer Arbeit
beinhaltet. Bei jeder eckigen Klammer sind sie dazu eingeladen, den Soundtrack von der CD anzuhören. Beispiel:
[Sound 03 - Enrico Caruso - O Sole Mio]
GESCHICHTE UND BEDEUTUNG DER DIGITALISIERUNG
Wie bereits angesprochen, werden wir in diesem ersten Teil der Arbeit auf die Geschichte und Bedeutung der
Digitalisierung eingehen. Ganz zuerst werden wir uns mit der Tonaufzeichnung befassen. Als Fundament für
unsere weiterführenden Gedankengänge werden wir die Geschichte der Gitarre und der elektronischen Musik
erläutern. Mit einem Versuch möchten wir selber erleben, was Live-Musik bedeutet. Die daraus entstandenen
Eindrücke werden wir weiter verfolgen, um schlussendlich die Bedeutung der Digitalisierung zu erfassen.
1
2
Slide: Über die Saite rutschen/ gleiten beim Anspielen einer Gitarrensaite
Scratch oder Scratchen; DJ-Technik zum Improvisieren
Januar 2008
8
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
GESCHICHTE DER TONAUFZEICHNUNG
Bereits im 16. Jahrhundert machte sich ein italienischer Physiker Gedanken, über die „Konservierung von
gesprochenen Worten“. Seine Lösung: Er wollte die Worte in einem Behälter aufbewahren. Leider fehlten im zu
dieser Zeit noch die technischen Möglichkeiten um einen geeigneten Apparat dafür zu entwickeln.
In diesem Kapitel möchten wir die wichtigsten Ereignisse in der Geschichte der Tonaufzeichnung aufzeigen. Im
Mittelpunkt stehen dabei die verschiedenen Abspielgeräte, Tonträger und deren Erfinder.
ANFÄNGE
Technisch gesehen, beginnt die Geschichte der Tonaufzeichnung 1867 auf der Pariser Weltausstellung. Der
französische Dichter und Philosoph Charles Cros stellte der Öffentlichkeit einen automatischen Telegraphen vor.
Nachdem er sich mit der Problematik der Schallaufzeichnung und Schallwiedergabe intensiv beschäftig hatte,
entwarf er eine Maschine, welche die grundlegenden Konstruktionsmerkmale von Phonographen und
Grammophonen vorweg nahm. Doch dieses Vorhaben scheiterte daran, einen geeigneten Feinmechaniker zu
finden. Zudem fehlten ihm die finanziellen Mittel, um seine Erfindung patentieren zu lassen.
Der erste erfolgreiche Erfinder, dem es gelang, die menschliche Stimme einzufangen und wiederzugeben, war
der amerikanische Erfinder Thomas Alva Edison. Er benutzte eine mit einer Nadelspitze versehenen Membran,
die er über einen mit Paraffin überzogenen Papierstreifen zog. Er sprach dabei laut das Wort „HELLO“ in die
Membran. Als er die Nadel erneut über den Papierstreifen zog, konnte er leise das zuvor Gesprochene
vernehmen. Dies ist das erste historisch verbürgte Wort, das auf diese Art konserviert wurde. Nachteil ist, dass
es nur ein einziges Mal funktioniert hat und das Wort nicht erhalten geblieben ist.
PHONOGRAPH MIT STAHLWALZE
Einige Monate später wurde ein neues Gerät konstruiert. Nachdem Edison als 22jähriger junger Mann, durch
den Verkauf des Patentes eines Börsentelegraphen ein wohlhabender Mann geworden war, errichtete er in der
Nähe von New York ein Versuchslaboratorium. Hier übergab er seinem Schweizer Feinmechaniker Krüsi eine
Skizze mit dem Auftrag, diesen Apparat zu bauen.
Der Phonograph bestand aus einer Stahlwalze, über die eine Zinnfolie als Tonträger gespannt war. Darüber
befand sich ein Trichter mit Membran und Nadel so angeordnet, dass dieser
mit der Zinnfolie Kontakt hatte. Drehte man nun die Walze und brüllte in den
Trichter, drückte die Nadel eine Punktschrift in die Walze.
Als Edison an diesem Metallzylinder drehte, sprach er gegen eine Membran
ein altes Kinderlied (“Mary had a little lamb”). Dadurch ritzte die an der
Membran befestigte Nadel eine Linie in die Stanniolschicht. Zum Abhören
setzte er die Nadel auf den Ausgangspunkt und begann zu kurbeln. Er hörte
nun deutlich das von ihm gesprochene Kinderlied. Der Apparat wurde dann
zum Patent angemeldet, öffentlich vorgeführt und war die Sensation des
Jahres 1878.
Abb. 1: Phonograph mit Stahlwalzeze
Januar 2008
9
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
PHONOGRAPH MIT WACHSWALZE
1881 versuchte Alexander Graham Bell den Zinnfolien-Phonographen zu verbessern. Er experimentierte unter
anderem mit Wachs als Tonträgermaterial, was die lästigen Nebengeräusche deutlich verminderte. Im Jahre
1886 meldete Charles Sumner Tainter das Wachsmodell zum Patent an und gab ihm den Namen Graphophone.
Abb. 2: Bell, Graphophone
Abb. 3: Edisons „Home Phonographen“, links „Model A“ 1900, rechts „Model B“ 1908
Edison verbrachte die Zwischenzeit damit, die Glühbirne zu erfinden. 1888 kommt er mit einem „verbesserten
Phonographen“ auf den Markt, der mit Hartwachs-Walzen läuft, welche eine zwei-minütige Spieldauer besitzen.
Die Variante mit Federmotor wurde ein grosser kommerzieller Erfolg. Insbesondere die Möglichkeit, eigene
Aufnahmen herstellen zu können, dürften dies erreicht haben. Das Problem der massenhaften
Walzenherstellung war aber noch lange nicht gelöst. Wollte man beispielsweise 500 Walzen eines Liedes
produzieren, so stellte man 5 Phonographen nebeneinander und nahm nach einander 100-mal dasselbe Lied auf.
Es entstand der Beruf des Walzensängers, der stimmgewaltig und vor allem laut zu sein hatte. Erst 1903 erfand
Edison ein Verfahren, welches es ermöglichte Kopien seiner Walzen herzustellen.
Am 29. Juni 1888 wurde in London am Schluss des Händel-Festivals im Crystal Palace „Israel in Egypt“
aufgeführt. Hierbei nahm Edisons Agent einige Ausschnitte mit dem verbesserten Wachswalzen-Phonograph
auf. Davon existieren heute noch drei bespielte Wachswalzen, bei denen es sich um die erste erhaltene
Musikaufnahme überhaupt handelt! [Sound 01 - G.F. Handel - Israel in Egypt]
Die Tonqualität bei dieser ersten Aufnahme war natürlich noch nicht befriedigend. Im Laufe der Jahre wurde der
Phonograph stetig weiter verbessert.
Hier eine Kornetten-Solo, Aufgenommen 1905 von Columbia: [Sound 02 - Bohumir Kryl - Carnival of Venice]
1908 veränderte Edison sein Walzenformat, indem er die Rillendichte verdoppelte. Die so übliche Spieldauer von
gut zwei Minuten verlängerte sich auf über vier Minuten und sollte der Schallplatte so weiter Konkurrenz
machen. Für ältere Edison-Phonographen wurden Umrüstungen angeboten, um beide Walzentypen spielen zu
können. Im Herbst 1929 musste Edison infolge der Weltwirtschaftskrise die gesamte Tonträgerherstellung
aufgeben; damit endete die Ära des Phonographen als Unterhaltungsgerät.
Januar 2008
10
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ERFINDUNG DER SCHALLPLATTE 1888
Der Erfinder der Schallplatte ist der deutsche Auswanderer Emil Berliner. Auch er experimentierte mit dem
Phonographen. Um die Patentrechte von Edison zu umgehen, änderte er den Winkel zwischen Nadel und
Trägerfolie um 90° und erfand damit die so genannte Seitenschrift, die sich nicht mehr als Punkt- sondern als
Zick-Zack-Furche darstellt. Da eine Vervielfältigung der Walzen nicht möglich war, entwickelte Berliner eine
Scheibe, von der er meinte, dass er sie später auf irgendeinem Wege abpressen
konnte. Die Scheibe bestand aus mit Wachs überzogenem Zink. Sie hatte einen
Durchmesser von 12 Zentimetern und lief mit 150U/min3.
Das Verfahren zur Aufnahme und anschliessender Wiedergabe funktionierte recht
simpel: Nachdem die Zinkscheibe in eine stark nach Benzin riechende Flüssigkeit
getaucht wurde, konnte man eine dünne Wachsschicht auftragen. Bei der Aufnahme
durchschnitten die Töne das Wachs bis auf das blanke Metall. Um die Schalllinien in
das Zink zu ätzen, wurde die Platte in ein Chrom-Säure-Bad getaucht. Dadurch wurde
die Platte dauerhaft konserviert. Danach wurden aus dem Rohling Pressfolien
hergestellt.
Abb. 4: Emil Berliner
Am 8. November 1887 meldete er sein "Grammophon", das
Edisons "Phonograph" sehr ähnlich sah, zum Patent an und im
Mai 1888 wurde dieses Gerät in Philadelphia der Öffentlichkeit
vorgestellt.
Berliner gab sich mit dem Material der Pressfolien noch nicht
zufrieden und so begann er noch im gleichen Jahr, ein neues
Material zu verwenden. Er kaufte neues Material ein, das unter
anderem aus Graphit und Schellack4, bestand. Dieser war durch
Druck und Hitze leicht formbar und nach der Abkühlung sehr hart.
Und so war die Schellackplatte geboren. Dieses Material setzte
sich rund 60 Jahre in der Plattenindustrie durch. Als erste
Schellackplatte erklang „Twinkle, twinkle little star“ aus dem
Trichter von Berliners Apparat, die damals noch mit einer
Handkurbel betrieben wurde.
Abb. 5: Grammophon "Victor V" der Victor Talking Machine Co.
Damit wir einmal einen akustischen Eindruck von den Schellackplatten erhalten, folgen hier drei Hörbeispiele:
O Sole Mio von Enrico Caruso, 1916
West End Blues von Louis Armstrong, 1928
La Coupe Suisse von Redzipet, Genève 1929
3
4
[Sound 03 - Enrico Caruso - O Sole Mio]
[Sound 04 - Louis Armstrong - West End Blues]
[Sound 05 - Redzipet, Genève - La Coupe Suisse (Urania-Young Boys)]
Umdrehungen pro Minute
eine harzige Substanz, die aus Gummilack gewonnen wird, welches von Läusen stammt
Januar 2008
11
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
1896 klopfte bei Emil Berliner ein Reklamefachmann namens Frank Seaman an, der die alleinigen Rechte in den
USA für den Verkauf von Grammophonen erwerben wollte. Dafür wollte er auf
eigene Kosten einen enormen Reklamefeldzug starten. Dieser folgte mit
riesigem Erfolg, und in dessen Zuge kaufte Berliner, ein von Edison abgelehntes
Ölgemälde, das den berühmten Hund Nipper und einen Phonographen zeigte.
Der Werbespruch "His masters voice" (Die Stimme seines Herren) entstand
daraufhin. Den Phonographen lies er mit einem Grammophon übermalen, und
für Jahrzehnte wurde Nipper das Markenzeichen aller Gramophone Companies,
und ist es noch heute.
Abb. 6: His Master’s Voice, ca. 1928
ELEKTRISCHE AUFNAHME-ÄRA
Bisher war es nur möglich das Akustische Signal mechanisch aufzuzeichnen. Dies änderte sich erst 1924 mit dem
von der Bell Telephone Company entwickelten elektro-akustischen Aufnahmeverfahren, mit dem eine neu Ära
für die Tonträgerindustrie begann. Die Schallwellen werden bei diesem Verfahren über ein Mikrofon erfasst und
in elektrische Wechselspannung umgesetzt. Die elektrischen Signale werden dann in Form einer graphischen
Abbildung als analoges Muster, also in Amplitudenform, gespeichert und können auf einer Schallplatte
umkopiert werden. Dabei bildet jede Kopie das Ausgangssignal ab. Das bedeutet aber auch: Je öfter eine
Aufnahme kopiert wird, desto schlechter wird sie.
1926 stand mit der Erfindung der Röhren und elektrischen Wandler die erste Verstärkung zur Verfügung. Nun
musste man die Schallwellen nicht mehr durch einen Grammophontrichter verstärken, sondern konnte auf das
wesentlich effektivere elektrische Aufnahme- und Wiedergabeverfahren umsteigen.
Wegen ihres besonders geschätzten charakteristischen Klirrverhaltens werden auch heute noch weitgehend
Elektronenröhren in E-Gitarrenverstärkern verbaut, bei denen das Schaltungskonzept keineswegs auf ein
konsequentes Vermeiden von Verzerrungen abzielt, sondern im Gegenteil eher auf deren Erzeugung, da die
besonderen klanglichen Resultate hier durchaus erwünscht sind.
Abb. 7: Röhrenverstärker “Trilogy” von Hughes & Kettner, Katalog 2007/08
Januar 2008
12
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VINYL-SCHALLPLATTEN
Ein weiterer Meilenstein in der Geschichte der Tonträger war die Erfindung der Vinyl-Schallplatte am 21.Juni
1948 durch den ungarisch-amerikanischen Physiker Dr. Peter Carl Goldmark. Noch im selben Jahr,
veröffentlichte die amerikanische Plattenfirma Columbia die erste Kunststoffplatte mit Mikrorille und 33 1/3
U/min vor. Diese 30-Zentimeter-Platte wurde als „long playing record“ oder in der deutschen Übersetzung als
Langspielplatte (LP) bezeichnet. Die Einführung von Vinyl als Tonträgermaterial bedeutete das Ende der
Schellackplatten, die weitaus empfindlicher und teurer waren.
Im gleichen Jahr wurde bei der Deutschen Grammophon die Sterephonie zur obligatorischen Aufnahmetechnik
erklärt. Die ersten Experimente mit dieser Technik, die einen räumlichen Schalleindruck erzeugt, hatte es schon
im Jahre 1929 beim Deutschen Rundfunk gegeben. Da die neuen Stereo-Platten monokompatibel waren und
zudem ein räumliches Klangerlebnis vermittelten, gab es keine Probleme bei der Markteinführung. Man konnte
ohne Probleme Stereoplatten auf einem Monoplattenspieler hören und umgekehrt.
Die Schallplatten durchlebten eine prunkvolle Zeit. Sie hatten keine Konkurrenz, bis eine andere
Speichermöglichkeit benutzt wurde. Die Magnetbandtechnik verdrängte die Schallplatte fast ganz vom Markt.
Diese Technologie ist flexibler. Daraus ergaben sich Möglichkeiten, welche für die Nadeltontechnik unlösbar
waren. Letztendlich waren es aber die CDs, die den Schallplatten den Todesstoss gaben. Nach deren
Markteinführung waren Schallplatten nun nur noch bei Sammler und Nostalgikern aufzufinden.
Abb. 8: LP „Super Trouper“ der schwedischen Popgruppe ABBA
Januar 2008
13
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
TONBANDGERÄTE UND KASSETTENRECORDER
1900 stellte der Däne Valdemar Poulsen auf der Pariser Weltausstellung sein " Telegraphon" aus, das erste
Gerät für magnetische Schallaufzeichnung. Ein 1 mm dicker Stahldraht wurde an einem Tonkopf vorbeigeführt.
Elektromagnetische Impulse, erzeugt beispielsweise mit Hilfe eines Mikrofons, wurden auf dem Draht
gespeichert und konnten anschliessend wiedergegeben werden. Mangels geeigneter Verstärker setzte sich das
Verfahren nicht durch.
Erst Ende der 20er Jahre wurden wieder Versuche unternommen, doch mit Stahlpulver beschichtete
Papierbänder rissen leicht, dünne Stahlbänder dagegen sind so schwer, dass sie nur im professionellen Bereich
etwa bei Rundfunkanstalten- genutzt wurden. 1935 wurde durch die Firma AEG das erste "Magnetophon K1" auf
der Berliner Funkausstellung vorgestellt.
Ab den 1950er Jahren gelangten die Tonbandgeräte in die Haushalte. Doch sie waren schwer, kompliziert zu
bedienen und teuer. Diese Technik existiert noch heute, allerdings eher als Randerscheinung.
Spulentonbandgeräte sind heute etwas für Liebhaber und Technikbegeisterte.
Erst die Erfindung der Compact-Cassette (MC) durch Philips brachte nach 1964 die durchgreifende Änderung.
Zunächst als Billiggerät konzipiert, verdrängten die Cassetten-Recorder bald die Spulentonbandgeräte. Zum
ersten Male war es für Jeden möglich, Musikaufnahmen von Schallplatten zu Überspielen und mit dem
mitgelieferten Mikrofon Mitschnitte aus Fernsehsendungen zu machen. Tausende Jugendlicher sassen Ende der
60er und Anfang der 70er Jahre mit dem Mikrofon vor dem Fernseher und nahmen ihre Lieblingsstücke aus der
ZDF-Hitparade, Beat-Club oder Ilja Richters Disco auf. Auch der 1979 von Sony herausgebrachte Walkman
eröffnete neue Anwendungsmöglichkeiten.
Ein weiterer Sprung war die Digitalisierung der Aufzeichnung. DAT begann ab Mitte der 1980er Jahre Fuss zu
fassen, wobei mehrere Systeme miteinander konkurrierten. Doch dazu mehr im folgenden Kapitel.
Abb. 9: Philips EI 3300, Cassetten-Recorder
Januar 2008
14
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DAS DIGITALE ZEITALTER
Die digitale Ära der Schallspeicherung begann wie bereits erwähnt mit dem Digital Audio Tape, kurz DAT, das wie
Musikkassetten oder Tonbänder ein Magnetband verwendet. Der entscheidende Unterschied ist jedoch, dass
bei DAT bereits die Aufnahme der Schallsignale in digitalisierter Form erfolgt. DAT kann als Übergangsformat von
der analogen zur digitalen Technik betrachtet werden, denn es setzt sich im Massenmarkt nie richtig durch. In
der professionellen Aufnahmetechnik spielt DAT heute jedoch eine wichtige Rolle. Erst die Compact Disc (CD),
ein Gemeinschaftsprojekt von Sony und Philips, brachte die digitale
Revolution auf dem Tonträgermarkt.
DIE COMPACT DISC
Die CD eroberte ab 1983 die Wohnstuben. Die grossen Vorteile bei der
CD sind das verschleissfreie optische Abtastverfahren und der Wegfall
von Störgeräuschen. Bereits Ende der 80er Jahre wurden mehr CDs als
Vinyl-Schallplatten verkauft. Anfang der 90er Jahre entwickelte die
Industrie dann die DVD (Digital Versatile Disc = digitale vielseitig verwendbare Scheibe). Erst 1995 konnten sich
die Konzerne der Unterhaltungsindustrie auf einen gemeinsamen Standard einigen. Trotzdem herrscht immer
noch Verwirrung unter den Verbrauchern, denn es gibt nach wie vor zahlreiche unterschiedliche DVD-Formate.
MP3 - EIN NEUES ZEITALTER DER TONAUFZEICHNUNG
Seit 1987 hat eine neue Form der Tonaufzeichnung den Markt erobert. Im Gegensatz zu CDs und Kassetten sind
MP3s völlig "körperlos". Die MP3-Technik komprimiert Audiodaten nahezu ohne hörbaren Qualitätsverlust. So
können Lieder als Tondateien schnell über das Internet verschickt und mit Hilfe von Computern und MP3Playern angehört werden.
Durch illegalen kostenlosen Austausch von Audio-Dateien im Internet und die Möglichkeit Lieder selbst auf CD zu
brennen, brach das Geschäft der Musikindustrie deutlich ein. Mittlerweile gibt es aber zahlreiche legale
kostenpflichtige Plattformen im Netz, auf denen sich der User Lieder herunterladen kann. Und auch der legale
Download verändert die Musikindustrie: Längst werden nicht mehr so viele CDs verkauft wie noch vor wenigen
Jahren.
DIE ZUKUNFT VON MP3
MP3 wird weiter entwickelt. So tüfteln die Forscher an MP3-Surround-Sound. Raumklang in MP3, damit
Kinofilme mit beeindruckenden Toneffekten nach Hause kommen. Auch andere nette Ideen gibt es. Wird Musik
mit so genannten Meta-Informationen ausgestattet, reicht es aus, ein Lied zu summen und der Computer sucht
das passende Musikstück auf der Festplatte heraus. In Sekundenbruchteilen. Längst machbar, aber noch
verbesserungsfähig.
Aber auch MP3 hat mittlerweile Konkurrenz bekommen. Computer-Insider bevorzugen ein Musikformat, das
sich Ogg Vorbis nennt. Die Tonqualität ist bei gleicher Datenmenge noch etwas besser. Ausserdem ist Ogg Vorbis
"OpenSource", kann also lizenzfrei genutzt und ebenso von jedem weiter entwickelt werden. Manche sagen
deshalb: In ein paar Jahren ist auch MP3 schon wieder Geschichte.
Januar 2008
15
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
KURZFASSUNG
Halten wir fest:
Das erste Gerät um Ton aufzuzeichnen und abzuspielen war der Phonograph von Edison, welcher als Tonträger
einen Metallzylinder, später waren es Hartwachs-Walzen, benutzte. Um die Musik abzuspielen musste man die
Walze anfangs noch von Hand drehen, bald aber übernahm dies ein Federmotor. Nachteil bei der Walze, war die
begrenzte Spieldauer von Zwei Minuten bei einer Standardwalze oder vier Minuten bei Spezialwalzen und die zu
Beginn schlechte Tonqualität, sowie die aufwändige Massenproduktion.
Ähnlich wie der Phonograph funktionierte das Grammophon, nur benutzte man bei diesen nicht mehr Walzen
als Tonträger, sondern die von Emil Berliner erfundene Schallplatte. Zuerst aus Schellack später dann aus Vynil
brachten die Schallplatten den Durchbruch in der Tonindustrie. Sie hatten keine Konkurrenz, bis eine andere
Speichermöglichkeit benutzt wurde. Die Magnetbandtechnik verdrängte die Schallplatte fast ganz vom Markt.
Letztendlich waren es aber die CDs, die den Schallplatten den Todesstoss gaben. Mit der CD begann die
eigentliche „Ära der Digitalisierung“. Etwas später wurde die MP3-Technik entwickelt, mit der Audiodaten ohne
hörbaren Qualitätsverlust komprimiert werden können.
Januar 2008
16
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
GESCHICHTE COMPUTERMUSIK –ELEKTRONISCHE MUSIK
Wenn wir die Digitalisierung in der Musik behandeln gehört die künstliche Musik natürlich auch zu einem
unserer bearbeitenden Themen. In diesem Kapitel beschreiben wir die Geschichte der Computer- und
elektronischen Musik.
COMPUTERMUSIK
Zuerst zur Computermusik. Das ist Musik, welche mit Hilfe von Rechner- oder Computersystemen erstellt wird.
Bereits im siebzehnten Jahrhundert war man der Überzeugung, dass Musik eine Kunst geschickter
Zahlenzuordnungen ist. Ein deutscher Gelehrter, welcher an der Collegium Romanum in Rom lehrte und
forschte, veröffentlichte um 1650 eine Arbeit über eben dieses Thema. Er beschäftige sich zudem mit
wasserradbetriebenen automatischen Orgeln, Schallübertragung und Abhöranlagen. Auch W. A. Mozart hat sich
mit der mathematischen Musik beschäftigt. Er schrieb eine Anleitung, mit welcher man mit einem Würfel Takte
aus einer Liste zusammenwürfeln und so einen Walzer komponieren kann.
Später entwickelte man Programme, welche Zufallszahlen erzeugen, die jeweils bestimmten Noten entsprechen.
Gleichzeitig definierte man Regeln, welche Noten zugelassen werden oder verworfen werden, wenn sie den
Regeln wiedersprachen. Entweder man programmierte nach einem Lehrbuch oder man lernt dem Computer
durch Beispieleingaben die Regeln. So konnte das Programm herausfinden zu welchen Bedingungen welche
Harmonien, Tonfolgen ect. Häufig verwendet wurden. Mit der Verbesserung der Rechnerleistungen von
Computern in den Achzigern und Neunzigern entstanden immer mehr solche Programme. Mit dem
zunehmenden Verständnis von Klängen und deren Digitalisierung entstanden auch die ersten Synthesizer.
Synthesizer stammt vom begriff Klangsynthese da bei diesem Gerät der Anwender Klänge zusammenfügen und
auch programmieren kann. 1983 einigten sich die Hersteller auf einen Standard namens Musical Instrument
Digital Interface, kurz MIDI welches die Schnittstelle zwischen Computer und Instrument/Synthesizer
sicherstellt. Auch heute wird dies noch genutzt. Bei Audiosignalen, wie die von Mp3, ist die Schallschwingung
gespeichert, bei MIDI hingegen werden Daten wie Instrument, Tonhöhe, Länge ect. verwendet. (Siehe auch
Kapitel: Formate)
Es gibt sogar noch einige Computermusikkünstler in unserer Zeit. Sie verwenden weiterentwickelte Programme,
welche zum Beispiel durch neuronale Netze gesteuert komponieren. Diese Netzte sind imstande Dinge zu
lernen, ihre Struktur anzupassen und so durch einfache Eingaben zu gewünschten Ausgaben zu kommen. Die
Ergebnisse sind nicht schlecht. Das Ganze ist aber eine ziemliche Geschmackssache. Doch wie man so schön sagt;
jede Musik hat ihre Berechtigung. [Sound 06 - Hawgood - Remembering The Way Things Used To Be]
Januar 2008
17
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ELEKTORNISCHE MUSIK
Die elektronische Musik handelt viel umfassender von der künstlichen Klangerzeugung. Bis in die Vierzigerjahre
wurde aber unter diesem Begriff alle Musik definiert, welche elektrische Hilfsmittel benötigten, wie zum Beispiel
auch die E-Gitarre. Heutzutage werden unter diesem Begriff die neuen Musikstilrichtungen wie Elekro, House
ect. zusammengefasst. Diese Musik ist einerseits ein Zusammenspiel des künstlerischen Schaffens und
andererseits der Technik.
Angefangen hat alles um 1940 in Köln als ein Physiker die Versuche mit künstlichen Klanggeneratoren Musik zu
machen als elektronische Musik definiert hat. Er hat angefangen Klänge wissenschaftlich zu analysieren und hat
so eine Grundlage geschaffen. Gleichzeitig entstand in Paris die music concrète, welche durch experimentelle
Komposition von Tonaufnahmen der Geräusche in der Umgebung zustande kam. Diese Art der Musik existierte
so jedoch nicht lange, da sie von der eigentlichen elektronischen Musik verdrängt wurde, aber unter dem
Terminus elektroakustische Musik weiterhin eine Nischenkultur darstellt. In den 80er Jahren wurde dann die
künstlerische und experimentelle, generierte Musik zur elektroakustischen Musik gezählt. Nur noch die
Unterhaltungsmusik wie wir sie aus der Disco kennen, ist heute als elektronische Musik definiert. Allerdings gibt
es verschiedenste Bands aus allen Musikrichtungen welche ihren Sound durch Synthesizer und Sequenzern
(Verändern von vorhandenen klängen) erweitern. Die Abgrenzung zu anderen Stilrichtungen ist, wie meistens,
nicht klar. Mit den ersten DJ und diversen Live-Auftritten wurde auch diese Musik zum Kommerz. Heute ist diese
Musik aus der unterhaltungssüchtigen Gesellschaft nicht mehr wegzudenken.
Ein Meilenstein waren sicherlich Kraftwerk, eine Band welche 1970 Pionierarbeit im Gebiet des Elekro-Pops
leisteten. [Sound 07 - Kraftwerk - Autobahn]
Abb. 10: Kraftwerk
Das heutige Bild dieser Musik braucht hier, denke ich, nicht allzu gross erläutert werden. Ein Blick auf die vielen
Flyers und Plakate reicht um zu sehen, dass diese Musik das Partyleben erobert hat. Wir werden die
Gesellschaftliche Bedeutung in einem späteren Kapitel diskutieren.
Januar 2008
18
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
GESCHICHTE GITARRE
In diesem Kapitel möchten wir die Geschichte der Gitarre aufgreifen. Es soll einen Kontrast zu der Elektronischen
Musik geben, um später eine Grundlage für unsere Diskussion der Bedeutung beider Musikrichtungen in
Anbetracht der Digitalisierung zu liefern.
DER AUFSTIEG DER GITARRE
Gitarrenähnliche Instrumente gibt es bereits sehr lange. Ägyptische Zeichnungen zeigen, wie Frauen vor 5000
Jahren Saiteninstrumente gespielt haben. Der Begriff Gitarre ist aus dem altgriechischen Wort κιθάρα (Kithara)
entstanden. Wobei dieses Instrument eher einer Zitter oder Harfe gleicht. Im Mittelalter stiegen die Ansprüche
an die Musikinstrumente, welche nun in einem stetigen Wandel waren und weiterentwickelt wurden.
Saiteninstrumente gab es in den verschiedensten Formen, mit oder ohne Bünde und auch die Anzahl Saiten
variierten. Die Spanier entwickelten zur Zeit der Renaissance aus der Laute ein Instrument mit flachen Bauch, die
Vihuela. Daraus entstand die Barockgitarre, welche sich mit einigen Änderungen bis heute als Akustische Gitarre
etabliert hat. Interessant ist auch, dass die Stimmungen der Instrumente immer wieder angepasst wurden.
Abb. 11: Vihuela
Diese Akustischen Gitarren erzeugen den Klang durch ihren Resonanzkörper. Damit ist nur eine begrenzte
Lautstärke erreichbar. 1920 forderten die Unterhaltungsorchester und damaligen Aufnahmetechniken eine
Gitarre die lauter und durchsetzungsfähiger ist. Man suchte nach Möglichkeiten und es zeigte sich, dass dies nur
durch elektrische Verstärkung des Klangs zu erreichen war.
Abb. 12: „Frying Pan“
Im Jahr 1931 entwickelte der Schweizer Adolf Rickenbacher zusammen mit George Beauchamp in den USA den
ersten brauchbaren Tonabnehmer. Dieser wandelt die Schwingung der Saiten über eine Magnetspule in eine
Spannung um. Das Prinzip ist bis heute geblieben. Rickenbacher baute diesen Tonabnehmer in eine Lapsteelgitarre (Gitarre mit Stahlsaiten) ein und die erste Elektrische Gitarre war geboren. Wegen ihres
bratpfannenähnlichen Aussehens wurde sie Frying Pan genannt.
Mit den Mitteln der elektrischen Tonabnahme lag es nahe, auf den Resonanzkörper ganz zu verzichten. Um 1940
bestückte der populäre amerikanische Gitarrist Les Paul ein simples Kantholz mit Gitarrenhals, Saiten und zwei
Tonabnehmern, um die störenden Nebengeräusche auszuschalten. Sein „The Log“ (Klotz) stiess aber beim
Publikum auf so heftige Ablehnung, dass er sich genötigt sah, zwei Korpushälften anzusetzen, um den Eindruck
einer richtigen Gitarre zu erzeugen. Erst durch die Entwicklungen des Elektrotechnikers Leo Fender kam die
Elektrogitarre langsam in Schwung. Seine „Esquire“ war in seiner strikten Funktionalität der Zeit voraus und
Januar 2008
19
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
brachte ihm den Ruf eines „Henry Ford der Gitarre“ ein. Das Topmodell „Telecaster“ ist bis heute ein
Verkaufserfolg. Fenders Erfolg leitete auch beim Konkurrenten Gibson den Umdenkprozess ein. Gibsons Modell
„Les Paul“ bekam einen Korpus mit gewölbter Decke und die auffällige goldene Lackierung. Fenders Antwort
darauf war die „Stratocaster“ von 1954. Der sanft gerundete und konturierte Korpus mit den zwei Pickups wurde
zum Klassiker für nahezu jeden Stil der populären Musik. Keine E-Gitarre ist bis heute öfter kopiert worden.
Der Klang der Gibson ist übrigens etwas schriller [Sound 08 - AC/DC - Highway to Hell], als derjenige von Fender
[Sound 09 Status Quo – What’s You’re proposin‘], kommt natürlich auch immer auf den Verstärker an. Die
Produkte dieser beiden Gitarrenmarken sind bis heute etwa gleich geblieben und sind bei vielen Gitarristen
immer noch sehr beliebt. Neben den typischen E-Gitarren entwickelte man auch immer wieder Exotisches.
Abstruse Formen, mehrere Hälse, Bass und Gitarre in einem und sogar klappbare Gitarren. Meistens verkauften
sich diese Gitarren aber schlecht. 1987 produzierte Ibanez eine Gitarre mit einer zusätzlichen tieferen Saite,
welche vor allem bei Metalmusikern gefragt ist. Die japanische Firma Ibanez verkaufte in den letzten Jahren
immer mehr Gitarren und gehört nun zu den Top-Herstellern. Christoph besitzt übrigens auch eine IBANEZ S470,
welche sich durch einen sehr vielseitigen, klaren, vollen Sound auszeichnet.
Aber auch in letzter Zeit kamen einige Erneuerungen auf den Markt. So zum Beispiel die Variax von Line 6 (2003).
Diese Gitarre kann über 25 legendäre Modelle von Strom- und Akustikgitarren sowie einem Banjo wiedergeben.
Die Seitenschwingungen werden über spezielle Tonabnehmer (Pickups) erfasst und mit MikroprozessorElektronik so umgewandelt, damit ein authentischer Klang des jeweiligen Instruments wiedergegeben wird. Ein
durchaus interessanter Ansatz in der Gitarrenbranche.
Abb. 13: Variax von Line 6
Januar 2008
20
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Die neuste, innovative Gitarre ist die Gibson Robot (Dez. 2007). Dieses Instrument stimmt sich von selbst. In
Anbetracht dieser Entwicklungen, sind wir also gespannt, was noch alles Folgen wird. Die Geschichte dieses
legendären Instrumentes ist noch nicht abgeschlossen.
Abb. 14: E-Gitarre von Gibson Robot
Die Bedeutung der Stromgitarre und ihrem Einfluss auf die Gesellschaft greifen wir, analog zur Geschichte der
Elektronischen Musik, in einem späteren Kapitel auf.
Januar 2008
21
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VERGLEICH LIVE VS. COMPUTERMUSIK
EINLEITUNG
Um die Digitalisierung an den Beispielen der Gitarrenmusik und der Elektrischen Musik zu behandeln, werden
wir als erstes einen Selbstversuch starten. Ziel ist es herauszufinden, was die Digitalisierung in unserem Fall für
eine Bedeutung hat, und handgemachte Live-Gitarrenmusik der Computergenerierter Musik gegenüber zu
stellen. Später werden wir dann ein abschliessendes Wort zu der Digitalisierung suchen.
AUFNAHMEN
Da Christoph Gitarre spielen kann, übernimmt er die Rolle der Livemusik. Ein Computerprogramm namens
GuitarPro wird gegen Ihn antreten. Das Programm ist eigentlich dazu da Musiknoten in Gitarrentabulatur-Schrift
darzustellen und auch wiederzugeben. Neben verschiedenen Gitarren können auch Schlagzeug, Bass und viele
weitere Instrumente notiert und wiedergegeben werden. Im Internet sind Tausende solcher Dateien zu finden.
Mit ihnen ist es schlussendlich einfacher einen Song auf der Gitarre zu erlernen, da Noten und Ton Eins zu Eins
abgespielt werden. Für Gitarristen ist dieses Programm absolut empfehlenswert. Kostenpunkt etwa 70 Franken.
Die Neuste Version beinhaltet zudem ein System namens RSE, kurz Realistic-Sound-Engine. Damit lassen sich die
bisherigen Midi-Klänge [Sound 10 – GP4 – Crimson Tide] verbessert abspielen.
Für unseren Versuch wählten wir den Song Crimson Tide von der Band Nightwish aus. Er beinhaltet einerseits
grollende Gitarrenriffs, andererseits einige Solos und keinen Gesang. [Orginalsong: Sound 11 – Nightwish –
Crismson Tide]
Synthesizer, Bass und Schlagzeug wird jeweils vom GuitarPro generiert und dient als Basis. Die Gitarre wird
einmal von Christoph und das andere Mal vom Programm gespielt:
GUITARPRO
HAGER
vs.
GuitarPro 4.0 [Sound 10]
GuitarPro 5.0 mit RSE [Sound 12]
Ibanez S470 mit Peavey Röhrenverstärker:
[Sound 13]
Aufgenommen haben wir diese Songs im Gemeindezentrum Felsegg in Burgdorf. Hier möchten wir auch gleich
unseren Dank für die Benützung des Saales anbringen. Durch die zur Verfügung stehenden Mittel konnten wir
ohne Probleme unsere Aufnahmen durchführen. (Siehe auch Fotodokumentation im Anhang)
Januar 2008
22
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VERGLEICH
Röhren aufheizen, Gitarre auspacken, einstöpseln, Gain aufdrehen und alles andere Vergessen. Ich liebe diesen
Sound. Einfach genial. Dieser brachiale und doch weiche kraftvolle Klang.
Doch eigentlich wollen wir hier ja die Live und computergenerierte Musik vergleichen. Ich habe versucht diesen
Vergleich in einige Punkte zu gliedern:
SOUNDQUALITÄT
Der von GuitarPro mit RSE generierte Gitarrenklang überzeugt. Ähnlich einer Gibson ertönt es aus den
Lautsprechern. Dennoch ist der Klang recht statisch, dass heisst die Tiefe und der letzte Schliff fehlt. Aber alles in
allem ist die Soundgenerierung dieses Programmes top.
Die Live-Aufnahmen sind für unsere Möglichkeiten sehr hochwertig. Tiefen und Höhen wurden hervorragend
digitalisiert, auch wenn etwas am Volumen des Klangs allgemein verloren ging. Ich denke aber dieses wirklich
Kraftvolle, Treibende und Lebendige der Gitarrenmusik kann man nur Live erleben.
VARIATION/MÖGLICHKEITEN
Den Möglichkeiten beim Programm sind Grenzen gesetzt. So können zum Beispiel keine Slides5 erzeugt werden.
Ansonsten können die üblichen Verzierungen ziemlich einfach hinzugefügt werden.
Mit einer richtigen Gitarre hingegen kann man eigentlich alles Mögliche anstellen. Vom mehr oder weniger
erwünschten Fingerrutschen auf der Saite während den Griffwechsel, über Rückkopplungen6 und Slide-Solos bis
hin zur Zertrümmerung der eigenen Gitarre. Beim überschlagen eines Tones durch spezielles Anspielen der Saite
hat GuitarPro noch einige Probleme dies authentisch wirken zu lassen. Das Programm ist imstande ein Riff
Tausendmal zu wiederholen, wogegen bei einem Gitarristen das Riff jedes Mal etwas Variieren kann. Das bringt
natürlich ebenfalls etwas Lebendigkeit in einen Song.
RHYTHMUS / TONFOLGE
Ich muss gestehen, ich habe nicht jeden Ton perfekt getroffen. Der Computer hat hier deutlich mehr gepunktet.
Beim dynamischen Anspielen, kleinen eingebauten Pausen und im Improvisieren habe ich die Nase jedoch
wieder vorne. Hier liegt der grosse Unterschied zwischen Mensch und Maschine. Diese kleinen Nuancen und
kleinen Ausbrecher aus dem genauen Rhythmus und Zwischenanspielen der Saiten bringen den Unterschied. Das
Programm kann aber natürlich auch nur so gut sein, wie der, der den Song eingibt.
COMPUTER UND GEFÜHLE
Das Programm ist wirklich top um Songs einzustudieren, Beispiele anzuhören und zu lernen. Hier zeigt sich die
Digitalisierung durchwegs positiv. Jeder kann sich die Lieder downloaden und nachspielen. Das Programm kann
zwar noch nicht alles, doch die Möglichkeiten und Technologien verbessern sich stetig. Bei unserem Beispiel
repräsentiert das Programm die computergeneriete Musik. Wir werden später noch etwas vertiefter auf diese
Musik eingehen.
5
Mit dem Plektrum über die Saiten ziehen, was ein “quitschendes Rutschen” generiert
bei dem das Ausgangs-Signal auf den Eingang „zurückgefütter“ wird, wodurch bei einer Mikrofon/Lautsprecher
Kombination das typische Pfeifen entsteht. Bei der E-Gitarre wird diese Rückkopplung, auch Feedback genannt, bewusst zur
Klangbearbeitung eingesetzt
6Vorgang,
Januar 2008
23
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Die Computermusik kann also nützlich sein, auch für Anbeter der handgemachten Gitarrenmusik. Vergleicht man
dann aber die generierte Musik mit dem Original von Nightwish bemerkt man sofort die Unterschiede. Aber
auch bei mir zeigen sich die Differenzen klar, obwohl ich meine Künste nicht mit Grössen wie Slädu, Satriani,
Hendrix oder Chuck Berry messen kann. Echte Gitarrenmusik beinhaltet Gefühle. Auch die Befriedigung beim
Spielen sollte nicht vergessen werden, denn es zählt auch das Musizieren an sich. Gitarrenmusik ist etwas
Spezielles, mehr als nur einfach Schwingungen von Saiten. Durch die Digitalisierung können wir diese tolle Musik
heutzutage überall und jederzeit geniessen. Die Technik bringt den Fortschritt.
BEDEUTUNG DE STROMGITARRE
Wir knüpfen an die eben aufgegriffenen Themen an und möchten die Bedeutung der Gitarre noch etwas
genauer durchleuchten. Eine Ausstellung im Museum für Kommunikation in Bern thematisierte vorletztes Jahr
die Stromgitarre. Der Slogan war folgender: Legenden, Lärm, Leidenschaft. Es sind genau die Stichwörter die die
E-Gitarre beschreiben.
LEGENDEN
Im Sport, in der Kunst und vor allem in der Musik gibt es Idole
und Legenden. Die Gitarrenmusik ist mit ihnen entstanden und
gross geworden. Wir sind wahrscheinlich zu jung um zu
begreifen, wie die E-Gitarre von den Fünfzigern bis
Achtzigerjahren die Welt erobert hat. Wenn man sich Bilder
und YouTube-Clips dieser Zeit ansieht, spürt man doch
irgendwie diese Atmosphäre. Da waren Lennon und
McCartney, welche mit den Beatles mit 1.3 Milliarden
verkauften Tonträgern und duzenden Nr. 1 Hits die
wahrscheinlich erfolgreichste Band der Welt waren. Da war
Abb. 15: Bekanntes Bild der Beatles
Johnny Cash, einer der Bedeutendsten Country-Musiker der
Geschichte. Er nahm sogar ein Album in einer Strafanstalt auf. Da war Jimmy Hendrix, welcher mit seiner
experimentellen und neuartigen Spieltechnik die Menschen begeisterte. Da war Bob Dylan, ein Musiker und
Songwriter der die Pop und Rockkultur wie kaum ein Anderer geprägt hat. Er gab den Texten der Rockmusik eine
sprachliche Komplexität und Tiefe, wie es bis anhin kaum denkbar gewesen war. Da war auch Juck Berry, der
Rock’n’Roll Gott. Das Lied Johnny B. Goode kennt wohl jeder. Da war und ist auch noch Alice Cooper, der Vater
des Grusel-Hard-Rock, welcher Menschen wie Manson inspirierte. Und da sind die Rolling Stones, die
dienstältesten Rocker unserer Zeit. Sie sind für ihren etwas exzessiven Lebensstil bekannt und es vergeht wohl
noch einige Zeit, bis sie Ihr Abschlusskonzert geben werden. Dieser kleine Ausschnitt aus der
Stromgitarrengeschichte zeigt; Diese Musik lebt von Legenden.
LÄRM
Für Viele war die Gitarrenmusik eine Störende Erscheinung einiger Jugendlicher. Nichts anderes als Lärm. Wobei
man nicht verschweigen kann, dass eine E-Gitarre in falschen oder unerfahrenen Händen doch etwas laut und
lärmig sein kann. Etwas Neues hat immer eine gewisse Zeit bis es akzeptiert wird. Wobei die Stromgitarrenmusik
vielmals auch für Opposition und Rebellion stand. Man wollte ausbrechen aus dem Kleinbürgertum, sich
profilieren, anders sein als Andere. Sich auflehnen gegen Erwachsene und Staat. Inbegriff hierfür ist die PunkSzene. Gefärbte Haare, drei Akkorde und etwas Gebrüll. Da konnte Jeder mitmachen und über die Saiten
raspeln. Auch im Summer of Love 1967 dem Höhepunkt der Hippiebewegung wurde gegen etwas musiziert, den
Krieg. Die ganze Geschichte der Gitarrenmusik ist gezeichnet von hunderten von Drogenexzessen, Abstürzen und
frühzeitigen Ableben der Musiker. Viel Lärm also im Zusammenhang mit der Gitarre.
Januar 2008
24
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
LEIDENSCHAFT
Ein Holzklotz, 6 Drähte, das Summen des Verstärkers. Beleuchtung, tobende Menschenmassen, Posen und
Geschrei der Musiker und mittendrin die E-Gitarre. Kein anderes Instrument kann wohl die Menschen so
faszinieren und mitreisen wie die Gitarre. Es ist mehr als nur Musik, es ist eine Leidenschaft, ein Lebensgefühl.
Diese Gefühlsausbrüche, die Auflehnung, die Rebellion und zugleich auch die Atmosphäre der weltweiten
Zugehörigkeit und Verbundenheit, dröhnende Boxen, musikalisch explodierende Riffs, getrieben bis zur Ekstase.
So kann man die Stromgitarre umschreiben. Wir sehen so, was für eine Bedeutung die Gitarre haben kann.
Auch wenn die grosse Zeit der Rockmusik vorbei ist, so kann man heutzutage bei Festivals wie zum Beispiel
denen auf dem Gurten oder dem Rock Sound Huttwil diese Gefühle und Leidenschaft miterleben.
Abb. 16: Gotthard am RockSoundFestival Huttwil
Da ich Gitarre spiele und manchmal wohl auch die Nachbarn an meiner Musik teilhaben lasse, kann ich
bestätigen, dass die Stromgitarre etwas Spezielles ist. Die Musizieren ist Ausdruck der Gefühle und wie eine
Flucht vor der Realität. Man kann sich gehen lassen und seine Energie in Musik fassen. Ein faszinierendes
Instrument.
Wir sehen, die Bedeutung der Gitarre kann man nur schwer in Worte fassen, man muss es erleben. Zudem hat
die Gitarre wohl für Jeden eine andere Bedeutung und ruft Erinnerungen wach. Abschliessend kann man sagen,
die Gitarrenmusik lebt von der Atmosphäre, der Leidenschaft und den Legenden welche sie geprägt haben und
noch prägen werden. Durch die Digitalisierung lässt sich diese Musik nicht nur Live sondern mit dem Mp3-Player
auch überall anhören, wenn auch nicht dieselbe Atmosphäre entstehen kann.
Januar 2008
25
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
BEDEUTUNG DER ELEKTRO/COMPUTERMUSIK
Die Computergenerierte Musik hat, wie vorhin angesprochen, bereits den Weg zu der Gitarrenmusik gefunden.
Zu Schulungszwecken lässt sie sich ausgezeichnet gebrauchen. Wie wir auch wissen sind Teile der Elektronischen
Musik bereits in allen Musikrichtungen zu finden. Equalizer, digitale Schlagzeuge und die digitale Abmischung
von Ton erweitern und prägen die heutige Musikwelt. Die Digitalisierung bringt hier also viele Vorteile.
Nebst dieser eher unterstützenden Variante, existiert die Elektronische
Musik auch Selbstständig. Sie verzichtet dabei völlig auf Instrumente.
[Sound 14 – Bob Synclair feat. Dollarman & Big Ali – Rock this Party]
(Orginal von C&C Music Factory)
Wir sprechen von der Unterhaltungsmusik, die in jeder Stadt, in vielen
Lokalen und Veranstaltungen dominiert. Die von DJs abgemischten und
komponierte Musik ist der Inbegriff der Digitalisierung in der Musik. Genres
wie Techno, House, Elektro, R’n’B, oder auch Hip-Hop vermitteln eine
etwas andere Atmosphäre als die Gitarrenmusik, doch es existieren auch
einige Parallelen. Die Beats kommen genauso durchdringend aus den
Lautsprechern, doch sind die Besucher etwas anders gekleidet. Wobei man
Abb. 17: Plakat des Prestige-Club
von früheren Rockkonzerten das ebenfalls behaupten könnte. Auffallend
sind jedoch die vielen, teils leicht offensiv gekleideten Frauen. Es wird Zusammengehörigkeit vermittelt, die
Musik ist „cool“ und man kann verschiedene Leute kennen lernen. Dabei fliesst massenhaft Alkohol und man
konsumiert teils auch etwas speziellere Drogen. So mussten an der Streetparade 2007 von 800‘000 Ravern bei
900 Personen Erste-Hilfe geleistet werden und 135 wurden ins Spital eingeliefert. Dazu kam der Todesfall eines
erstochenen Mannes. Eine erschreckende Bilanz. Doch dürfen wir diese negativen Punkt nicht einfach der
Digitalisierung zuschieben. Vielmehr gibt es im Ausgang immer mehr Gewalt, doch das müsste wohl in einer
anderen IDPA vertieft werden. Nun denn, Drogenexzesse gab es bereits viel früher. Es ist also keine
Nebenerscheinung der Digitalisierung. Durch die teilweise etwas spezielle Musik, welche für manche Leute wohl
nur mit Drogen konsumierbar wäre, kann dieser Aspekt der Drogen aber durchaus verstärkt werden. Die
Digitalisierung ist also im übertragenen Sinn wiederum doch nicht ganz unschuldig.
Die Elektronische Musik wäre aus der heutigen Unterhaltungsmusik und dem Ausgang nicht mehr wegzudenken.
Sie ist genauso ein Massenbewegungsinstrument wie die Gitarre. Die Gesellschaft wandelt sich, und so auch die
Musik.
Januar 2008
26
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
BEDEUTUNG DER DIGITALISIERUNG ALLGEMEIN
Eigentlich sind diese beiden Einblicke in diese zwei Welten der Musik nur ein Ausschnitt aus der Musikbranche.
Es soll uns Anhaltspunkte geben, mit welchen wir die Digitalisierung in der Musik fassen und beschreiben
können. Die Digitalisierung hat mittlerweile wahrscheinlich überall Einzug gehalten.
Doch nicht nur bei der Musik selbst hat die Digitalisierung Spuren hinterlassen, sondern auch in der Handhabung
von Musik. Laufen wir durch Bern sehen wir überall Kopfhörer, Mp3-Player und iPods soweit das Auge reicht.
Jedes Kleinkind und jeder Pensionierte hat seine Musik dabei. Von Klassik über Techno bis zu Rock und Salsa ist
eigentlich alles vertreten. Kaum hat man Zugang zu einem Computer werden die Schallplattensammlungen und
CDs digitalisiert, sortiert, geordnet und dann auf unseren stetigen Begleiter übertragen. Kommt noch ein
Internetzugang hinzu, wird auch schon bald eine neue Festplatte benötigt, aufgrund der gedownloadeten Musik.
Durch die Digitalisierung muss man nicht mal mehr aus dem Haus, um den neusten Chart aus den Lautsprechern
hören zu können. Im 21 Jahrhundert befinden wir uns im Computerzeitalter. Alles wird digitalisiert, nicht nur
Musik, sondern auch Fotos, Filme, Dokumente, Bücher, Karten und verschiedenste Daten. Man möchte Alles für
die Nachwelt sichern und erhalten. Daten werden immer schneller ausgetauscht und man bemerkt, dass die
eben gekaufte Festplatte bereits wieder voll ist. Ohne unsere Siliziumfreunde könnten wir wohl nicht mehr
leben. Alles wird in Nullen und Einsen in Bits und Terabytes auf Festplatten und DVDs verewigt, wobei dieses
„Ewig“ etwas umstritten ist. Unsere Krankenakte, der Ehevertrag, unsere Handygespräche, unsere Umgebung,
das Wachstum von Wüstenrennmäusen, die Rezepte der Grossmutter, unsere Gehirnströme und eben unserer
Lieblingsmusik wird eiskalt in Nullen und Einsen ausgedrückt, geordnet und archiviert. Null oder Eins. Alles
Digital.
Man könnte noch viel Philosophieren, denn das waren nur einige Gedanken unsererseits. Es ist unglaublich, was
schon alles digitalisiert wurde.
NACHTEILE – KONTROVERSE
Wie man aus unseren Gedankengängen bereits etwas herausfühlen kann, beinhaltet die Digitalisierung natürlich
auch Nachteile. Im Bezug zur Musik sind da in erster Linie die massenhaften illegalen Downloads zu nennen.
Wobei die Plattenfirmen immer mehr Profit machen wollen. Ein Musiker erhält bei einer verkauften CD nicht
einmal mehr 10 % des Verkaufspreises. Aber auch die Künstler verlieren natürlich so Geld. Rechtstreits sind die
Folge. Die SUISA (Schweizerische Gesellschaft für die Rechte der Urheber musikalischer Werke) hat am 1.
September 2007 eine Gebühr auf Datenträger erhoben, welche die Künstler für illegale Downloads entschädigen
sollen. Damit erntet die SUISA natürlich viel Kritik. Denn einerseits ist die Besteuerung bescheuert, andererseits
legitimiert dies den kostenlosen Download. Wieso für Musik bezahlen, wenn ich dies bereits mit dem Kauf eines
Players getan habe? Hier sollten die Musiker, Plattenfirmen und die Konsumenten einen gemeinsamen Weg
finden. Doch das wird sicherlich noch einige Zeit dauern. Übrigens wollen sogar einige Plattenfirmen die
Tabulaturnoten welche mit GuitarPro abgespielt werden, oder ganz allgemein Musiknoten verbieten oder
kostenpflichtig machen. Ich frage mich wie man auf ein Instrument zum Erlernen des Gitarrespielens rechtlichen
Anspruch erheben kann? Zumal die Noten von Gitarristen herausgehört werden und dann über Plattformen zur
Verfügung gestellt werden. Der Künstler wird nicht im Geringsten beeinträchtigt. Uns würde es jedenfalls freuen
wenn man unsere Musik spielen würde.
Wir haben also das Problem der Eigentumsrechte, welches die Digitalisierung mit sich bringt. Ein ganz anderes
Thema ist die Live-Musik allgemein. Die Leute laden sich alles runter und hören sich diese Musik an.
Handgemachte Musik ist immer weniger gefragt. Das ist eigentlich schade. Doch auch wenn die Partyszene
dominieren dürfte, gibt es immer noch eine Vielzahl an Veranstaltungen welche echte Live-Musik bieten.
Januar 2008
27
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
STELLUNGNAHME CHRISTOPH HAGER
Obwohl unsere Gedanken bereits in dieses Kapitel mit eingeflossen sind, möchten wir hier noch persönlich
Stellung nehmen.
Alles in allem bin ich von der Digitalisierung angetan. Ich habe soviel Musik auf meinem Computer, dass ich
manchmal wirklich den Überblick verliere. Und ohne MP3 gehe ich sowieso nicht aus dem Haus. Aber ich muss
hier anmerken, dass ich die Live-Musik liebe. Besonders Hardrock. Diese Musik vermittelt mir etwas Lebendiges,
Positives und Freies. Allein der Sound einer verzerrten Gitarre versetzt mich ins Schwärmen, wie man vielleicht
in diesem Kapitel etwas bemerkt hat. Wahrscheinlich bin ich dreissig Jahre zu spät auf die Welt gekommen. Ich
liebe es abends heimzukommen und in die Saiten zu greifen. Die Gitarre ist etwas Besonderes, fast wie ein
Lebewesen. Manchmal kann man damit besser spielen, und ein andermal will es einfach nicht so recht. Ich habe
auch mehrmals versucht mein Gespieltes aufzunehmen und zu Digitalisieren. Doch es überzeugt mich nicht. Das
Erlebnis ist nicht dasselbe wie wenn man direkt spielt.
Von der Elektronischen Musik bin ich zwar nicht wahnsinnig begeistert. Doch ab und zu im Ausgang zu den tiefen
Bässen zu schaukeln macht doch auch einigen Spass.
Wie gesagt, finde ich die Digitalisierung nicht grundsätzlich schlecht. Doch heutzutage sind die meisten Daten
digital. Durch das Internet und die Hacker, können so Daten gestohlen oder eingesehen werden. Wir sollten also
vernünftig mit dem Ganzen umgehen. Mittlerweile kann man eine Person einfach googlen und weiss über Ihr
halbes Leben Bescheid. Solange wir nicht eines Tages schon kurz nach Geburt verkabelt werden, bin ich jedoch
zuversichtlich, dass die Digitalisierung uns den Fortschritt bringt.
STELLUNGNAHME PHILIPP GERBER
Ich betrachte die Digitalisierung als wahrscheinlich den grössten technischen Fortschritt der Menschheit. Jeder
von uns ist davon betroffen, ob wir es nun mögen oder nicht. Ein grosser Teil unseres Wissens und unserer
Kultur ist digital. Das bedeutet, dass die geistigen Schöpfungen häufig gleich im Computer entstehen, meist am
Computer weiterbearbeitet und wiederum über Computer an andere Menschen weitergegeben werden.
Was ist aber wenn wir all diese Daten in hundert Jahren nicht mehr lesen können?
Experten befürchten das grosse Datensterben. Ich habe ja schon jetzt Probleme, wenn ich eine Diskette einlesen
möchte, da mein Laptop kein Diskettenlaufwerk mehr besitzt. Hier liegt wohl die grösste Gefahr der
Digitalisierung.
Januar 2008
28
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
FAZIT
Die Digitalisierung ist einerseits die Erfassung eines Musikstücks in ein Datenformat. Andererseits muss bei Ihr
auch der Aspekt der Auswirkungen, Möglichkeiten und die Handhabung von Musik betrachtet werden. Es
eröffnet uns unendliche Möglichkeiten und Chancen. Doch die Digitalisierung hat auch einige negative
Nebenerscheinungen, wie Rechtstreits.
Auch wenn wir die Live-Musik nicht vernachlässigen sollten, können wir mit der Digitalisierung unsere
Lieblingsmusik überall anhören. Was uns die Zukunft mit der Digitalisierung bringen wird betrachten wir als
interessant, aber auch etwas skeptisch. Ein jeder sollte sich also der Bedeutung der Digitalisierung bewusst
werden, um damit vernünftig umgehen zu können.
Januar 2008
29
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DIE TECHNIK HINTER DER DIGITALISIERUNG
In diesem zweiten Teil befassen wir uns mit der Technik hinter der Digitalisierung. Wir werden auf die
Entstehung von Ton zu sprechen kommen, die eigentliche Digitalisierung näher betrachten und werden auch
Klanganalysen anfertigen. Dabei werden wir versuchen die Theorie mit Beispielen zu fundieren.
ENTSTEHUNG VON TON – GRUNDLAGEN DER AKUSTIK
EINFÜHRUNG
Wir möchten uns in diesem zweiten Teil der Arbeit zu den technischen, akustischen aber auch mathematischen
Gebieten der Musikdigitalisierung eintauchen. Anfangen möchten wir mit den Grundlagen der Akustik, da dies
für das Verständnis des Kommenden unumgänglich ist. Darauffolgend widmen wir uns sogleich der
Digitalisierung. In einem nächsten Schritt wollen wir uns in die Welt von Tönen, Frequenzen und Amplituden
vertiefen. Schliesslich wagen wir den Schritt von der Theorie hin zu Klanganalysen und noch weiter, bis wir bei
der Musik angelangt sind, um zu begreifen, was Musik ist.
GRUNDLAGEN
Wie angesprochen werden wir hier kurz die physikalischen Aspekte der Musik beschreiben. Wichtig sind
sicherlich folgende Punkte:



Wie hören wir?
Was ist ein Ton und wie entsteht er?
Was ist Musik rein physikalisch betrachtet?
WIE HÖREN WIR?
Jeder weiss; mit den Händen fühlen, mit den Augen sehen und mit den Ohren hören wir. Das hört sich ganz
selbstverständlich an, doch was ist das eigentlich, was wir mit unseren Ohren wahrnehmen? Einfach gesagt sind
es Schallwellen, welche von verschiedensten Objekten generiert werden können. Die Schallwellen gelangen
beim Ohr über den Hörkanal zum Trommelfell, welches die Luftdruckänderungen aufnimmt und ins Ohrinnere
weitergibt, wo das ganze in bioelektrische Impulse umgewandelt wird. Das Gehirn interpretiert dann diese
Impulse, und wir hören.
DER SCHALL
Was sind eigentlich Schallwellen? Schallwellen sind effektiv mechanische Wellen, welche durch Druck- und
Dichteveränderungen hervorgerufen werden. Jeder Schall braucht Teilchen um sich fortbewegen zu können. Ein
Teilchen schiebt das nächste an, welches wiederum ein weiteres anschiebt. Doch die Luftteilchen können
natürlich nicht einfach immer weiter wandern, so bewegen sich die Teilchen nach der Welle wieder in ihre
ursprüngliche Position. Der Schall hat in der Luft eine Geschwindigkeit von 343m/s.
Januar 2008
30
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VON SCHWINGUNGEN UND RESONANZEN
Schallwellen können durch Schwingungen entstehen. Eine Schwingung ist eine periodische Bewegung, wie zum
Beispiel die eines Pendels oder einer Saite. Aber auch eine Membran oder eine Zunge können schwingen und so
Schallwellen erzeugen. Um einen hörbaren Ton mit der Saite einer Gitarre zu erzeugen, benötigt es auch immer
noch eine Resonanz. Das heisst, es benötigt ein schwingfähiges System, welches sich der Schwingung der Saite
annimmt und so verstärkt. Die Erregerfrequenz der Saite muss dabei der Eigenfrequenz der Gitarre entsprechen.
Abb. 19: Schwingende Membran
Abb. 18: Schwingende Saite
Abb. 20: Schwingende Zunge
WAS IST EIN TON?
Um Unklarheiten zu vermeiden, möchte ich zuerst definieren was ein Ton ist. Physikalisch betrachtet ist ein Ton
eine sinusförmige Schwingung. (Abb.21.1) (Absolut unnatürlich) Überlagert man mehrere solche Schwingungen
erhält man eine periodische Schwingung was einem Klang entspricht (Abb. 21.2) (Vorsicht: Musiker sprechen
hier auch von einem Ton) Eine nicht periodische Schwingung wird als Geräusch wahrgenommen (Abb. 21.3).
Durch Aneinanderreihung von Klängen und auch Geräuschen kann Musik entstehen.
Abb. 21.1: Ton
Abb. 21.2: Klang
Abb. 21.2: Geräusch
In den Graphen kann man die Schwingungen sehr gut erkennen. Um nicht einfach von Schwingungen sprechen
zu müssen und diese auch mathematisch analysieren zu können, sollten wir noch einige Dinge erklären.
Amplitude: Als Amplitude ist die physikalische maximale Auslenkung einer Schwingung definiert. Sie zeigt uns
die Stärke oder eben die Lautstärke einer Schwingung. Je mehr Energie in eine Schwingung eingeleitet wird,
umso mehr schlägt diese aus. So wird uns auch klar, dass analog zu unserem Teilchen-Beispiel nach jedem
Überdruck ein Unterdruck entsteht. Töne sind also nichts anderes als diese Druckschwankungen.
Frequenz: Die Frequenz definiert die Anzahl der Schwingungen pro Zeiteinheit. Sie definiert uns die Höhe des
Tones. Je höher die Frequenz umso höher der Ton. Hier sehen wir auch, dass die horizontale Achse als Zeit
beschrieben ist. Der Abstand von einem Wellenberg zum Nächsten nennt man Periode und wird in T Sekunden
gemessen. Die Frequenz 𝑓 wird in Hertz angegeben. Der Mensch ist fähig von 20 bis etwa 20‘000 Hz zu hören.
Mit zunehmendem Alter schränkt sich dieser Bereich etwas ein.
𝑓=
Januar 2008
1
𝐻𝑧
𝑇
31
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Die Charakterisierung eines Tones geschieht also durch die Frequenzen und die jeweiligen Amplituden.
Bei einem Klang sind mehrere solche einfachen Töne übereinander gelagert. Der Ton mit der niedrigsten
Frequenz, der der eigentlichen Tonhöhe einspricht, nennt man den Grundton. Er gibt sozusagen den Ton an.
Hinzu kommen Obertöne, welche jeweils ein Vielfaches der Grundschwingung beinhalten. Zusammen mit dem
Grundton, Rauschanteilen, sowie dem zeitlichen Verlauf des Frequenzspektrums (Ausbildung der verschieden
Frequenzen) und der Lautstärke geben die Obertöne einem Klang seinen Charakter. Man spricht hier von
Klangfarbe.
+
=
→
Abb. 22: Zusammensetzung von einem Klang
Bleibt uns noch das Geräusch. Alles was nicht als Ton oder Klang bezeichnet werden kann wird als Geräusch
definiert. Es ist in der Regel nicht periodisch. Ein Geräusch wird durch seinen zeitlichen Verlauf, seinem
Spektrum, seine Störwirkung aber auch der Herkunft charakterisiert. Geräusche sind sehr vielseitig.
Strassenverkehrsgeräusche stören den Menschen, die Geräusche der Natur werden jedoch als angenehm
empfunden.
Abb. 23: Geräusch
Mit diesen Grundlagen sind wir also gerüstet für unsere weiteren Tätigkeiten. Und wir haben bereits etwas
Grundlegendes geklärt: Physikalisch betrachtet ist Musik nichts anderes, als Druckschwankungen, welche von
unserem Gehirn interpretiert werden.
Januar 2008
32
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DIGITALISIERUNG VON MUSIK
Nachdem wir die Geschichte der digitalen Tonaufnahme und Tonträger (DAT, CD) zu Beginn der Arbeit
abfassten, möchten wir in diesem Kapitel die Technik der Digitalisierung genauer betrachten.
ANALOG GEGEN DIGITAL
Der Hauptunterschied von analogen zu digitalen Systemen liegt in der Art der Darstellung von Informationen.
Digitale Informationen sind immer nur Zahlenwerte, die zu einzelnen Zeitpunkten gemessen werden. Das
bedeutet einen grossen Unterschied zu analoger Information, wo kontinuierliche, nicht auftrennbare Werte
aufgezeichnet sind. Zur Veranschaulichung hier ein kurzes Beispiel; Bei einer analogen Uhr scheint die Zeit
kontinuierlich zu fliessen, die Zeiger bewegen sich über den Stundenkreis und decken dabei jeden einzelnen
Zeitbereich ab. Eine digitale Uhr zeigt ebenfalls die Zeit an, jedoch auf einem Display mit einzelnen Werten zu
bestimmten Zeitpunkten, jeder Sekunde oder jeder Minute. Im Audiobereich funktioniert dies genauso. Die Töne
verändern sich ständig und können aufgenommen und wiedergegeben werden, in kontinuierlicher analoger
Form oder in einzeln abgetasteter digitaler Form. So wie beide Uhren die Zeit anzeigen, geben beide
Aufnahmearten die gleiche Musik wieder.
SAMPLING
Zusammengefasst bedeutet Digitalisierung also nichts anderes als die Aufteilung eines Signals in einzelne
Messpunkte bei gleichen Zeitabständen. Diesen Prozess nennt man Sampling oder auf Deutsch zeitdiskrete
Abtastung. Die Sache ist jedoch nicht ganz einfach, weil man zuerst einige knifflige Entscheidungen zu treffen
hat. Als erstes stellt sich die Frage, wie viele Messungen wir vornehmen möchten? Wie schnell tasten wir das
Signal ab? Und wenn ein digitales System nur einzeln abtastet, was passiert mit den Informationen zwischen den
Abtastungspunkten?
DAS NYQUIST-THEOREM
Diese Fragen können wir mit dem Nyquist-Theorem beantworten. Der amerikanische Physiker und Ingenieur
Harry Nyquist hat bereits 1928 ein Mathematisches Konzept entworfen, das beweist, dass eine Wellenform in
Einzelschritten abgetastet und wieder komplett rekonstruiert werden kann, wenn die Abtastung (das Sampling)
korrekt ausgeführt wird. Der formale Beweis erfolgte jedoch erst 1949 durch Claude E. Shannon. Die zentrale
Aussage dieser beiden Arbeiten wird heute allgemein als das Abtasttheorem bezeichnet. Das Abtasttheorem
besagt, dass die Abtastfrequenz mindesten zweimal so hoch sein muss wie die höchste Frequenz des
Messsignals:
𝑓𝐴𝑏𝑡𝑎𝑠𝑡 > 2 ∙ 𝑓𝑚𝑎𝑥
Die Frage, die sich automatisch stellt ist nun: Wie kann ich die Frequenzen des Signals erkennen? Dazu führt man
eine Fourieranalyse des Messsignals durch, so dass wir aus dem Signal ein Spektrum erhalten, dessen
Frequenzanteile nun abgelesen werden können (vgl. Kapitel Fourieranalyse).
Um bei einer gegebenen Abtastfrequenz das Abtasttheorem trotzdem einzuhalten, müssen wir den
Frequenzgang des Eingangssignals bei der Hälfte der Abtastfrequenz beschneiden. Das bedeutet im konkreten
Fall den Einsatz eines Tiefpassfilters7 bei ungefähr 20kHz. Wenn diese Filterung stattgefunden hat, können wir
das Signal fehlerfrei abtasten und damit die originale Kurvenform wiederherstellen. Diese wird durch einen
Ausgangsfilter "geglättet" und es entsteht wieder das Originalsignal.
7
Schneidet alle hochfrequenten Teile des Signals ab, tiefere Frequenzen können den Filter passieren.
Januar 2008
33
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Abb. 24: Funktionsweise eines digitalen Audiosystems (Schematisch)
ALIASING
Was passiert, wenn das Abtasttheorem nicht erfüllt ist? In diesem Fall entspricht das aus den digitalen Werten
rekonstruierte Signal nicht mehr dem Originalsignal. Aliasing ist die Fehlreaktion eines digitalen Systems auf jede
Frequenz, die höher liegt als die halbe Abtastfrequenz. Als Ergebnis von Unterabtastung kann Aliasing neue
Frequenzen erzeugen. Die Aufgabe des Entwicklers ist es, jegliches Auftreten von Aliasing zu verhindern. Wie
bereits erwähnt kann ein Tiefpassfilter (das auch Anti-Aliasing-Filter genannt wird) im Eingang genau diese
Aufgabe erfüllen.
Abb. 25: Als Ergebnis von Unterabtastung kann Aliasing neue Frequenzen erzeugen.
Januar 2008
34
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
QUANTISIERUNG
Wie wir gesehen haben, stellt Sampling eine Methode dar, in regelmässigen Abständen eine Messung
vorzunehmen. Die Messung eines Tonsignals macht aber nur dann Sinn, wenn sowohl Zeit als auch Wert dieser
Messung festgehalten wird. Dieser Wert, im Audiobereich die Amplitude der Schwallwelle, wird über einen
Analog-Digital-Wandler in einen Zahlenwert umgewandelt. Dieser Vorgang nennt man Quantisierung. Sowohl
das Sampling als auch die Quantisierung sind Parameter, mit denen die Grenzen eines digitalen Audiosystems
festgelegt werden. Digitale Signale können als „ja“ oder „nein“, „1“ oder „0“, „Strom“ oder „kein Strom“ gut
abgespeichert und bearbeitet werden. Da pro Stelle nur eine „1“ oder eine „0“ vorkommt, werden Zahlen so im
Zweiersystem oder Binärsystem dargestellt. Die Anzahl Bits besagt, auf wie viele Stellen genau eine Zahl
dargestellt wird. Die üblichen digitalen Audiosysteme zerlegen die Amplitude der Töne auf 16 Bit genau. Dies
erlaubt eine Auflösung der Amplitude in 216 = 65‘536 Stufen oder Einzelwerte.
QUANTISIERUNGSFEHLER
Sampling funktioniert bei einhalten des Abtasttheorems perfekt, Quantisierung jedoch funktioniert nie perfekt.
Genauso wie Länge, eine analoge Grösse gemessen werden kann (z.B. in Zentimeter), kann auch ein Tonsignal
gemessen werden (z.B. in Volt). Und genauso leicht, wie bei einer Längenmessung Fehler auftreten, entstehen
sie auch bei der Quantisierung. Alle Messwerte eines Signals, die zwischen den Werten liegen, die den einzelnen
Quantisierungsstufen entsprechen, müssen jeweils auf bzw. abgerundet werden. Dabei entsteh ein Fehler,
dessen Grösse niemals die Hälfte einer Quantisierungsstufe überschreiten kann.
Durch dieses bei der Quantisierung des Signals stattfindende Runden entsteht ein Klirren oder Rauschen.
Damit wird klar, dass je höher die Auflösung ist, die Fehler umso kleiner werden und das Klirren abnimmt. Als
Mass für das Klirren wird in der Audiotechnik der Klirrfaktor benutzt.
Abb. 26: a) Quantisierung eines Signals, b) Betrag des Quantisierungsfehler
Januar 2008
35
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
CODIERUNG
Begriffe wie Sampling und Quantisierung bilden die Basis des digitalen Audio. Alle digitalen Audiosysteme
verwenden diese Techniken zur Aufnahme und Wiedergabe von Musik. Die Methoden, mit denen diese
Techniken angewandt werden, können sich jedoch erheblich voneinander unterscheiden. Es gibt viele
Möglichkeiten, Digitaldaten zu codieren, mit verschiedenen Systemarchitekturen, die diese Aufgabe lösen. Die
sogenannte Pulscode-Modulation (PCM) stellt im digitalen Audio die am weitesten verbreitete
Systemarchitektur dar.
PCM ist einfach eine effektive Modulationsmethode.
Gäbe es sie nicht, wären digitale Audiosysteme viel
komplexer und teurer.
A
b
b
Abb. 27: Bei PCM werden die Amplitudenwerte direkt in das
binäre Signal übertragen
KURZFASSUNG
Kurz gesagt, erfolgt die Digitalsierung in drei Schritten:
- Abstastung (Sampling)
- Quantisierung
- Codierung
Bei der Abtastung wird das Audiosignal in einzelne zeitdiskrete Messpunkte
zerlegt. Durch die Quantisierung wird die analoge Amplitude der einzelnen
Messpunkte in numerische Einzelwerte übertragen. Das entstandene digitale
Signal wird nun noch codiert, also mit binären Codewörtern beschrieben. Eine
Audio-CD besitzt eine Samplingrate von 44.1 kHz und eine 16-Bit-Quantisierung.
Sowohl beim Sampling wie auch bei der Quantisierung können Fehler entstehen. Beim Sampling gilt es das
Abtasttheorem zu beachten. Es besagt, das die Samplingrate mindestens doppelt so hoch sei muss, wie die
höchste vorkommende Frequenz im Audiosignal. Bei der Quantisierung entsteht durch Auf- bzw. Abrunden der
Amplitudenwerte auf das Bitraster ein Rauschen (Quantisierungsrauschen). Mit einer genügenden grossen
Auflösung der Amplitude, ist das Rauschen nicht relevant, da es sich unterhalb des menschlichen Hörvermögens
befindet.
Januar 2008
36
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DIE WICHTIGSTEN AUDIO-FORMATE
ÜBERSICHT:
WAV = WAVE (Welle) wave form audio:
Unkomprimierte Audiodatei, enthält alle Audioinformationen
MP3 = MPEG-1 Audio Layer 3:
Datenreduzierte Audiodatei, nicht wahrnehmbar
Audioinformationen sind entfernt
AAC = Advanced Audio Coding:
Datenreduzierte Audiodatei, verbesserter Nachfolger von MP3
WMA = Windows Media Audio:
Datenreduzierte Audiodatei, entwickelt von Microsoft für
Windows Betriebssysteme.
MIDI = Musical Instruments Digital Interface:
Steuerdatei, die Musikinformationen erhält, welche an einen
Klangerzeuger gesendet werden
WAV:
Die Abkürzung WAV steht für wave (englisch: Welle) und bezieht sich auf die Wellendarstellung eines Tons oder
Geräusches in einem Oszillografen. Eine Sounddatei mit der Endung .wav wird als „Wavedatei“ bezeichnet.
WAV-Dateien sind in Relation zu den anderen Klangformaten recht gross, eine Minute Musik in CD-Qualität
benötigt ungefähr 10 MB Speicherplatz. So ergibt sich im Übrigen auch die Maximaldauer handelsüblicher
Audio-CDs , auf eine CD passen knapp 700MB Daten, also ungefähr 70 Minuten Musik. Der Vorteil von WAVDateien liegt darin, dass in ihnen alle Musikinformationen verlustfrei gespeichert sind, man hat also das im
Rechner vorliegen, was wirklich „war“.
MP3:
Auch MP3 ist eine Abkürzung und steht ursprünglich für „MPEG II Layer 3“, ein vom Fraunhofer Institut
entwickeltes Verfahren zum Codieren von Audiosignalen für digitale Videofilme. Ursprünglich als Teil eines
Videocodecs entwickelt, hat sich MP3 inzwischen als weltweites Medium zum (teilweise illegalen) Austausch von
Musik über das Internet durchgesetzt, da es die Daten von Audiodateien so reduzieren kann, dass eine 3Minuten Audiodatei statt 30MB nur noch knapp 3MB belegt, und das ohne hörbaren Qualitätsverlust.
Die MP3-Codierung setzt hierzu verschiedene Methoden ein, unter anderem werden unhörbare (weil zu
hohe/tiefe Frequenzen) und Töne, die aufgrund von Maskierungsvorgängen im Gehör nicht wahrnehmbar sind,
aus der Datei entfernt. So kann eine Datenreduktion von 10:1 geschehen. Vorsicht ist jedoch geboten, wenn
MP3 Dateien weiterverarbeitet werden sollen: Einmal entfernte Audioinformationen lassen sich nicht wieder
herstellen. Im Gegensatz zu Packformaten wie ZIP oder RAR sind die Informationen in einer MP3 Datei gelöscht
und nicht nur komprimiert! Bei jeder weiteren Bearbeitung stehen die Informationen auch nicht mehr zur
Verfügung.
MIDI:
Das Kunstwort MIDI steht für Musical Instruments Digital Interface und bezeichnet einen Standard zur
Kommunikation von digitalen Musikinstrumenten (E-Pianos, Synthesizer, Computer, Drum-Computer etc.)
untereinander. MIDI-Dateien haben im Allgemeinen die Endung .mid und sind im Vergleich zu allen anderen
Soundformaten extrem klein. Das liegt daran, dass in einer MIDI-Datei nur Informationen über die zu spielende
Musik aufgezeichnet sind, nicht aber die Musik selber.
Januar 2008
37
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Man kann sich den Inhalt einer MIDI-Datei vereinfacht wie ein Notenblatt vorstellen, auf dem ein Musikstück
aufgezeichnet ist. Wie die dort aufgezeichnete Musik letztlich klingt, hängt vom Musiker und dessen Instrument
ab.
Ebenso hängt es bei MIDI-Dateien davon ab, an welchen Klangerzeuger die Daten gesendet werden (billige
Soundkarte, teurer Synthesizer, Sample-Player), allein die Qualität des Klangerzeugers entscheidet über die
Qualität des Klangs. MIDI-Daten werden in 128 Abstufungen (0-127) angegeben. Zu den möglichen Angaben
zählen neben Notennamen auch Lautstärke, Anschlagsstärke, Panoramaauslenkung und vieles mehr.
MIDI-Dateien werden meist innerhalb von Notenprogrammen oder in Sequenzern (in Verbindung mit „echten“
Audiosignalen aus WAV- und MP3-Dateien) eingesetzt. Vielfach steuern MIDI-Dateien virtuelle Synthesizer, die
sehr realistische Klänge aus den „toten“ MIDI-Daten generieren können., wie zum Beispiel das GuitarPro.
Januar 2008
38
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
FOURIERANALYSE
EINFÜHRUNG
Um die Digitalisierung besser zu verstehen, wenden wir uns einem mathematischen Thema zu. Der
Fourieranalyse, respektive der Fourierreihe. Die von John Baptiste Joseph Fourier entwickelte Fourier-Reihe
kann einen Klang in einer Funktion darstellen. Die Zerlegung einer solchen periodischen, harmonischen
Schwingung in ihre Elementarschwingungen nennt man Fourieranalyse.
Wie wir wissen, ist ein Klang aus mehreren Sinusschwingungen zusammengesetzt. Zudem können diese immer
wieder in ihre Komponenten aufgeteilt werden. Dieses mathematische Gesetz macht sich die Fourieranalyse
zunutze. Mit ihr kann man einen Klang in einzelne Frequenzen trennen und deren Amplituden ablesen. Da die
Analyse jedoch Integralrechnungen beinhaltet, werden wir nur kurz das Grundprinzip erläutern und dann einige
Beispiele mit der Fourierreihe aufzeigen. Wir werden uns also mit der Klangsynthese begnügen. Bei den
Instrumentanalysen wird dann ein Programm die Aufgabe der Analyse bewältigen.
DIE FOURIERREIHE
Eine einfache Sinusschwingung lässt sich wie folgt beschreiben:
𝑦 (𝑡) = 𝐴 ∗ sin(𝜔𝑡 + 𝜑)
A definiert die Stärke der Amplitude. φ wiederspiegelt eine allfällige Phasenverschiebung (Verschiebung in der
Zeitachse). ω ist die Frequenz. Diese wiederum wird wie folgt errechnet:
𝜔=
2𝜋
𝑇
T entspricht einer Periodendauer. Wir sehen hier deutlich die Parallelen zu den Winkelfunktionen.
y
A
y = A sin (ωt + φ)
t
φ/ω
-A
T = 2𝜋/ω
Abb. 28: Sinusschwingung
Januar 2008
39
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Um die Phasenverschiebung ohne φ darzustellen verwendet man ein Additionstheorem. Man erhält:
𝑦 (𝑡) = 𝐴 ∗ sin(𝜔𝑡 + 𝜑) = 𝐴1 ∗ sin(𝜔𝑡) + 𝐴2 ∗ cos(𝜔𝑡)
Da bei einem Klang mehrere solcher Schwingungen zusammengesetzt werden erhält man somit die
Fourierreihe:
∞
𝑎0
𝑦(𝑡) =
+ ∑(𝑎𝑛 cos(nω0 t) + 𝑏𝑛 sin(nω0 t))
2
𝑛=1
ω0 ist als Grundkreisfrequenz definiert. Sie ist die Teilschwingung mit der kleinsten Kreisfrequenz. Alle n-fachen
Frequenzen sind ein ganzzahliges Vielfaches der Grundfrequenz. Sie werden Oberschwingungen genannt.
Durch einige Integralrechnungen lassen sich die sogenannten Fourierkoeffizienten 𝑎0 , 𝑎1, 𝑎2, 𝑎3, … b1, b2, …
ermitteln. Aus diesen können dann die Frequenzen mit dazugehörigen Amplituden abgeleitet werden.
Für die folgenden Beispiele verwenden wir eine vereinfachte Form der Fourierreihe:
∞
𝑦(𝑡) = ∑(𝑏𝑛 sin(nx))
𝑛=1
Diese Form ermöglicht uns die Synthese einfacher zu berechnen, zu kommentieren und die Auswirkungen sind
klar ersichtlich.
BEISPIEL 1
Zusammenfügen zweier Sinusschwingungen mit unterschiedlicher Amplitude.
f1(t) = sin(x) +0.5 *sin(x):
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
Abb. 29: Klangsynthese
Es ist klar ersichtlich, was das zusammenrechnen von der hell- und dunkelgrauen Schwingung ergibt. Wir
erhalten eine Sinusschwingung (Blau) mit einer Amplitude von 1.5.
Januar 2008
40
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
BEISPIEL 2
Zusammenfügen zweier Sinusschwingungen mit unterschiedlicher Frequenz.
f2(t) = sin(x) +sin(2x):
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
Abb. 30: Klangsynthese
Aus dieser Abbildung ist ersichtlich, was für eine Schwingung (Blau) aus den beiden Teilschwingungen entsteht.
Mit den Frequenz- und Amplitudenvariationen lassen sich also bereits Klänge zusammenstellen. Zusammen mit
der Phasenverschiebung kann so mit der Fourierreihe das gesamte Klangspektrum abgedeckt werden. Im
Grunde eine einfache Sache.
BEISPIEL 3; RECHTECKFUNKTION
Wenn wir die Rechteckfunktion betrachten, so scheint es unrealistisch, das dieses Signal in eine Summe von
Sinusfunktionen zerlegt werden kann. Doch die Grundidee der Fourieranalyse besteht darin, dass alle
periodischen Funktionen durch Addition von verschiedenen Sinusschwingungen dargestellt werden. Das gilt
auch für die „Rechteckfunktion“. Die Zerlegung führt zur folgenden Fourier-Reihe:
1
1
1
1
𝑓(𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t) + sin(7 ∙ t) + sin(9 ∙ t) …
3
5
7
9
Anhand dieser Funktion erkennt man, dass man eine Rechteckschwingung durch unendlich viele
Oberschwingungen darstellen kann. Sie enthält jeweils die ungeraden harmonischen Oberschwingungen, wobei
die Amplitude mit steigender Frequenz abnimmt. Wir möchten nun folgende Rechteckfunktion mit dieser
Theorie annähern:
1.5
1
0.5
0
-0.5
-1
-1.5
Januar 2008
41
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Beginnen wir mit einer einfachen Sinuskurve: 𝑓1 (𝑡) = sin(t)
1
0.5
0
-0.5
-1
Nun addieren wir dazu eine Sinusschwingung mit 1/3 der Amplitude und einer 3fachen Frequenz (3.
Harmonische):
1
𝑓2 (𝑡) = sin(t) + sin(3 ∙ t)
3
1
0.5
0
-0.5
-1
Addieren wir nun wiederum die 5. Harmonische erhalten wir folgende Funktion:
1
1
𝑓3 (𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t)
3
5
1
0.5
0
-0.5
-1
Treiben wir das nun weiter bis zur 15. Harmonischen, erhalten wir eine Funktion, die dem gewünschten Ergebnis
schon sehr nahe kommt:
1
1
1
𝑓4 (𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t) … . + sin(15 ∙ t)
3
5
15
1
0.5
0
-0.5
-1
Januar 2008
42
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
FAZIT
Wie wir wissen, wird diese Fourieranalyse zur Komprimierung von Audiodateien genutzt. Ohne diese hätte wohl
jeder Musikliebhaber eine Riesen Flut an Daten. So kann uns unser Silikonfreund z. B. die Musik in mp3 zur
Verfügung stellen.
Januar 2008
43
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
KLANGANALYSEN VON INSTRUMENTEN
EINFÜHRUNG
Da wir nun einiges über die Fourieranalyse gelernt haben, möchten wir erfahren wie ein Ton oder ein Lied in der
Praxis aufgebaut ist. Wir möchten in diesem Kapitel erforschen, wie man von einer Sinuswelle zu einem
erkennbaren Ton eines Instrumentes und schlussendlich zu einem ganzen Musikstück kommt.
VORBEREITUNG
Um die Töne zu erforschen, haben wir uns entschieden, mit den uns zur Verfügung stehenden Instrumenten
(Akustik Gitarre, E-Gitarre, Piano, Blockflöte) zu arbeiten. Mit diesen können wir einen Klang erzeugen, den wir
anschliessend analysieren. Wir möchten herausfinden, was den Klang eines Instrumentes ausmacht.
Um die Instrumente zu vergleichen, benötigen wir von jedem eine Klangprobe. Wir wählten für unseren Versuch
folgende Töne und Akkorde aus:
Abb. 31: Zusammenstellung Tonaufnahmen (in Notenschrift und Gitarrentabulatur)
A-Einzelton:
A aus dem Grund, da dieser in der Musik als Kammerton definiert ist
A-Oktave:
Umfasst 12 Halbtonschritte. Oberton hat doppelte Frequenz des Grundtons
A-Dur:
Akkord, Besteht aus Grundton, Terz und Quint zu Grundton (A, Cis, E)
F#m7b5:
Akkord, (7. Stufe (Lokrisch) einer G-Dur Tonleiter)
So haben wir eine ausreichende Sammlung an Klängen, welche wir für unsere Analyse auswählen können.
Weiter benötigen wir einen Computer, ein Mikrofon und ein Bearbeitungsprogramm. Herr Kamber hat uns ein
Gerät mit Mikro ausgeliehen. Mit diesem ist es möglich ein Ton aufzunehmen und mit dazugehöriger Software
zu analysieren, das heisst den Ton in seine Frequenzanteile zu zerlegen (Fourieranalyse). Danach werden wir die
Ergebnisse untersuchen und kommentieren. Somit sind unsere Vorbereitungen abgeschlossen und wir sind
bereit für unsere Aufnahmen.
Januar 2008
44
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
AUFNAHMEN
Erste Tests mit Herrn Kambers Gerät sahen vielversprechend aus.
Es handelt sich hierbei um eine Schnittstelle der Firma Vernier, an
welcher diverse Sensoren angeschlossen werden können. Die
gewonnen Daten lassen sich mit der einfach zu bedienenden
Software LoggerPro 3 verarbeiten.
Einziger Nachteil: Der Ton kann nicht wieder abgespielt werden.
ERSTER RÜCKSCHLAG
Die ersten Aufnahmen verliefen ohne Probleme. Doch dann, es
kam wie es kommen musste, konnten wir plötzlich keine sauberen
Ergebnisse mehr erzielen. Die Sinuswellen kamen nunmehr als
Zickzacklinien. Bei eingehender Betrachtung der gespeicherten
Resultate kann man erkennen, dass plötzlich die gesammelten
Datenreihen viel zu kleine Werte aufzeigen: Anstatt zwischen -0.05
und +0.05 variiert der Offset pressure (Schalldruck bei Schwingung
eines Tones) nurnoch zwischen -0.001 und +0.001. Es scheint, als
sei die Lautstärke der Instrumente zurückgeschraubt worden, was
ja nicht sein kann. Auch wirklich laute Klänge der E-Gitarre
konnten nicht mehr richtig analysiert werden. Der Fehler lag
entweder am Mikrofon oder an der Software. Denn unsere
diversen Aufnahmen erfolgten ohne Veränderung der
Rahmenbedingungen.
Abb. 32: Furrieranalyse eines A-Tons mit Piano.
Oben: Diagramm mit Schwingungsverlauf des
Klanges; Unten: Amplitude pro Frequenz
Neukalibrieren des Mikrofons und auch eine Neuinstallation
Abb. 33: Ergebnisse mit den Komplikationen
brachten nicht die gewünschten Verbesserungen. Unter diesen
Umständen waren wir gezwungen das Experiment zu unterbrechen
und einen anderen Weg zu suchen, die Instrumentalklänge zu analysieren.
Nach diversen Downloads von Musik-Bearbeitungsprogrammen haben wir eine Lösung gefunden. Das Adobe
Audition 1.5 (früher „Cool Edit 2000“, welches als Freeware zu erhalten ist). Dieses Programm ist ein AudioEditor und unterstützt alle gängigen Formate. Nebst Störgeräuschverminderung und vielen Exportmöglichkeiten
ist hier auch eine Echtzeit- Fourieranalyse möglich. Als Mikrofon verwendeten wir einen „Creative MP3-Player“8,
da dieser sehr klare und naturgetreue Aufnahmen erstellt. Die nach Abbildung 31 gewählten Testreihen
behielten wir bei. Jeder Ton oder Akkord soll mehrere Male angespielt werden um einen optimalen Klang zu
garantieren. Ebenso spielten wir mit jedem Instrument ein bekanntes Musikstück an, um ein Klangbeispiel zu
erstellen.
Die nun erstellten Instrumentaufnahmen erfüllen unsere Anforderungen und so steht einer Analyse nichts mehr
im Wege.
8
Creative ZEN Vision:M Multimediaplayer mit 30 GB Speicherplatz
Januar 2008
45
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ANALYSE
Vor dem Analysieren haben wir uns gefragt, was nötig ist, um möglichst einfach möglichst viel untersuchen zu
können und so auch aussagekräftige Schlussfolgerungen zu machen. Wir haben uns für folgende
Vorgehensweise entschieden:
1. Erzeugen eines synthetischen Tons (A, 440Hz) mit dem Programm9 und erstellen der Frequenzanalyse
als Vergleichsbasis
2. Unterschiede zum Gitarrenklang untersuchen.
3. Gitarrenklang mit einem Akkord untersuchen.
4. Vergleichen der A-Dur Akkorde der verschiedenen Instrumente. Unterschiede aufzeigen und ergründen.
5. Einbezug der Menschlichen Stimme
6. Ausweitung auf ein Musikstück
Im Anhang ist übrigens eine ausklappbare Tabelle der Frequenzen im Bezug zu die jeweiligen Notennamen zu
finden
ERZEUGUNG UND ANALYSE EINES A-TONS UND WAS IST EIN DEZIBEL?
Als erstes gilt es einen Ton zu erzeugen. Mit dem Programm ist dies einfach zu bewerkstelligen. Es kann die
Dauer, Frequenz und Lautstärke eingestellt werden. Durch einen Datenexport (Schalldruck) lässt sich die
Schwingung im Excel darstellen. Diese einfache Sinuskurve mit einer Frequenz von 440 Hertz ist in Abb. 34
ersichtlich. [Sound 15]
Abb. 34: Schwingung eines Computergenerierten A-Tons
Im Programm wird die Lautstärke (Schalldruckpegel) als Dezibel [dB] angegeben. Diese Einheit beschreibt das
logarithmierte Verhältnis des quadrierten Effektivwertes des Schalldrucks (Formelzeichen 𝑝̃ mit der Einheit Pa
für Pascal) eines Schallereignisses zum Quadrat eines Bezugswerts p0 (Luftschall-Bezugswert bei 20 µPa
festgelegt).10
𝐿𝑝 = 10 log10 (
𝑝̃2
𝑝̃
) 𝑑𝐵 = 20 log10 ( ) 𝑑𝐵
2
𝑝0
𝑝0
Als Effektivwert 𝑝̃ des Schalldrucks wird der Ausschlag der Schallschwingung genommen. Der Schalldruckpegel
ist eine logarithmische Darstellung dieses Ausschlags. Einerseits sind so kleine Ausschläge im Vergleich zu den
Grossen besser ersichtlich, anderseits entspricht diese Skala auch vielmehr unserer Wahrnehmung.
9
Mit Programm ist jeweils das Adobe Audition 1.5 gemeint
Definition Wikipedia 2007 über die Einheit (Dezi)Bel
10
Januar 2008
46
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Als Beispiel: In Abbildung 35.1 und 35.2 eine Schematische Darstellung von leisem Flüstern, gefolgt von einem
Feuerwerkskörper. Beim effektiven Schalldruck (Vorzeichen und Einheiten wurden zur Vereinfachung
weggelassen) ist das Geflüster in der Abb. 35.1 kaum erkennbar, in der Realität können wir Geflüster dennoch
sehr genau wahrnehmen. Einen Feuerwerkskörper empfinden wir jedoch nicht im gleichen Masse lauter wie es
der Schalldruck ist. Ob jetzt ein Feuerwerkskörper explodiert oder ein Düsenflugzeug startet empfinden wir
beides als laut und differenzieren hier nicht mehr so stark. Unsere Wahrnehmung entspricht also eher dem
logarithmischen Schalldruckpegel.
Schalldruck [Pa]
Pa
Dezibel
Schalldruckpegel [dB]
Zeit t
Zeit t
Abb. 35.1: Lineare Darstellung; Schalldruck
Abb.35.2: Logarithmische Darstellung; Schalldruckpegel
Zurück zum Programm. Hier wird die Lautstärke von 0dB abwärts angegeben. Referenzierte Geräte können zwar
die effektive Lautstärke eines Geräuschs bestimmen, doch ein Computer erhält die Signale über ein Mikrofon. Je
nach Mikrofon, Soundkarte und Einstellungen wird ein Schalldruck verschieden laut interpretiert. Hier macht es
also Sinn eine andere Skala zu verwenden. Es kann aber auch hier die Einheit Dezibel benützt werden, es wird
einfach ein anderer Bezugswert gewählt. 0dB entsprechen einem maximalen Schalldruck. Wir definieren diesen
zur besser Verständlichkeit auf 111. Alles darüber überschlägt (Die Schalldruck-Aufnahmen des Mikros sollten
sich also zwischen 0 und maximal (-)1 bewegen). Je kleiner der Ausschlag der Schwingung, umso kleiner der
Schalldruck, umso negativer der Schalldruckpegel (Logarithmisch eben; -20dB entsprechen einem Schalldruck
von 0.1). Soviel zu diesen, für die Analyse wichtigen Begriffen.
Abb. 36: Oberfläche von Adobe Audition
11
Hier kann die Einheit weggelassen werden, da es sich hier um einen relativen, hypothetischen Wert handelt.
Januar 2008
47
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
FREQUENZANALYSE SYNTHETISCHER A-TON
Da wir die Tonaufnahmen in unserem Programm analysieren, müssen wir von Dezibel ausgehen. Die
Fourieranalyse des synthetisch erzeugten Tones ist in der Abbildung 37 ersichtlich. Wie man aus dem Diagramm
entnehmen kann, steigen ganz Links bei 440.00 Hz (Adobe Audition gibt genauen Wert an) die Dezibelwerte an.
Dezibel
22,000
21,000
20,000
19,000
18,000
17,000
16,000
14,000
13,000
12,000
11,000
10,000
9,000
8,000
7,000
6,000
5,000
4,000
3,000
2,000
1,000
0
-20
-40
-60
-80
-100
-120
-140
-160
0
Frequenzanalyse in Dezibel
Frequenz in Hz
Abb. 37: Ergebnis der Fourieranalyse eines Synthetisch erzeugten A-Tones von 440 Hertz.
Weiter können wir erkennen, dass über die ganze Breite der Frequenzen ein Rauschen von etwa -120 Dezibel
besteht. Dies entsteht höchstwahrscheinlich durch die Analysepunkte im Programm. Die Schwingung wird durch
diese vielen Punkte, welche miteinander über eine Linie verbunden sind, zusammengesetzt. Es ist also keine
eigentliche Sinuskurve. So liegt nahe, dass durch die Analyse ein Rauschen entstehen kann. Doch wir dürfen
nicht vergessen, dass -120 Dezibel einem Millionstel vom Schalldruck-Maximum 1 entsprechen. Möchten wir die
Hauptfrequenzen bestimmen, ist es also von Vorteil die Exportwerte auch mit dem Schalldruck, als nur dem
Schalldruckpegel, darzustellen (siehe Abb. 38). Hier haben wir zusätzlich noch den Frequenzbereich
eingeschränkt. So lassen sich die wichtigen Ausschläge optisch besser darstellen.
2,000
1,800
1,600
1,400
1,200
1,000
800
600
400
200
0
Schalldruck
Frequenzanalyse mit Schalldruck
Frequenz in Hz
Abb. 38: Frequenzanalyse eines synthetischen A-Tons von 440 Hz, Darstellung des Schalldruckes
Januar 2008
48
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Hier ist klar ersichtlich, dass die Frequenz von 440 Hz überwiegt. Entstanden ist diese Grafik über die Zahlen aus
dem vorangehenden Diagramm. Die Deziebelwerte wurden folgendermassen verrechnet (Formel zur Errechnung
des Schalldruckpegels nach 𝑝̃ umgestellt und 𝑝0 als 1 definiert:
𝐿𝑝
( )
20
𝑝̃ = 10
| 𝑝0 = 1
Als Anmerkung; Excel kann, bedingt durch die vielen Werte, die Beschriftung nicht genau darstellen. Im
Programm und auch im Excel ist die Frequenz jedoch ablesbar.
Diese Analysen bilden nun unser Fundament für weitere Vergleiche, zudem konnten wir so gleich erklären wie
wir unsere Analysen im Detail gestalten werden.
KLANGERZEUGUNG MIT GITARRE
Bevor wir uns der weiteren Analyse einer Gitarre widmen möchten wir kurz erläutern, wie bei einer Gitarre ein
Klang entsteht. Durch anspielen der Saite wird diese in Schwingung versetzt.
Allerdings schwingt die Saite nicht nur in der Stimmlage, in
welcher sie gestimmt ist, sondern auch immer in einem
vielfachen der Grundschwingung. (Abb. 39) Diese werden
Obertöne genannt.
Schwingt die Saite doppelt so schnell wie der Grundton, haben
wir eine Oktave (A-a), schwingt sie dreimal schnell, ergibt das
eine Oktave plus eine Quinte. (A-E). Somit sehen wir auch, dass
von einer Saite kein reiner Ton entstehen kann.
Abb. 39: Schwingende Saite
Spielt man mit einer Gitarre, bemerkt man bald einmal, dass
Musik eigentlich nichts anderes als Mathematik ist. Halbiert man
die schwingungsfähige Strecke (Der 12. Bund ist genau in der Mitte) so erhält man die Oktave der
freischwingenden Saite. Experimentiert man mit ganzzahligen Teilen erkennt man bald einmal den Ansatz einer
Durtonleiter und andere interessante Begebenheiten. Doch diese zu hier zu erklären würde bei weitem den
Rahmen sprengen, da die ganze Musiktheorie erläutert werden müsste.
Konzentrieren wir uns also auf die Klangentstehung. Wie bereits weiter oben erläutert ist eine Saite allein kaum
hörbar. Es benötigt eine Verstärkung. Akustische Gitarren bedienen sich hier einem Hohlkörper welcher als
Resonanzkasten dient. Der Schall wird mehrere Male reflektiert und so verstärkt. Bei einer Elektrischen Gitarre
werden die Saitenschwingungen über Magnetspulen in elektrische Spannung umgewandelt. Diese kann dann mit
einem Verstärker wiedergegeben oder auch mit einem Computer aufgezeichnet werden.
Januar 2008
49
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ANALYSE EINER E-GITARRE (CLEAN)
In diesem Kapitel untersuchen wir den Klang einer unverzerrten E-Gitarre, um zu sehen wie der Klang effektiv
zusammengesetzt ist und ob unsere Theorie stimmt.
Als erstes gleich ein Klangbeispiel der unverzerrten E-Gitarre. [Sound 16] Um den direkten Vergleich mit
unserem vorangehenden A-Ton zu erstellen, nehmen wir als erstes den untersten A-Ton meiner Ibanez S470. Es
folgt die Schalldruckkurve: [Sound 17]
Abb. 40: Schwingung A-Ton, Gitarre clean
Es zeigt sich, obwohl nur ein Ton angespielt wird, dass dennoch mehrere Frequenzen auftauchen müssen. In
dieser Schwingung erkennen wir die einfache Sinuskurve bereits nur noch mit viel Fantasie. Ziehen wir also eine
Frequenzanalyse zur Hilfe. (Abb. 41) Die Frequenzen 109.85 und jeweils ein Vielfaches davon sind besonders
ausgeprägt. 110, respektive 220 Hertz entsprechen einem A. (Tiefstes A einer Gitarre sollte 110 Hz entsprechen)
Interessanterweise haben wir bei 330 Hertz die stärkste Amplitude, einem E.(Quinte) Die Obertöne sind also
zum Zeitpunkt unserer Analyse stärker ausgeprägt, als der Grundton. Weiter sind folgende Töne zu erkennen: A,
Cis, H(was übrigens alles Töne einer Dur-Tonleiter sind) und 770 Hz = ~G. Um 2‘000 Hertz wiederholt sich dieses
Bild. Unsere Theorie vom vorangehenden Kapitel bestätigt sich. Erstaunlich finden wir, dass keine A-Töne die
grösste Amplitude aufweisen. Abweichungen von den genauen Hertz-werten können entstehen, weil ein
Instrument nicht genau gestimmt ist, oder aber durch die leichte Dehnung der Saite bei der Schwingung selbst.
Peaks:
110 Hz = A
220 Hz = A
330 Hz = E
440 Hz = A
550 Hz = C#
660 Hz = E
770 Hz = G
880 Hz = A
990 Hz = H
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Frequenzanalyse mit Schalldruck
Frequenz in Hz
Abb. 41: Frequenzanalyse A-Ton, Gitarre clean
Um das Ganze Frequenzspektrum der Gitarre aufzuzeigen, folgt die Frequenzanalyse in Dezibel.
Januar 2008
50
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
-20
Dezibel
-40
-60
-80
-100
-120
-140
Frequenz in Hz
Abb. 42: Frequenzanalyse A-Ton, Gitarre clean
Wir sehen, dass die Gitarre vor allem in einem Frequenzbereich von 0 bis 3‘000 Hertz Töne erzeugt. Bei etwa
7‘500 Hertz weist das Diagramm ebenfalls eine Steigerung auf. (Siehe Abb. 43) Die Quelle dieses Klanges ist
jedoch die Lüftung des Computers, welcher während den ganzen Aufnahmen eingeschaltet war. Ein weiteres
„Störsignal“ tritt um 0 Hertz auf. Da dies bei allen Analysen und während der Ganzen Aufnahme der Fall ist, muss
dieses Signal den Ursprung am Mikrofon, am Programm oder in den tiefen der mathematischen Formel der
Fourieranalyse haben. Ich denke, dass eine unendlich kleine Frequenz fast wie eine Linie wirkt, d. h. man
beinahe nicht mehr von einer Schwingung sprechen kann. Diese „Nullschwingung“ hat keinerlei Einfluss auf die
Tonhöhen. Da die Fourieranalyse jetzt rückwärts rechnet, kann diese Nullschwingung bereits bei kleinsten
Schalldruckschwankungen als vorhanden angesehen werden.
Erwähnenswert ist ebenfalls, dass sich die Stärke der Ausbildung der einzelnen Frequenzen während eines
Klanges verändert. Am Anfang haben wir ein Geräusch welches vom Abschlagen der Saite entstanden ist, dann
folgt der Klang welcher mit zunehmender Zeit abflachend abnimmt. Unser Beispiel, welches ja nur einen
Bruchteil des Klanges analysiert, sollte weitgehender hinterfragt werden, um ganz genaue Aussagen betreffend
der einzelnen Frequenzen und ihren Auswirkungen zu machen.
Dezibel
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
-50
-100
-150
Frequenz in Hz
Abb. 43: Frequenzanalyse während einer Aufnahme, jedoch ohne anspielen eines Instrumentes.
So weiten wir unsere Analysen etwas weiter aus. Der A-Dur Akkord erscheint uns am geeignetsten um ein
schönes Bild des Klanges einer Gitarre zu erhalten. [Sound 18]
Januar 2008
51
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Zu Beginn wieder die Schalldruckkurve:
Abb. 44: Schwingung A-Dur Akkord, Gitarre clean
Man erkennt sofort einen viel unruhigeren Verlauf der Schwingung. Die Periodizität (Orange eingeklammert) ist
nicht mehr so einfach auszumachen. Werfen wir einen Blick auf die Frequenzanalyse (Abb. 34), so sehen wir,
dass ein Akkord einige weitere Frequenzen beinhaltet.
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Frequenzanalyse mit Schalldruck
Peaks:
110 Hz = A
166 Hz = E
220 Hz = A
277 Hz = C#
330 Hz = E
496 Hz = H
556 Hz = C#
662 Hz = E
880 Hz = A
1‘390 Hz = F
1‘671 Hz = G#
2‘218 Hz = C#
3‘950 Hz = H
Frequenz in Hz
Abb. 45: Frequenzanalyse A-Dur Akkord, Gitarre clean
Angespielt werden bei diesem Akkord nur 2 x A, 2 x E und ein H. Wir bemerken, dass, obwohl mehr Töne
angespielt werden effektiv kaum mehr Töne entstehen. Zudem entsprechen alle, ausser dem F einer A-Dur12
Tonleiter. Das zeigt, dass eine Saite in Dur schwingt. Vielleicht erscheint uns deshalb Dur als natürlich und
harmonisch. Unsere Folgerung wäre, dass die Durtonleiter genau aus diesem Grund entstanden ist, weil eben
die Frequenzen jeweils einem Vielfachen entsprechen, und deshalb als besonders harmonisch empfunden
werden.
12
A-Dur: A ; H ; C# ; D ; E ; F# ; G# ; A
Januar 2008
52
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
Dezibel
-20
-40
-60
-80
-100
-120
Frequenz in Hz
Abb. 46: Frequenzanalyse A-Dur Akkord, Gitarre clean
Die Frequenzanalyse in Dezibel ist analog dem Diagramm aus Abbildung 42. Hier haben wir einzig bei den tiefen
Frequenzen bereits schon die E- und C#- Schwingung, welche bei einem einzelnen A-Ton erst durch die Obertöne
entstehen.
Januar 2008
53
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
VERZERRTE UND AKKUSTISCHE GITARRE
Was uns weiter interessiert, ist, was denn eine akustische von einer elektrischen Gitarre unterscheidet.
Als erstes wieder die Klangbeispiele und A-Dur Akkorde der akustischen [Sound 19/20]und der verzerrten
elektrischen [Sound 21/22] Gitarre.
Es folgen sogleich die Schalldruckkurven:
Abb. 47 Schwingung A-Dur, Gitarre akustisch
Abb. 48: Schwingung A-Dur, Gitarre verzerrt
Die Diagramme zeigen klar , welche die verzerrte Gitarre ist. Bei der Verzerrung wird der Klang künstlich
übersteuert, das heisst er würde, zum Beispiel in unserem Programm, über einen Schalldruck von 1 gesteuert
werden. Dies ergibt diesen „crunchigen“ E-Gitarren-Sound. Ziehen wir die Frequenzanalysen in der SchalldruckDarstellung zu Hilfe, sehen wir einerseits, dass die akustische nur bis etwa 1‘000 Hertz klare Obertöne besitzt,
was sicherlich auf die weicheren Saiten und die akustische Verstärkung zurückzuführen ist. Diese Gitarre besitzt
zu wenig „Energie“ um alle Obertöne verstärkt wiederzugeben. Meine elektrische Ibanez hingegen erzeugt
hörbare Schwingungen bis 6‘000 Hertz. Andererseits ist die Verzerrung in Abb. 49 deutlich sichtbar. In den
tiefsten Frequenzen und um 2000 Herzt macht sich diese deutlich bemerkbar. Interessant ist, dass wir trotzdem
noch eruieren können, um was für einen Ton oder Akkord es sich handelt. Wir haben unsere Aufnahme des
F#m7b5 Akkordes mit der Fourieranalyse zerlegt und Philipp konnte, obwohl er nicht wusste, was ich gespielt
hatte, so ganz einfach eruieren um welchen Akkord es sich handelt.
Auf den Diagrammen mit den Dezibelwerten ist ebenfalls deutlich sichtbar, dass die E-Gitarre ein breiteres
Spektrum besitzt. Bei Abb. 50 verlieren sich die Schwingungen schon nach einigen Obertönen, wogegen bei Abb.
51 die Oberschwingungen zwar abnehmend, aber auch bei höheren Frequenzen immer noch alle Töne klar
dargestellt werden.
Zudem nimmt der Klang der akustischen Gitarre sehr schnell ab, der der E-Gitarre klingt sehr lange. Hat man
seine Gitarre zu fest verzerrt, verschwimmen allerdings nach einigen Sekunden die Töne und es kann bis zur
Rückkopplung führen. Dabei nehmen die Pickups der Gitarre die Geräusche des Verstärkers auf, und geben diese
sogleich wieder. Es führt zu dem Bekannten pfeifen, welches aber durchaus gewollt sein kann.
Januar 2008
54
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Frequenzanalyse mit Schalldruck
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Peaks:
110 Hz = A
166 Hz = E
220 Hz = A
277 Hz = C#
330 Hz = E
556 Hz = C#
662 Hz = E
Frequenz in Hz
Abb. 49: Frequenzanalyse A-Dur, Gitarre akustisch
Peaks:
166 Hz = E
220 Hz = A
277 Hz = C#
330 Hz = E
440 Hz = A
496 Hz = H
556 Hz = C#
662 Hz = E
880 Hz = A
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Frequenzanalyse mit Schalldruck
Frequenz in Hz
Abb. 50: Frequenzanalyse A-Dur, Gitarre verzerrt
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
-20
Dezibel
-40
-60
-80
-100
-120
-140
Frequenz in Hz
Abb. 51: Frequenzanalyse A-Dur, Gitarre akustisch
Januar 2008
55
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
Dezibel
-20
-40
-60
-80
-100
-120
Frequenz in Hz
Abb. 52: Frequenzanalyse A-Dur, Gitarre verzerrt
Ich denke, für unsere IDPA reichen diese Analysen erst einmal aus um ein grobes Bild zu den Frequenzen einer
Gitarre zu erhalten. Wir haben gelernt, dass sich Klänge in der Realität laufend verändern. Bereits hier zeit sich,
dass hinter einem Klang mehr steckt als nur die Grundfrequenz und ein paar Obertöne. Zudem ist die
Klangerzeugung bei einer Gitarre mit vielen Geräuschen (Anspielen, Abdämpfen, Rutschen der Finger ect.)
„gestört“, aber auch die Saite an sich erzeugt nicht einfach einen Grundton. Diese Begebenheiten
charakterisieren eine Gitarre. Zudem „wissen“ wir jetzt, warum in unserer westlichen Musik meistens Dur
verwendet wird.
Januar 2008
56
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
EINBEZUG PIANO
Kommen wir nun zu einem Klavier oder Piano in unserem Fall. Hier muss allerdings angemerkt werden, dass es
sich hierbei um künstliche Klangerzeugung handelt. Anstatt die Saiten mit den Tasten anzuspielen werden die
Klänge generiert. Obwohl wir wissen, dass dies bei der Gitarre ziemlich kompliziert ist, bemerkt man bei
Klavieren den Unterschied kaum mehr. Um die Klänge grundlegend Analysieren zu können sollte dieses Piano
ausreichen.
Wie gewohnt folgt das Klangbeispiel, an welchem ich zugegebenermassen am meisten geübt habe. [Sound 23]
Sogleich folgt die Schalldruckkurve eines A-Dur Akkordes [Sound 24]:
Abb. 53: Schwingung A-Dur, Piano
Es müssen doch einige Frequenzen vorhanden sein. Die Schwingung zeigt einen klaren und runden Verlauf. Die
Frequenzanalyse weist im Gegensatz zu einem A-Dur einer Gitarre deutlich weniger Frequenzen auf. Ob dies
jetzt aufgrund des Computergenerierten Klanges ist, ist fraglich. Was wir jedoch mit Sicherheit sagen können, ist
dass ein Piano stärkere Amplituden im Bereich von ca. 800 bis 1500 Hertz aufweist. Die Höchsten Ausschläge
zeigen wiederum nur Töne der A-Dur Tonleiter, wobei erst bei den Höheren Frequenzen die ergänzenden Töne
entstehen.
Peaks:
220 Hz = A
330 Hz = E
440 Hz = A
662 Hz = E
880 Hz = A
990 Hz = H
1108 Hz = C#
1318 Hz = E
1660 Hz = G#
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Frequenzanalyse mit Schalldruck
Frequenz in Hz
Abb. 54. Frequenzanalyse eines A-Dur, Piano
Januar 2008
57
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
Beim Piano werden also zu Beginn nur Töne der Effektiven Anschlagstöne generiert. Erst später weitet sich das
Spektrum. Ein ergänzender Blick auf die Dezibelwerte zeigt, dass das Piano einzelne klare Töne generiert.
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
-20
Dezibel
-40
-60
-80
-100
-120
-140
Frequenz in Hz
Abb. 55: Frequenzanalyse eines A-Dur, Piano
Der Unterscheid zu diesen doch verschieden Instrumenten zeigt, dass obwohl die Frequenzanalysen ähnlich sind,
es wohl die Ausprägung der einzelnen Tönen sind, welche ein Instrument charakterisieren, was ja mit den im
Kapitel zu den Grundlagen auch belegt ist.
Januar 2008
58
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DIE FLÖTE
Als letztes Instrument untersuchen wir eine Blockflöte. Klangbeispiel: [Sound 25]
Nach unseren Erfahrungen sollte dieses Instrument nur einige wenige Frequenzen aufweisen, da die Flöte doch
sehr einfach und monoton klingt. Laut Wikipedia entsteht der Klang dadurch, dass ein Luftstrom über eine Kante
geführt wird, an der er in Schwingung gerät. Durch Bedienung der Tonlöcher wird eine bestimmte Länge der
schwingungsfähigen Luftsäule gewählt. Die Schwingung stellt sich dann durch Resonanz mit der Luftsäule auf die
gewünschte Tonhöhe ein. Der tiefste Ton ergibt sich, wenn alle Tonlöcher geschlossen sind, die Luftsäule also die
Länge des gesamten Instruments hat. Auch bei einer Flöte entstehen Obertöne. Die Klangfarbe hängt unter
anderem vom Material, Oberfläche, Bauform und dem Anblasen des Instrumentes ab. Soviel zur Theorie.
Wollen wir nun einen Blick auf den Schwingungsverlauf eines A-Tons werfen [Sound 26] werfen:
Abb. 56: Schwingung A-Ton, Blockflöte
Es zeigt klar, hier haben wir Sinusähnliche Schwingungen und der Blick auf die Frequenzanalysen bestätigt uns
dies.
Frequenzanalyse mit Schalldruck
0
100
200
300
400
500
600
700
800
900
1,000
1,100
1,200
1,300
1,400
1,500
1,600
1,700
1,800
1,900
2,000
2,100
2,200
2,300
2,400
2,500
2,600
2,700
2,800
2,900
3,000
Schalldruck
Peaks:
880 Hz = A
1760 Hz = A
2640 Hz = E
4440 Hz = C#
Frequenz in Hz
Abb. 57: Frequenzanalyse A-Ton, Blockflöte
Gestützt auf dieses und vorangehende Diagramme kann man sagen, dass tendenziell zuerst Quinten (A-E) und
Terzen (A-C#) zum Grundton entstehen. Wir erhalten einen harmonischen Dreiklang, was meistens einem DurAkkord entspricht. Darauffolgend können Töne der Pentatonischen und dann der Dur-Tonleiter entstehen. Auch
Geschichtlich Betrachtet ergibt dies Sinn. Die Westliche Musik entstand nach und nach und beinhaltete früher
die vereinfachte Pentatonik (Fünftonleiter; A, H, C#, E, F#, A) welche später zur Dur-Tonleiter als Grundlage
Januar 2008
59
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
diente. Weil Klänge bei einer Saite, oder wo auch immer Schwingungen auftreten, natürliche Obertöne
enthalten wurden diese zur Basis unserer Musik. Wir finden das absolut interessant, dass wir mit diesen doch
recht einfachen Analysen genau das bewiesen haben.
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
-20
Dezibel
-40
-60
-80
-100
-120
-140
Frequenz in Hz
Abb. 58: Frequenzanalyse A-Ton, Blockflöte
Auf der Daten-CD ist noch ein interessantes Video zu finden, welches das Lied „Alle meine Entchen“ mit einer
Echtzeit-Frequenzanalyse zeigt.
Januar 2008
60
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
MENSCHLICHE STIMME
Zu einem Musikstück gehört neben Instrumenten auch noch der Gesang. Wie verhält es sich den mit der
Menschlichen Stimme? Bei den Recherchen erkennt man bald, das die Menschliche Stimme physikalisch
betrachtet sehr komplex ist. Mit den Stimmbändern generieren wir Geräusche und auch Töne. Trainieren wir
unsere Stimme, sind wir im Stande sehr klare starke Frequenzen zu erzeugen, was in einem vollen, leicht
schwingendem Klang resultiert. (z.B. Obernsänger) Die Frequenzanalyse Christophs Stimme zeigt uns die
Komplexität der Stimme auf.
8,000
7,500
7,000
6,500
6,000
5,500
5,000
4,500
4,000
3,500
3,000
2,500
2,000
1,500
1,000
500
0
0
Frequenzanalyse in Dezibel
Dezibel
-20
-40
-60
-80
-100
-120
Frequenz in Hz
Abb. 59: Frequenzanalyse menschliche Stimme, Christoph
Somit sind wir am Ende unserer Analysen.
AUSWEITUNG AUF MUSIKSTÜCK
Bei einem ganzen Musikstück werden nun die einzelnen Komponenten zusammengefügt. Diese Schallwellen
können übrigens im Windows Mediaplayer dargestellt werden. Einfach ein gewünschtes Lied abspielen, und in
der Registerkarte Aktuelle Wiedergabe mit Rechtsklick unter Streifen und Wellen die Anzeige auf Graph
umstellen. Obwohl das teilwiese eine völlig willkürlich erscheinende Schwingungskurve ergibt, ist der Mensch
imstande die Klänge wahrzunehmen und zu interpretieren. Auch können wir einzelne Instrumente oder Töne
heraushören. Im Grunde sind alles nur verschieden überlagerte Sinuswellen welche sich mit fortlaufender Zeit
stetig verändern. Da unser Gehör extrem auf Sinusförmige Wellen reagiert ist es fähig aus der Schallwelle
Frequenzen herauszufiltern und diese ans Gehirn zu übermitteln. Wir sind im weitesten Sinne eine
Fourieranalyse auf Beinen. Zu verstehen, wie dieser Vorgang im Detail funktioniert, wäre wohl etwas zu viel für
unsere Projektarbeit. Wir sind aber mehr als zufrieden mit unseren Ergebnissen.
Januar 2008
61
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
FAZIT
Unser Ziel war es, zu erfahren wie die Schwingungen in einem Musikstück entstehen und aufgebaut sind. Wir
haben einiges herausgefunden und sind überrascht, wie gut dies mit vertrauenswürdigen Quellen wie Wikipedia
übereinstimmt. Es ist teilweise auch etwas deprimierend auf einen Klick unsere Ergebnisse im Internet zu finden.
Als Zusammenfassung, was eine Instrument oder Klang charakterisiert, können wir fast eins zu eins von der
schon erwähnten Internetplattform kopieren:
Der spezifische Klang eines Instrumentes ergibt sich aus den folgenden Parametern:




Welche Teiltöne überhaupt vorhanden sind (1., 2., 3., 5., 9., usw.)
Wie laut diese Teiltöne im Verhältnis zueinander sind – Der erste muss nicht der lauteste sein.
Wie sich die Lautstärke der einzelnen Teiltöne ändert, während der Ton erklingt (Feinmodulation)
Welche Nebengeräusche hinzukommen (Anschlaggeräusche, Blasgeräusche usw.)
Neben diesen Erfahrungen sind wir auch auf diverse andere Dinge gestossen, wie die Einheit Dezibel,
Klangerzeugung bei Gitarren und Saiten oder aber diese Begebenheit der in Dur Schwingenden Saite.
Abschliessend kann man sagen, wir verstehen wie Musik aufgebaut ist, und somit sind wir in der Lage die
technische Digitalisierung zu begreifen und was alles dahinter steckt.
Januar 2008
62
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
DER TECHNISCHE FORTSCHRITT – DIE DIGITALISIERUNG
Mit der Digitalisierung begann eine neue technische Revolution. Die Entwicklung in der Digitalisierung ist aber
noch lange nicht abgeschlossen. In den kommenden Jahrzehnten wird da noch einiges auf uns zukommen. Doch
schon jetzt können wir ein erstes Résumé ziehen; Die Technik der Digitalisierung ist komplex, interessant und
zukunftsweisend. Sind wir also gespannt, was wir noch alles erleben werden.
SCHLUSSWORT
Abschliessend bleibt zu sagen, dass diese Projektarbeit mit Einbezug der Fächern Geschichte und
Mathematik/Physik sehr lehrreich und interessant war. Eindrücklich waren vor allem die Selbstversuche und
Tonaufnahmen.
Es gehört zum guten Ton, Töne zu hören. (Walter Luden)
Es gibt 10 verschiedene Arten von Menschen, die einen verstehen das
Binärsystem, die anderen nicht
Januar 2008
63
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
QUELLENVERZEICHNIS
Kapitel
Verfasser
Quelle
Datum
Geschichte Tonträger
PG
Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1.
Auflage
www.tonaufzeichnung.de
http://www.peo-musik.de/document/6695/die-entstehung-dertonaufzeichnung.html
http://www.radiomuseum.org/forumdata/upload/ACFSNBabb
Wle%2Epdf
http://www.recording-history.org/index.php
http://de.wikipedia.org/wiki/Elektronische_Musik
http://de.wikipedia.org/wiki/Computermusik
http://de.wikipedia.org/wiki/Klangsynthese
http://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interfa
ce
http://de.wikipedia.org/wiki/Gitarre
http://www.unisono.ch
http://www .Gibson.com
http://www .line6.com
Zeitschrift Gitarre&Bass 2005/06 Stromgitarren Special
http://de.wikipedia.org/wiki/Beatles
http://www.stromgitarren.ch/sg_ausstellung.html
http://de.wikipedia.org/wiki/Johnny_Cash
http://de.wikipedia.org/wiki/Rolling_Stones
http://de.wikipedia.org/wiki/Bob_Dyla
http://www.prestige-club.ch/
http://de.wikipedia.org/wiki/Street_Parade
http://de.wikipedia.org/wiki/SUISA
http://www.akustika.ch/gutes_hoeren/wie_hoeren_wir
KLANG – Musik mit den Ohren der Physik von John R. Pierce,
Spektrum Verlag
http://www.et.htwk-leipzig.de
Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1.
Auflage
Digital Audio Technology, edited by Jan Maes and Marc
Vercamemen, Focal Press, Fourth Edition
http://de.wikipedia.org/wiki/digitalisierung
http://de.wikipedia.org/wiki/abtasttheorem
http://de.wikipedia.org/wiki/alias-effekt
Artikel „Signalabtastung“ in Funkamateur, S. 457
http://tastengott.com/index.php?option=com_content&task=vie
w&id=40&Itemid=34
Unterlagegen von David Kamber
http://de.wikipedia.org/wiki/fourier
L. Papula, Mathematik für Ingenieure, Band 2
http://de.wikipedia.org/wiki/klang
1994
Geschichte Computermusik
CH
Geschichte Gitarre
CH
Bedeutung Stromgitarre
CH
Bedeutung Elektromusik
PG/CH
Bedeutung Digitalisierung
Grundlagen Akustik
PG/CH
CH
Digitalisierung
PG
Formate
PG
Fourieranalyse
CH/PG
Klanganalyse
CH/PG
Jan. 2008
Jan. 2008
Dez. 2007
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Sept. 2005
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
Jan. 2008
1999
Jan. 2008
1994
2001
Jan. 2008
Jan. 2008
Jan. 2008
Mai 2005
Jan. 2008
Dez. 2007
Jan. 2008
Jan. 2008
-
Januar 2008
64
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ABBILDUNGSVERZEICHNIS
ABB. 1: PHONOGRAPH MIT STAHLWALZEZE:
ABB. 2: BELL, GRAPHOPHONE:
http://www.tonaufzeichnung.de/
http://www.recording-history.org/HTML/phono_technology3.php
ABB. 3: EDISONS „HOME PHONOGRAPHEN“:
http://de.wikipedia.org/wiki/Bild:Phonograph.jpg#filehistory
ABB. 4: EMIL BERLINER:
http://www.tonaufzeichnung.de/
ABB. 5: GRAMMOPHON "VICTOR V":
http://de.wikipedia.org/wiki/Grammophon
ABB. 6: HIS MASTER’S VOICE, CA. 1928:
ABB. 7: RÖHRENVERSTÄRKER “TRILOGY”:
http://de.wikipedia.org/wiki/Bild:HMVEG962.jpg
http://www.hughes-and-kettner.com/images/products
ABB. 8: LP „SUPER TROUPER“:
http://de.wikipedia.org/wiki/Schallplatte
ABB. 9: PHILIPS EI 3300, CASSETTEN-RECORDER:
http://www.rundfunkmuseum.fuerth.de/german/tour-09.htm
ABB. 10: KRAFTWERK:
http://www.kraftwerk.de
ABB. 11: VIHUELA:
http://de.wikipedia.org/wiki/Gitarre
ABB. 12: „FRYING PAN“:
Gitarre und Bass Zeitschrift
ABB. 13: VARIAX VON LINE 6:
Gitarre und Bass Zeitschrift
ABB. 14: E-GITARRE VON GIBSON ROBOT:
ABB. 15: BEKANNTES BILD DER BEATLES:
http://www.gibson.com
http://www.stevesbeatles.com/cds/album-covers
ABB. 17: PLAKAT DES PRESTIGE-CLUB:
ABB. 24, 26, 27:
http://www.prestige-club.ch
Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1. Auflage 1994
Alle übrigen Bilder sind von uns erstellt oder aufgenommen worden,
Grafiken von Power-Point und Excel 2007
Januar 2008
65
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
ANHÄNGE
FOTODOKUMENTATION AUFNAHMEN
Eine kurze bebilderte Dokumentation der durchgeführten Aufnahmen
FREQUENZTABELLE ZUM AUSKLAPPEN
Die Tabelle zur Klanganalyse
CRIMSON TIDE –NOTENTABULATUR
Gitarren-Noten des Liedes, mit welchem wir den Vergleich angestellt haben
AUDIO-CD MIT SOUNDS
Für den CD-Player – Das interaktive Lese-Erlebnis
01.
02.
03.
04.
05.
06.
07.
08.
09.
10.
11.
12.
G.F. Handel - Israel in Egypt
Bohumir Kryl - Carnival of Venice
Enrico Caruso - O Sole Mio
Louis Armstrong - West End Blues
Redzipet, Genève - La Coupe Suisse (UraniaYoung Boys)
Hawgood - Remembering The Way Things
Used To Be
Kraftwerk – Autobahn
AC-DC - Highway To Hell
Status Quo - What Your´re Proposin
GP4 - Crimson-Tide
Nightwish - Crimson Tide Deep Blue Sea
GP5 - Crimson-Tide
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
Hager - Crimson-Tide
Bob Sinclar - Rock this party
Syntetisch – A
Gitarre Clean – Sweet home Alabama
Gitarre Clean – A
Gitarre Clean - A-Dur
Akkustik – Love her
Akkustik - A-Dur
Gitarre-Verzerrt - Hey-tonight
Gitarre-Verzerrt - A-Dur
Piano – My heart will go on
Piano - A-Dur
Blockflöte - Alle meine Entchen
Blockflöte - A
DATEN-CD
CD mit digitalen Daten von:





Projektarbeit im PDF Format und Word 2007
Bilder der Aufnahmen und Inhalten der IDPA
Sounds der Audio CD
Ergänzende Videos
Rohdaten
Januar 2008
66
Interdisziplinäre Projektarbeit der BMS Bern
Vom Slide zum Scratch
EIDESSTATTLICHE ERKLÄRUNG
Hiermit erklären wir, die vorliegende Arbeit selbstständig und unter Angabe aller benötigten Quellen verfasst zu
haben.
Ort und Datum
Christoph Philipp Hager
Ort und Datum
Philipp Gerber
Januar 2008
67
Herunterladen