TITELBLATT Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Impressum Themengebiet: Musik-Digitalisierung IDPA – Januar 2008 „Vom Slide zum Scratch“ Dokumentation Betreut von T. Wiedenmayer Und D. Kamber GIBB Bern Version 2.8 Gedruckt: Januar 2008 Philipp Gerber, bmsR8a Bahnhofstrasse 1 3432 Lützelflüh-Goldbach [email protected] Christoph Philipp Hager, bmsR8a Amselweg 5B 3627 Heimberg [email protected] Januar 2008 2 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ABSTRACT Diese interdisziplinäre Projektarbeit, welche im Zusammenhang der BMS GIBB Bern entstanden ist, befasst sich mit der Musikdigitalisierung. Ziel ist es, die Bedeutung der Digitalisierung zu ergründen und die Technik dahinter zu verstehen. Wir befassten uns mit der Tonaufzeichnung, der Elektrischen Gitarre und der Computermusik. Wir untersuchten deren Bedeutung und griffen dazu auch mal selbst in die Saiten. Wir vertieften uns in die Digital-Technologie, die Tonentstehung und untersuchten Klänge, was Erstaunliches zu Tage brachte. Vom Slide zum Scratch, von der Gitarre zur elektronischen Musik, von analog zu digital. All dies wird auf den folgenden Seiten erforscht, dargelegt und kommentiert. Januar 2008 3 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch INHALTSVERZEICHNISS Abstract ........................................................................................................................................................3 Inhaltsverzeichniss ........................................................................................................................................4 Vorwort ........................................................................................................................................................7 Einführung ....................................................................................................................................................8 Geschichte und Bedeutung der Digitalisierung ................................................................................................8 Geschichte der Tonaufzeichnung ....................................................................................................................9 Anfänge...............................................................................................................................................................................................9 Erfindung der Schallplatte 1888 ........................................................................................................................................................11 Elektrische Aufnahme-Ära ................................................................................................................................................................12 Vinyl-Schallplatten ............................................................................................................................................................................13 Tonbandgeräte und Kassettenrecorder ............................................................................................................................................14 Das digitale Zeitalter .........................................................................................................................................................................15 Kurzfassung .......................................................................................................................................................................................16 Geschichte Computermusik –Elektronische Musik ........................................................................................ 17 Computermusik .................................................................................................................................................................................17 Elektornische Musik ..........................................................................................................................................................................18 Geschichte Gitarre ....................................................................................................................................... 19 Der Aufstieg der Gitarre ....................................................................................................................................................................19 Vergleich Live vs. Computermusik ................................................................................................................ 22 Einleitung ..........................................................................................................................................................................................22 Aufnahmen .......................................................................................................................................................................................22 Vergleich ...........................................................................................................................................................................................23 Bedeutung de Stromgitarre.......................................................................................................................... 24 Bedeutung der Elektro/Computermusik ....................................................................................................... 26 Bedeutung der Digitalisierung allgemein ...................................................................................................... 27 Nachteile – kontroverse ....................................................................................................................................................................27 Stellungnahme Christoph Hager .......................................................................................................................................................28 Stellungnahme Philipp Gerber ..........................................................................................................................................................28 Fazit ..................................................................................................................................................................................................29 Januar 2008 4 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Die Technik hinter der Digitalisierung ........................................................................................................... 30 Entstehung von Ton – Grundlagen der Akustik ............................................................................................. 30 Einführung ........................................................................................................................................................................................30 Grundlagen .......................................................................................................................................................................................30 Wie hören wir? ..................................................................................................................................................................................30 Der Schall ..........................................................................................................................................................................................30 Von Schwingungen und Resonanzen .................................................................................................................................................31 Was ist ein Ton? ................................................................................................................................................................................31 Digitalisierung von Musik............................................................................................................................. 33 Analog gegen Digital.........................................................................................................................................................................33 Sampling ...........................................................................................................................................................................................33 Aliasing .............................................................................................................................................................................................34 Quantisierung ...................................................................................................................................................................................35 Codierung ..........................................................................................................................................................................................36 Kurzfassung .......................................................................................................................................................................................36 Die wichtigsten Audio-Formate .................................................................................................................... 37 Fourieranalyse ............................................................................................................................................ 39 Einführung ........................................................................................................................................................................................39 Die Fourierreihe.................................................................................................................................................................................39 Fazit ..................................................................................................................................................................................................43 Klanganalysen von Instrumenten ................................................................................................................. 44 Einführung ........................................................................................................................................................................................44 Vorbereitung .....................................................................................................................................................................................44 Aufnahmen .......................................................................................................................................................................................45 Analyse..............................................................................................................................................................................................46 Erzeugung und Analyse eines A-Tons und was ist ein Dezibel? .........................................................................................................46 Frequenzanalyse synthetischer a-Ton ...............................................................................................................................................48 Klangerzeugung mit Gitarre ..............................................................................................................................................................49 Analyse einer E-Gitarre (clean)..........................................................................................................................................................50 Verzerrte und akkustische Gitarre.....................................................................................................................................................54 Einbezug Piano ..................................................................................................................................................................................57 Januar 2008 5 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Die Flöte ............................................................................................................................................................................................59 Menschliche Stimme .........................................................................................................................................................................61 Ausweitung auf Musikstück ..............................................................................................................................................................61 Fazit ..................................................................................................................................................................................................62 Der Technische Fortschritt – Die Digitalisierung ............................................................................................ 63 Schlusswort ................................................................................................................................................. 63 Quellenverzeichnis ...................................................................................................................................... 64 Abbildungsverzeichnis ................................................................................................................................. 65 Anhänge ..................................................................................................................................................... 66 Fotodokumentation Aufnahmen .......................................................................................................................................................66 Frequenztabelle zum Ausklappen .....................................................................................................................................................66 Crimson Tide –Notentabulatur ..........................................................................................................................................................66 Audio-CD mit Sounds.........................................................................................................................................................................66 Daten-cd ...........................................................................................................................................................................................66 Eidesstattliche Erklärung ............................................................................................................................. 67 Januar 2008 6 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VORWORT Liebe Leserin, Lieber Leser Sie stehen hier am Anfang einer Projektarbeit, welche im vierten Jahr der Berufsmaturität Bern entstanden ist. Diese Arbeit ist der letzte grössere Schritt, bevor die Abschlussprüfungen anstehen und wir hoffen, dass ein interessantes und anregendes Werk entstanden ist. Die Gruppenmitglieder sind Philipp Gerber aus Lützelflüh und Christoph Hager aus Heimberg Philipp Gerber Bauzeichner in Ausbildung Hobby-Tontechniker und Lebenskünstler Christoph Hager Bauzeichner in Ausbildung Hobby-Gitarrist und Bastelfreak Wir wünschen Ihnen beim Durchstöbern und Studieren viel Spass und hoffen, dass Sie Neues entdecken können. Januar 2008 7 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch EINFÜHRUNG Unser Titel lautet; „Vom Slide1 zum Scratch2“. Damit umschreiben wir den Inhalt unserer Arbeit. Es geht um die Musikdigitalisierung und unsere Themen reichen von der Gitarre zur Elektrischen Musik, von analog zu digital. Die Arbeit beinhaltet zwei Hauptthemen. Einerseits die Geschichte, mit welcher wir die Bedeutung der Digitalisierung suchen. Andererseits vertiefen wir uns in die Technik, um zu verstehen, was dahinter steht. Für das interaktive Leseerlebnis, ist im Anhang eine Audio-CD zu finden, welche Tonmaterial zu unserer Arbeit beinhaltet. Bei jeder eckigen Klammer sind sie dazu eingeladen, den Soundtrack von der CD anzuhören. Beispiel: [Sound 03 - Enrico Caruso - O Sole Mio] GESCHICHTE UND BEDEUTUNG DER DIGITALISIERUNG Wie bereits angesprochen, werden wir in diesem ersten Teil der Arbeit auf die Geschichte und Bedeutung der Digitalisierung eingehen. Ganz zuerst werden wir uns mit der Tonaufzeichnung befassen. Als Fundament für unsere weiterführenden Gedankengänge werden wir die Geschichte der Gitarre und der elektronischen Musik erläutern. Mit einem Versuch möchten wir selber erleben, was Live-Musik bedeutet. Die daraus entstandenen Eindrücke werden wir weiter verfolgen, um schlussendlich die Bedeutung der Digitalisierung zu erfassen. 1 2 Slide: Über die Saite rutschen/ gleiten beim Anspielen einer Gitarrensaite Scratch oder Scratchen; DJ-Technik zum Improvisieren Januar 2008 8 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch GESCHICHTE DER TONAUFZEICHNUNG Bereits im 16. Jahrhundert machte sich ein italienischer Physiker Gedanken, über die „Konservierung von gesprochenen Worten“. Seine Lösung: Er wollte die Worte in einem Behälter aufbewahren. Leider fehlten im zu dieser Zeit noch die technischen Möglichkeiten um einen geeigneten Apparat dafür zu entwickeln. In diesem Kapitel möchten wir die wichtigsten Ereignisse in der Geschichte der Tonaufzeichnung aufzeigen. Im Mittelpunkt stehen dabei die verschiedenen Abspielgeräte, Tonträger und deren Erfinder. ANFÄNGE Technisch gesehen, beginnt die Geschichte der Tonaufzeichnung 1867 auf der Pariser Weltausstellung. Der französische Dichter und Philosoph Charles Cros stellte der Öffentlichkeit einen automatischen Telegraphen vor. Nachdem er sich mit der Problematik der Schallaufzeichnung und Schallwiedergabe intensiv beschäftig hatte, entwarf er eine Maschine, welche die grundlegenden Konstruktionsmerkmale von Phonographen und Grammophonen vorweg nahm. Doch dieses Vorhaben scheiterte daran, einen geeigneten Feinmechaniker zu finden. Zudem fehlten ihm die finanziellen Mittel, um seine Erfindung patentieren zu lassen. Der erste erfolgreiche Erfinder, dem es gelang, die menschliche Stimme einzufangen und wiederzugeben, war der amerikanische Erfinder Thomas Alva Edison. Er benutzte eine mit einer Nadelspitze versehenen Membran, die er über einen mit Paraffin überzogenen Papierstreifen zog. Er sprach dabei laut das Wort „HELLO“ in die Membran. Als er die Nadel erneut über den Papierstreifen zog, konnte er leise das zuvor Gesprochene vernehmen. Dies ist das erste historisch verbürgte Wort, das auf diese Art konserviert wurde. Nachteil ist, dass es nur ein einziges Mal funktioniert hat und das Wort nicht erhalten geblieben ist. PHONOGRAPH MIT STAHLWALZE Einige Monate später wurde ein neues Gerät konstruiert. Nachdem Edison als 22jähriger junger Mann, durch den Verkauf des Patentes eines Börsentelegraphen ein wohlhabender Mann geworden war, errichtete er in der Nähe von New York ein Versuchslaboratorium. Hier übergab er seinem Schweizer Feinmechaniker Krüsi eine Skizze mit dem Auftrag, diesen Apparat zu bauen. Der Phonograph bestand aus einer Stahlwalze, über die eine Zinnfolie als Tonträger gespannt war. Darüber befand sich ein Trichter mit Membran und Nadel so angeordnet, dass dieser mit der Zinnfolie Kontakt hatte. Drehte man nun die Walze und brüllte in den Trichter, drückte die Nadel eine Punktschrift in die Walze. Als Edison an diesem Metallzylinder drehte, sprach er gegen eine Membran ein altes Kinderlied (“Mary had a little lamb”). Dadurch ritzte die an der Membran befestigte Nadel eine Linie in die Stanniolschicht. Zum Abhören setzte er die Nadel auf den Ausgangspunkt und begann zu kurbeln. Er hörte nun deutlich das von ihm gesprochene Kinderlied. Der Apparat wurde dann zum Patent angemeldet, öffentlich vorgeführt und war die Sensation des Jahres 1878. Abb. 1: Phonograph mit Stahlwalzeze Januar 2008 9 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch PHONOGRAPH MIT WACHSWALZE 1881 versuchte Alexander Graham Bell den Zinnfolien-Phonographen zu verbessern. Er experimentierte unter anderem mit Wachs als Tonträgermaterial, was die lästigen Nebengeräusche deutlich verminderte. Im Jahre 1886 meldete Charles Sumner Tainter das Wachsmodell zum Patent an und gab ihm den Namen Graphophone. Abb. 2: Bell, Graphophone Abb. 3: Edisons „Home Phonographen“, links „Model A“ 1900, rechts „Model B“ 1908 Edison verbrachte die Zwischenzeit damit, die Glühbirne zu erfinden. 1888 kommt er mit einem „verbesserten Phonographen“ auf den Markt, der mit Hartwachs-Walzen läuft, welche eine zwei-minütige Spieldauer besitzen. Die Variante mit Federmotor wurde ein grosser kommerzieller Erfolg. Insbesondere die Möglichkeit, eigene Aufnahmen herstellen zu können, dürften dies erreicht haben. Das Problem der massenhaften Walzenherstellung war aber noch lange nicht gelöst. Wollte man beispielsweise 500 Walzen eines Liedes produzieren, so stellte man 5 Phonographen nebeneinander und nahm nach einander 100-mal dasselbe Lied auf. Es entstand der Beruf des Walzensängers, der stimmgewaltig und vor allem laut zu sein hatte. Erst 1903 erfand Edison ein Verfahren, welches es ermöglichte Kopien seiner Walzen herzustellen. Am 29. Juni 1888 wurde in London am Schluss des Händel-Festivals im Crystal Palace „Israel in Egypt“ aufgeführt. Hierbei nahm Edisons Agent einige Ausschnitte mit dem verbesserten Wachswalzen-Phonograph auf. Davon existieren heute noch drei bespielte Wachswalzen, bei denen es sich um die erste erhaltene Musikaufnahme überhaupt handelt! [Sound 01 - G.F. Handel - Israel in Egypt] Die Tonqualität bei dieser ersten Aufnahme war natürlich noch nicht befriedigend. Im Laufe der Jahre wurde der Phonograph stetig weiter verbessert. Hier eine Kornetten-Solo, Aufgenommen 1905 von Columbia: [Sound 02 - Bohumir Kryl - Carnival of Venice] 1908 veränderte Edison sein Walzenformat, indem er die Rillendichte verdoppelte. Die so übliche Spieldauer von gut zwei Minuten verlängerte sich auf über vier Minuten und sollte der Schallplatte so weiter Konkurrenz machen. Für ältere Edison-Phonographen wurden Umrüstungen angeboten, um beide Walzentypen spielen zu können. Im Herbst 1929 musste Edison infolge der Weltwirtschaftskrise die gesamte Tonträgerherstellung aufgeben; damit endete die Ära des Phonographen als Unterhaltungsgerät. Januar 2008 10 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ERFINDUNG DER SCHALLPLATTE 1888 Der Erfinder der Schallplatte ist der deutsche Auswanderer Emil Berliner. Auch er experimentierte mit dem Phonographen. Um die Patentrechte von Edison zu umgehen, änderte er den Winkel zwischen Nadel und Trägerfolie um 90° und erfand damit die so genannte Seitenschrift, die sich nicht mehr als Punkt- sondern als Zick-Zack-Furche darstellt. Da eine Vervielfältigung der Walzen nicht möglich war, entwickelte Berliner eine Scheibe, von der er meinte, dass er sie später auf irgendeinem Wege abpressen konnte. Die Scheibe bestand aus mit Wachs überzogenem Zink. Sie hatte einen Durchmesser von 12 Zentimetern und lief mit 150U/min3. Das Verfahren zur Aufnahme und anschliessender Wiedergabe funktionierte recht simpel: Nachdem die Zinkscheibe in eine stark nach Benzin riechende Flüssigkeit getaucht wurde, konnte man eine dünne Wachsschicht auftragen. Bei der Aufnahme durchschnitten die Töne das Wachs bis auf das blanke Metall. Um die Schalllinien in das Zink zu ätzen, wurde die Platte in ein Chrom-Säure-Bad getaucht. Dadurch wurde die Platte dauerhaft konserviert. Danach wurden aus dem Rohling Pressfolien hergestellt. Abb. 4: Emil Berliner Am 8. November 1887 meldete er sein "Grammophon", das Edisons "Phonograph" sehr ähnlich sah, zum Patent an und im Mai 1888 wurde dieses Gerät in Philadelphia der Öffentlichkeit vorgestellt. Berliner gab sich mit dem Material der Pressfolien noch nicht zufrieden und so begann er noch im gleichen Jahr, ein neues Material zu verwenden. Er kaufte neues Material ein, das unter anderem aus Graphit und Schellack4, bestand. Dieser war durch Druck und Hitze leicht formbar und nach der Abkühlung sehr hart. Und so war die Schellackplatte geboren. Dieses Material setzte sich rund 60 Jahre in der Plattenindustrie durch. Als erste Schellackplatte erklang „Twinkle, twinkle little star“ aus dem Trichter von Berliners Apparat, die damals noch mit einer Handkurbel betrieben wurde. Abb. 5: Grammophon "Victor V" der Victor Talking Machine Co. Damit wir einmal einen akustischen Eindruck von den Schellackplatten erhalten, folgen hier drei Hörbeispiele: O Sole Mio von Enrico Caruso, 1916 West End Blues von Louis Armstrong, 1928 La Coupe Suisse von Redzipet, Genève 1929 3 4 [Sound 03 - Enrico Caruso - O Sole Mio] [Sound 04 - Louis Armstrong - West End Blues] [Sound 05 - Redzipet, Genève - La Coupe Suisse (Urania-Young Boys)] Umdrehungen pro Minute eine harzige Substanz, die aus Gummilack gewonnen wird, welches von Läusen stammt Januar 2008 11 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch 1896 klopfte bei Emil Berliner ein Reklamefachmann namens Frank Seaman an, der die alleinigen Rechte in den USA für den Verkauf von Grammophonen erwerben wollte. Dafür wollte er auf eigene Kosten einen enormen Reklamefeldzug starten. Dieser folgte mit riesigem Erfolg, und in dessen Zuge kaufte Berliner, ein von Edison abgelehntes Ölgemälde, das den berühmten Hund Nipper und einen Phonographen zeigte. Der Werbespruch "His masters voice" (Die Stimme seines Herren) entstand daraufhin. Den Phonographen lies er mit einem Grammophon übermalen, und für Jahrzehnte wurde Nipper das Markenzeichen aller Gramophone Companies, und ist es noch heute. Abb. 6: His Master’s Voice, ca. 1928 ELEKTRISCHE AUFNAHME-ÄRA Bisher war es nur möglich das Akustische Signal mechanisch aufzuzeichnen. Dies änderte sich erst 1924 mit dem von der Bell Telephone Company entwickelten elektro-akustischen Aufnahmeverfahren, mit dem eine neu Ära für die Tonträgerindustrie begann. Die Schallwellen werden bei diesem Verfahren über ein Mikrofon erfasst und in elektrische Wechselspannung umgesetzt. Die elektrischen Signale werden dann in Form einer graphischen Abbildung als analoges Muster, also in Amplitudenform, gespeichert und können auf einer Schallplatte umkopiert werden. Dabei bildet jede Kopie das Ausgangssignal ab. Das bedeutet aber auch: Je öfter eine Aufnahme kopiert wird, desto schlechter wird sie. 1926 stand mit der Erfindung der Röhren und elektrischen Wandler die erste Verstärkung zur Verfügung. Nun musste man die Schallwellen nicht mehr durch einen Grammophontrichter verstärken, sondern konnte auf das wesentlich effektivere elektrische Aufnahme- und Wiedergabeverfahren umsteigen. Wegen ihres besonders geschätzten charakteristischen Klirrverhaltens werden auch heute noch weitgehend Elektronenröhren in E-Gitarrenverstärkern verbaut, bei denen das Schaltungskonzept keineswegs auf ein konsequentes Vermeiden von Verzerrungen abzielt, sondern im Gegenteil eher auf deren Erzeugung, da die besonderen klanglichen Resultate hier durchaus erwünscht sind. Abb. 7: Röhrenverstärker “Trilogy” von Hughes & Kettner, Katalog 2007/08 Januar 2008 12 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VINYL-SCHALLPLATTEN Ein weiterer Meilenstein in der Geschichte der Tonträger war die Erfindung der Vinyl-Schallplatte am 21.Juni 1948 durch den ungarisch-amerikanischen Physiker Dr. Peter Carl Goldmark. Noch im selben Jahr, veröffentlichte die amerikanische Plattenfirma Columbia die erste Kunststoffplatte mit Mikrorille und 33 1/3 U/min vor. Diese 30-Zentimeter-Platte wurde als „long playing record“ oder in der deutschen Übersetzung als Langspielplatte (LP) bezeichnet. Die Einführung von Vinyl als Tonträgermaterial bedeutete das Ende der Schellackplatten, die weitaus empfindlicher und teurer waren. Im gleichen Jahr wurde bei der Deutschen Grammophon die Sterephonie zur obligatorischen Aufnahmetechnik erklärt. Die ersten Experimente mit dieser Technik, die einen räumlichen Schalleindruck erzeugt, hatte es schon im Jahre 1929 beim Deutschen Rundfunk gegeben. Da die neuen Stereo-Platten monokompatibel waren und zudem ein räumliches Klangerlebnis vermittelten, gab es keine Probleme bei der Markteinführung. Man konnte ohne Probleme Stereoplatten auf einem Monoplattenspieler hören und umgekehrt. Die Schallplatten durchlebten eine prunkvolle Zeit. Sie hatten keine Konkurrenz, bis eine andere Speichermöglichkeit benutzt wurde. Die Magnetbandtechnik verdrängte die Schallplatte fast ganz vom Markt. Diese Technologie ist flexibler. Daraus ergaben sich Möglichkeiten, welche für die Nadeltontechnik unlösbar waren. Letztendlich waren es aber die CDs, die den Schallplatten den Todesstoss gaben. Nach deren Markteinführung waren Schallplatten nun nur noch bei Sammler und Nostalgikern aufzufinden. Abb. 8: LP „Super Trouper“ der schwedischen Popgruppe ABBA Januar 2008 13 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch TONBANDGERÄTE UND KASSETTENRECORDER 1900 stellte der Däne Valdemar Poulsen auf der Pariser Weltausstellung sein " Telegraphon" aus, das erste Gerät für magnetische Schallaufzeichnung. Ein 1 mm dicker Stahldraht wurde an einem Tonkopf vorbeigeführt. Elektromagnetische Impulse, erzeugt beispielsweise mit Hilfe eines Mikrofons, wurden auf dem Draht gespeichert und konnten anschliessend wiedergegeben werden. Mangels geeigneter Verstärker setzte sich das Verfahren nicht durch. Erst Ende der 20er Jahre wurden wieder Versuche unternommen, doch mit Stahlpulver beschichtete Papierbänder rissen leicht, dünne Stahlbänder dagegen sind so schwer, dass sie nur im professionellen Bereich etwa bei Rundfunkanstalten- genutzt wurden. 1935 wurde durch die Firma AEG das erste "Magnetophon K1" auf der Berliner Funkausstellung vorgestellt. Ab den 1950er Jahren gelangten die Tonbandgeräte in die Haushalte. Doch sie waren schwer, kompliziert zu bedienen und teuer. Diese Technik existiert noch heute, allerdings eher als Randerscheinung. Spulentonbandgeräte sind heute etwas für Liebhaber und Technikbegeisterte. Erst die Erfindung der Compact-Cassette (MC) durch Philips brachte nach 1964 die durchgreifende Änderung. Zunächst als Billiggerät konzipiert, verdrängten die Cassetten-Recorder bald die Spulentonbandgeräte. Zum ersten Male war es für Jeden möglich, Musikaufnahmen von Schallplatten zu Überspielen und mit dem mitgelieferten Mikrofon Mitschnitte aus Fernsehsendungen zu machen. Tausende Jugendlicher sassen Ende der 60er und Anfang der 70er Jahre mit dem Mikrofon vor dem Fernseher und nahmen ihre Lieblingsstücke aus der ZDF-Hitparade, Beat-Club oder Ilja Richters Disco auf. Auch der 1979 von Sony herausgebrachte Walkman eröffnete neue Anwendungsmöglichkeiten. Ein weiterer Sprung war die Digitalisierung der Aufzeichnung. DAT begann ab Mitte der 1980er Jahre Fuss zu fassen, wobei mehrere Systeme miteinander konkurrierten. Doch dazu mehr im folgenden Kapitel. Abb. 9: Philips EI 3300, Cassetten-Recorder Januar 2008 14 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DAS DIGITALE ZEITALTER Die digitale Ära der Schallspeicherung begann wie bereits erwähnt mit dem Digital Audio Tape, kurz DAT, das wie Musikkassetten oder Tonbänder ein Magnetband verwendet. Der entscheidende Unterschied ist jedoch, dass bei DAT bereits die Aufnahme der Schallsignale in digitalisierter Form erfolgt. DAT kann als Übergangsformat von der analogen zur digitalen Technik betrachtet werden, denn es setzt sich im Massenmarkt nie richtig durch. In der professionellen Aufnahmetechnik spielt DAT heute jedoch eine wichtige Rolle. Erst die Compact Disc (CD), ein Gemeinschaftsprojekt von Sony und Philips, brachte die digitale Revolution auf dem Tonträgermarkt. DIE COMPACT DISC Die CD eroberte ab 1983 die Wohnstuben. Die grossen Vorteile bei der CD sind das verschleissfreie optische Abtastverfahren und der Wegfall von Störgeräuschen. Bereits Ende der 80er Jahre wurden mehr CDs als Vinyl-Schallplatten verkauft. Anfang der 90er Jahre entwickelte die Industrie dann die DVD (Digital Versatile Disc = digitale vielseitig verwendbare Scheibe). Erst 1995 konnten sich die Konzerne der Unterhaltungsindustrie auf einen gemeinsamen Standard einigen. Trotzdem herrscht immer noch Verwirrung unter den Verbrauchern, denn es gibt nach wie vor zahlreiche unterschiedliche DVD-Formate. MP3 - EIN NEUES ZEITALTER DER TONAUFZEICHNUNG Seit 1987 hat eine neue Form der Tonaufzeichnung den Markt erobert. Im Gegensatz zu CDs und Kassetten sind MP3s völlig "körperlos". Die MP3-Technik komprimiert Audiodaten nahezu ohne hörbaren Qualitätsverlust. So können Lieder als Tondateien schnell über das Internet verschickt und mit Hilfe von Computern und MP3Playern angehört werden. Durch illegalen kostenlosen Austausch von Audio-Dateien im Internet und die Möglichkeit Lieder selbst auf CD zu brennen, brach das Geschäft der Musikindustrie deutlich ein. Mittlerweile gibt es aber zahlreiche legale kostenpflichtige Plattformen im Netz, auf denen sich der User Lieder herunterladen kann. Und auch der legale Download verändert die Musikindustrie: Längst werden nicht mehr so viele CDs verkauft wie noch vor wenigen Jahren. DIE ZUKUNFT VON MP3 MP3 wird weiter entwickelt. So tüfteln die Forscher an MP3-Surround-Sound. Raumklang in MP3, damit Kinofilme mit beeindruckenden Toneffekten nach Hause kommen. Auch andere nette Ideen gibt es. Wird Musik mit so genannten Meta-Informationen ausgestattet, reicht es aus, ein Lied zu summen und der Computer sucht das passende Musikstück auf der Festplatte heraus. In Sekundenbruchteilen. Längst machbar, aber noch verbesserungsfähig. Aber auch MP3 hat mittlerweile Konkurrenz bekommen. Computer-Insider bevorzugen ein Musikformat, das sich Ogg Vorbis nennt. Die Tonqualität ist bei gleicher Datenmenge noch etwas besser. Ausserdem ist Ogg Vorbis "OpenSource", kann also lizenzfrei genutzt und ebenso von jedem weiter entwickelt werden. Manche sagen deshalb: In ein paar Jahren ist auch MP3 schon wieder Geschichte. Januar 2008 15 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch KURZFASSUNG Halten wir fest: Das erste Gerät um Ton aufzuzeichnen und abzuspielen war der Phonograph von Edison, welcher als Tonträger einen Metallzylinder, später waren es Hartwachs-Walzen, benutzte. Um die Musik abzuspielen musste man die Walze anfangs noch von Hand drehen, bald aber übernahm dies ein Federmotor. Nachteil bei der Walze, war die begrenzte Spieldauer von Zwei Minuten bei einer Standardwalze oder vier Minuten bei Spezialwalzen und die zu Beginn schlechte Tonqualität, sowie die aufwändige Massenproduktion. Ähnlich wie der Phonograph funktionierte das Grammophon, nur benutzte man bei diesen nicht mehr Walzen als Tonträger, sondern die von Emil Berliner erfundene Schallplatte. Zuerst aus Schellack später dann aus Vynil brachten die Schallplatten den Durchbruch in der Tonindustrie. Sie hatten keine Konkurrenz, bis eine andere Speichermöglichkeit benutzt wurde. Die Magnetbandtechnik verdrängte die Schallplatte fast ganz vom Markt. Letztendlich waren es aber die CDs, die den Schallplatten den Todesstoss gaben. Mit der CD begann die eigentliche „Ära der Digitalisierung“. Etwas später wurde die MP3-Technik entwickelt, mit der Audiodaten ohne hörbaren Qualitätsverlust komprimiert werden können. Januar 2008 16 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch GESCHICHTE COMPUTERMUSIK –ELEKTRONISCHE MUSIK Wenn wir die Digitalisierung in der Musik behandeln gehört die künstliche Musik natürlich auch zu einem unserer bearbeitenden Themen. In diesem Kapitel beschreiben wir die Geschichte der Computer- und elektronischen Musik. COMPUTERMUSIK Zuerst zur Computermusik. Das ist Musik, welche mit Hilfe von Rechner- oder Computersystemen erstellt wird. Bereits im siebzehnten Jahrhundert war man der Überzeugung, dass Musik eine Kunst geschickter Zahlenzuordnungen ist. Ein deutscher Gelehrter, welcher an der Collegium Romanum in Rom lehrte und forschte, veröffentlichte um 1650 eine Arbeit über eben dieses Thema. Er beschäftige sich zudem mit wasserradbetriebenen automatischen Orgeln, Schallübertragung und Abhöranlagen. Auch W. A. Mozart hat sich mit der mathematischen Musik beschäftigt. Er schrieb eine Anleitung, mit welcher man mit einem Würfel Takte aus einer Liste zusammenwürfeln und so einen Walzer komponieren kann. Später entwickelte man Programme, welche Zufallszahlen erzeugen, die jeweils bestimmten Noten entsprechen. Gleichzeitig definierte man Regeln, welche Noten zugelassen werden oder verworfen werden, wenn sie den Regeln wiedersprachen. Entweder man programmierte nach einem Lehrbuch oder man lernt dem Computer durch Beispieleingaben die Regeln. So konnte das Programm herausfinden zu welchen Bedingungen welche Harmonien, Tonfolgen ect. Häufig verwendet wurden. Mit der Verbesserung der Rechnerleistungen von Computern in den Achzigern und Neunzigern entstanden immer mehr solche Programme. Mit dem zunehmenden Verständnis von Klängen und deren Digitalisierung entstanden auch die ersten Synthesizer. Synthesizer stammt vom begriff Klangsynthese da bei diesem Gerät der Anwender Klänge zusammenfügen und auch programmieren kann. 1983 einigten sich die Hersteller auf einen Standard namens Musical Instrument Digital Interface, kurz MIDI welches die Schnittstelle zwischen Computer und Instrument/Synthesizer sicherstellt. Auch heute wird dies noch genutzt. Bei Audiosignalen, wie die von Mp3, ist die Schallschwingung gespeichert, bei MIDI hingegen werden Daten wie Instrument, Tonhöhe, Länge ect. verwendet. (Siehe auch Kapitel: Formate) Es gibt sogar noch einige Computermusikkünstler in unserer Zeit. Sie verwenden weiterentwickelte Programme, welche zum Beispiel durch neuronale Netze gesteuert komponieren. Diese Netzte sind imstande Dinge zu lernen, ihre Struktur anzupassen und so durch einfache Eingaben zu gewünschten Ausgaben zu kommen. Die Ergebnisse sind nicht schlecht. Das Ganze ist aber eine ziemliche Geschmackssache. Doch wie man so schön sagt; jede Musik hat ihre Berechtigung. [Sound 06 - Hawgood - Remembering The Way Things Used To Be] Januar 2008 17 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ELEKTORNISCHE MUSIK Die elektronische Musik handelt viel umfassender von der künstlichen Klangerzeugung. Bis in die Vierzigerjahre wurde aber unter diesem Begriff alle Musik definiert, welche elektrische Hilfsmittel benötigten, wie zum Beispiel auch die E-Gitarre. Heutzutage werden unter diesem Begriff die neuen Musikstilrichtungen wie Elekro, House ect. zusammengefasst. Diese Musik ist einerseits ein Zusammenspiel des künstlerischen Schaffens und andererseits der Technik. Angefangen hat alles um 1940 in Köln als ein Physiker die Versuche mit künstlichen Klanggeneratoren Musik zu machen als elektronische Musik definiert hat. Er hat angefangen Klänge wissenschaftlich zu analysieren und hat so eine Grundlage geschaffen. Gleichzeitig entstand in Paris die music concrète, welche durch experimentelle Komposition von Tonaufnahmen der Geräusche in der Umgebung zustande kam. Diese Art der Musik existierte so jedoch nicht lange, da sie von der eigentlichen elektronischen Musik verdrängt wurde, aber unter dem Terminus elektroakustische Musik weiterhin eine Nischenkultur darstellt. In den 80er Jahren wurde dann die künstlerische und experimentelle, generierte Musik zur elektroakustischen Musik gezählt. Nur noch die Unterhaltungsmusik wie wir sie aus der Disco kennen, ist heute als elektronische Musik definiert. Allerdings gibt es verschiedenste Bands aus allen Musikrichtungen welche ihren Sound durch Synthesizer und Sequenzern (Verändern von vorhandenen klängen) erweitern. Die Abgrenzung zu anderen Stilrichtungen ist, wie meistens, nicht klar. Mit den ersten DJ und diversen Live-Auftritten wurde auch diese Musik zum Kommerz. Heute ist diese Musik aus der unterhaltungssüchtigen Gesellschaft nicht mehr wegzudenken. Ein Meilenstein waren sicherlich Kraftwerk, eine Band welche 1970 Pionierarbeit im Gebiet des Elekro-Pops leisteten. [Sound 07 - Kraftwerk - Autobahn] Abb. 10: Kraftwerk Das heutige Bild dieser Musik braucht hier, denke ich, nicht allzu gross erläutert werden. Ein Blick auf die vielen Flyers und Plakate reicht um zu sehen, dass diese Musik das Partyleben erobert hat. Wir werden die Gesellschaftliche Bedeutung in einem späteren Kapitel diskutieren. Januar 2008 18 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch GESCHICHTE GITARRE In diesem Kapitel möchten wir die Geschichte der Gitarre aufgreifen. Es soll einen Kontrast zu der Elektronischen Musik geben, um später eine Grundlage für unsere Diskussion der Bedeutung beider Musikrichtungen in Anbetracht der Digitalisierung zu liefern. DER AUFSTIEG DER GITARRE Gitarrenähnliche Instrumente gibt es bereits sehr lange. Ägyptische Zeichnungen zeigen, wie Frauen vor 5000 Jahren Saiteninstrumente gespielt haben. Der Begriff Gitarre ist aus dem altgriechischen Wort κιθάρα (Kithara) entstanden. Wobei dieses Instrument eher einer Zitter oder Harfe gleicht. Im Mittelalter stiegen die Ansprüche an die Musikinstrumente, welche nun in einem stetigen Wandel waren und weiterentwickelt wurden. Saiteninstrumente gab es in den verschiedensten Formen, mit oder ohne Bünde und auch die Anzahl Saiten variierten. Die Spanier entwickelten zur Zeit der Renaissance aus der Laute ein Instrument mit flachen Bauch, die Vihuela. Daraus entstand die Barockgitarre, welche sich mit einigen Änderungen bis heute als Akustische Gitarre etabliert hat. Interessant ist auch, dass die Stimmungen der Instrumente immer wieder angepasst wurden. Abb. 11: Vihuela Diese Akustischen Gitarren erzeugen den Klang durch ihren Resonanzkörper. Damit ist nur eine begrenzte Lautstärke erreichbar. 1920 forderten die Unterhaltungsorchester und damaligen Aufnahmetechniken eine Gitarre die lauter und durchsetzungsfähiger ist. Man suchte nach Möglichkeiten und es zeigte sich, dass dies nur durch elektrische Verstärkung des Klangs zu erreichen war. Abb. 12: „Frying Pan“ Im Jahr 1931 entwickelte der Schweizer Adolf Rickenbacher zusammen mit George Beauchamp in den USA den ersten brauchbaren Tonabnehmer. Dieser wandelt die Schwingung der Saiten über eine Magnetspule in eine Spannung um. Das Prinzip ist bis heute geblieben. Rickenbacher baute diesen Tonabnehmer in eine Lapsteelgitarre (Gitarre mit Stahlsaiten) ein und die erste Elektrische Gitarre war geboren. Wegen ihres bratpfannenähnlichen Aussehens wurde sie Frying Pan genannt. Mit den Mitteln der elektrischen Tonabnahme lag es nahe, auf den Resonanzkörper ganz zu verzichten. Um 1940 bestückte der populäre amerikanische Gitarrist Les Paul ein simples Kantholz mit Gitarrenhals, Saiten und zwei Tonabnehmern, um die störenden Nebengeräusche auszuschalten. Sein „The Log“ (Klotz) stiess aber beim Publikum auf so heftige Ablehnung, dass er sich genötigt sah, zwei Korpushälften anzusetzen, um den Eindruck einer richtigen Gitarre zu erzeugen. Erst durch die Entwicklungen des Elektrotechnikers Leo Fender kam die Elektrogitarre langsam in Schwung. Seine „Esquire“ war in seiner strikten Funktionalität der Zeit voraus und Januar 2008 19 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch brachte ihm den Ruf eines „Henry Ford der Gitarre“ ein. Das Topmodell „Telecaster“ ist bis heute ein Verkaufserfolg. Fenders Erfolg leitete auch beim Konkurrenten Gibson den Umdenkprozess ein. Gibsons Modell „Les Paul“ bekam einen Korpus mit gewölbter Decke und die auffällige goldene Lackierung. Fenders Antwort darauf war die „Stratocaster“ von 1954. Der sanft gerundete und konturierte Korpus mit den zwei Pickups wurde zum Klassiker für nahezu jeden Stil der populären Musik. Keine E-Gitarre ist bis heute öfter kopiert worden. Der Klang der Gibson ist übrigens etwas schriller [Sound 08 - AC/DC - Highway to Hell], als derjenige von Fender [Sound 09 Status Quo – What’s You’re proposin‘], kommt natürlich auch immer auf den Verstärker an. Die Produkte dieser beiden Gitarrenmarken sind bis heute etwa gleich geblieben und sind bei vielen Gitarristen immer noch sehr beliebt. Neben den typischen E-Gitarren entwickelte man auch immer wieder Exotisches. Abstruse Formen, mehrere Hälse, Bass und Gitarre in einem und sogar klappbare Gitarren. Meistens verkauften sich diese Gitarren aber schlecht. 1987 produzierte Ibanez eine Gitarre mit einer zusätzlichen tieferen Saite, welche vor allem bei Metalmusikern gefragt ist. Die japanische Firma Ibanez verkaufte in den letzten Jahren immer mehr Gitarren und gehört nun zu den Top-Herstellern. Christoph besitzt übrigens auch eine IBANEZ S470, welche sich durch einen sehr vielseitigen, klaren, vollen Sound auszeichnet. Aber auch in letzter Zeit kamen einige Erneuerungen auf den Markt. So zum Beispiel die Variax von Line 6 (2003). Diese Gitarre kann über 25 legendäre Modelle von Strom- und Akustikgitarren sowie einem Banjo wiedergeben. Die Seitenschwingungen werden über spezielle Tonabnehmer (Pickups) erfasst und mit MikroprozessorElektronik so umgewandelt, damit ein authentischer Klang des jeweiligen Instruments wiedergegeben wird. Ein durchaus interessanter Ansatz in der Gitarrenbranche. Abb. 13: Variax von Line 6 Januar 2008 20 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Die neuste, innovative Gitarre ist die Gibson Robot (Dez. 2007). Dieses Instrument stimmt sich von selbst. In Anbetracht dieser Entwicklungen, sind wir also gespannt, was noch alles Folgen wird. Die Geschichte dieses legendären Instrumentes ist noch nicht abgeschlossen. Abb. 14: E-Gitarre von Gibson Robot Die Bedeutung der Stromgitarre und ihrem Einfluss auf die Gesellschaft greifen wir, analog zur Geschichte der Elektronischen Musik, in einem späteren Kapitel auf. Januar 2008 21 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VERGLEICH LIVE VS. COMPUTERMUSIK EINLEITUNG Um die Digitalisierung an den Beispielen der Gitarrenmusik und der Elektrischen Musik zu behandeln, werden wir als erstes einen Selbstversuch starten. Ziel ist es herauszufinden, was die Digitalisierung in unserem Fall für eine Bedeutung hat, und handgemachte Live-Gitarrenmusik der Computergenerierter Musik gegenüber zu stellen. Später werden wir dann ein abschliessendes Wort zu der Digitalisierung suchen. AUFNAHMEN Da Christoph Gitarre spielen kann, übernimmt er die Rolle der Livemusik. Ein Computerprogramm namens GuitarPro wird gegen Ihn antreten. Das Programm ist eigentlich dazu da Musiknoten in Gitarrentabulatur-Schrift darzustellen und auch wiederzugeben. Neben verschiedenen Gitarren können auch Schlagzeug, Bass und viele weitere Instrumente notiert und wiedergegeben werden. Im Internet sind Tausende solcher Dateien zu finden. Mit ihnen ist es schlussendlich einfacher einen Song auf der Gitarre zu erlernen, da Noten und Ton Eins zu Eins abgespielt werden. Für Gitarristen ist dieses Programm absolut empfehlenswert. Kostenpunkt etwa 70 Franken. Die Neuste Version beinhaltet zudem ein System namens RSE, kurz Realistic-Sound-Engine. Damit lassen sich die bisherigen Midi-Klänge [Sound 10 – GP4 – Crimson Tide] verbessert abspielen. Für unseren Versuch wählten wir den Song Crimson Tide von der Band Nightwish aus. Er beinhaltet einerseits grollende Gitarrenriffs, andererseits einige Solos und keinen Gesang. [Orginalsong: Sound 11 – Nightwish – Crismson Tide] Synthesizer, Bass und Schlagzeug wird jeweils vom GuitarPro generiert und dient als Basis. Die Gitarre wird einmal von Christoph und das andere Mal vom Programm gespielt: GUITARPRO HAGER vs. GuitarPro 4.0 [Sound 10] GuitarPro 5.0 mit RSE [Sound 12] Ibanez S470 mit Peavey Röhrenverstärker: [Sound 13] Aufgenommen haben wir diese Songs im Gemeindezentrum Felsegg in Burgdorf. Hier möchten wir auch gleich unseren Dank für die Benützung des Saales anbringen. Durch die zur Verfügung stehenden Mittel konnten wir ohne Probleme unsere Aufnahmen durchführen. (Siehe auch Fotodokumentation im Anhang) Januar 2008 22 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VERGLEICH Röhren aufheizen, Gitarre auspacken, einstöpseln, Gain aufdrehen und alles andere Vergessen. Ich liebe diesen Sound. Einfach genial. Dieser brachiale und doch weiche kraftvolle Klang. Doch eigentlich wollen wir hier ja die Live und computergenerierte Musik vergleichen. Ich habe versucht diesen Vergleich in einige Punkte zu gliedern: SOUNDQUALITÄT Der von GuitarPro mit RSE generierte Gitarrenklang überzeugt. Ähnlich einer Gibson ertönt es aus den Lautsprechern. Dennoch ist der Klang recht statisch, dass heisst die Tiefe und der letzte Schliff fehlt. Aber alles in allem ist die Soundgenerierung dieses Programmes top. Die Live-Aufnahmen sind für unsere Möglichkeiten sehr hochwertig. Tiefen und Höhen wurden hervorragend digitalisiert, auch wenn etwas am Volumen des Klangs allgemein verloren ging. Ich denke aber dieses wirklich Kraftvolle, Treibende und Lebendige der Gitarrenmusik kann man nur Live erleben. VARIATION/MÖGLICHKEITEN Den Möglichkeiten beim Programm sind Grenzen gesetzt. So können zum Beispiel keine Slides5 erzeugt werden. Ansonsten können die üblichen Verzierungen ziemlich einfach hinzugefügt werden. Mit einer richtigen Gitarre hingegen kann man eigentlich alles Mögliche anstellen. Vom mehr oder weniger erwünschten Fingerrutschen auf der Saite während den Griffwechsel, über Rückkopplungen6 und Slide-Solos bis hin zur Zertrümmerung der eigenen Gitarre. Beim überschlagen eines Tones durch spezielles Anspielen der Saite hat GuitarPro noch einige Probleme dies authentisch wirken zu lassen. Das Programm ist imstande ein Riff Tausendmal zu wiederholen, wogegen bei einem Gitarristen das Riff jedes Mal etwas Variieren kann. Das bringt natürlich ebenfalls etwas Lebendigkeit in einen Song. RHYTHMUS / TONFOLGE Ich muss gestehen, ich habe nicht jeden Ton perfekt getroffen. Der Computer hat hier deutlich mehr gepunktet. Beim dynamischen Anspielen, kleinen eingebauten Pausen und im Improvisieren habe ich die Nase jedoch wieder vorne. Hier liegt der grosse Unterschied zwischen Mensch und Maschine. Diese kleinen Nuancen und kleinen Ausbrecher aus dem genauen Rhythmus und Zwischenanspielen der Saiten bringen den Unterschied. Das Programm kann aber natürlich auch nur so gut sein, wie der, der den Song eingibt. COMPUTER UND GEFÜHLE Das Programm ist wirklich top um Songs einzustudieren, Beispiele anzuhören und zu lernen. Hier zeigt sich die Digitalisierung durchwegs positiv. Jeder kann sich die Lieder downloaden und nachspielen. Das Programm kann zwar noch nicht alles, doch die Möglichkeiten und Technologien verbessern sich stetig. Bei unserem Beispiel repräsentiert das Programm die computergeneriete Musik. Wir werden später noch etwas vertiefter auf diese Musik eingehen. 5 Mit dem Plektrum über die Saiten ziehen, was ein “quitschendes Rutschen” generiert bei dem das Ausgangs-Signal auf den Eingang „zurückgefütter“ wird, wodurch bei einer Mikrofon/Lautsprecher Kombination das typische Pfeifen entsteht. Bei der E-Gitarre wird diese Rückkopplung, auch Feedback genannt, bewusst zur Klangbearbeitung eingesetzt 6Vorgang, Januar 2008 23 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Die Computermusik kann also nützlich sein, auch für Anbeter der handgemachten Gitarrenmusik. Vergleicht man dann aber die generierte Musik mit dem Original von Nightwish bemerkt man sofort die Unterschiede. Aber auch bei mir zeigen sich die Differenzen klar, obwohl ich meine Künste nicht mit Grössen wie Slädu, Satriani, Hendrix oder Chuck Berry messen kann. Echte Gitarrenmusik beinhaltet Gefühle. Auch die Befriedigung beim Spielen sollte nicht vergessen werden, denn es zählt auch das Musizieren an sich. Gitarrenmusik ist etwas Spezielles, mehr als nur einfach Schwingungen von Saiten. Durch die Digitalisierung können wir diese tolle Musik heutzutage überall und jederzeit geniessen. Die Technik bringt den Fortschritt. BEDEUTUNG DE STROMGITARRE Wir knüpfen an die eben aufgegriffenen Themen an und möchten die Bedeutung der Gitarre noch etwas genauer durchleuchten. Eine Ausstellung im Museum für Kommunikation in Bern thematisierte vorletztes Jahr die Stromgitarre. Der Slogan war folgender: Legenden, Lärm, Leidenschaft. Es sind genau die Stichwörter die die E-Gitarre beschreiben. LEGENDEN Im Sport, in der Kunst und vor allem in der Musik gibt es Idole und Legenden. Die Gitarrenmusik ist mit ihnen entstanden und gross geworden. Wir sind wahrscheinlich zu jung um zu begreifen, wie die E-Gitarre von den Fünfzigern bis Achtzigerjahren die Welt erobert hat. Wenn man sich Bilder und YouTube-Clips dieser Zeit ansieht, spürt man doch irgendwie diese Atmosphäre. Da waren Lennon und McCartney, welche mit den Beatles mit 1.3 Milliarden verkauften Tonträgern und duzenden Nr. 1 Hits die wahrscheinlich erfolgreichste Band der Welt waren. Da war Abb. 15: Bekanntes Bild der Beatles Johnny Cash, einer der Bedeutendsten Country-Musiker der Geschichte. Er nahm sogar ein Album in einer Strafanstalt auf. Da war Jimmy Hendrix, welcher mit seiner experimentellen und neuartigen Spieltechnik die Menschen begeisterte. Da war Bob Dylan, ein Musiker und Songwriter der die Pop und Rockkultur wie kaum ein Anderer geprägt hat. Er gab den Texten der Rockmusik eine sprachliche Komplexität und Tiefe, wie es bis anhin kaum denkbar gewesen war. Da war auch Juck Berry, der Rock’n’Roll Gott. Das Lied Johnny B. Goode kennt wohl jeder. Da war und ist auch noch Alice Cooper, der Vater des Grusel-Hard-Rock, welcher Menschen wie Manson inspirierte. Und da sind die Rolling Stones, die dienstältesten Rocker unserer Zeit. Sie sind für ihren etwas exzessiven Lebensstil bekannt und es vergeht wohl noch einige Zeit, bis sie Ihr Abschlusskonzert geben werden. Dieser kleine Ausschnitt aus der Stromgitarrengeschichte zeigt; Diese Musik lebt von Legenden. LÄRM Für Viele war die Gitarrenmusik eine Störende Erscheinung einiger Jugendlicher. Nichts anderes als Lärm. Wobei man nicht verschweigen kann, dass eine E-Gitarre in falschen oder unerfahrenen Händen doch etwas laut und lärmig sein kann. Etwas Neues hat immer eine gewisse Zeit bis es akzeptiert wird. Wobei die Stromgitarrenmusik vielmals auch für Opposition und Rebellion stand. Man wollte ausbrechen aus dem Kleinbürgertum, sich profilieren, anders sein als Andere. Sich auflehnen gegen Erwachsene und Staat. Inbegriff hierfür ist die PunkSzene. Gefärbte Haare, drei Akkorde und etwas Gebrüll. Da konnte Jeder mitmachen und über die Saiten raspeln. Auch im Summer of Love 1967 dem Höhepunkt der Hippiebewegung wurde gegen etwas musiziert, den Krieg. Die ganze Geschichte der Gitarrenmusik ist gezeichnet von hunderten von Drogenexzessen, Abstürzen und frühzeitigen Ableben der Musiker. Viel Lärm also im Zusammenhang mit der Gitarre. Januar 2008 24 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch LEIDENSCHAFT Ein Holzklotz, 6 Drähte, das Summen des Verstärkers. Beleuchtung, tobende Menschenmassen, Posen und Geschrei der Musiker und mittendrin die E-Gitarre. Kein anderes Instrument kann wohl die Menschen so faszinieren und mitreisen wie die Gitarre. Es ist mehr als nur Musik, es ist eine Leidenschaft, ein Lebensgefühl. Diese Gefühlsausbrüche, die Auflehnung, die Rebellion und zugleich auch die Atmosphäre der weltweiten Zugehörigkeit und Verbundenheit, dröhnende Boxen, musikalisch explodierende Riffs, getrieben bis zur Ekstase. So kann man die Stromgitarre umschreiben. Wir sehen so, was für eine Bedeutung die Gitarre haben kann. Auch wenn die grosse Zeit der Rockmusik vorbei ist, so kann man heutzutage bei Festivals wie zum Beispiel denen auf dem Gurten oder dem Rock Sound Huttwil diese Gefühle und Leidenschaft miterleben. Abb. 16: Gotthard am RockSoundFestival Huttwil Da ich Gitarre spiele und manchmal wohl auch die Nachbarn an meiner Musik teilhaben lasse, kann ich bestätigen, dass die Stromgitarre etwas Spezielles ist. Die Musizieren ist Ausdruck der Gefühle und wie eine Flucht vor der Realität. Man kann sich gehen lassen und seine Energie in Musik fassen. Ein faszinierendes Instrument. Wir sehen, die Bedeutung der Gitarre kann man nur schwer in Worte fassen, man muss es erleben. Zudem hat die Gitarre wohl für Jeden eine andere Bedeutung und ruft Erinnerungen wach. Abschliessend kann man sagen, die Gitarrenmusik lebt von der Atmosphäre, der Leidenschaft und den Legenden welche sie geprägt haben und noch prägen werden. Durch die Digitalisierung lässt sich diese Musik nicht nur Live sondern mit dem Mp3-Player auch überall anhören, wenn auch nicht dieselbe Atmosphäre entstehen kann. Januar 2008 25 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch BEDEUTUNG DER ELEKTRO/COMPUTERMUSIK Die Computergenerierte Musik hat, wie vorhin angesprochen, bereits den Weg zu der Gitarrenmusik gefunden. Zu Schulungszwecken lässt sie sich ausgezeichnet gebrauchen. Wie wir auch wissen sind Teile der Elektronischen Musik bereits in allen Musikrichtungen zu finden. Equalizer, digitale Schlagzeuge und die digitale Abmischung von Ton erweitern und prägen die heutige Musikwelt. Die Digitalisierung bringt hier also viele Vorteile. Nebst dieser eher unterstützenden Variante, existiert die Elektronische Musik auch Selbstständig. Sie verzichtet dabei völlig auf Instrumente. [Sound 14 – Bob Synclair feat. Dollarman & Big Ali – Rock this Party] (Orginal von C&C Music Factory) Wir sprechen von der Unterhaltungsmusik, die in jeder Stadt, in vielen Lokalen und Veranstaltungen dominiert. Die von DJs abgemischten und komponierte Musik ist der Inbegriff der Digitalisierung in der Musik. Genres wie Techno, House, Elektro, R’n’B, oder auch Hip-Hop vermitteln eine etwas andere Atmosphäre als die Gitarrenmusik, doch es existieren auch einige Parallelen. Die Beats kommen genauso durchdringend aus den Lautsprechern, doch sind die Besucher etwas anders gekleidet. Wobei man Abb. 17: Plakat des Prestige-Club von früheren Rockkonzerten das ebenfalls behaupten könnte. Auffallend sind jedoch die vielen, teils leicht offensiv gekleideten Frauen. Es wird Zusammengehörigkeit vermittelt, die Musik ist „cool“ und man kann verschiedene Leute kennen lernen. Dabei fliesst massenhaft Alkohol und man konsumiert teils auch etwas speziellere Drogen. So mussten an der Streetparade 2007 von 800‘000 Ravern bei 900 Personen Erste-Hilfe geleistet werden und 135 wurden ins Spital eingeliefert. Dazu kam der Todesfall eines erstochenen Mannes. Eine erschreckende Bilanz. Doch dürfen wir diese negativen Punkt nicht einfach der Digitalisierung zuschieben. Vielmehr gibt es im Ausgang immer mehr Gewalt, doch das müsste wohl in einer anderen IDPA vertieft werden. Nun denn, Drogenexzesse gab es bereits viel früher. Es ist also keine Nebenerscheinung der Digitalisierung. Durch die teilweise etwas spezielle Musik, welche für manche Leute wohl nur mit Drogen konsumierbar wäre, kann dieser Aspekt der Drogen aber durchaus verstärkt werden. Die Digitalisierung ist also im übertragenen Sinn wiederum doch nicht ganz unschuldig. Die Elektronische Musik wäre aus der heutigen Unterhaltungsmusik und dem Ausgang nicht mehr wegzudenken. Sie ist genauso ein Massenbewegungsinstrument wie die Gitarre. Die Gesellschaft wandelt sich, und so auch die Musik. Januar 2008 26 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch BEDEUTUNG DER DIGITALISIERUNG ALLGEMEIN Eigentlich sind diese beiden Einblicke in diese zwei Welten der Musik nur ein Ausschnitt aus der Musikbranche. Es soll uns Anhaltspunkte geben, mit welchen wir die Digitalisierung in der Musik fassen und beschreiben können. Die Digitalisierung hat mittlerweile wahrscheinlich überall Einzug gehalten. Doch nicht nur bei der Musik selbst hat die Digitalisierung Spuren hinterlassen, sondern auch in der Handhabung von Musik. Laufen wir durch Bern sehen wir überall Kopfhörer, Mp3-Player und iPods soweit das Auge reicht. Jedes Kleinkind und jeder Pensionierte hat seine Musik dabei. Von Klassik über Techno bis zu Rock und Salsa ist eigentlich alles vertreten. Kaum hat man Zugang zu einem Computer werden die Schallplattensammlungen und CDs digitalisiert, sortiert, geordnet und dann auf unseren stetigen Begleiter übertragen. Kommt noch ein Internetzugang hinzu, wird auch schon bald eine neue Festplatte benötigt, aufgrund der gedownloadeten Musik. Durch die Digitalisierung muss man nicht mal mehr aus dem Haus, um den neusten Chart aus den Lautsprechern hören zu können. Im 21 Jahrhundert befinden wir uns im Computerzeitalter. Alles wird digitalisiert, nicht nur Musik, sondern auch Fotos, Filme, Dokumente, Bücher, Karten und verschiedenste Daten. Man möchte Alles für die Nachwelt sichern und erhalten. Daten werden immer schneller ausgetauscht und man bemerkt, dass die eben gekaufte Festplatte bereits wieder voll ist. Ohne unsere Siliziumfreunde könnten wir wohl nicht mehr leben. Alles wird in Nullen und Einsen in Bits und Terabytes auf Festplatten und DVDs verewigt, wobei dieses „Ewig“ etwas umstritten ist. Unsere Krankenakte, der Ehevertrag, unsere Handygespräche, unsere Umgebung, das Wachstum von Wüstenrennmäusen, die Rezepte der Grossmutter, unsere Gehirnströme und eben unserer Lieblingsmusik wird eiskalt in Nullen und Einsen ausgedrückt, geordnet und archiviert. Null oder Eins. Alles Digital. Man könnte noch viel Philosophieren, denn das waren nur einige Gedanken unsererseits. Es ist unglaublich, was schon alles digitalisiert wurde. NACHTEILE – KONTROVERSE Wie man aus unseren Gedankengängen bereits etwas herausfühlen kann, beinhaltet die Digitalisierung natürlich auch Nachteile. Im Bezug zur Musik sind da in erster Linie die massenhaften illegalen Downloads zu nennen. Wobei die Plattenfirmen immer mehr Profit machen wollen. Ein Musiker erhält bei einer verkauften CD nicht einmal mehr 10 % des Verkaufspreises. Aber auch die Künstler verlieren natürlich so Geld. Rechtstreits sind die Folge. Die SUISA (Schweizerische Gesellschaft für die Rechte der Urheber musikalischer Werke) hat am 1. September 2007 eine Gebühr auf Datenträger erhoben, welche die Künstler für illegale Downloads entschädigen sollen. Damit erntet die SUISA natürlich viel Kritik. Denn einerseits ist die Besteuerung bescheuert, andererseits legitimiert dies den kostenlosen Download. Wieso für Musik bezahlen, wenn ich dies bereits mit dem Kauf eines Players getan habe? Hier sollten die Musiker, Plattenfirmen und die Konsumenten einen gemeinsamen Weg finden. Doch das wird sicherlich noch einige Zeit dauern. Übrigens wollen sogar einige Plattenfirmen die Tabulaturnoten welche mit GuitarPro abgespielt werden, oder ganz allgemein Musiknoten verbieten oder kostenpflichtig machen. Ich frage mich wie man auf ein Instrument zum Erlernen des Gitarrespielens rechtlichen Anspruch erheben kann? Zumal die Noten von Gitarristen herausgehört werden und dann über Plattformen zur Verfügung gestellt werden. Der Künstler wird nicht im Geringsten beeinträchtigt. Uns würde es jedenfalls freuen wenn man unsere Musik spielen würde. Wir haben also das Problem der Eigentumsrechte, welches die Digitalisierung mit sich bringt. Ein ganz anderes Thema ist die Live-Musik allgemein. Die Leute laden sich alles runter und hören sich diese Musik an. Handgemachte Musik ist immer weniger gefragt. Das ist eigentlich schade. Doch auch wenn die Partyszene dominieren dürfte, gibt es immer noch eine Vielzahl an Veranstaltungen welche echte Live-Musik bieten. Januar 2008 27 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch STELLUNGNAHME CHRISTOPH HAGER Obwohl unsere Gedanken bereits in dieses Kapitel mit eingeflossen sind, möchten wir hier noch persönlich Stellung nehmen. Alles in allem bin ich von der Digitalisierung angetan. Ich habe soviel Musik auf meinem Computer, dass ich manchmal wirklich den Überblick verliere. Und ohne MP3 gehe ich sowieso nicht aus dem Haus. Aber ich muss hier anmerken, dass ich die Live-Musik liebe. Besonders Hardrock. Diese Musik vermittelt mir etwas Lebendiges, Positives und Freies. Allein der Sound einer verzerrten Gitarre versetzt mich ins Schwärmen, wie man vielleicht in diesem Kapitel etwas bemerkt hat. Wahrscheinlich bin ich dreissig Jahre zu spät auf die Welt gekommen. Ich liebe es abends heimzukommen und in die Saiten zu greifen. Die Gitarre ist etwas Besonderes, fast wie ein Lebewesen. Manchmal kann man damit besser spielen, und ein andermal will es einfach nicht so recht. Ich habe auch mehrmals versucht mein Gespieltes aufzunehmen und zu Digitalisieren. Doch es überzeugt mich nicht. Das Erlebnis ist nicht dasselbe wie wenn man direkt spielt. Von der Elektronischen Musik bin ich zwar nicht wahnsinnig begeistert. Doch ab und zu im Ausgang zu den tiefen Bässen zu schaukeln macht doch auch einigen Spass. Wie gesagt, finde ich die Digitalisierung nicht grundsätzlich schlecht. Doch heutzutage sind die meisten Daten digital. Durch das Internet und die Hacker, können so Daten gestohlen oder eingesehen werden. Wir sollten also vernünftig mit dem Ganzen umgehen. Mittlerweile kann man eine Person einfach googlen und weiss über Ihr halbes Leben Bescheid. Solange wir nicht eines Tages schon kurz nach Geburt verkabelt werden, bin ich jedoch zuversichtlich, dass die Digitalisierung uns den Fortschritt bringt. STELLUNGNAHME PHILIPP GERBER Ich betrachte die Digitalisierung als wahrscheinlich den grössten technischen Fortschritt der Menschheit. Jeder von uns ist davon betroffen, ob wir es nun mögen oder nicht. Ein grosser Teil unseres Wissens und unserer Kultur ist digital. Das bedeutet, dass die geistigen Schöpfungen häufig gleich im Computer entstehen, meist am Computer weiterbearbeitet und wiederum über Computer an andere Menschen weitergegeben werden. Was ist aber wenn wir all diese Daten in hundert Jahren nicht mehr lesen können? Experten befürchten das grosse Datensterben. Ich habe ja schon jetzt Probleme, wenn ich eine Diskette einlesen möchte, da mein Laptop kein Diskettenlaufwerk mehr besitzt. Hier liegt wohl die grösste Gefahr der Digitalisierung. Januar 2008 28 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch FAZIT Die Digitalisierung ist einerseits die Erfassung eines Musikstücks in ein Datenformat. Andererseits muss bei Ihr auch der Aspekt der Auswirkungen, Möglichkeiten und die Handhabung von Musik betrachtet werden. Es eröffnet uns unendliche Möglichkeiten und Chancen. Doch die Digitalisierung hat auch einige negative Nebenerscheinungen, wie Rechtstreits. Auch wenn wir die Live-Musik nicht vernachlässigen sollten, können wir mit der Digitalisierung unsere Lieblingsmusik überall anhören. Was uns die Zukunft mit der Digitalisierung bringen wird betrachten wir als interessant, aber auch etwas skeptisch. Ein jeder sollte sich also der Bedeutung der Digitalisierung bewusst werden, um damit vernünftig umgehen zu können. Januar 2008 29 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DIE TECHNIK HINTER DER DIGITALISIERUNG In diesem zweiten Teil befassen wir uns mit der Technik hinter der Digitalisierung. Wir werden auf die Entstehung von Ton zu sprechen kommen, die eigentliche Digitalisierung näher betrachten und werden auch Klanganalysen anfertigen. Dabei werden wir versuchen die Theorie mit Beispielen zu fundieren. ENTSTEHUNG VON TON – GRUNDLAGEN DER AKUSTIK EINFÜHRUNG Wir möchten uns in diesem zweiten Teil der Arbeit zu den technischen, akustischen aber auch mathematischen Gebieten der Musikdigitalisierung eintauchen. Anfangen möchten wir mit den Grundlagen der Akustik, da dies für das Verständnis des Kommenden unumgänglich ist. Darauffolgend widmen wir uns sogleich der Digitalisierung. In einem nächsten Schritt wollen wir uns in die Welt von Tönen, Frequenzen und Amplituden vertiefen. Schliesslich wagen wir den Schritt von der Theorie hin zu Klanganalysen und noch weiter, bis wir bei der Musik angelangt sind, um zu begreifen, was Musik ist. GRUNDLAGEN Wie angesprochen werden wir hier kurz die physikalischen Aspekte der Musik beschreiben. Wichtig sind sicherlich folgende Punkte: Wie hören wir? Was ist ein Ton und wie entsteht er? Was ist Musik rein physikalisch betrachtet? WIE HÖREN WIR? Jeder weiss; mit den Händen fühlen, mit den Augen sehen und mit den Ohren hören wir. Das hört sich ganz selbstverständlich an, doch was ist das eigentlich, was wir mit unseren Ohren wahrnehmen? Einfach gesagt sind es Schallwellen, welche von verschiedensten Objekten generiert werden können. Die Schallwellen gelangen beim Ohr über den Hörkanal zum Trommelfell, welches die Luftdruckänderungen aufnimmt und ins Ohrinnere weitergibt, wo das ganze in bioelektrische Impulse umgewandelt wird. Das Gehirn interpretiert dann diese Impulse, und wir hören. DER SCHALL Was sind eigentlich Schallwellen? Schallwellen sind effektiv mechanische Wellen, welche durch Druck- und Dichteveränderungen hervorgerufen werden. Jeder Schall braucht Teilchen um sich fortbewegen zu können. Ein Teilchen schiebt das nächste an, welches wiederum ein weiteres anschiebt. Doch die Luftteilchen können natürlich nicht einfach immer weiter wandern, so bewegen sich die Teilchen nach der Welle wieder in ihre ursprüngliche Position. Der Schall hat in der Luft eine Geschwindigkeit von 343m/s. Januar 2008 30 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VON SCHWINGUNGEN UND RESONANZEN Schallwellen können durch Schwingungen entstehen. Eine Schwingung ist eine periodische Bewegung, wie zum Beispiel die eines Pendels oder einer Saite. Aber auch eine Membran oder eine Zunge können schwingen und so Schallwellen erzeugen. Um einen hörbaren Ton mit der Saite einer Gitarre zu erzeugen, benötigt es auch immer noch eine Resonanz. Das heisst, es benötigt ein schwingfähiges System, welches sich der Schwingung der Saite annimmt und so verstärkt. Die Erregerfrequenz der Saite muss dabei der Eigenfrequenz der Gitarre entsprechen. Abb. 19: Schwingende Membran Abb. 18: Schwingende Saite Abb. 20: Schwingende Zunge WAS IST EIN TON? Um Unklarheiten zu vermeiden, möchte ich zuerst definieren was ein Ton ist. Physikalisch betrachtet ist ein Ton eine sinusförmige Schwingung. (Abb.21.1) (Absolut unnatürlich) Überlagert man mehrere solche Schwingungen erhält man eine periodische Schwingung was einem Klang entspricht (Abb. 21.2) (Vorsicht: Musiker sprechen hier auch von einem Ton) Eine nicht periodische Schwingung wird als Geräusch wahrgenommen (Abb. 21.3). Durch Aneinanderreihung von Klängen und auch Geräuschen kann Musik entstehen. Abb. 21.1: Ton Abb. 21.2: Klang Abb. 21.2: Geräusch In den Graphen kann man die Schwingungen sehr gut erkennen. Um nicht einfach von Schwingungen sprechen zu müssen und diese auch mathematisch analysieren zu können, sollten wir noch einige Dinge erklären. Amplitude: Als Amplitude ist die physikalische maximale Auslenkung einer Schwingung definiert. Sie zeigt uns die Stärke oder eben die Lautstärke einer Schwingung. Je mehr Energie in eine Schwingung eingeleitet wird, umso mehr schlägt diese aus. So wird uns auch klar, dass analog zu unserem Teilchen-Beispiel nach jedem Überdruck ein Unterdruck entsteht. Töne sind also nichts anderes als diese Druckschwankungen. Frequenz: Die Frequenz definiert die Anzahl der Schwingungen pro Zeiteinheit. Sie definiert uns die Höhe des Tones. Je höher die Frequenz umso höher der Ton. Hier sehen wir auch, dass die horizontale Achse als Zeit beschrieben ist. Der Abstand von einem Wellenberg zum Nächsten nennt man Periode und wird in T Sekunden gemessen. Die Frequenz 𝑓 wird in Hertz angegeben. Der Mensch ist fähig von 20 bis etwa 20‘000 Hz zu hören. Mit zunehmendem Alter schränkt sich dieser Bereich etwas ein. 𝑓= Januar 2008 1 𝐻𝑧 𝑇 31 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Die Charakterisierung eines Tones geschieht also durch die Frequenzen und die jeweiligen Amplituden. Bei einem Klang sind mehrere solche einfachen Töne übereinander gelagert. Der Ton mit der niedrigsten Frequenz, der der eigentlichen Tonhöhe einspricht, nennt man den Grundton. Er gibt sozusagen den Ton an. Hinzu kommen Obertöne, welche jeweils ein Vielfaches der Grundschwingung beinhalten. Zusammen mit dem Grundton, Rauschanteilen, sowie dem zeitlichen Verlauf des Frequenzspektrums (Ausbildung der verschieden Frequenzen) und der Lautstärke geben die Obertöne einem Klang seinen Charakter. Man spricht hier von Klangfarbe. + = → Abb. 22: Zusammensetzung von einem Klang Bleibt uns noch das Geräusch. Alles was nicht als Ton oder Klang bezeichnet werden kann wird als Geräusch definiert. Es ist in der Regel nicht periodisch. Ein Geräusch wird durch seinen zeitlichen Verlauf, seinem Spektrum, seine Störwirkung aber auch der Herkunft charakterisiert. Geräusche sind sehr vielseitig. Strassenverkehrsgeräusche stören den Menschen, die Geräusche der Natur werden jedoch als angenehm empfunden. Abb. 23: Geräusch Mit diesen Grundlagen sind wir also gerüstet für unsere weiteren Tätigkeiten. Und wir haben bereits etwas Grundlegendes geklärt: Physikalisch betrachtet ist Musik nichts anderes, als Druckschwankungen, welche von unserem Gehirn interpretiert werden. Januar 2008 32 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DIGITALISIERUNG VON MUSIK Nachdem wir die Geschichte der digitalen Tonaufnahme und Tonträger (DAT, CD) zu Beginn der Arbeit abfassten, möchten wir in diesem Kapitel die Technik der Digitalisierung genauer betrachten. ANALOG GEGEN DIGITAL Der Hauptunterschied von analogen zu digitalen Systemen liegt in der Art der Darstellung von Informationen. Digitale Informationen sind immer nur Zahlenwerte, die zu einzelnen Zeitpunkten gemessen werden. Das bedeutet einen grossen Unterschied zu analoger Information, wo kontinuierliche, nicht auftrennbare Werte aufgezeichnet sind. Zur Veranschaulichung hier ein kurzes Beispiel; Bei einer analogen Uhr scheint die Zeit kontinuierlich zu fliessen, die Zeiger bewegen sich über den Stundenkreis und decken dabei jeden einzelnen Zeitbereich ab. Eine digitale Uhr zeigt ebenfalls die Zeit an, jedoch auf einem Display mit einzelnen Werten zu bestimmten Zeitpunkten, jeder Sekunde oder jeder Minute. Im Audiobereich funktioniert dies genauso. Die Töne verändern sich ständig und können aufgenommen und wiedergegeben werden, in kontinuierlicher analoger Form oder in einzeln abgetasteter digitaler Form. So wie beide Uhren die Zeit anzeigen, geben beide Aufnahmearten die gleiche Musik wieder. SAMPLING Zusammengefasst bedeutet Digitalisierung also nichts anderes als die Aufteilung eines Signals in einzelne Messpunkte bei gleichen Zeitabständen. Diesen Prozess nennt man Sampling oder auf Deutsch zeitdiskrete Abtastung. Die Sache ist jedoch nicht ganz einfach, weil man zuerst einige knifflige Entscheidungen zu treffen hat. Als erstes stellt sich die Frage, wie viele Messungen wir vornehmen möchten? Wie schnell tasten wir das Signal ab? Und wenn ein digitales System nur einzeln abtastet, was passiert mit den Informationen zwischen den Abtastungspunkten? DAS NYQUIST-THEOREM Diese Fragen können wir mit dem Nyquist-Theorem beantworten. Der amerikanische Physiker und Ingenieur Harry Nyquist hat bereits 1928 ein Mathematisches Konzept entworfen, das beweist, dass eine Wellenform in Einzelschritten abgetastet und wieder komplett rekonstruiert werden kann, wenn die Abtastung (das Sampling) korrekt ausgeführt wird. Der formale Beweis erfolgte jedoch erst 1949 durch Claude E. Shannon. Die zentrale Aussage dieser beiden Arbeiten wird heute allgemein als das Abtasttheorem bezeichnet. Das Abtasttheorem besagt, dass die Abtastfrequenz mindesten zweimal so hoch sein muss wie die höchste Frequenz des Messsignals: 𝑓𝐴𝑏𝑡𝑎𝑠𝑡 > 2 ∙ 𝑓𝑚𝑎𝑥 Die Frage, die sich automatisch stellt ist nun: Wie kann ich die Frequenzen des Signals erkennen? Dazu führt man eine Fourieranalyse des Messsignals durch, so dass wir aus dem Signal ein Spektrum erhalten, dessen Frequenzanteile nun abgelesen werden können (vgl. Kapitel Fourieranalyse). Um bei einer gegebenen Abtastfrequenz das Abtasttheorem trotzdem einzuhalten, müssen wir den Frequenzgang des Eingangssignals bei der Hälfte der Abtastfrequenz beschneiden. Das bedeutet im konkreten Fall den Einsatz eines Tiefpassfilters7 bei ungefähr 20kHz. Wenn diese Filterung stattgefunden hat, können wir das Signal fehlerfrei abtasten und damit die originale Kurvenform wiederherstellen. Diese wird durch einen Ausgangsfilter "geglättet" und es entsteht wieder das Originalsignal. 7 Schneidet alle hochfrequenten Teile des Signals ab, tiefere Frequenzen können den Filter passieren. Januar 2008 33 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Abb. 24: Funktionsweise eines digitalen Audiosystems (Schematisch) ALIASING Was passiert, wenn das Abtasttheorem nicht erfüllt ist? In diesem Fall entspricht das aus den digitalen Werten rekonstruierte Signal nicht mehr dem Originalsignal. Aliasing ist die Fehlreaktion eines digitalen Systems auf jede Frequenz, die höher liegt als die halbe Abtastfrequenz. Als Ergebnis von Unterabtastung kann Aliasing neue Frequenzen erzeugen. Die Aufgabe des Entwicklers ist es, jegliches Auftreten von Aliasing zu verhindern. Wie bereits erwähnt kann ein Tiefpassfilter (das auch Anti-Aliasing-Filter genannt wird) im Eingang genau diese Aufgabe erfüllen. Abb. 25: Als Ergebnis von Unterabtastung kann Aliasing neue Frequenzen erzeugen. Januar 2008 34 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch QUANTISIERUNG Wie wir gesehen haben, stellt Sampling eine Methode dar, in regelmässigen Abständen eine Messung vorzunehmen. Die Messung eines Tonsignals macht aber nur dann Sinn, wenn sowohl Zeit als auch Wert dieser Messung festgehalten wird. Dieser Wert, im Audiobereich die Amplitude der Schwallwelle, wird über einen Analog-Digital-Wandler in einen Zahlenwert umgewandelt. Dieser Vorgang nennt man Quantisierung. Sowohl das Sampling als auch die Quantisierung sind Parameter, mit denen die Grenzen eines digitalen Audiosystems festgelegt werden. Digitale Signale können als „ja“ oder „nein“, „1“ oder „0“, „Strom“ oder „kein Strom“ gut abgespeichert und bearbeitet werden. Da pro Stelle nur eine „1“ oder eine „0“ vorkommt, werden Zahlen so im Zweiersystem oder Binärsystem dargestellt. Die Anzahl Bits besagt, auf wie viele Stellen genau eine Zahl dargestellt wird. Die üblichen digitalen Audiosysteme zerlegen die Amplitude der Töne auf 16 Bit genau. Dies erlaubt eine Auflösung der Amplitude in 216 = 65‘536 Stufen oder Einzelwerte. QUANTISIERUNGSFEHLER Sampling funktioniert bei einhalten des Abtasttheorems perfekt, Quantisierung jedoch funktioniert nie perfekt. Genauso wie Länge, eine analoge Grösse gemessen werden kann (z.B. in Zentimeter), kann auch ein Tonsignal gemessen werden (z.B. in Volt). Und genauso leicht, wie bei einer Längenmessung Fehler auftreten, entstehen sie auch bei der Quantisierung. Alle Messwerte eines Signals, die zwischen den Werten liegen, die den einzelnen Quantisierungsstufen entsprechen, müssen jeweils auf bzw. abgerundet werden. Dabei entsteh ein Fehler, dessen Grösse niemals die Hälfte einer Quantisierungsstufe überschreiten kann. Durch dieses bei der Quantisierung des Signals stattfindende Runden entsteht ein Klirren oder Rauschen. Damit wird klar, dass je höher die Auflösung ist, die Fehler umso kleiner werden und das Klirren abnimmt. Als Mass für das Klirren wird in der Audiotechnik der Klirrfaktor benutzt. Abb. 26: a) Quantisierung eines Signals, b) Betrag des Quantisierungsfehler Januar 2008 35 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch CODIERUNG Begriffe wie Sampling und Quantisierung bilden die Basis des digitalen Audio. Alle digitalen Audiosysteme verwenden diese Techniken zur Aufnahme und Wiedergabe von Musik. Die Methoden, mit denen diese Techniken angewandt werden, können sich jedoch erheblich voneinander unterscheiden. Es gibt viele Möglichkeiten, Digitaldaten zu codieren, mit verschiedenen Systemarchitekturen, die diese Aufgabe lösen. Die sogenannte Pulscode-Modulation (PCM) stellt im digitalen Audio die am weitesten verbreitete Systemarchitektur dar. PCM ist einfach eine effektive Modulationsmethode. Gäbe es sie nicht, wären digitale Audiosysteme viel komplexer und teurer. A b b Abb. 27: Bei PCM werden die Amplitudenwerte direkt in das binäre Signal übertragen KURZFASSUNG Kurz gesagt, erfolgt die Digitalsierung in drei Schritten: - Abstastung (Sampling) - Quantisierung - Codierung Bei der Abtastung wird das Audiosignal in einzelne zeitdiskrete Messpunkte zerlegt. Durch die Quantisierung wird die analoge Amplitude der einzelnen Messpunkte in numerische Einzelwerte übertragen. Das entstandene digitale Signal wird nun noch codiert, also mit binären Codewörtern beschrieben. Eine Audio-CD besitzt eine Samplingrate von 44.1 kHz und eine 16-Bit-Quantisierung. Sowohl beim Sampling wie auch bei der Quantisierung können Fehler entstehen. Beim Sampling gilt es das Abtasttheorem zu beachten. Es besagt, das die Samplingrate mindestens doppelt so hoch sei muss, wie die höchste vorkommende Frequenz im Audiosignal. Bei der Quantisierung entsteht durch Auf- bzw. Abrunden der Amplitudenwerte auf das Bitraster ein Rauschen (Quantisierungsrauschen). Mit einer genügenden grossen Auflösung der Amplitude, ist das Rauschen nicht relevant, da es sich unterhalb des menschlichen Hörvermögens befindet. Januar 2008 36 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DIE WICHTIGSTEN AUDIO-FORMATE ÜBERSICHT: WAV = WAVE (Welle) wave form audio: Unkomprimierte Audiodatei, enthält alle Audioinformationen MP3 = MPEG-1 Audio Layer 3: Datenreduzierte Audiodatei, nicht wahrnehmbar Audioinformationen sind entfernt AAC = Advanced Audio Coding: Datenreduzierte Audiodatei, verbesserter Nachfolger von MP3 WMA = Windows Media Audio: Datenreduzierte Audiodatei, entwickelt von Microsoft für Windows Betriebssysteme. MIDI = Musical Instruments Digital Interface: Steuerdatei, die Musikinformationen erhält, welche an einen Klangerzeuger gesendet werden WAV: Die Abkürzung WAV steht für wave (englisch: Welle) und bezieht sich auf die Wellendarstellung eines Tons oder Geräusches in einem Oszillografen. Eine Sounddatei mit der Endung .wav wird als „Wavedatei“ bezeichnet. WAV-Dateien sind in Relation zu den anderen Klangformaten recht gross, eine Minute Musik in CD-Qualität benötigt ungefähr 10 MB Speicherplatz. So ergibt sich im Übrigen auch die Maximaldauer handelsüblicher Audio-CDs , auf eine CD passen knapp 700MB Daten, also ungefähr 70 Minuten Musik. Der Vorteil von WAVDateien liegt darin, dass in ihnen alle Musikinformationen verlustfrei gespeichert sind, man hat also das im Rechner vorliegen, was wirklich „war“. MP3: Auch MP3 ist eine Abkürzung und steht ursprünglich für „MPEG II Layer 3“, ein vom Fraunhofer Institut entwickeltes Verfahren zum Codieren von Audiosignalen für digitale Videofilme. Ursprünglich als Teil eines Videocodecs entwickelt, hat sich MP3 inzwischen als weltweites Medium zum (teilweise illegalen) Austausch von Musik über das Internet durchgesetzt, da es die Daten von Audiodateien so reduzieren kann, dass eine 3Minuten Audiodatei statt 30MB nur noch knapp 3MB belegt, und das ohne hörbaren Qualitätsverlust. Die MP3-Codierung setzt hierzu verschiedene Methoden ein, unter anderem werden unhörbare (weil zu hohe/tiefe Frequenzen) und Töne, die aufgrund von Maskierungsvorgängen im Gehör nicht wahrnehmbar sind, aus der Datei entfernt. So kann eine Datenreduktion von 10:1 geschehen. Vorsicht ist jedoch geboten, wenn MP3 Dateien weiterverarbeitet werden sollen: Einmal entfernte Audioinformationen lassen sich nicht wieder herstellen. Im Gegensatz zu Packformaten wie ZIP oder RAR sind die Informationen in einer MP3 Datei gelöscht und nicht nur komprimiert! Bei jeder weiteren Bearbeitung stehen die Informationen auch nicht mehr zur Verfügung. MIDI: Das Kunstwort MIDI steht für Musical Instruments Digital Interface und bezeichnet einen Standard zur Kommunikation von digitalen Musikinstrumenten (E-Pianos, Synthesizer, Computer, Drum-Computer etc.) untereinander. MIDI-Dateien haben im Allgemeinen die Endung .mid und sind im Vergleich zu allen anderen Soundformaten extrem klein. Das liegt daran, dass in einer MIDI-Datei nur Informationen über die zu spielende Musik aufgezeichnet sind, nicht aber die Musik selber. Januar 2008 37 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Man kann sich den Inhalt einer MIDI-Datei vereinfacht wie ein Notenblatt vorstellen, auf dem ein Musikstück aufgezeichnet ist. Wie die dort aufgezeichnete Musik letztlich klingt, hängt vom Musiker und dessen Instrument ab. Ebenso hängt es bei MIDI-Dateien davon ab, an welchen Klangerzeuger die Daten gesendet werden (billige Soundkarte, teurer Synthesizer, Sample-Player), allein die Qualität des Klangerzeugers entscheidet über die Qualität des Klangs. MIDI-Daten werden in 128 Abstufungen (0-127) angegeben. Zu den möglichen Angaben zählen neben Notennamen auch Lautstärke, Anschlagsstärke, Panoramaauslenkung und vieles mehr. MIDI-Dateien werden meist innerhalb von Notenprogrammen oder in Sequenzern (in Verbindung mit „echten“ Audiosignalen aus WAV- und MP3-Dateien) eingesetzt. Vielfach steuern MIDI-Dateien virtuelle Synthesizer, die sehr realistische Klänge aus den „toten“ MIDI-Daten generieren können., wie zum Beispiel das GuitarPro. Januar 2008 38 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch FOURIERANALYSE EINFÜHRUNG Um die Digitalisierung besser zu verstehen, wenden wir uns einem mathematischen Thema zu. Der Fourieranalyse, respektive der Fourierreihe. Die von John Baptiste Joseph Fourier entwickelte Fourier-Reihe kann einen Klang in einer Funktion darstellen. Die Zerlegung einer solchen periodischen, harmonischen Schwingung in ihre Elementarschwingungen nennt man Fourieranalyse. Wie wir wissen, ist ein Klang aus mehreren Sinusschwingungen zusammengesetzt. Zudem können diese immer wieder in ihre Komponenten aufgeteilt werden. Dieses mathematische Gesetz macht sich die Fourieranalyse zunutze. Mit ihr kann man einen Klang in einzelne Frequenzen trennen und deren Amplituden ablesen. Da die Analyse jedoch Integralrechnungen beinhaltet, werden wir nur kurz das Grundprinzip erläutern und dann einige Beispiele mit der Fourierreihe aufzeigen. Wir werden uns also mit der Klangsynthese begnügen. Bei den Instrumentanalysen wird dann ein Programm die Aufgabe der Analyse bewältigen. DIE FOURIERREIHE Eine einfache Sinusschwingung lässt sich wie folgt beschreiben: 𝑦 (𝑡) = 𝐴 ∗ sin(𝜔𝑡 + 𝜑) A definiert die Stärke der Amplitude. φ wiederspiegelt eine allfällige Phasenverschiebung (Verschiebung in der Zeitachse). ω ist die Frequenz. Diese wiederum wird wie folgt errechnet: 𝜔= 2𝜋 𝑇 T entspricht einer Periodendauer. Wir sehen hier deutlich die Parallelen zu den Winkelfunktionen. y A y = A sin (ωt + φ) t φ/ω -A T = 2𝜋/ω Abb. 28: Sinusschwingung Januar 2008 39 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Um die Phasenverschiebung ohne φ darzustellen verwendet man ein Additionstheorem. Man erhält: 𝑦 (𝑡) = 𝐴 ∗ sin(𝜔𝑡 + 𝜑) = 𝐴1 ∗ sin(𝜔𝑡) + 𝐴2 ∗ cos(𝜔𝑡) Da bei einem Klang mehrere solcher Schwingungen zusammengesetzt werden erhält man somit die Fourierreihe: ∞ 𝑎0 𝑦(𝑡) = + ∑(𝑎𝑛 cos(nω0 t) + 𝑏𝑛 sin(nω0 t)) 2 𝑛=1 ω0 ist als Grundkreisfrequenz definiert. Sie ist die Teilschwingung mit der kleinsten Kreisfrequenz. Alle n-fachen Frequenzen sind ein ganzzahliges Vielfaches der Grundfrequenz. Sie werden Oberschwingungen genannt. Durch einige Integralrechnungen lassen sich die sogenannten Fourierkoeffizienten 𝑎0 , 𝑎1, 𝑎2, 𝑎3, … b1, b2, … ermitteln. Aus diesen können dann die Frequenzen mit dazugehörigen Amplituden abgeleitet werden. Für die folgenden Beispiele verwenden wir eine vereinfachte Form der Fourierreihe: ∞ 𝑦(𝑡) = ∑(𝑏𝑛 sin(nx)) 𝑛=1 Diese Form ermöglicht uns die Synthese einfacher zu berechnen, zu kommentieren und die Auswirkungen sind klar ersichtlich. BEISPIEL 1 Zusammenfügen zweier Sinusschwingungen mit unterschiedlicher Amplitude. f1(t) = sin(x) +0.5 *sin(x): 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 Abb. 29: Klangsynthese Es ist klar ersichtlich, was das zusammenrechnen von der hell- und dunkelgrauen Schwingung ergibt. Wir erhalten eine Sinusschwingung (Blau) mit einer Amplitude von 1.5. Januar 2008 40 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch BEISPIEL 2 Zusammenfügen zweier Sinusschwingungen mit unterschiedlicher Frequenz. f2(t) = sin(x) +sin(2x): 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 Abb. 30: Klangsynthese Aus dieser Abbildung ist ersichtlich, was für eine Schwingung (Blau) aus den beiden Teilschwingungen entsteht. Mit den Frequenz- und Amplitudenvariationen lassen sich also bereits Klänge zusammenstellen. Zusammen mit der Phasenverschiebung kann so mit der Fourierreihe das gesamte Klangspektrum abgedeckt werden. Im Grunde eine einfache Sache. BEISPIEL 3; RECHTECKFUNKTION Wenn wir die Rechteckfunktion betrachten, so scheint es unrealistisch, das dieses Signal in eine Summe von Sinusfunktionen zerlegt werden kann. Doch die Grundidee der Fourieranalyse besteht darin, dass alle periodischen Funktionen durch Addition von verschiedenen Sinusschwingungen dargestellt werden. Das gilt auch für die „Rechteckfunktion“. Die Zerlegung führt zur folgenden Fourier-Reihe: 1 1 1 1 𝑓(𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t) + sin(7 ∙ t) + sin(9 ∙ t) … 3 5 7 9 Anhand dieser Funktion erkennt man, dass man eine Rechteckschwingung durch unendlich viele Oberschwingungen darstellen kann. Sie enthält jeweils die ungeraden harmonischen Oberschwingungen, wobei die Amplitude mit steigender Frequenz abnimmt. Wir möchten nun folgende Rechteckfunktion mit dieser Theorie annähern: 1.5 1 0.5 0 -0.5 -1 -1.5 Januar 2008 41 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Beginnen wir mit einer einfachen Sinuskurve: 𝑓1 (𝑡) = sin(t) 1 0.5 0 -0.5 -1 Nun addieren wir dazu eine Sinusschwingung mit 1/3 der Amplitude und einer 3fachen Frequenz (3. Harmonische): 1 𝑓2 (𝑡) = sin(t) + sin(3 ∙ t) 3 1 0.5 0 -0.5 -1 Addieren wir nun wiederum die 5. Harmonische erhalten wir folgende Funktion: 1 1 𝑓3 (𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t) 3 5 1 0.5 0 -0.5 -1 Treiben wir das nun weiter bis zur 15. Harmonischen, erhalten wir eine Funktion, die dem gewünschten Ergebnis schon sehr nahe kommt: 1 1 1 𝑓4 (𝑡) = sin(t) + sin(3 ∙ t) + sin(5 ∙ t) … . + sin(15 ∙ t) 3 5 15 1 0.5 0 -0.5 -1 Januar 2008 42 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch FAZIT Wie wir wissen, wird diese Fourieranalyse zur Komprimierung von Audiodateien genutzt. Ohne diese hätte wohl jeder Musikliebhaber eine Riesen Flut an Daten. So kann uns unser Silikonfreund z. B. die Musik in mp3 zur Verfügung stellen. Januar 2008 43 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch KLANGANALYSEN VON INSTRUMENTEN EINFÜHRUNG Da wir nun einiges über die Fourieranalyse gelernt haben, möchten wir erfahren wie ein Ton oder ein Lied in der Praxis aufgebaut ist. Wir möchten in diesem Kapitel erforschen, wie man von einer Sinuswelle zu einem erkennbaren Ton eines Instrumentes und schlussendlich zu einem ganzen Musikstück kommt. VORBEREITUNG Um die Töne zu erforschen, haben wir uns entschieden, mit den uns zur Verfügung stehenden Instrumenten (Akustik Gitarre, E-Gitarre, Piano, Blockflöte) zu arbeiten. Mit diesen können wir einen Klang erzeugen, den wir anschliessend analysieren. Wir möchten herausfinden, was den Klang eines Instrumentes ausmacht. Um die Instrumente zu vergleichen, benötigen wir von jedem eine Klangprobe. Wir wählten für unseren Versuch folgende Töne und Akkorde aus: Abb. 31: Zusammenstellung Tonaufnahmen (in Notenschrift und Gitarrentabulatur) A-Einzelton: A aus dem Grund, da dieser in der Musik als Kammerton definiert ist A-Oktave: Umfasst 12 Halbtonschritte. Oberton hat doppelte Frequenz des Grundtons A-Dur: Akkord, Besteht aus Grundton, Terz und Quint zu Grundton (A, Cis, E) F#m7b5: Akkord, (7. Stufe (Lokrisch) einer G-Dur Tonleiter) So haben wir eine ausreichende Sammlung an Klängen, welche wir für unsere Analyse auswählen können. Weiter benötigen wir einen Computer, ein Mikrofon und ein Bearbeitungsprogramm. Herr Kamber hat uns ein Gerät mit Mikro ausgeliehen. Mit diesem ist es möglich ein Ton aufzunehmen und mit dazugehöriger Software zu analysieren, das heisst den Ton in seine Frequenzanteile zu zerlegen (Fourieranalyse). Danach werden wir die Ergebnisse untersuchen und kommentieren. Somit sind unsere Vorbereitungen abgeschlossen und wir sind bereit für unsere Aufnahmen. Januar 2008 44 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch AUFNAHMEN Erste Tests mit Herrn Kambers Gerät sahen vielversprechend aus. Es handelt sich hierbei um eine Schnittstelle der Firma Vernier, an welcher diverse Sensoren angeschlossen werden können. Die gewonnen Daten lassen sich mit der einfach zu bedienenden Software LoggerPro 3 verarbeiten. Einziger Nachteil: Der Ton kann nicht wieder abgespielt werden. ERSTER RÜCKSCHLAG Die ersten Aufnahmen verliefen ohne Probleme. Doch dann, es kam wie es kommen musste, konnten wir plötzlich keine sauberen Ergebnisse mehr erzielen. Die Sinuswellen kamen nunmehr als Zickzacklinien. Bei eingehender Betrachtung der gespeicherten Resultate kann man erkennen, dass plötzlich die gesammelten Datenreihen viel zu kleine Werte aufzeigen: Anstatt zwischen -0.05 und +0.05 variiert der Offset pressure (Schalldruck bei Schwingung eines Tones) nurnoch zwischen -0.001 und +0.001. Es scheint, als sei die Lautstärke der Instrumente zurückgeschraubt worden, was ja nicht sein kann. Auch wirklich laute Klänge der E-Gitarre konnten nicht mehr richtig analysiert werden. Der Fehler lag entweder am Mikrofon oder an der Software. Denn unsere diversen Aufnahmen erfolgten ohne Veränderung der Rahmenbedingungen. Abb. 32: Furrieranalyse eines A-Tons mit Piano. Oben: Diagramm mit Schwingungsverlauf des Klanges; Unten: Amplitude pro Frequenz Neukalibrieren des Mikrofons und auch eine Neuinstallation Abb. 33: Ergebnisse mit den Komplikationen brachten nicht die gewünschten Verbesserungen. Unter diesen Umständen waren wir gezwungen das Experiment zu unterbrechen und einen anderen Weg zu suchen, die Instrumentalklänge zu analysieren. Nach diversen Downloads von Musik-Bearbeitungsprogrammen haben wir eine Lösung gefunden. Das Adobe Audition 1.5 (früher „Cool Edit 2000“, welches als Freeware zu erhalten ist). Dieses Programm ist ein AudioEditor und unterstützt alle gängigen Formate. Nebst Störgeräuschverminderung und vielen Exportmöglichkeiten ist hier auch eine Echtzeit- Fourieranalyse möglich. Als Mikrofon verwendeten wir einen „Creative MP3-Player“8, da dieser sehr klare und naturgetreue Aufnahmen erstellt. Die nach Abbildung 31 gewählten Testreihen behielten wir bei. Jeder Ton oder Akkord soll mehrere Male angespielt werden um einen optimalen Klang zu garantieren. Ebenso spielten wir mit jedem Instrument ein bekanntes Musikstück an, um ein Klangbeispiel zu erstellen. Die nun erstellten Instrumentaufnahmen erfüllen unsere Anforderungen und so steht einer Analyse nichts mehr im Wege. 8 Creative ZEN Vision:M Multimediaplayer mit 30 GB Speicherplatz Januar 2008 45 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ANALYSE Vor dem Analysieren haben wir uns gefragt, was nötig ist, um möglichst einfach möglichst viel untersuchen zu können und so auch aussagekräftige Schlussfolgerungen zu machen. Wir haben uns für folgende Vorgehensweise entschieden: 1. Erzeugen eines synthetischen Tons (A, 440Hz) mit dem Programm9 und erstellen der Frequenzanalyse als Vergleichsbasis 2. Unterschiede zum Gitarrenklang untersuchen. 3. Gitarrenklang mit einem Akkord untersuchen. 4. Vergleichen der A-Dur Akkorde der verschiedenen Instrumente. Unterschiede aufzeigen und ergründen. 5. Einbezug der Menschlichen Stimme 6. Ausweitung auf ein Musikstück Im Anhang ist übrigens eine ausklappbare Tabelle der Frequenzen im Bezug zu die jeweiligen Notennamen zu finden ERZEUGUNG UND ANALYSE EINES A-TONS UND WAS IST EIN DEZIBEL? Als erstes gilt es einen Ton zu erzeugen. Mit dem Programm ist dies einfach zu bewerkstelligen. Es kann die Dauer, Frequenz und Lautstärke eingestellt werden. Durch einen Datenexport (Schalldruck) lässt sich die Schwingung im Excel darstellen. Diese einfache Sinuskurve mit einer Frequenz von 440 Hertz ist in Abb. 34 ersichtlich. [Sound 15] Abb. 34: Schwingung eines Computergenerierten A-Tons Im Programm wird die Lautstärke (Schalldruckpegel) als Dezibel [dB] angegeben. Diese Einheit beschreibt das logarithmierte Verhältnis des quadrierten Effektivwertes des Schalldrucks (Formelzeichen 𝑝̃ mit der Einheit Pa für Pascal) eines Schallereignisses zum Quadrat eines Bezugswerts p0 (Luftschall-Bezugswert bei 20 µPa festgelegt).10 𝐿𝑝 = 10 log10 ( 𝑝̃2 𝑝̃ ) 𝑑𝐵 = 20 log10 ( ) 𝑑𝐵 2 𝑝0 𝑝0 Als Effektivwert 𝑝̃ des Schalldrucks wird der Ausschlag der Schallschwingung genommen. Der Schalldruckpegel ist eine logarithmische Darstellung dieses Ausschlags. Einerseits sind so kleine Ausschläge im Vergleich zu den Grossen besser ersichtlich, anderseits entspricht diese Skala auch vielmehr unserer Wahrnehmung. 9 Mit Programm ist jeweils das Adobe Audition 1.5 gemeint Definition Wikipedia 2007 über die Einheit (Dezi)Bel 10 Januar 2008 46 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Als Beispiel: In Abbildung 35.1 und 35.2 eine Schematische Darstellung von leisem Flüstern, gefolgt von einem Feuerwerkskörper. Beim effektiven Schalldruck (Vorzeichen und Einheiten wurden zur Vereinfachung weggelassen) ist das Geflüster in der Abb. 35.1 kaum erkennbar, in der Realität können wir Geflüster dennoch sehr genau wahrnehmen. Einen Feuerwerkskörper empfinden wir jedoch nicht im gleichen Masse lauter wie es der Schalldruck ist. Ob jetzt ein Feuerwerkskörper explodiert oder ein Düsenflugzeug startet empfinden wir beides als laut und differenzieren hier nicht mehr so stark. Unsere Wahrnehmung entspricht also eher dem logarithmischen Schalldruckpegel. Schalldruck [Pa] Pa Dezibel Schalldruckpegel [dB] Zeit t Zeit t Abb. 35.1: Lineare Darstellung; Schalldruck Abb.35.2: Logarithmische Darstellung; Schalldruckpegel Zurück zum Programm. Hier wird die Lautstärke von 0dB abwärts angegeben. Referenzierte Geräte können zwar die effektive Lautstärke eines Geräuschs bestimmen, doch ein Computer erhält die Signale über ein Mikrofon. Je nach Mikrofon, Soundkarte und Einstellungen wird ein Schalldruck verschieden laut interpretiert. Hier macht es also Sinn eine andere Skala zu verwenden. Es kann aber auch hier die Einheit Dezibel benützt werden, es wird einfach ein anderer Bezugswert gewählt. 0dB entsprechen einem maximalen Schalldruck. Wir definieren diesen zur besser Verständlichkeit auf 111. Alles darüber überschlägt (Die Schalldruck-Aufnahmen des Mikros sollten sich also zwischen 0 und maximal (-)1 bewegen). Je kleiner der Ausschlag der Schwingung, umso kleiner der Schalldruck, umso negativer der Schalldruckpegel (Logarithmisch eben; -20dB entsprechen einem Schalldruck von 0.1). Soviel zu diesen, für die Analyse wichtigen Begriffen. Abb. 36: Oberfläche von Adobe Audition 11 Hier kann die Einheit weggelassen werden, da es sich hier um einen relativen, hypothetischen Wert handelt. Januar 2008 47 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch FREQUENZANALYSE SYNTHETISCHER A-TON Da wir die Tonaufnahmen in unserem Programm analysieren, müssen wir von Dezibel ausgehen. Die Fourieranalyse des synthetisch erzeugten Tones ist in der Abbildung 37 ersichtlich. Wie man aus dem Diagramm entnehmen kann, steigen ganz Links bei 440.00 Hz (Adobe Audition gibt genauen Wert an) die Dezibelwerte an. Dezibel 22,000 21,000 20,000 19,000 18,000 17,000 16,000 14,000 13,000 12,000 11,000 10,000 9,000 8,000 7,000 6,000 5,000 4,000 3,000 2,000 1,000 0 -20 -40 -60 -80 -100 -120 -140 -160 0 Frequenzanalyse in Dezibel Frequenz in Hz Abb. 37: Ergebnis der Fourieranalyse eines Synthetisch erzeugten A-Tones von 440 Hertz. Weiter können wir erkennen, dass über die ganze Breite der Frequenzen ein Rauschen von etwa -120 Dezibel besteht. Dies entsteht höchstwahrscheinlich durch die Analysepunkte im Programm. Die Schwingung wird durch diese vielen Punkte, welche miteinander über eine Linie verbunden sind, zusammengesetzt. Es ist also keine eigentliche Sinuskurve. So liegt nahe, dass durch die Analyse ein Rauschen entstehen kann. Doch wir dürfen nicht vergessen, dass -120 Dezibel einem Millionstel vom Schalldruck-Maximum 1 entsprechen. Möchten wir die Hauptfrequenzen bestimmen, ist es also von Vorteil die Exportwerte auch mit dem Schalldruck, als nur dem Schalldruckpegel, darzustellen (siehe Abb. 38). Hier haben wir zusätzlich noch den Frequenzbereich eingeschränkt. So lassen sich die wichtigen Ausschläge optisch besser darstellen. 2,000 1,800 1,600 1,400 1,200 1,000 800 600 400 200 0 Schalldruck Frequenzanalyse mit Schalldruck Frequenz in Hz Abb. 38: Frequenzanalyse eines synthetischen A-Tons von 440 Hz, Darstellung des Schalldruckes Januar 2008 48 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Hier ist klar ersichtlich, dass die Frequenz von 440 Hz überwiegt. Entstanden ist diese Grafik über die Zahlen aus dem vorangehenden Diagramm. Die Deziebelwerte wurden folgendermassen verrechnet (Formel zur Errechnung des Schalldruckpegels nach 𝑝̃ umgestellt und 𝑝0 als 1 definiert: 𝐿𝑝 ( ) 20 𝑝̃ = 10 | 𝑝0 = 1 Als Anmerkung; Excel kann, bedingt durch die vielen Werte, die Beschriftung nicht genau darstellen. Im Programm und auch im Excel ist die Frequenz jedoch ablesbar. Diese Analysen bilden nun unser Fundament für weitere Vergleiche, zudem konnten wir so gleich erklären wie wir unsere Analysen im Detail gestalten werden. KLANGERZEUGUNG MIT GITARRE Bevor wir uns der weiteren Analyse einer Gitarre widmen möchten wir kurz erläutern, wie bei einer Gitarre ein Klang entsteht. Durch anspielen der Saite wird diese in Schwingung versetzt. Allerdings schwingt die Saite nicht nur in der Stimmlage, in welcher sie gestimmt ist, sondern auch immer in einem vielfachen der Grundschwingung. (Abb. 39) Diese werden Obertöne genannt. Schwingt die Saite doppelt so schnell wie der Grundton, haben wir eine Oktave (A-a), schwingt sie dreimal schnell, ergibt das eine Oktave plus eine Quinte. (A-E). Somit sehen wir auch, dass von einer Saite kein reiner Ton entstehen kann. Abb. 39: Schwingende Saite Spielt man mit einer Gitarre, bemerkt man bald einmal, dass Musik eigentlich nichts anderes als Mathematik ist. Halbiert man die schwingungsfähige Strecke (Der 12. Bund ist genau in der Mitte) so erhält man die Oktave der freischwingenden Saite. Experimentiert man mit ganzzahligen Teilen erkennt man bald einmal den Ansatz einer Durtonleiter und andere interessante Begebenheiten. Doch diese zu hier zu erklären würde bei weitem den Rahmen sprengen, da die ganze Musiktheorie erläutert werden müsste. Konzentrieren wir uns also auf die Klangentstehung. Wie bereits weiter oben erläutert ist eine Saite allein kaum hörbar. Es benötigt eine Verstärkung. Akustische Gitarren bedienen sich hier einem Hohlkörper welcher als Resonanzkasten dient. Der Schall wird mehrere Male reflektiert und so verstärkt. Bei einer Elektrischen Gitarre werden die Saitenschwingungen über Magnetspulen in elektrische Spannung umgewandelt. Diese kann dann mit einem Verstärker wiedergegeben oder auch mit einem Computer aufgezeichnet werden. Januar 2008 49 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ANALYSE EINER E-GITARRE (CLEAN) In diesem Kapitel untersuchen wir den Klang einer unverzerrten E-Gitarre, um zu sehen wie der Klang effektiv zusammengesetzt ist und ob unsere Theorie stimmt. Als erstes gleich ein Klangbeispiel der unverzerrten E-Gitarre. [Sound 16] Um den direkten Vergleich mit unserem vorangehenden A-Ton zu erstellen, nehmen wir als erstes den untersten A-Ton meiner Ibanez S470. Es folgt die Schalldruckkurve: [Sound 17] Abb. 40: Schwingung A-Ton, Gitarre clean Es zeigt sich, obwohl nur ein Ton angespielt wird, dass dennoch mehrere Frequenzen auftauchen müssen. In dieser Schwingung erkennen wir die einfache Sinuskurve bereits nur noch mit viel Fantasie. Ziehen wir also eine Frequenzanalyse zur Hilfe. (Abb. 41) Die Frequenzen 109.85 und jeweils ein Vielfaches davon sind besonders ausgeprägt. 110, respektive 220 Hertz entsprechen einem A. (Tiefstes A einer Gitarre sollte 110 Hz entsprechen) Interessanterweise haben wir bei 330 Hertz die stärkste Amplitude, einem E.(Quinte) Die Obertöne sind also zum Zeitpunkt unserer Analyse stärker ausgeprägt, als der Grundton. Weiter sind folgende Töne zu erkennen: A, Cis, H(was übrigens alles Töne einer Dur-Tonleiter sind) und 770 Hz = ~G. Um 2‘000 Hertz wiederholt sich dieses Bild. Unsere Theorie vom vorangehenden Kapitel bestätigt sich. Erstaunlich finden wir, dass keine A-Töne die grösste Amplitude aufweisen. Abweichungen von den genauen Hertz-werten können entstehen, weil ein Instrument nicht genau gestimmt ist, oder aber durch die leichte Dehnung der Saite bei der Schwingung selbst. Peaks: 110 Hz = A 220 Hz = A 330 Hz = E 440 Hz = A 550 Hz = C# 660 Hz = E 770 Hz = G 880 Hz = A 990 Hz = H 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Frequenzanalyse mit Schalldruck Frequenz in Hz Abb. 41: Frequenzanalyse A-Ton, Gitarre clean Um das Ganze Frequenzspektrum der Gitarre aufzuzeigen, folgt die Frequenzanalyse in Dezibel. Januar 2008 50 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel -20 Dezibel -40 -60 -80 -100 -120 -140 Frequenz in Hz Abb. 42: Frequenzanalyse A-Ton, Gitarre clean Wir sehen, dass die Gitarre vor allem in einem Frequenzbereich von 0 bis 3‘000 Hertz Töne erzeugt. Bei etwa 7‘500 Hertz weist das Diagramm ebenfalls eine Steigerung auf. (Siehe Abb. 43) Die Quelle dieses Klanges ist jedoch die Lüftung des Computers, welcher während den ganzen Aufnahmen eingeschaltet war. Ein weiteres „Störsignal“ tritt um 0 Hertz auf. Da dies bei allen Analysen und während der Ganzen Aufnahme der Fall ist, muss dieses Signal den Ursprung am Mikrofon, am Programm oder in den tiefen der mathematischen Formel der Fourieranalyse haben. Ich denke, dass eine unendlich kleine Frequenz fast wie eine Linie wirkt, d. h. man beinahe nicht mehr von einer Schwingung sprechen kann. Diese „Nullschwingung“ hat keinerlei Einfluss auf die Tonhöhen. Da die Fourieranalyse jetzt rückwärts rechnet, kann diese Nullschwingung bereits bei kleinsten Schalldruckschwankungen als vorhanden angesehen werden. Erwähnenswert ist ebenfalls, dass sich die Stärke der Ausbildung der einzelnen Frequenzen während eines Klanges verändert. Am Anfang haben wir ein Geräusch welches vom Abschlagen der Saite entstanden ist, dann folgt der Klang welcher mit zunehmender Zeit abflachend abnimmt. Unser Beispiel, welches ja nur einen Bruchteil des Klanges analysiert, sollte weitgehender hinterfragt werden, um ganz genaue Aussagen betreffend der einzelnen Frequenzen und ihren Auswirkungen zu machen. Dezibel 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel -50 -100 -150 Frequenz in Hz Abb. 43: Frequenzanalyse während einer Aufnahme, jedoch ohne anspielen eines Instrumentes. So weiten wir unsere Analysen etwas weiter aus. Der A-Dur Akkord erscheint uns am geeignetsten um ein schönes Bild des Klanges einer Gitarre zu erhalten. [Sound 18] Januar 2008 51 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Zu Beginn wieder die Schalldruckkurve: Abb. 44: Schwingung A-Dur Akkord, Gitarre clean Man erkennt sofort einen viel unruhigeren Verlauf der Schwingung. Die Periodizität (Orange eingeklammert) ist nicht mehr so einfach auszumachen. Werfen wir einen Blick auf die Frequenzanalyse (Abb. 34), so sehen wir, dass ein Akkord einige weitere Frequenzen beinhaltet. 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Frequenzanalyse mit Schalldruck Peaks: 110 Hz = A 166 Hz = E 220 Hz = A 277 Hz = C# 330 Hz = E 496 Hz = H 556 Hz = C# 662 Hz = E 880 Hz = A 1‘390 Hz = F 1‘671 Hz = G# 2‘218 Hz = C# 3‘950 Hz = H Frequenz in Hz Abb. 45: Frequenzanalyse A-Dur Akkord, Gitarre clean Angespielt werden bei diesem Akkord nur 2 x A, 2 x E und ein H. Wir bemerken, dass, obwohl mehr Töne angespielt werden effektiv kaum mehr Töne entstehen. Zudem entsprechen alle, ausser dem F einer A-Dur12 Tonleiter. Das zeigt, dass eine Saite in Dur schwingt. Vielleicht erscheint uns deshalb Dur als natürlich und harmonisch. Unsere Folgerung wäre, dass die Durtonleiter genau aus diesem Grund entstanden ist, weil eben die Frequenzen jeweils einem Vielfachen entsprechen, und deshalb als besonders harmonisch empfunden werden. 12 A-Dur: A ; H ; C# ; D ; E ; F# ; G# ; A Januar 2008 52 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel Dezibel -20 -40 -60 -80 -100 -120 Frequenz in Hz Abb. 46: Frequenzanalyse A-Dur Akkord, Gitarre clean Die Frequenzanalyse in Dezibel ist analog dem Diagramm aus Abbildung 42. Hier haben wir einzig bei den tiefen Frequenzen bereits schon die E- und C#- Schwingung, welche bei einem einzelnen A-Ton erst durch die Obertöne entstehen. Januar 2008 53 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch VERZERRTE UND AKKUSTISCHE GITARRE Was uns weiter interessiert, ist, was denn eine akustische von einer elektrischen Gitarre unterscheidet. Als erstes wieder die Klangbeispiele und A-Dur Akkorde der akustischen [Sound 19/20]und der verzerrten elektrischen [Sound 21/22] Gitarre. Es folgen sogleich die Schalldruckkurven: Abb. 47 Schwingung A-Dur, Gitarre akustisch Abb. 48: Schwingung A-Dur, Gitarre verzerrt Die Diagramme zeigen klar , welche die verzerrte Gitarre ist. Bei der Verzerrung wird der Klang künstlich übersteuert, das heisst er würde, zum Beispiel in unserem Programm, über einen Schalldruck von 1 gesteuert werden. Dies ergibt diesen „crunchigen“ E-Gitarren-Sound. Ziehen wir die Frequenzanalysen in der SchalldruckDarstellung zu Hilfe, sehen wir einerseits, dass die akustische nur bis etwa 1‘000 Hertz klare Obertöne besitzt, was sicherlich auf die weicheren Saiten und die akustische Verstärkung zurückzuführen ist. Diese Gitarre besitzt zu wenig „Energie“ um alle Obertöne verstärkt wiederzugeben. Meine elektrische Ibanez hingegen erzeugt hörbare Schwingungen bis 6‘000 Hertz. Andererseits ist die Verzerrung in Abb. 49 deutlich sichtbar. In den tiefsten Frequenzen und um 2000 Herzt macht sich diese deutlich bemerkbar. Interessant ist, dass wir trotzdem noch eruieren können, um was für einen Ton oder Akkord es sich handelt. Wir haben unsere Aufnahme des F#m7b5 Akkordes mit der Fourieranalyse zerlegt und Philipp konnte, obwohl er nicht wusste, was ich gespielt hatte, so ganz einfach eruieren um welchen Akkord es sich handelt. Auf den Diagrammen mit den Dezibelwerten ist ebenfalls deutlich sichtbar, dass die E-Gitarre ein breiteres Spektrum besitzt. Bei Abb. 50 verlieren sich die Schwingungen schon nach einigen Obertönen, wogegen bei Abb. 51 die Oberschwingungen zwar abnehmend, aber auch bei höheren Frequenzen immer noch alle Töne klar dargestellt werden. Zudem nimmt der Klang der akustischen Gitarre sehr schnell ab, der der E-Gitarre klingt sehr lange. Hat man seine Gitarre zu fest verzerrt, verschwimmen allerdings nach einigen Sekunden die Töne und es kann bis zur Rückkopplung führen. Dabei nehmen die Pickups der Gitarre die Geräusche des Verstärkers auf, und geben diese sogleich wieder. Es führt zu dem Bekannten pfeifen, welches aber durchaus gewollt sein kann. Januar 2008 54 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Frequenzanalyse mit Schalldruck 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Peaks: 110 Hz = A 166 Hz = E 220 Hz = A 277 Hz = C# 330 Hz = E 556 Hz = C# 662 Hz = E Frequenz in Hz Abb. 49: Frequenzanalyse A-Dur, Gitarre akustisch Peaks: 166 Hz = E 220 Hz = A 277 Hz = C# 330 Hz = E 440 Hz = A 496 Hz = H 556 Hz = C# 662 Hz = E 880 Hz = A 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Frequenzanalyse mit Schalldruck Frequenz in Hz Abb. 50: Frequenzanalyse A-Dur, Gitarre verzerrt 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel -20 Dezibel -40 -60 -80 -100 -120 -140 Frequenz in Hz Abb. 51: Frequenzanalyse A-Dur, Gitarre akustisch Januar 2008 55 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel Dezibel -20 -40 -60 -80 -100 -120 Frequenz in Hz Abb. 52: Frequenzanalyse A-Dur, Gitarre verzerrt Ich denke, für unsere IDPA reichen diese Analysen erst einmal aus um ein grobes Bild zu den Frequenzen einer Gitarre zu erhalten. Wir haben gelernt, dass sich Klänge in der Realität laufend verändern. Bereits hier zeit sich, dass hinter einem Klang mehr steckt als nur die Grundfrequenz und ein paar Obertöne. Zudem ist die Klangerzeugung bei einer Gitarre mit vielen Geräuschen (Anspielen, Abdämpfen, Rutschen der Finger ect.) „gestört“, aber auch die Saite an sich erzeugt nicht einfach einen Grundton. Diese Begebenheiten charakterisieren eine Gitarre. Zudem „wissen“ wir jetzt, warum in unserer westlichen Musik meistens Dur verwendet wird. Januar 2008 56 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch EINBEZUG PIANO Kommen wir nun zu einem Klavier oder Piano in unserem Fall. Hier muss allerdings angemerkt werden, dass es sich hierbei um künstliche Klangerzeugung handelt. Anstatt die Saiten mit den Tasten anzuspielen werden die Klänge generiert. Obwohl wir wissen, dass dies bei der Gitarre ziemlich kompliziert ist, bemerkt man bei Klavieren den Unterschied kaum mehr. Um die Klänge grundlegend Analysieren zu können sollte dieses Piano ausreichen. Wie gewohnt folgt das Klangbeispiel, an welchem ich zugegebenermassen am meisten geübt habe. [Sound 23] Sogleich folgt die Schalldruckkurve eines A-Dur Akkordes [Sound 24]: Abb. 53: Schwingung A-Dur, Piano Es müssen doch einige Frequenzen vorhanden sein. Die Schwingung zeigt einen klaren und runden Verlauf. Die Frequenzanalyse weist im Gegensatz zu einem A-Dur einer Gitarre deutlich weniger Frequenzen auf. Ob dies jetzt aufgrund des Computergenerierten Klanges ist, ist fraglich. Was wir jedoch mit Sicherheit sagen können, ist dass ein Piano stärkere Amplituden im Bereich von ca. 800 bis 1500 Hertz aufweist. Die Höchsten Ausschläge zeigen wiederum nur Töne der A-Dur Tonleiter, wobei erst bei den Höheren Frequenzen die ergänzenden Töne entstehen. Peaks: 220 Hz = A 330 Hz = E 440 Hz = A 662 Hz = E 880 Hz = A 990 Hz = H 1108 Hz = C# 1318 Hz = E 1660 Hz = G# 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Frequenzanalyse mit Schalldruck Frequenz in Hz Abb. 54. Frequenzanalyse eines A-Dur, Piano Januar 2008 57 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch Beim Piano werden also zu Beginn nur Töne der Effektiven Anschlagstöne generiert. Erst später weitet sich das Spektrum. Ein ergänzender Blick auf die Dezibelwerte zeigt, dass das Piano einzelne klare Töne generiert. 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel -20 Dezibel -40 -60 -80 -100 -120 -140 Frequenz in Hz Abb. 55: Frequenzanalyse eines A-Dur, Piano Der Unterscheid zu diesen doch verschieden Instrumenten zeigt, dass obwohl die Frequenzanalysen ähnlich sind, es wohl die Ausprägung der einzelnen Tönen sind, welche ein Instrument charakterisieren, was ja mit den im Kapitel zu den Grundlagen auch belegt ist. Januar 2008 58 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DIE FLÖTE Als letztes Instrument untersuchen wir eine Blockflöte. Klangbeispiel: [Sound 25] Nach unseren Erfahrungen sollte dieses Instrument nur einige wenige Frequenzen aufweisen, da die Flöte doch sehr einfach und monoton klingt. Laut Wikipedia entsteht der Klang dadurch, dass ein Luftstrom über eine Kante geführt wird, an der er in Schwingung gerät. Durch Bedienung der Tonlöcher wird eine bestimmte Länge der schwingungsfähigen Luftsäule gewählt. Die Schwingung stellt sich dann durch Resonanz mit der Luftsäule auf die gewünschte Tonhöhe ein. Der tiefste Ton ergibt sich, wenn alle Tonlöcher geschlossen sind, die Luftsäule also die Länge des gesamten Instruments hat. Auch bei einer Flöte entstehen Obertöne. Die Klangfarbe hängt unter anderem vom Material, Oberfläche, Bauform und dem Anblasen des Instrumentes ab. Soviel zur Theorie. Wollen wir nun einen Blick auf den Schwingungsverlauf eines A-Tons werfen [Sound 26] werfen: Abb. 56: Schwingung A-Ton, Blockflöte Es zeigt klar, hier haben wir Sinusähnliche Schwingungen und der Blick auf die Frequenzanalysen bestätigt uns dies. Frequenzanalyse mit Schalldruck 0 100 200 300 400 500 600 700 800 900 1,000 1,100 1,200 1,300 1,400 1,500 1,600 1,700 1,800 1,900 2,000 2,100 2,200 2,300 2,400 2,500 2,600 2,700 2,800 2,900 3,000 Schalldruck Peaks: 880 Hz = A 1760 Hz = A 2640 Hz = E 4440 Hz = C# Frequenz in Hz Abb. 57: Frequenzanalyse A-Ton, Blockflöte Gestützt auf dieses und vorangehende Diagramme kann man sagen, dass tendenziell zuerst Quinten (A-E) und Terzen (A-C#) zum Grundton entstehen. Wir erhalten einen harmonischen Dreiklang, was meistens einem DurAkkord entspricht. Darauffolgend können Töne der Pentatonischen und dann der Dur-Tonleiter entstehen. Auch Geschichtlich Betrachtet ergibt dies Sinn. Die Westliche Musik entstand nach und nach und beinhaltete früher die vereinfachte Pentatonik (Fünftonleiter; A, H, C#, E, F#, A) welche später zur Dur-Tonleiter als Grundlage Januar 2008 59 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch diente. Weil Klänge bei einer Saite, oder wo auch immer Schwingungen auftreten, natürliche Obertöne enthalten wurden diese zur Basis unserer Musik. Wir finden das absolut interessant, dass wir mit diesen doch recht einfachen Analysen genau das bewiesen haben. 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel -20 Dezibel -40 -60 -80 -100 -120 -140 Frequenz in Hz Abb. 58: Frequenzanalyse A-Ton, Blockflöte Auf der Daten-CD ist noch ein interessantes Video zu finden, welches das Lied „Alle meine Entchen“ mit einer Echtzeit-Frequenzanalyse zeigt. Januar 2008 60 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch MENSCHLICHE STIMME Zu einem Musikstück gehört neben Instrumenten auch noch der Gesang. Wie verhält es sich den mit der Menschlichen Stimme? Bei den Recherchen erkennt man bald, das die Menschliche Stimme physikalisch betrachtet sehr komplex ist. Mit den Stimmbändern generieren wir Geräusche und auch Töne. Trainieren wir unsere Stimme, sind wir im Stande sehr klare starke Frequenzen zu erzeugen, was in einem vollen, leicht schwingendem Klang resultiert. (z.B. Obernsänger) Die Frequenzanalyse Christophs Stimme zeigt uns die Komplexität der Stimme auf. 8,000 7,500 7,000 6,500 6,000 5,500 5,000 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 0 Frequenzanalyse in Dezibel Dezibel -20 -40 -60 -80 -100 -120 Frequenz in Hz Abb. 59: Frequenzanalyse menschliche Stimme, Christoph Somit sind wir am Ende unserer Analysen. AUSWEITUNG AUF MUSIKSTÜCK Bei einem ganzen Musikstück werden nun die einzelnen Komponenten zusammengefügt. Diese Schallwellen können übrigens im Windows Mediaplayer dargestellt werden. Einfach ein gewünschtes Lied abspielen, und in der Registerkarte Aktuelle Wiedergabe mit Rechtsklick unter Streifen und Wellen die Anzeige auf Graph umstellen. Obwohl das teilwiese eine völlig willkürlich erscheinende Schwingungskurve ergibt, ist der Mensch imstande die Klänge wahrzunehmen und zu interpretieren. Auch können wir einzelne Instrumente oder Töne heraushören. Im Grunde sind alles nur verschieden überlagerte Sinuswellen welche sich mit fortlaufender Zeit stetig verändern. Da unser Gehör extrem auf Sinusförmige Wellen reagiert ist es fähig aus der Schallwelle Frequenzen herauszufiltern und diese ans Gehirn zu übermitteln. Wir sind im weitesten Sinne eine Fourieranalyse auf Beinen. Zu verstehen, wie dieser Vorgang im Detail funktioniert, wäre wohl etwas zu viel für unsere Projektarbeit. Wir sind aber mehr als zufrieden mit unseren Ergebnissen. Januar 2008 61 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch FAZIT Unser Ziel war es, zu erfahren wie die Schwingungen in einem Musikstück entstehen und aufgebaut sind. Wir haben einiges herausgefunden und sind überrascht, wie gut dies mit vertrauenswürdigen Quellen wie Wikipedia übereinstimmt. Es ist teilweise auch etwas deprimierend auf einen Klick unsere Ergebnisse im Internet zu finden. Als Zusammenfassung, was eine Instrument oder Klang charakterisiert, können wir fast eins zu eins von der schon erwähnten Internetplattform kopieren: Der spezifische Klang eines Instrumentes ergibt sich aus den folgenden Parametern: Welche Teiltöne überhaupt vorhanden sind (1., 2., 3., 5., 9., usw.) Wie laut diese Teiltöne im Verhältnis zueinander sind – Der erste muss nicht der lauteste sein. Wie sich die Lautstärke der einzelnen Teiltöne ändert, während der Ton erklingt (Feinmodulation) Welche Nebengeräusche hinzukommen (Anschlaggeräusche, Blasgeräusche usw.) Neben diesen Erfahrungen sind wir auch auf diverse andere Dinge gestossen, wie die Einheit Dezibel, Klangerzeugung bei Gitarren und Saiten oder aber diese Begebenheit der in Dur Schwingenden Saite. Abschliessend kann man sagen, wir verstehen wie Musik aufgebaut ist, und somit sind wir in der Lage die technische Digitalisierung zu begreifen und was alles dahinter steckt. Januar 2008 62 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch DER TECHNISCHE FORTSCHRITT – DIE DIGITALISIERUNG Mit der Digitalisierung begann eine neue technische Revolution. Die Entwicklung in der Digitalisierung ist aber noch lange nicht abgeschlossen. In den kommenden Jahrzehnten wird da noch einiges auf uns zukommen. Doch schon jetzt können wir ein erstes Résumé ziehen; Die Technik der Digitalisierung ist komplex, interessant und zukunftsweisend. Sind wir also gespannt, was wir noch alles erleben werden. SCHLUSSWORT Abschliessend bleibt zu sagen, dass diese Projektarbeit mit Einbezug der Fächern Geschichte und Mathematik/Physik sehr lehrreich und interessant war. Eindrücklich waren vor allem die Selbstversuche und Tonaufnahmen. Es gehört zum guten Ton, Töne zu hören. (Walter Luden) Es gibt 10 verschiedene Arten von Menschen, die einen verstehen das Binärsystem, die anderen nicht Januar 2008 63 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch QUELLENVERZEICHNIS Kapitel Verfasser Quelle Datum Geschichte Tonträger PG Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1. Auflage www.tonaufzeichnung.de http://www.peo-musik.de/document/6695/die-entstehung-dertonaufzeichnung.html http://www.radiomuseum.org/forumdata/upload/ACFSNBabb Wle%2Epdf http://www.recording-history.org/index.php http://de.wikipedia.org/wiki/Elektronische_Musik http://de.wikipedia.org/wiki/Computermusik http://de.wikipedia.org/wiki/Klangsynthese http://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interfa ce http://de.wikipedia.org/wiki/Gitarre http://www.unisono.ch http://www .Gibson.com http://www .line6.com Zeitschrift Gitarre&Bass 2005/06 Stromgitarren Special http://de.wikipedia.org/wiki/Beatles http://www.stromgitarren.ch/sg_ausstellung.html http://de.wikipedia.org/wiki/Johnny_Cash http://de.wikipedia.org/wiki/Rolling_Stones http://de.wikipedia.org/wiki/Bob_Dyla http://www.prestige-club.ch/ http://de.wikipedia.org/wiki/Street_Parade http://de.wikipedia.org/wiki/SUISA http://www.akustika.ch/gutes_hoeren/wie_hoeren_wir KLANG – Musik mit den Ohren der Physik von John R. Pierce, Spektrum Verlag http://www.et.htwk-leipzig.de Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1. Auflage Digital Audio Technology, edited by Jan Maes and Marc Vercamemen, Focal Press, Fourth Edition http://de.wikipedia.org/wiki/digitalisierung http://de.wikipedia.org/wiki/abtasttheorem http://de.wikipedia.org/wiki/alias-effekt Artikel „Signalabtastung“ in Funkamateur, S. 457 http://tastengott.com/index.php?option=com_content&task=vie w&id=40&Itemid=34 Unterlagegen von David Kamber http://de.wikipedia.org/wiki/fourier L. Papula, Mathematik für Ingenieure, Band 2 http://de.wikipedia.org/wiki/klang 1994 Geschichte Computermusik CH Geschichte Gitarre CH Bedeutung Stromgitarre CH Bedeutung Elektromusik PG/CH Bedeutung Digitalisierung Grundlagen Akustik PG/CH CH Digitalisierung PG Formate PG Fourieranalyse CH/PG Klanganalyse CH/PG Jan. 2008 Jan. 2008 Dez. 2007 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Sept. 2005 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 Jan. 2008 1999 Jan. 2008 1994 2001 Jan. 2008 Jan. 2008 Jan. 2008 Mai 2005 Jan. 2008 Dez. 2007 Jan. 2008 Jan. 2008 - Januar 2008 64 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ABBILDUNGSVERZEICHNIS ABB. 1: PHONOGRAPH MIT STAHLWALZEZE: ABB. 2: BELL, GRAPHOPHONE: http://www.tonaufzeichnung.de/ http://www.recording-history.org/HTML/phono_technology3.php ABB. 3: EDISONS „HOME PHONOGRAPHEN“: http://de.wikipedia.org/wiki/Bild:Phonograph.jpg#filehistory ABB. 4: EMIL BERLINER: http://www.tonaufzeichnung.de/ ABB. 5: GRAMMOPHON "VICTOR V": http://de.wikipedia.org/wiki/Grammophon ABB. 6: HIS MASTER’S VOICE, CA. 1928: ABB. 7: RÖHRENVERSTÄRKER “TRILOGY”: http://de.wikipedia.org/wiki/Bild:HMVEG962.jpg http://www.hughes-and-kettner.com/images/products ABB. 8: LP „SUPER TROUPER“: http://de.wikipedia.org/wiki/Schallplatte ABB. 9: PHILIPS EI 3300, CASSETTEN-RECORDER: http://www.rundfunkmuseum.fuerth.de/german/tour-09.htm ABB. 10: KRAFTWERK: http://www.kraftwerk.de ABB. 11: VIHUELA: http://de.wikipedia.org/wiki/Gitarre ABB. 12: „FRYING PAN“: Gitarre und Bass Zeitschrift ABB. 13: VARIAX VON LINE 6: Gitarre und Bass Zeitschrift ABB. 14: E-GITARRE VON GIBSON ROBOT: ABB. 15: BEKANNTES BILD DER BEATLES: http://www.gibson.com http://www.stevesbeatles.com/cds/album-covers ABB. 17: PLAKAT DES PRESTIGE-CLUB: ABB. 24, 26, 27: http://www.prestige-club.ch Compact Disc Handbuch, K. Pohlmann, IWT Verlag GmbH, 1. Auflage 1994 Alle übrigen Bilder sind von uns erstellt oder aufgenommen worden, Grafiken von Power-Point und Excel 2007 Januar 2008 65 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch ANHÄNGE FOTODOKUMENTATION AUFNAHMEN Eine kurze bebilderte Dokumentation der durchgeführten Aufnahmen FREQUENZTABELLE ZUM AUSKLAPPEN Die Tabelle zur Klanganalyse CRIMSON TIDE –NOTENTABULATUR Gitarren-Noten des Liedes, mit welchem wir den Vergleich angestellt haben AUDIO-CD MIT SOUNDS Für den CD-Player – Das interaktive Lese-Erlebnis 01. 02. 03. 04. 05. 06. 07. 08. 09. 10. 11. 12. G.F. Handel - Israel in Egypt Bohumir Kryl - Carnival of Venice Enrico Caruso - O Sole Mio Louis Armstrong - West End Blues Redzipet, Genève - La Coupe Suisse (UraniaYoung Boys) Hawgood - Remembering The Way Things Used To Be Kraftwerk – Autobahn AC-DC - Highway To Hell Status Quo - What Your´re Proposin GP4 - Crimson-Tide Nightwish - Crimson Tide Deep Blue Sea GP5 - Crimson-Tide 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. Hager - Crimson-Tide Bob Sinclar - Rock this party Syntetisch – A Gitarre Clean – Sweet home Alabama Gitarre Clean – A Gitarre Clean - A-Dur Akkustik – Love her Akkustik - A-Dur Gitarre-Verzerrt - Hey-tonight Gitarre-Verzerrt - A-Dur Piano – My heart will go on Piano - A-Dur Blockflöte - Alle meine Entchen Blockflöte - A DATEN-CD CD mit digitalen Daten von: Projektarbeit im PDF Format und Word 2007 Bilder der Aufnahmen und Inhalten der IDPA Sounds der Audio CD Ergänzende Videos Rohdaten Januar 2008 66 Interdisziplinäre Projektarbeit der BMS Bern Vom Slide zum Scratch EIDESSTATTLICHE ERKLÄRUNG Hiermit erklären wir, die vorliegende Arbeit selbstständig und unter Angabe aller benötigten Quellen verfasst zu haben. Ort und Datum Christoph Philipp Hager Ort und Datum Philipp Gerber Januar 2008 67