Möglichkeiten der Musikwahrnehmung bei Gehörlosigkeit und hochgradiger Schwerhörigkeit – Studien zur Ultraschallwahrnehmung Dissertation zur Erlangung des Doktorgrades der Naturwissenschaften an der Musikuniversität Mozarteum, Salzburg eingereicht von Mag.a art. Ulrike Stelzhammer-Reichhardt Erstbegutachtung: Univ.-Prof. Dr.in Monika Oebelsberger, Mozarteum, Salzburg Zweitbegutachtung: A.o. Univ.-Prof. Dr. Hans-Christian Bauer, Paris-Lodron-Universität, Salzburg Salzburg, im Juni 2007 Für Benedikt, Marie-Christine und Wolfgang Dank Für ihr Interesse und die Bereitschaft, sich auf mein Dissertationsthema einzulassen sowie für die fachliche und persönliche Begleitung möchte ich mich ganz herzlich bei UNIV.-PROF. DR.IN MONIKA OEBELSBERGER und A. O. UNIV.-PROF. DR. HANSCHRISTIAN BAUER bedanken. Für die intensiven Diskussionen sowie für die Unterstützung und das Engagement bei der Planung und Durchführung des Ultraschallprojektes bedanke ich mich besonders bei UNIV.-PROF. DR. HANS-ULLRICH BALZER und bei den Kolleginnen und Kollegen des Forschungsnetzwerkes Mensch und Musik. Das vorliegende Forschungsprojekt hätte nicht ohne die Unterstützung der HNOAbteilung des St. Johanns Spitals Salzburg, unter der Leitung von UNIV.-PROF. PRIM. DR. KLAUS ALBEGGER, entstehen können. Vor allem gilt mein Dank MAG. ALOIS MAIR, der mich in die Geheimnisse der Audiologie eingeführt und die Durchführung des Ultraschallprojektes begleitet hat. In diesem Zusammenhang bedanke ich mich auch ganz herzlich bei meinen Probanden, die durch ihre Offenheit und Bereitschaft an der Entstehung dieser Arbeit maßgeblich beteiligt waren. Für anregende Diskussionen, die in der Phase der Themenentwicklung besonders wichtig waren, bedanke ich mich bei EMER. O. PROF., DR. MED. HELLMUTH PETSCHE und ASS.-PROF., DR. CHRISTIAN KOLLMANN. Meiner Mentorin im Bereich Musik und Tanz in sozialer Arbeit und integrativer Pädagogik MAG.A SHIRLEY SALMON danke ich für ihre beherzte Unterstützung meiner Forschungsarbeit und ihr unermüdliches Engagement. Nicht zuletzt möchte ich mich bei sehr persönlichen Wegbegleitern bedanken: Meinem Mann DR. WOLFGANG STELZHAMMER danke ich für die anregenden Gespräche zum Thema interdisziplinäres Denken, für die kritische Durchsicht des Manuskriptes sowie für die partnerschaftliche Organisation des Familienalltages. Für ihre Unterstützung und Begleitung bedanke ich mich von Herzen bei meiner Familie und meinen Freunden, vor allem bei meinen Kindern MARIE-CHRISTINE und BENEDIKT sowie bei MARIA STELZHAMMER und HERTHA DERFLINGER. U. Stelzhammer-Reichhardt Inhaltsverzeichnis 1 Inhaltsverzeichnis 1. Einleitung …..………………………………………………………………………….…3 1.1. Thema und Zielsetzung …………………………………………………………...3 1.2. Forschungsstand und Quellen ……………………………………………………7 1.3. Aufbau der vorliegenden Arbeit ………………………………………………....11 2. Vom Hören und Nicht-Hören-Können …………………………………………….....14 2.1. Musikwahrnehmung und Hörverarbeitung bei normalem Hörvermögen …...14 2.1.1. Musikalische Parameter ………………………………………..………….14 2.1.2. Auf dem Weg durch das Ohr …………………………………………..….17 2.1.3. Schaltstelle Cochlea ………………………………………………………..19 2.1.4. Über die Hörbahn zum Hörkortex …………………………………..…….21 2.1.5. Repräsentation und Neuroplastizität – Psychoakustik ………………….23 2.2. Musikwahrnehmung und Hörverarbeitung bei beeinträchtigtem Hörvermögen …………………………………………..……..26 2.2.1. Formen der Hörbeeinträchtigung …………………………………………26 2.2.2. Musik und Sprache im Hörfeld ……………………………………………30 2.2.3. Hilfen beim Hören …………………………………………………………..31 2.2.3.1. Musik und Cochlea-Implantat ……………………………..…….33 2.2.3.2. Musik und Hörgeräte ……………………………………………..36 2.2.4. Forschungsinteressen ……………………………………………………...37 2.3. Multisensorik ……………………………………………………………………....40 3. Studien zur Ultraschallwahrnehmung ………………………………………………..47 3.1. Physikalische Grundlagen ……………………………………………………….47 3.1.1. Allgemeine Schall- und Schwingungsphänomene …………………...…47 3.1.2. Ultraschall nahe dem Hörfeld ……………………………………………..49 3.2. Entwicklung einer Fragestellung ………………………………………………..51 3.2.1. Allgemeine Forschungsgeschichte ……………………………………….51 3.2.2. Mechanismen der Ultraschall-Perzeption ………………………………..52 3.2.3. Ultraschall als Hörhilfe und Tinnitusmasker ……………………………..53 3.2.4. Ultraschall und Musikwahrnehmung – „Hypersonic Effekt“ ……………55 3.2.5. Fragestellung und Planung des vorliegenden Forschungsprojektes …57 U. Stelzhammer-Reichhardt Inhaltsverzeichnis 2 3.3. Material und Methoden …………………………………………………………..60 3.3.1. Probanden …………………………………...……………………………...60 3.3.2. Geräte und Räume …………………………………………………………63 3.3.3. Versuchsverlauf …………………………………………………………….69 3.3.4. Auswertung ………………………………………………………………….71 3.3.4.1. Auswertung der EEG Daten ……………………………………..73 3.3.4.2. Auswertung der SMARD Watch Daten ………………………...76 3.4. Ergebnisse …………………………………………………………………………77 3.4.1. Ergebnisse der EEG Auswertung …………………………………………77 3.4.2. Ergebnisse der SMARD Watch Auswertung …………………………….85 4. Diskussion ……………………………………………………………………………….86 4.1. Interpretation der zentralen Ergebnisse ………………………………………….86 4.2. Bedeutung der Ergebnisse für die musikpädagogische Arbeit …………..……91 4.2.1. Reflexion der Ergebnisse im besonderen musikpädagogischen Kontext ………………………………………….....93 4.2.1.1. Exkurs: Musik und Sprache – Hörschall und Ultraschall …….97 4.2.2. Reflexion der Ergebnisse im allgemeinen musikpädagogischen Kontext ………………………………………….…98 5. Zusammenfassung – Summary ………………………………………………..……103 Literaturverzeichnis ………………………………………………………………………105 Lebenslauf ………………………………………………………………………………...116 Anmerkung: Aus Gründen der Verständlichkeit und zugunsten des Leseflusses wird in der vorliegenden Arbeit im Allgemeinen die männlich-neutrale Form grammatischer Konstruktion verwendet. Bezieht sich eine Aussage explizit auf ein Geschlecht, wird dies entsprechend angegeben. U. Stelzhammer-Reichhardt Einleitung 1. Einleitung 1.1. Thema und Zielsetzung `Alle Menschen werden Brüder´ so heißt es im Finalsatz von Beethovens 9. Sinfonie, in dem er Friedrich Schillers Ode an die Freude verarbeitete. Seit 1985 von der Europäischen Gemeinschaft als offizielle Hymne angenommen, versinnbildlicht sie die Einheit in der Vielfalt der gesellschaftlichen und sozialen Ordnungen. Doch als Beethoven seine letzte vollendete Sinfonie komponierte, lebte er bereits stark zurückgezogen von seinem sozialen Umfeld. Gezeichnet von der Belastung seiner Ertaubung. Ludwig van Beethoven (1770 - 1827) litt ab seinem 28. Lebensjahr an beginnender Schwerhörigkeit. Tinnitus (Ohrgeräusche), Sprachverständlichkeitsverlust, Hyperakusis (Lärmempfindlichkeit) und Hochtonverlust kamen bis zur völligen Ertaubung ab 1819 hinzu. Der Komponist und Dirigent Beethoven zieht sich aus der Welt der Hörenden zurück und äußert in seinen Briefen Suizidgedanken. Nur seine Musik rettet ihn. Auch wenn er sie nicht mehr hören kann, ist sie in ihm lebendiger als je zuvor. Herausragende Kompositionen wie die Missa Solemnis (Op.123) oder die bereits erwähnte 9. Sinfonie (Op.125) entstanden nach Beethovens vollständiger Ertaubung (vgl. ZENNER 2002). Doch auch weniger prominente Menschen, die von Gehörlosigkeit oder hochgradiger Schwerhörigkeit betroffen sind wollen Musik in ihrem Leben nicht missen. Einträge in Diskussionsforen und Informationsseiten im Internet zum Thema Musik und Gehörlosigkeit geben einen ersten Einblick in die gegenwärtige Situation. Omer ZAK zum Beispiel sammelt Zitate und Stellungnahmen gehörloser Musiker: “William 'Bill' Harkness says at 11 Dec 1995: There's ear music, eye music, and skin musics. (…) Although the hearing people are only familiar with one type of music, the ear music. It's amazing that the hearing people think that we, the DEAF, can't enjoy the sheer of music when in fact they're only confined themselves into thinking that there's only one type of music and we're "lacking" as non-functional in this aspect because we can't hear the "ear" music as well as they can” (ZAK 1997, ohne Seitenangabe). ZAK gibt zu bedenken, dass die Ausgangssituation von Spätertaubten und von Geburt oder früher Kindheit an Ertaubten völlig verschieden ist. Während Beethoven 3 U. Stelzhammer-Reichhardt Einleitung über viele Jahre Musik wahrnehmen konnte bevor er ertaubte, sind diese Erfahrungen taub geborenen Menschen nicht zugänglich: “No discussion of the subject of music and the deaf is complete without mentioning Beethoven, the most famous deaf musician. Personally, I don't like people holding him as a role model of what deaf persons can achieve. This is because he was late-deafened adult and could hear, learn and appreciate music for several, several years before losing his hearing. Children who were born deaf or got deafened before learning everything about music simply don't have the background which Beethoven had and utilized to write his music. It is matter of gamble to make them aspire to achieve what Beethoven achieved” (ZAK 1997; ohne Seitenangabe): Zu den frühen Beschreibungen zur Musikwahrnehmung gehörlos geborener Menschen gehören die Publikationen von und über die taubblinde Helen Keller. Sie beschreibt wie sie über den Vibrationssinn Musik wahrnimmt und genießt (vgl. KATZ und RÉVÉSZ 1926; WAITE 1991). Auch andere gehörlose und hochgradig schwerhörige Menschen berichten immer wieder von ihren ganz besonderen Zugängen zur Musik. Dabei spielt der ganze Körper, als Sinnesorgan das Musik wahrnehmen kann, eine große Rolle. Dass gehörlose Menschen in einer `Welt der Stille´ leben, widerlegt Oliver SACKS in seinem Buch Stumme Stimmen in vielfältigen Beispielen: „Taubgeborene erleben weder eine völlige `Stille´, noch klagen sie darüber (…). Das sind nur unsere Projektionen, unsere Metaphern für ihren Zustand“ (SACKS 1992, 28). In Europa gibt es vor allem in England eine aktive Musikszene innerhalb der Gehörlosenkultur. So treffen sich zum Beispiel gehörlose Rave-Musiker bei speziellen Rave-Partys für Gehörlose um auf der Bühne Musik und Gebärdensprache in künstlerischer Auseinandersetzung zu gestalten, oder wie im Szene-Jargon ausgedrückt, zu `performen´: „To all deaf rave people, you don't have to be hearing to enjoy music as you can see... you can enjoy it visually or personally... it’s an amazing thing that we as deaf people are getting the chance to perform and enjoy a small per- 4 U. Stelzhammer-Reichhardt Einleitung centage of what mainstream perfromers do...” (RICKEY 2006, ohne Seitenangabe). Die zurzeit wohl populärste gehörlose Musikerin in diesem Zusammenhang ist Evelyn Glennie. Auch sie engagiert sich intensiv für die musikalische Förderung hörbeeinträchtigter Kinder und Jugendlicher. Im Unterschied zu anderen Organisationen geht es ihr aber um die Professionalisierung gehörloser und schwerhöriger junger Musikerinnen und Musiker. Nach ihrer Art des Hörens befragt, antwortet sie: Klang ist vibrierende Luft und Hören eine spezialisierte Form der Berührung: „Hearing is basically a specialized form of touch. Sound is simply vibrating air which the ear picks up and converts to electrical signals, which are then interpreted by the brain. The sense of hearing is not the only sense that can do this, touch can do this too” (GLENNIE 2005, ohne Seitenangabe). Musik wird von vielen Autoren nicht als reines physikalisches Ereignis gesehen, sondern in einem weiteren Zusammenhang als Phänomen unterschiedlichster Ausprägungen und Ebenen betrachtet. BRUHN beispielsweise unterscheidet drei Daseinsebenen von Musik: • Musik als extern kodierte Information. Gemeint ist notierte Musik ebenso wie mechanisch, analog oder digital gespeicherte Musik. Mit dieser Form von Musik beschäftigen sich die Musikwissenschaft, Musikpädagogik und Technik, aber auch die Akustik und Informationstheorie. • Musik als akustische Struktur. Hier wird Musik als physikalisches Schallereignis betrachtet, das vor allem für die Physik, Akustik, Technik und Computertechnologie von Interesse ist. • Musik als Phänomen menschlichen Erlebens. Erst wenn Musik als physikalisches Schallereignis aufgenommen und im menschlichen Kortex repräsentiert wurde, „existiert Musik als wahrgenommenes bzw. vorgestelltes Ereignis“. (BRUHN, OERTER UND RÖSING 1993, 15) Mit dieser Ebene von Musik beschäftigt sich die Musikpsychologie aber auch die Musikpädagogik und Musiksoziologie. In Bezug auf GLENNIE´s Auffassung von `Musik hören´, verschmelzen die zwei letzteren dieser Daseinsebenen von Musik beim Vorgang der Musikwahrnehmung. Akustische Struktur trifft auf den Menschen und wird zur Basis des Erlebens von Musik. In der vorliegenden Arbeit soll genau dieser Aspekt betrachtet werden. Nicht die 5 U. Stelzhammer-Reichhardt Einleitung Interpretation des menschlichen Erlebens von Musik steht im Mittelpunkt, auch nicht akustische Struktur von Musik allein. Vielmehr geht es um den Schnittpunkt zwischen Schallwellen als akustische Struktur und menschlichem Erleben. Welche Wahrnehmungsmöglichkeiten stehen dem Menschen zur Verfügung? Die Suche nach einem Musikzentrum im Gehirn begann im 19. Jahrhundert. Als einzige Forschungsmethode stand zu dieser Zeit für derartige Fragen die neuropsychologische Methode der Läsionsstudien zur Verfügung. Die Wahrnehmungseinschränkungen nach Verletzung oder Erkrankung von Teilen des Gehirns ließen Rückschlüsse auf die eigentlichen Mechanismen des Gehirns ziehen. Ein ähnlicher Zugang stellt sich mit der Frage: Was bleibt von Musikwahrnehmung übrig, wenn die Hörfähigkeit nur mehr eingeschränkt, oder nicht mehr vorhanden ist. Ist musikalischakustische Struktur mehr als regelmäßige Schallwellen im Frequenzspektrum von 20 bis 20 000 Hz? Die Auseinandersetzung mit den Funktionsmechanismen und Einflussfaktoren der Musikwahrnehmung bilden die Basis für die musikpädagogische und musiktherapeutische Arbeit. Durch die Zusammenarbeit von Musikpädagogik und Naturwissenschaft entstehen wertvolle Synergien die zur Diskussion beitragen und helfen die jeweiligen Bereiche weiter zu entwickeln (vgl. STELZHAMMER 2006b). Nicht nur BRUHN, auch andere Autoren weisen auf unzählige Überschneidungen verschiedenster Disziplinen hin. Musik als gehörtes akustisches Ereignis beschäftigt auch Teilbereiche der Audiologie, Anatomie, Histologie, Biochemie, Neurologie sowie Teilbereiche der Musikpädagogik, Linguistik, Instrumentenbau und die Psychoakustik als Teilgebiet der Wahrnehmungspsychologie (vgl. PECH 1969, HELLBRÜCK u. ELLERMEIER 2004, BRUHN 1993): „Die Kenntnis zur und über Musik ist (…) unglaublich verteilt, und je mehr man weiß, umso stärker ist dieses Wissen in einer Weise verstreut, dass man große Mühe hat, sich eine Übersicht zu verschaffen“ (SPITZER 2004; 19): Diese Mühe ist jedoch notwendig um die verschiedenen Disziplinen weiter zu entwickeln. Das Ausmaß an Spezialisierung ist bereits derart groß, dass in der weiteren Spezialisierung der einzelnen Wissensgebiete weniger Potential liegt als in der Ver- 6 U. Stelzhammer-Reichhardt Einleitung netzung derselben. Leonhard BERNSTEIN spricht darüber in der ersten von sechs, später als Buch erschienenen, Vorlesungen zum Thema Musik – die offene Frage: „Das Wichtigste, das ich von Professor Prall – und überhaupt von Harvard – mitgenommen habe, war vielleicht das Verständnis für interdisziplinäre Gültigkeiten: dass der beste Weg, ein Problem zu erkennen, in seinen Zusammenhängen mit einem anderen Wissensgebiet liegt. Ich halte demnach meine Vorlesungen in diesem Verständnis sich kreuzender Wissensgebiete; ich werde, wenn ich über Musik spreche, dabei Streifzüge scheinbar unnützer Art auf die Gebiete der Dichtkunst, der Sprachwissenschaft, der Ästhetik und – der Himmel steh mir bei – auch der Elementarphysik unternehmen“ (BERNSTEIN 1979, 11): Ludwig van BEETHOVEN hielt 1802 in seinem Testament eine eindringliche Bitte an seinen Arzt fest: „Sobald ich tot bin, (…) so bittet ihn in meinem Namen, daß er meine Krankheit beschreibe, (…) damit wenigstens soviel als möglich die Welt nach meinem Tode mit mir versöhnt werde“ (zitiert nach ZENNER 2002, 2762). Beethoven sucht nach Erklärungen für seine Hörbeeinträchtigung. Er will verstehen und weiß zugleich, dass es zu seinen Lebzeiten keine Antwort auf seine Fragen geben kann. Aber er bittet seinen Arzt die Erforschung des Hörens - mit ihm selbst als Forschungsobjekt - aufzunehmen, damit es den Menschen nach ihm besser ergehe. Gehörlose Menschen zeigen uns ihren ganz besonderen Zugang zur Musik. Das Phänomen des Musikhörens fordert in seiner Komplexität die unterschiedlichsten Methoden zu seiner Erforschung. Einen naturwissenschaftlichen Zugang innerhalb eines musikpädagogischen Kontexts zu finden und zu diskutieren ist Ziel dieser Arbeit. 1.2. Forschungsstand und Quellen Der Vorgang des Hörens und der Hörverarbeitung ist immer noch nicht gänzlich geklärt (vgl. WICKEL und HARTOGH 2006). Die Akustik als Naturwissenschaft findet ihren Ursprung in Griechenland und in China. Pythagoras, dem die Entwicklung der Notenskala zugeschrieben wird und Ling Lun, der im Auftrag des Kaisers von China 7 U. Stelzhammer-Reichhardt Einleitung Wissen über die Tonskala erwerben sollte, zählen zu den ersten bekannten Wissenschaftlern auf diesem Gebiet. Die von HELLBRÜCK und ELLERMEIER dargestellte Geschichte des Hörens weist aber nicht nur auf antike Ursprünge hin, sondern auch auf die Interdisziplinarität des Forschungsgebietes (vgl. HELLBRÜCK und ELLERMEIER 2004). Erkenntnisse aus der Hirnforschung, die die Hörverarbeitung und die Fähigkeit des Zuhörens immer besser beschreiben, erweiterten die Forschungsgebiete der Psychoakustik in den letzten Jahren hin zur Neurologie. „Im Hinblick auf das Hören und Machen von Musik ist die Kenntnis der dies ermöglichenden neuronalen Maschinerie zwar nicht notwendig, der Musiker wird aber dennoch vieles besser verstehen, wenn die physikalischen und physiologischen Grundlagen klar sind“ (SPITZER 2004, 49). Ist das Hörvermögen beeinträchtigt, verändern sich die Bedingungen des Musikhörens. Je nach Art und Zeitpunkt des Auftretens der Hörbeeinträchtigung ergeben sich völlig unterschiedliche Voraussetzungen. Verschiedenste technische Hilfsmittel erleichtern oder stören die Musikwahrnehmung. Der technische Fortschritt ist sehr groß und muss mit jedem neu entwickeltem Hörgerät aufs Neue für den Einsatz beim Musikhören individuell erprobt werden, was bislang nicht von allen Hörgeräteherstellern als Selbstverständlichkeit erachtet wurde. Erst in den letzten Jahren gehen Hörgerätehersteller auf besondere Bedürfnisse von Schwerhörigen und Gehörlosen ein und versuchen die Bedingungen für das Musikhören durch technische Neuerungen zu verbessern. Eine erste umfassende Zusammenschau von Forschungsergebnissen im Bereich Musik und Gehörlosigkeit gelang Manuela PRAUSE in ihrer Dissertation über „Therapeutische und pädagogische Aspekte der Verwendung von Musik bei gehörlosen Menschen unter besonderer Berücksichtigung des angloamerikanischen Forschungsgebietes“ (vgl. PRAUSE 2001). Diese Berücksichtigung des angloamerikanischen Raumes ist vor allem deshalb wichtig, weil die USA im Gegensatz zum deutschsprachigen Raum auf eine mehr als „hundertjährige kontinuierliche Erfahrung auf diesem Gebiet“ zurückgreifen können (PRAUSE 2001, 17). Seit Ende des 19. Jahrhunderts finden sich in der Literatur Beschreibungen von Musikunterricht für gehörlose und schwerhörige Menschen. Zu den musikpädagogischen Pionieren im deutschsprachigen Raum gehören Mimi Scheiblauer (Zürich), 8 U. Stelzhammer-Reichhardt Einleitung Karl Hofmarksrichter (Straubing) und Charlotte Ziegler (Wien). Eine Übersicht über die deutschsprachigen musikpädagogischen Ansätze findet sich bei SALMON (2003). Der Einsatz von Musik und Bewegung fand vor Mitte der 1970er Jahre immer als `zweckdienliches´ oder zweckbezogenes Konzept statt. Das heißt außermusikalische Ziele, wie die Verbesserung der Lautsprache und die Schulung des Restgehörs, standen im Mittelpunkt der musikpädagogischen Interventionen. Mitte der 1970er entstehen im deutschsprachigen Raum Konzepte die nicht mehr ausschließlich auf Hörtraining und Lautspracherwerb abzielen, sondern einen multisensorischen und integrativen Ansatz verfolgen wie zum Beispiel die Arbeit von Gertrud Orff: „Der Einsatz der musikalischen Mittel (…) ist so gestaltet, dass er alle Sinne anspricht. Durch diese multisensorischen Impulse ist es möglich, auch da noch anzusetzen, wo ein wichtiges Sinnesorgan ausfällt oder geschädigt ist“ (ORFF 1974, 9; vgl. auch ORFF 1990). Daneben entstehen aber weiterhin zweckbezogen Konzepte wie beispielsweise jenes des dänischen Musiktherapeuten Claus BANG (vgl. BANG 1978). Seit den 1990ern gewinnen die von Shirley SALMON weiterentwickelten multisensorischen und integrativen Ansätze wieder mehr an Bedeutung (vgl. SALMON 2001und 2003). Weiterentwicklungen dieser Konzepte finden Unterstützung im europäischen Raum durch EU-Projekte an Schulen und persönlichem Engagement einzelner Pädagogen und Therapeuten (vgl. FERNER 2004, STELZHAMMER 2006b, FRIEDRICH 2001; HUMER 2004). Im angloamerikanischen Raum entwickelten sich parallel zu den zweckbezogen Konzepten immer auch `zweckfreie´ beziehungsweise künstlerische Konzepte. Das heißt Konzepte, die nicht ein außermusikalisches Ziel - wie oben beschrieben - beinhalten. Zum Beispiel Kunstformen die Musik mit neuen Tanzformen und (Gehörlosen)theater in Verbindung setzen. Lebendiges Zeichen dafür sind Musikkurse die an den beiden wichtigsten Zentren der amerikanischen Gehörlosenkultur (das Technical Institute in Rochester, New York und die Gallaudet Universität, Washington D.C.) angeboten werden. Neue Kunstformen sind unter anderem durch die Verbindung von Gesang und Gebärdensprache entstanden. Unter `Sign-Lyric´ fallen Kunstformen wie die Gestaltung von Gebärdenliedern, so genanntes `sign-singing´ und `song-signing´, die auch in der musikpädagogischen Praxis immer mehr Eingang finden: 9 U. Stelzhammer-Reichhardt Einleitung „Durch die Einbeziehung gehörlosenkultureller Elemente (Gebärdensprache, Mimik, Körpersprache u. a.) in vorhandene Kunstformen sind diese Innovationen als so genannte `Gehörlosenkunst´ innerhalb der Gehörlosenkultur entstanden“ (PRAUSE 2001, 264; vgl. auch SACKS 1988, FRIEDRICH 2001). Rhythmisch-musikalische Erziehung wurde lange Zeit vor allem zur Verbesserung der lautsprachlichen Fähigkeiten Gehörloser eingesetzt. Grund dafür sind Gemeinsamkeiten von Musik und Sprache. Parameter wie Rhythmus, Melodie, Phrase oder Akzentuierung verhalten sich sowohl in der Musik als auch in der Sprache gleich (vgl. KOELSCH et. al. 2002 und 2004a). Publikationen zum Themenbereich Musik und Gehörlosigkeit sind sowohl im angloamerikanischen als auch im europäischen Raum bis in die 1970er beschreibende Arbeiten und Einzelfallstudien. Erst seit den 1980er kommen auch empirische und experimentelle Studien dazu (vgl. PRAUSE 2001). Wenig Beachtung fanden bisher Forschungsberichte angrenzender Wissensgebiete und multisensorische Forschungsansätze wie die des Radiologen Dean SHIBATA. Das Forschungsteam um SHIBATA untersuchte die Wahrnehmungsverarbeitung von Vibrationen bei Gehörlosen (vgl. SHIBATA 2001, LEVANEN et. al. 1998). Die Auseinandersetzung mit derartigen Forschungsansätzen und die Frage - was bleibt von Musikwahrnehmung übrig, wenn das menschliche Hörorgan als Rezeptionsmechanismus weitgehend ausfällt - führte zur weiteren Suche nach Forschungsansätzen die über Untersuchungen zum Hörschallbereich hinausgehen (vgl. STELZHAMMER 2006a S 14). Neben den Überlegungen, dass tieffrequente und vibratorische Schallanteile unsere Musikwahrnehmung beeinflussen (vgl. HELMHOLTZ 1870, GLENNIE 2005), wird auch die Bedeutung von sehr hohen Schallanteilen für die Musikwahrnehmung immer wieder diskutiert (vgl. FRICKE 1960, OOHASHI 2000). Die Möglichkeiten der Ultraschallwahrnehmung beim Menschen wurde erstmals in den 1940er Jahren vom französischen Wissenschaftler Vincent GAVREAU vorgestellt und seither sehr unterschiedlich diskutiert (vgl. GAVREAU 1948). In den USA wurden in der Folge Hörhilfen auf der Basis von Ultraschallübertragung ebenso entwickelt wie so genannte Tinnitusmasker. Ein Tinnitusmasker ist eine Art Hörgerät, das störende Ohrgeräusche durch Abstrahlung der gleichen Frequenz auslöscht bzw. maskiert und so Tinnituspa- 10 U. Stelzhammer-Reichhardt Einleitung tienten unter bestimmten Voraussetzungen zu einer Linderung verhelfen kann (vgl. LENHARDT 2003). In den 1980er Jahren wurde in Deutschland der Frage nachgegangen, ob Hörüberprüfungen (Audiogramme) in den Ultraschallbereich ausgeweitet werden sollen (HOFMANN et. al. 1980, FLACH et. al. 1978). Die Rolle von Ultraschall in der Musikwahrnehmung wurde auch von japanischen Forschergruppen untersucht. OOHASI und andere untersuchten die Aktivierung des Kortex in hörenden Probanden durch ultraschallreiche Musik (vgl. OOHASI 2000 und FUJOMOTO et. al. 2005). Die Untersuchung von OOHASI bildete die Basis für die Entwicklung eines eigenen Forschungsprojektes, das im Rahmen dieser Arbeit durchgeführt wurde. 1.3. Aufbau der vorliegenden Arbeit In Anlehnung an die bereits vorgestellten musiktherapeutischen Konzepte von Claus Bang und den multisensorischen Ansätzen von Shirley Salmon, begann die Verfasserin 1994 eigene Erfahrungen im Bereich Musik mit gehörlosen und schwerhörigen Kindern zu machen. Die Rückmeldungen der Eltern, Frühförderinnen, Lehrerinnen und Erzieherinnen waren bald sehr positiv. Dabei standen weniger die, in der Literatur oftmals beschriebene, Verbesserung der Lautsprache im Mittelpunkt. Vielmehr fielen die positiven emotionalen Reaktionen der Kinder auf wie zum Beispiel Steigerung der Lebensfreude und Kommunikationslust oder die Intensivierung der ElternKind-Beziehung. Der positive Einfluss auf die Lautsprachentwicklung wie die Steigerung der Fähigkeit zur Stimmmodulierung oder die Verbesserung der Höraufmerksamkeit wurden aber auch in den Rückmeldungen genannt. Auffallend an den Beobachtungen und Rückmeldungen ist dabei die Unabhängigkeit vom Grad des Hörverlustes. Selbst Kinder mit hochgradigem Hörverlust zeigen Reaktionen auf Musikangebote. Neben stark vibratorischen Angeboten (Trommel, Klavier, Vibrationsliege) kommt dem Singen eine große Bedeutung zu, durch das sehr oft eine Steigerung der (Hör)Aufmerksamkeit beobachtet werden kann. 11 U. Stelzhammer-Reichhardt Einleitung In Gesprächen mit Musikpädagogen und Musiktherapeuten die mit gehörlosen und schwerhörigen Kindern und Jugendlichen arbeiten, tauchen immer wieder ähnliche Beobachtungen auf: • Vorliebe für dissonante Klänge • Wahl von Instrumenten, deren Klangspektrum subjektiv außerhalb des gemessenen Hörbereiches des jeweiligen Kindes liegen • Vorliebe für `live´ bzw. `unplugged´ gespielte Instrumente sowie • wenig Interesse für Tonträger Die bisherigen Beobachtungen erfolgten jedoch unstrukturiert, zufällig und beliebig. Allgemein gültige oder gar wissenschaftliche Aussagen sind dadurch nicht möglich. Manuela PRAUSE weist auf den allgemeinen Forschungsrückstand in diesem Themenbereich hin (vgl. PRAUSE 2001). So entstand die Idee, die Möglichkeiten der Musikwahrnehmung bei hochgradiger Schwerhörigkeit bzw. Gehörlosigkeit zu untersuchen: Die Funktionsmechanismen, die dem Musikhören zugrunde liegen, stehen in engem Zusammenhang mit den Hörerfahrungen die ein Mensch im Laufe seines Lebens macht. Es besteht ein großer Unterschied zwischen Menschen die taub geboren oder in früher Kindheit ertaubt sind, und Menschen die erst in einer späteren Lebensphase ertaubt sind oder von Schwerhörigkeit betroffen wurden. In der vorliegenden Arbeit werden deshalb in Kapitel 2.1. die Funktionsmechanismen des normalen Hörvermögens dargestellt. Bevor die anatomischen Gegebenheiten des Ohres erläutert werden, werden die musikalischen und akustischen Parameter vorgestellt. Der Weg des Schalls über die Cochlea bis hin zum auditorischen Kortex führt zum Themenbereich Psychoakustik. In Kapitel 2.2. steht die Beschreibung der verschieden Formen der Hörbeeinträchtigung und ihre Auswirkungen auf die Musikwahrnehmung im Vordergrund. Dabei werden auch verschiedene Hörhilfen und vorgestellt. Neuere Forschungen aus dem Bereich der multisensorischen Musikwahrnehmung (Kapitel 2.3.) führen hin zu einem Forschungsprojekt, das im Rahmen dieser Dissertation geplant und durchgeführt wurde und das im Anschluss in Kapitel 3 beschrieben wird. In Anlehnung an frühere Studien zur Wahrnehmung von Ultraschall wurde eine weiterführende Pilotstudie mit hörenden und gehörlosen Probanden entwickelt und durchgeführt. In der vorliegenden Arbeit werden zuerst die physikalischen Grundlagen von Ultraschall erläutert. In einem historischen Abriss werden die Zu- 12 U. Stelzhammer-Reichhardt Einleitung sammenhänge von Ultraschall und Musik aufgezeigt und der aktuelle Stand der Forschung beschrieben. Die daraus entstandene Fragestellung führt zu Material und Methoden des Forschungsprojektes. Die an 9 Versuchstagen durchgeführten Messungen an 23 Probanden wurden mit Hilfe von eigens dafür entwickelten Computerprogrammen ausgewertet. Abschließenden werden die Ergebnisse des Forschungsprojekts in einen Zusammenhang mit den zuvor vorgestellten Möglichkeiten der Musikwahrnehmung gebracht. Dabei werden sowohl Konsequenzen für die Musikpädagogik im speziellen Bereich, das heißt in der Arbeit mit hörbeeinträchtigten Menschen, als auch allgemeine musikpädagogische Konsequenzen diskutiert und erläutert. Gehörlose Menschen interessieren sich für Musik, sie verbinden damit positive, aber auch negative Gefühle. Musik berührt die Menschen über den hörbaren Schall hinaus. Musik ist vielleicht mehr als sein hörbares Frequenzspektrum. Der Frage nach diesem `mehr´ soll im Folgenden nachgegangen werden. 13 U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 14 2. Vom Hören und Nicht-Hören-Können 2.1. Musikwahrnehmung und Hörverarbeitung bei normalem Hörvermögen An das Ohr dringen unaufhörlich Schallwellen. Im Gegensatz zum Auge kann das Ohr nicht ruhen. Hörorgan und Gehirn be- und verarbeiten den Schall der kontinuierlich an unser Ohr dringt in der Form, dass wir schließlich einzelne Schallereignisse heraushören oder aber auch aus unserer Wahrnehmung ausblenden können. Wie bei der Verarbeitung von visuellen Eindrücken (hier werden rasch wechselnde Farbbzw. Lichtflecken vom Gehirn als Objekte und visuelle Ereignisse nach bestimmten Funktionsprinzipien gestaltet) geschieht ähnliches beim Hören. Die über den Hörnerven eingehenden Impulse werden mit bereits gespeicherten Informationen verglichen und in einem aktiven Gedächtnisprozess bewertet. Um aus dem ständig ans Ohr treffenden Schallwellen überhaupt etwas heraushören zu können bildet das Gedächtnis Gruppen, verbindet oder trennt eintreffende Schallmerkmale, schafft es mit Hilfe von Habituierung (Lernschritt durch Gewöhnung an einen Reiz) Wichtiges von Unwichtigem zu unterscheiden, ordnet mit Hilfe des Langzeitgedächtnisses das Gehörte in einen kulturell geprägten Kontext und orientiert sich bei neuen, unbekannten Schalleindrücken an ähnliche Strukturen aus dem jeden Tag reicher werdenden Schatz an Hörerfahrung. 2.1.1. Musikalische Parameter Schall besteht, wenn er unser Ohr erreicht, aus Druckschwankungen der Luft. Diese von einer Schallquelle ausgelösten Druckschwankungen breiten sich in der Luft aber auch in Wasser und verschiedenen Materialien wellenförmig aus. Zeigen die entstandenen Schwingungen mehr oder weniger komplexe periodische Muster, nehmen wir Töne und Klänge wahr. Aperiodische Schwingungen bzw. Schalle werden als Geräusch wahrgenommen. Die Zahl der Schwingung pro Sekunde wird als Frequenz bezeichnet mit der Einheit Hertz (Hz). Schwingungen im Bereich von etwa 20 Hz bis 20.000 Hz führen zu einer primären Hörwahrnehmung. Natürliche Töne enthalten immer komplexe Schwingungsmuster die aus einer Grundfrequenz und deren ganzzahligen Vielfachen, den Ober- oder Partialtönen bestehen. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 15 Abb. 2.1. aus: www.tonalemusik.de/bild/schwingung.gif (Stand 10/2006) Wie im schematisierten Beispiel in Abbildung 2.1. dargestellt, besteht ein Ton oder Klang aus mehreren Schallkomponenten. Schwingung 1 stellt die Grundschwingung dar. Schwingung 2, 3, und 4 sind ganzzahlige Vielfache der Grundschwingung und sorgen je nach ihrer Intensität unter anderem für die unterschiedlichen Klänge verschiedener Musikinstrumente. Zusammengesetzt entsteht ein für das jeweilige Instrument charakteristisches Frequenzmuster (Gesamtschwingung). Die Einordnung von Tönen in ein Tonhöhensystem gelingt durch zwei Komponenten eines Tones: Zum einen durch sein Chroma, die zyklisch wiederkehrende Komponente des Frequenzspektrum. Mit Hilfe des Chromas lässt sich der Ton bestimmen (zum Beispiel als `A´). Aber erst durch die Helligkeit (linear kontinuierliche Komponente des Frequenzspektrums) lässt sich bestimmen in welcher Oktave das `A´ erklingt. Wenn zwei oder mehr Klänge gleichzeitig auftreten, wird nicht die Summe der Einzelklänge wahrgenommen. Es kommt zu Wechselwirkungen, die die Gesamtwahrnehmung beeinflussen - wie Verdeckungseffekte, Schwebungen und Kombinationstöne die physikalisch nicht existieren, sondern die unser Gehirn entstehen lässt. Durch das Zusammenwirken der verschieden musikalischen Parameter Ton-, Melodie- und Zeitstruktur sowie harmonische und dynamische Struktur entsteht Musik (vgl. PEIRCE 1989, FÖDERMAYR 1996, ROEDERER 1977). Töne, die in einer bestimmten zeitlichen Abfolge gehört werden, ergeben eine Melodie. Liegen die zeitlichen Abstände zwischen zwei Tönen zu weit auseinander, kann das Gehirn keine Melodie mehr erkennen. Hierbei spielen die Kapazitäten des Arbeitsgedächtnisses eine Rolle. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 16 Ein weiterer musikalischer Parameter ist die Zeitstruktur beziehungsweise das Rhythmusempfinden. Töne werden unterschiedlich lang dargeboten und ergeben zeitliche Einheiten. Diese werden als solche vom Gehirn gruppiert. So empfinden wir bei gleicher Melodie einen Walzerrhythmus völlig anders als einen Marschrhythmus. Das Gedächtnis unterstützt die Musikwahrnehmung besonders dann, wenn die zeitlichen Gruppierungen nicht durch einen realen Ton geformt werden. „Man nimmt einen Rhythmus auch dann wahr, wenn ihm gar kein physikalisches Ereignis entspricht, wie dies beim Jazz nicht selten der Fall ist. Der Taktschlag, das Metrum, muss vom Hörer sozusagen gedacht werden, um dann die Synkopen als Abweichung vom Metrum überhaupt wahrnehmen zu können“ (BRUHN 2000, 41). Mit `harmonische Struktur´ als musikalischer Parameter ist die parallele Verarbeitung von gleichzeitig erklingenden Einzeltönen gemeint, wie es bei mehrstimmiger Instrumental- oder Chormusik der Fall ist. Ergänzend dazu kommen noch dynamische Strukturen. Das heißt, dass innerhalb eines Musikstückes die Schallereignisse schneller und langsamer, lauter und leiser werden. Ein und dieselbe Melodie kann in kurzen Einzeltönen - Stakkato - oder aber in ineinander übergehenden Tönen – Legato - gespielt werden. Das Ohr und das Gehirn verarbeiten alle diese musikalischen Parameter gleichzeitig und im Wechselspiel (vgl. KRUMHANSL 2000). Neben der analytischen Verarbeitung von Musik wird diese auch emotionell verarbeitet. Beim Analysieren und Abspeichern von Musik ist immer auch das limbische System und somit die emotionale Reaktion beteiligt (vgl. HELLBRÜCK und ELLERMEIER 2004). Die Gefühlselemente entstehen durch das Entdecken von Symmetrien, Regelmäßigkeiten, aber auch durch Überraschungseffekte, zum Beispiel durch einen plötzlichen Wechsel von vertrauten musikalischen Mustern. Die ausgelösten emotionalen Muster sind Entspannung – Erregung – Anspannung – Erleichterung – Entspannung (vgl. CARTER 1999). Entscheidend dabei ist die Hörerfahrung. Untersuchungen mit Musikern und Nicht-Musikern zu Tonartenwechsel ergaben unterschiedliche emotionale Reaktionen. Musiker reagieren im Vergleich mit Nicht-Musikern in verstärktem Maße auf Tonartenwechsel und geben dabei auch verstärkt emotionelle Reaktionen an: „Musikalische Ereignisse wie ein Tonartenwechsel werden von ihnen (NichtMusikern, Anmerkung der Verfasserin) zwar gehört, aber nicht interpretiert, U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 17 und rufen deshalb auch keine Gefühlsreaktionen hervor“ (ROEDERER 2000, 225). Dass die individuelle Verarbeitung von Schallereignissen über den physikalischen Hörmöglichkeiten (also dem Reintonaudiogramm) steht, bestätigen auch die Erfahrungsberichte von Audiologen und Musiktherapeuten. ROBBINS und ROBBINS beschreiben dieses Phänomen in Music for the hearing impaired & other special groups: „To me, musicality is the ability to retain, recognize and produce sound patterns and to associate them with emotions and with other aspects of experience. It certainly isn´t something that resides in the ear. It resides in the brain” (ROBBINS & ROBBINS 1980, 22). 2.1.2. Auf dem Weg durch das Ohr Das Ohr gliedert sich anatomisch in äußeres Ohr, Mittelohr und Innenohr. Jeder der drei Bereiche erfüllt eine ganz spezifische Aufgabe und ist spezialisiert. Die größte Spezialisierung erreichte das Hörorgan im Laufe der Evolution für Sprachverarbeitung. Funktionseinschränkungen in auch nur einem Teilbereich führen zu mehr oder weniger massiven Beeinträchtigungen in der Hörwahrnehmung und -verarbeitung. Abb. 2.2. aus: LINDSAY und NORMANN 1981, S. 96 U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 18 Das Außenohr Das äußere Ohr umfasst Ohrmuschel, Gehörgang und Trommelfell. Bereits an der Ohrmuschel und im Gehörgang werden die eintreffenden Schallereignisse `vorgeformt´. Das heißt bestimmte Frequenzen werden bevorzugt verstärkt. Durch die Form der Ohrmuschel wird bereits an dieser Stelle Schall der von vorne kommt verstärkt, und Schall der von hinten kommt gedämpft. Dieses Dämpfen und Verstärken ist für die räumliche Wahrnehmung wichtig. Die Form des Gehörgangs funktioniert ähnlich einer Orgelpfeife als Resonanzrohr und verstärkt vor allem die für das Sprachverständnis wichtigen Frequenzbereiche zwischen 2000 und 5500 Hz. Das Mittelohr Zum Mittelohr zählen die 3 Gehörknöchelchen Hammer, Amboss und Steigbügel (die Steigbügelplatte ist so groß wie ein halbes Reiskorn) sowie die eustachische Röhre. Die Gehörknöchelchen übertragen den Luftschall an die mit Endolymphflüssigkeit gefüllte Hörschnecke. Da Schallwellen in Flüssigkeit anders reagieren als in Luft, werden sie von den Gehörknöchelchen für die Weiterleitung in der Hörschnecke `optimiert´. Das Trommelfell fokussiert den Schall auf die Gehörknöchelchen, die die relativ kraftarme aber große Schwingung in eine kleinere aber kräftigere Schwingung umwandeln und an die kleine Eingangsfläche zur Hörschnecke, dem ovalen Fenster, weitergeben. Bei zu lauten, hörschädigenden Schallereignissen übernehmen die Gehörknöchelchen auch eine Schallschutzfunktion indem sie mit Hilfe angesetzter Muskeln (die kleinsten Muskeln im Körper überhaupt) die eintreffenden Schallwellen abschwächen. Der Druck im Mittelohr entspricht immer dem atmosphärischen Außendruck. Um dieses Verhältnis ständig beizubehalten, ist das Mittelohr über die „Eustachische Röhre“ mit dem Rachenraum verbunden Das Innenohr Das Innenohr mit Hörschnecke (Cochlea) und Gleichgewichtsorgan (Bogengänge) liegt geschützt hinter dem härtesten Knochen im menschlichen Körper, dem Felsenbein. Die Schnecke ist ein etwa 3,2 cm langes Rohr das sich in 2,5 Windungen wie eine Schnecke formt. Insgesamt so groß wie eine Erbse, ist die Hörschnecke das einzige Körperteil, das bereits im pränatalen Stadium (zwischen 4. und 5. Monat) U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 19 vollständig ausgebildet ist und danach nicht mehr wächst (vgl. HELLBRÜCK u. ELLERMEIER 2004, BOENNINGHAUS und LENARZ 2004, PLATTIG 1993). 2.1.3. Schaltstelle Cochlea In der Cochlea sitzt das eigentliche Hörsinnesorgan. Hier werden die mechanischen Druckschwankungen der Luft in elektrische Nervenimpulse umgewandelt. Die Cochlea ist in drei Schläuche unterteilt. Die Scala vestibuli, die Scala timpani und die Scala media. In der Scala media (Schneckengang) sitzt das eigentliche Hörorgan - das cortische Organ (siehe Abbildung 2.3.). Abb. 2.3. aus: SCHMIDT 1985, S. 244, 245 Der Schneckengang ist mit Flüssigkeit - Endolymphe -gefüllt, die beiden anderen Schläuche mit Perilymphe. Die Enolymphe entspricht der intrazellulären Flüssigkeit und enthält überwiegend Kaliumionen, die Perilymphe entspricht der Flüssigkeit in den Zellzwischenräumen und enthält überwiegend Natriumionen. Diese unterschiedliche Ionenkonzentration bedeutet elektrische Spannung. Es herrscht ein Gleichspannungspotential. Dieses Potential wiederum dient als Batterie U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 20 für die in den Rezeptoren stattfindenden elektrischen Vorgänge (vgl. HELLBRÜCK u. ELLERMEIER 2004, SPITZER 2004, PLATTIG 1995). Das cortische Organ mit inneren und äußeren Haarsinneszellen sitzt auf der Basilarmembran. Die Haarsinneszellen werden durch die Schallwelle, die als Wanderwelle die Hörschnecke durchläuft, ausgelenkt. An der Spitze jeder Haarzelle befinden sich Ionenkanäle die im Ruhezustand halb geöffnet sind. In Abhängigkeit der Verbiegung werden sie weiter oder weniger weit geöffnet oder geschlossen, es fließen also mehr oder weniger Ionen. Die dabei generierten elektrischen Impulse (Aktionspotentiale) laufen über den Hörnerv zu den weiteren Stationen der Hörbahn. Dies geschieht im Vergleich zum Sehen mit einer um zwei bis drei Zehnerpotenzen größeren Schnelligkeit bzw. zeitlichen Auflösungsfähigkeit und ist ein noch nicht vollständig erforschter Vorgang: „Keineswegs alle Komponenten dieser Überführung mechanischer Bewegung in neuronale Aktivität sind bis in jede Einzelheit aufgeklärt“ (SPITZER 2004, 61). SPITZER weißt darauf hin, dass jedoch die Prinzipien der Schallumwandlung in Nervenimpulse als geklärt gelten. Die maximale Auslenkung der Basilarmembran und damit der Haarsinneszellen erfolgt je nach Höhe des Tones mehr beim ovalen Fenster (hohe Töne) oder mehr an der Schneckenspitze (tiefe Töne). Das heißt dass unterschiedliche Frequenzen unterschiedlich weit in der Schnecke entlang wandern und die Haarsinneszellen auf unterschiedliche Frequenzen spezialisiert sind. Diese „Frequenzkarten“ finden sich an allen Stellen der Hörbahn bis hin zum auditorischen Kortex wo die einzelnen Frequenzen einer bestimmten Stelle im Kortex zugeordnet werden können: „Entscheidend ist, dass jeder dieser Haarzellen ein bestimmter Schwingungsbereich zugeordnet ist. (…) Im Innenohr werden also Ortskoordinaten in Tonhöheninformation umgewandelt, ein Phänomen, das Tonotopie genannt wird“ (ALTENMÜLLER 2000, 91). Das Hörorgan steht in enger Kommunikation mit den Verarbeitungsstellen im Gehirn. Es gehen nicht nur Nervenimpulse vom cortischen Organ zum Zentralnervensystem sondern auch umgekehrt. Durch die absteigende Nervenfasern, Effektoren, kann die U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 21 Aufmerksamkeit gezielt auf bestimmte Frequenzbereiche der Basilarmembran gelenkt werden: “Während die inneren Haarzellen im Innenohr als eigentliche Frequenzmelder fungieren, sind die äußeren Haarzellen Effektoren, die von Zentralnervensystem gesteuert werden und über die absteigenden Hörbahn Schwingungen der Basilarmembran örtlich umschrieben gezielt verstärken und dämpfen können und damit die Trennschärfe bei der Schallanalyse erhöhen“ (ALTENMÜLLER 2000, 9; vgl. auch HELLBRÜCK u. ELLERMEIER 2004). 2.1.4. Über die Hörbahn zum Hörkortex Vom Innenohr kommend verlaufen 3.500 Nervenfasern aus den inneren Haarzellen die eigentlichen Frequenzmelder - und 12 000 Nervenfasern aus den äußeren Haarzellen (die wiederum zum größten Teil der absteigenden Kommunikation zwischen Zentralnervensystem und cortischem Organ dienen) zum zentralen Hörnerv zusammen (vgl. BIRBAUMER und SCHMIDT 1999). Die afferente, also aufsteigende Hörbahn gliedert sich in mehrere Verarbeitungsstufen. Parallel dazu verläuft die efferente Hörbahn die sich vom Kortex bis zur Cochlea erstreckt. Stark vereinfacht dargestellt in Abbildung 2.4.: Abb. 2.4. aus: BIRBAUMER und SCHMIDT 1999, S 422 U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 22 Die Spiralganglien (die mit den Haarzellen verbundenen Neuronen zum Hörnerv zusammenlaufenden Fasern) enden nach dem Eintreten in den Hirnstamm im Nucleus cochlearis. Hier kreuzt nun ein Großteil der Fasern auf die dem Ohr gegenüberliegende Hirnseite (etwa 90 % verläuft kontralateral und 10 % blieben ipsilateral) und läuft weiter zum Olivenkomplex. In der Oliva superior medialis treffen die Informationen von beiden Ohren zusammen. Hier erfolgt wahrscheinlich durch die Verrechung der Laufzeitunterschiede von rechtem und linkem Ohr die Schallquellenlokalisation. Es folgen höhere Kerngebiete wie die Vierhügelplatte, der mittlere Kniehöcker und die Olivenkerne. Dabei gibt es immer wieder Verbindungen zwischen kontra- und ipsilateraler Hörbahn. Vor allem auch über den Balken, der mit etwa 200 Millionen Nervenfasern die beiden Gehirnhemisphären miteinander verbindet. Die afferente Hörbahn endet in der `heschlschen Querwindung´ des Schläfenlappens, der primären Hörrinde. In der primären Hörrinde werden vor allem die Tonhöheninformationen verarbeitet. Wie schon im cortischen Organ sind auch hier die Tonhöhen örtlich genau umschrieben repräsentiert. Die primäre Hörrinde ist umgeben von Assotiationsfeldern, die weitere musikalische Parameter wie zum Beispiel Klangfarbe, Rhythmus oder Mehrstimmigkeit verarbeiten (vgl. HELLBRÜCK und ELLERMEIER 2004; GAAB et. al. 2003). Die Umschaltstationen im Gehirn dienen der Mustererkennung, Filterung und zur Berechnung von Laufzeitdifferenzen des Schalles zwischen beiden Ohren (Richtungshören). Im Bereich des Thalamus wird Information gezielt zum Kortex durchgestellt oder unterdrückt. Dieser Mechanismus wird „Gating-Effekt“ genannt und ermöglicht die selektive Aufmerksamkeitssteuerung, zum Beispiel auf ein bestimmtes Instrument im Orchester. Die Verarbeitung entlang der aufsteigenden Hörbahn erfolgt aber nicht nur hintereinander in zunehmend komplizierteren Analysevorgängen, sondern erfolgt immer auch parallel. Das heißt die Schallinformation wird immer auch in verschieden Teilen des Hirnstamms, Mittelhirns und es Großhirns unter unterschiedlichen Aspekten verarbeitet. Zu den an den primären Hörkortex angrenzenden großen Hirnrindengebieten, die auditorischen Assoziationskortizes, gehört auch die Wernicke-Region, die eine entscheidende Rolle bei der Sprachwahrnehmung spielt (vgl. ALTENMÜLLER 2000). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 23 2.1.5. Repräsentation und Neuroplastizität - Psychoakustik Wo genau im Gehirn Musik verarbeitet wird zeigen die Forschungsergebnisse der letzten Jahre immer genauer. Schon seit den 1970er Jahren gibt es Hinweise darauf, dass Musik sich in Abhängigkeit von der musikalischen Spezialisierung eines Menschen unterschiedlich im Gehirn repräsentiert. Bei einem Berufsmusiker anders als bei einem Laien, bei einem Trompeter anders als bei einem Cellisten. “Man weiß dass die Verbindungen zwischen Nervenzellen erfahrungsabhängig beständig neu geknüpft werden, dass Nervenzellen sogar neu entstehen können und dass sich kortikale Karten beständig anhand der Erfahrungen, die von ihnen verarbeitet werden, umorganisieren“ (SPITZER 2004, 211). Die (Frequenz-)Analyse der Schallereignisse aus der afferenten Hörbahn geschieht in der primären und sekundären Hörrinde sowie den umgebenden Strukturen des Temporallappens. In dessen Nähe sind auch Melodie, Harmonie, Dynamik, Klangfarbe, Stimme, Tonleitern, Intervalle, Tonalität und Takt repräsentiert. Beim Musizieren oder Tanzen werden die motorischen und sensorischen Areale aktiviert. Von Aktivierung betroffen sind aber auch jene anschließenden Areale die für die Planung einerseits und das Verstehen von Musik andererseits zuständig sind. In den frontalen Hirnbereichen werden Wiederholungen von Phrasen oder ganzen Stücken erkannt und programmiert sowie das allgemeine Wissen gespeichert. Hier werden auch unerwartete musikalische Ereignisse (Tonartwechsel, Synkopen etc.) bemerkt. Ebenfalls im Frontalhirn sind der Musikgeschmack, kulturelle Eigenarten und Stilrichtungen repräsentiert. Hier gibt es einen engen Zusammenhang zu den Bereichen des Gehirns, in denen emotionale Reaktionen und Ereignisse kodiert sind. Das tiefer im Gehirn liegende limbische System sorgt für die körperlichen Begleiterscheinungen wie Gänsehaut und Kribbeln im Bauch beim Hören der Lieblingsmusik (vgl. ALTENMÜLLER 1995, SPITZER 2004). Neben dieser groben Einteilung in Hören, aktiv Musizieren und Tanzen, Musik verstehen, erleben und fühlen zeigen neuere Forschungsergebnisse ein immer feineres Bild der neuronalen Repräsentation von Musik. So konnten musikbezogene Bereiche aufgezeigt werden für • die akustische Analyse und Repräsentation, • das Tastempfinden beim Musizieren, U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 24 • Motorische Bereiche für das Musizieren, Singen und Tanzen, • visuelle Verarbeitung beim Noten lesen, • Raum- und Körperempfinden beim Tanzen, • Zeitempfindungen wie Metrum und Rhythmus, • musikalische Erwartungen, Planung und allgemeines Musikwissen, • musikalische Persönlichkeit, Vorlieben und Musikgeschmack, • Emotionen • Stimme und Melodie hören • sowie musikalische Assoziationen, Erfahrungen und Episoden (vgl. SPITZER 2004 und KOELSCH et. al. 2005b). Anders als beim analytischen Hören eines Tones werden bei der Verarbeitung von komplexer Musik mit ihren vielen Einzelparametern auch viele Bereiche des Gehirns mit einbezogen. „Es gibt im Gehirn kein Musikzentrum. (…) neueste Studien zur Repräsentation von Musik im Gehirn ergaben, dass praktisch das gesamte Gehirn zur Musik beiträgt“ (SPITZER 2004, 212). Entgegen früherer Annahmen gilt heute als gesichert, dass das Gehirn sich Zeit seines Lebens verändert. Das Zentralnervensystem passt sich permanent an die gemachten Lebenserfahrungen des Organismus an. Diese Anpassungsvorgänge bezeichnet man als Neuroplastizität. Neuroplastizität geschieht auf verschiedenen Ebenen. Die am Besten erforschte Ebene ist die der Synapsen, den Verbindungen zwischen den Nervenzellen. Bei Lernvorgängen veränderte sich die Stärke der Verbindung. Dies konnte zum Beispiel bei Untersuchungen der Meeresschnecke Aplysia gezeigt werden (vgl. KANDEL 1995). „Neurobiologisch betrachtet besteht Lernen an der Veränderung der Stärke der Verbindungen zwischen Nervenzellen“ (SPITZER 2004, 175). Bei Berufsmusikern konnten teils erhebliche Veränderungen der Bereiche gefunden werden, die für deren jeweiliges Instrument wichtig sind. Zum Beispiel ist der kleine Finger eines Geigers wesentlich stärker repräsentiert als bei einem Nicht-Geiger. Das Gehirn hat im Laufe der Übezeit die Verbindungen zur Steuerung des kleinen Fingers verstärkt. Kortikale Karten können sich innerhalb von Wochen bis hin zu Jah- U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 25 ren verändern. Die unterschiedlichen Prozesse mit ihren Größenordnungen werden in Abbildung 2.5. dargestellt: Abb. 2.5. aus: SPITZER 2004 S, 175 Die ansteigende Zahl an Studien zur Musikwahrnehmung brachte eine Fülle sich zum Teil widersprechender Ergebnisse. „Ein besonderes Charakteristikum der neuropsychologischen Befunde zur Musikverarbeitung ist jedoch die starke Variabilität der Befunde“ (ALTENMÜLLER 2000, 94). Einen Teil dieser Varianzen führt Altenmüller darauf zurück, dass die Untersuchungstechniken sehr unterschiedliche und nicht standardisiert sind. „Die unterschiedliche emotionale Bewertung von Musik ist (…) ein weiterer Faktor, der die Variabilität der Hirnaktivierungsmuter beim Musikhören erhöht“ (ALTENMÜLLER 2000, 94). Weiters festigt sich die Ansicht, dass es unterschiedliche erworbene Strategien der Hörverarbeitung gibt. Den analytischen oder ganzheitlichen Hörer bzw. den Grundtonhörer oder den Obertonhörer (vgl. KOELSCH et. al. 2004a, SCHMITHORST 2003). Musik hören und verstehen wird somit als äußerste komplexe Leistung verstanden, die nicht nur besondere Fähigkeiten des Gehörs verlangt, sondern in gleicher Weise auch kognitive Leistungen fordert. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 26 2.2. Musikwahrnehmung und Hörverarbeitung bei beeinträchtigtem Hörvermögen 2.2.1. Formen der Hörbeeinträchtigung Wie oben beschrieben durchläuft ein Schallsignal – bevor es unser Gehirn erreichen kann - den äußerst komplexen Vorgang der Umwandlung vom mechanischen Reiz in einen elektrischen. Die sensiblen Teilbereiche des Ohres können von Geburt an in ihrer Funktion beeinträchtigt sein oder im Laufe des Lebens Schaden erleiden. Unterscheidung von Hörstörungen nach Ort der Schädigung Hörstörungen können in verschiedenen Bereichen des Außen- und Innenohres auftreten. Demnach wird unterschieden zwischen • Schallleiter-Schwerhörigkeit • Schallempfindungs-Schwerhörigkeit Auch kombinierte Formen sind möglich. Eine Hörstörung kann ein- oder beidseitig vorliegen. Hörstörungen SchallleitungsSchwerhörigkeit (conductive hearing loss) SchallempfindungsSchwerhörigkeit (sensorineural hearing loss) Außen- und Mittelohr Innenohr und Hörnerv Tab. 2.1. Einteilung von Hörstörungen nach Ort der Schädigung Liegt eine Schallleitungs-Schwerhörigkeit vor, gelangen die Schallwellen nicht ausreichend ans Innenohr. Die Tonqualität bleibt zwar weitgehend unverändert, die Intensität ist jedoch zu gering. Störungen im Mittelohr können mit operativen Eingriffen und spezieller Hörgerätetechnologie gut ausgeglichen werden. Bei einer Schallempfindungs-Schwerhörigkeit liegt die Störung im Innenohr, in der zentralen Hörbahn oder im Hirnbereich vor. Wobei sich sensorische Schwerhörigkeit auf eine cochleare Beeinträchtigung bezieht, neurale Schwerhörigkeit auf eine Beeinträchtigung der Weiterleitung (=sensorineural) (vgl. HELLBRÜCK und ELLERMEIER 2004). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 27 Zu einer allgemein oder nur in bestimmten Frequenzbereichen verminderte Hörfähigkeit kann besonders bei einer Lärm- oder altersbedingten Schwerhörigkeit eine gesteigerte Lautheitsempfindlichkeit (Recruitment) hinzukommen. Das heißt die Hörschwelle ist verschoben, es wird eine größere Lautheit benötigt. Andererseits werden laute Töne schneller als unangenehm empfunden. Der Dynamikbereich ist mehr oder weniger stark eingeschränkt: „Auch ein leicht zu hoher Pegel beim Musikhören wird als sehr unangenehm empfunden, die Musik erscheint merklich verzerrt. Der Grund dafür ist, dass der Bereich zwischen Wahrnehmungsschwelle des Schalls und der Schmerzgrenze infolge der Schwerhörigkeit – normalerweise die ganze Bandbreite von 0 bis ca. 120 dB umfassend – deutlich zusammengestaucht wird“ (WICKEL und HAROGH 2006, 76). Unterscheidung von Hörstörungen nach Ursachen Hörstörungen können genetisch bedingt sein oder vor der Geburt beziehungsweise. im Laufe des Lebens durch Krankheit, Unfälle oder aufgrund von Überbelastung durch Lärm erworben werden. Einige erworbene Ursachen können sein: Schwangerschaftsröteln, Toxoplasmose, Frühgeburt, Geburtstraumen, verschiedene Infektionskrankheiten wie Mumps, Masern, Meningitis. Schwere Schädelverletzungen, Hörsturz, Durchblutungsstörungen und Tumore können ebenfalls Ursache für eine Hörstörung sein. Unterscheidung von Hörstörungen nach Zeitpunkt des Eintretens der Störung Sowohl erblich bedingte, als auch erworbene Hörschäden können zu unterschiedlichen Zeitpunkten eintreten. Es werden im Kindes-, Jugend- oder Erwachsenenalter auftretende Hörstörungen unterschieden. Die sensible Phase des Spracherwerbes ist durch eine Hörstörung besonders gefährdet. Es wird deshalb zusätzlich zwischen prä- peri- und postlingualem Auftreten (das heißt vor, während und nach dem Spracherwerb) einer Hörstörung unterschieden (vgl. WICKEL und HAROGH 2006, LÖWE 1979). Unterscheidung von Hörstörungen nach Grad des Hörverlustes Eine weitere Möglichkeit Hörstörungen zu kategorisieren ist die Einteilung nach dem verbleibenden Hörbereich, bzw. nach dem Grad der Einschränkung. Die Einteilung U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 28 ist nicht einheitlich festgelegt, sondern je nach Autor verschieden (vgl. LEONHARDT 2002, WICKEL und HARTOG 2006, HELLBRÜCK und ELLERMEIER 2004, PLATH 1995). Kategorisierung Grad des Hörverlustes Normalhörigkeit od. annähernde Normalhörigkeit 0 – 20 % Geringgradige Schwerhörigkeit 20 – 40 % Mittelgradige Schwerhörigkeit 40 – 60 % Hochgradige Schwerhörigkeit 60 – 80 % An Taubheit grenzenden Schwerhörigkeit 80 – 95 % Taubheit______ 95 – 100 %___ Tab. 2.2. Kategorisierung von Hörverlusten nach BOENNINGHAUS und LENARZ 2005, S. 358 Eine leicht- oder geringgradige Hörstörung beeinträchtigt die Wahrnehmung von sehr feinen Geräuschen. Beginnende Altersschwerhörigkeit macht sich oft zuerst durch den Verlust von Naturgeräuschen wie Blätterrauschen oder Vogelgezwitscher bemerkbar. Obwohl die Person im normalen Gespräch noch keine Verständnisschwierigkeiten hat, gehen doch viele Feinheiten bereits verloren. Bei einer mittelgradigen Hörstörung ist es bereits nur mehr sehr schwer möglich, ohne Hörhilfen einem Gespräch zu folgen. Besonders wenn Hintergrundgeräusche (wie zum Beispiel Verkehrslärm bei geöffnetem Fenster) vorhanden sind. Ab einer hochgradigen Hörschädigung ist die Sprachwahrnehmung über das Ohr ohne Hörhilfen unmöglich, wie in der folgenden Graphik schematisch dargestellt. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 29 Abb. 2.6. aus: WAYNER o. Jahresangabe, S. 7: Schematische Darstellung von Hörschwellen (rechts, Einteilung von Hörschädigungen nach Grad des Hörverlustes) im Vergleich mit Umweltgeräuschen und Sprachlauten im mittleren Frequenzbereich des Hörfeldes. Unterscheidung von Hörstörungen nach Gesichtspunkten der Sprachentwicklung Die Pädagogik orientiert sich in der Kategorisierung von Hörschäden an der Fähigkeit der Sprachwahrnehmung über den Hörsinn und unterscheidet demnach im Vergleich zu BOENNINGHAUS nur 3 Gruppen. Schwerhörigkeit (Kommunikation stützt sich auf die Lautsprache), Resthörigkeit (obwohl noch verwertbare Hörreste vorhanden sind, ist die Entwicklung von Lautsprache ohne visuelle Unterstützung nicht möglich) und Gehörlosigkeit (Sprache ist über den akustischen Kanal nicht wahrnehmbar) (vgl. PRAUSE 2001, WISOTZKI 1994). Der Begriff „gehörlos“ bezeichnet auch eine kulturelle Gruppe von gebärdensprachlich kommunizierenden Menschen, die unabhängig von ihrem tatsächlichen Hör- und Lautsprachvermögen in Gebärdensprache kommunizieren und sich mit der Gebärdensprachkultur identifizieren (vgl. SACKS, 1992). „Obwohl versucht wird, die einzelnen Gruppierungen von Hörgeschädigten näher zu beschreiben, muss angemerkt werden , dass die Erscheinungsbilder hörgeschädigter Menschen und ihre psychosoziale Situation infolge der Vielzahl der Faktoren, die am Zustandekommen der Hörschädigung beteiligt sind, U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 30 und infolge der sehr unterschiedlichen Intensität und Zeitdauer, mit denen diese wirken, ein sehr breites Spektrum aufweisen. Es ist de facto nicht möglich, von dem Gehörlosen, dem Schwerhörigen oder dem Ertaubten zu sprechen“ (LEONHARDT 2002, 71). 2.2.2. Musik und Sprache im Hörfeld Der Rahmen für die Musikwahrnehmung ist für den hörenden Menschen durch das so genannte Hörfeld gegeben. Das sind jene Frequenzbereiche in denen unser Gehör eine Sinneswahrnehmung an das Gehirn weiterleitet. Im Normalfall sind das Schallreize zwischen 20 und 20 000 Hertz im Lautstärkebereich von 0 bis 120 Dezibel (siehe Abb. 2.7.). Abb. 2.7. aus: BÜCHLER 2005, www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005) Das Gehör ist spezialisiert auf den Bereich der Sprache. Ungefähr zwischen 200 und 5500 Hz weist es die größte Sensibilität auf. Der Sprachbereich ist jedoch nur ein kleiner Ausschnitt unseres Hörvermögens. Der Musikbereich ist im Vergleich dazu viel größer. Das Schallfeld der Musik ist sowohl im Frequenzbereich als auch in der Intensität viel größer als das Schallfeld der Sprache. Selbst wenn eine Hörstörung U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 31 vorhanden ist die die Wahrnehmung von Sprache bereits massiv beeinträchtigt, kann immer noch – wenn auch eingeschränkt – Musik auditiv wahrgenommen werden. Eine Hörstörung bedeutet jedoch nicht einfach eine nach oben verschobene Hörschwelle. Die Ausfälle und Störungen sind nicht auf alle Frequenzbereiche gleich verteilt, sodass die Betroffenen oft einen verzerrten oder fragmentarisch verbleibenden Höreindruck haben. Eine Übertragung auf den visuellen Bereich könnte so aussehen: Aus dem Wort HÖREN wird . Für Menschen mit einer spät erworbenen Hörstörung ist dies besonders im Bereich des Musikhörens oftmals frustrierend, weil die verzerrten Töne für diese Menschen „falsch“ - im Vergleich zu früher - klingen. Denn wie in Kapitel 2.1. beschrieben, analysiert, vergleicht und bewertet unser Gehirn alle eintreffenden Sinneseindrücke. Liefert das Gehör aber plötzlich veränderte, verzerrte Signale, löst das zumindest Irritation oder auch Unbehangen aus, ähnlich wie uns eine verstimme Gitarre irritiert. Für Menschen mit angeborenen Hörstörungen ist dies weniger problematisch, weil sie von vornherein ihre verbleibenden Höreindrücke als „richtig“ im Gehirn speichern. 2.2.3. Hilfen beim Hören Der Gebrauch von Hörhilfen lässt sich bereits in der Antike und im Mittelalter nachweisen. Erst im 17 Jahrhundert setzte jedoch eine serienmäßige Herstellung und Verbreitung ein. Von Beethoven wird berichtet, dass er zur Verstärkung der Klavierklänge zuerst ein an seinem Erard-Flügel befestigtes Holzstäbchen zwischen die Zähne klemmte. Später erhielt er ein Hörrohr: „Es war Johann Melzel, der Erfinder des Metronoms, der Beethoven 1814 eine kleine Hilfe zukommen ließ: ein Hörrohr“ (ZENNER 2002, 2764). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 32 Abb. 2.8. aus: www.bonn-region.de (Stand: 01/2007) Beethovens Hörrohre Die jahrhunderte lange Verwendung von Hörrohren wurden erst durch die Erfindung des Telefons durch Alexander Graham Bell und die damit einhergehende Entwicklung von so genannten Kohlemikrofongeräten abgelöst. Der Lebenszyklus von Hörgeräten hat sich seit dieser Zeit massiv verkürzt. Heute steht alle 2 Jahre eine neue Generation von Hörsystemen zur Unterstützung einer differenzierten Schallverarbeitung zur Verfügung. Microchip und digitale Verstärkertechnik bilden die Basis moderner Hörhilfen (vgl. FORUM BESSER HÖREN 2007). Neben der Weiterentwicklung des konventionellen Hörgerätes mit Hilfe der Computertechnik entstanden vor etwa 40 Jahren die ersten implantierbaren Hörhilfen. Das Cochlea Implantat (CI) als wichtigstes Beispiel ist eine im Schädelknochen hinter der Ohrmuschel implantierte Hörprothese, die mit Hilfe eines Sprachprozessors Höreindrücke in elektrische Impulse umgewandelt und diese Signale direkt in der Hörschnecke an den Hörnerv leitet. Weitere Entwicklungen sind Mittelohrprothesen, knochenverankerte Hörgeräte sowie Kombinationen aus Cochlear-Implantat - für den Ausgleich von Hochtonverlusten und akustischem Hörgerät - für den Tieftonbereich (vgl. GANTZ 2005; SATTERFIELD 2000, KIEFER 2002). Ist die Cochlea soweit geschädigt, dass auch ein CI keine akustischen Eindrücke mehr übermitteln kann, ist der nächste Entwicklungsschritt ein Hirnstammimplantat. Mit einem auditorischen Hirnstammimplantat (Auditory Brainstem Implantat – ABI) ist es möglich durch elektrische Stimulation des zweiten Neuron der Hörbahn den Verlust der Hörnerv- und Innenohrfunktion ansatzweise zu kompensieren (vgl. DILLER 1997, ROSAHL 2004). Hörhilfen - akustische Hörgeräte oder implantierte Hörhilfen - sind jedoch immer noch in erster Linie auf die verbesserte Wahrnehmung von Sprache ausgerichtet. Die der U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 33 Musik eigenen Gesetzmäßigkeiten können (auch durch technische Grenzen) wenig berücksichtigt werden, sodass die Hörhilfen für die Musikwahrnehmung nicht immer eine Hilfe sind und die Betroffenen sehr unterschiedlich damit umgehen. Manche legen die Hörhilfen zum Musizieren ab und verlassen sich lieber auf ihre multisensorische Wahrnehmungen. Evelyn Glennie berichtet im Interview mit KarlLudwig PROFIT über ihre Erfahrungen mit Hörgeräten, die sie von ihrem 9. Lebensjahr an bis zum Ende ihrer Teenagerzeit trug: „Aber als ich mehr und mehr in die Musik hineingezogen wurde, verstärkten die Hörhilfen vor allem die Lautstärke zu sehr und weniger die Klangqualität. Ich benötigte aber reine Töne und keine Lautstärke. (…) Deshalb legte ich die Hörhilfen allmählich ab und konzentrierte mich auf das Hören, wie ich es jetzt verstehe. Ich entdeckte während eines längeren Zeitraums meinen Leib als Resonanzkörper, wie eine Orgelpfeife“ (Glennie zitiert nach PROFIT 2000, 43). Der gehörlose englische Musiker Paul WHITTAKER, der mit einer Hörbeeinträchtigung geboren wurde und im Alter von 11 Jahren vollständig ertaubte, erinnert sich an seine frühen Höreindrücke und beschreibt den Einsatz von Hörhilfen beim Musizieren: „Meine früheste Erinnerung an Musik ist sehr vage, aber ich erinnere mich, dass ich es nie einfach fand, Tonlage und Intervalle nur über das Gehör zu unterscheiden. Als ich mit dem Klavierspiel begann, konnte ich akustisch noch partiell Noten bis zu zwei Oktaven bis zum mittleren C ohne Hörhilfen wahrnehmen. Heute kann ich ohne diese Unterstützung keine einzige Note `hören´, wohingegen ich mit Hörhilfen bis zu zwei Oktaven über dem mittleren C `hören´ kann“ (WHITTAKER 2006, 32). 2.2.3.1. Musik und Cochlea-Implantat Die zurzeit üblichen Codierungsstrategien von Sprachprozessoren (welche die Schallereignisse für das Implantat aufbereiten) sind vor allem für ein möglichst gutes Sprachverständnis ausgelegt und optimiert. Zwar haben physikalisch betrachtet Musik und Sprache sehr ähnliche Parameter – beide sind hoch organisierte Kombinationen von Tonhöhe, Klangfarbe, Akzentuierung und Rhythmus, die bestimmten Re- U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 34 geln folgen. Die Wichtigkeit der einzelnen Parameter sind für die Wahrnehmung von Musik und Sprache jedoch unterschiedlich. „Sprache kann zum Beispiel auch noch verstanden werden, wenn die Tonhöhe nicht richtig repräsentiert wird; allenfalls wird die Sprachmelodie (die Prosodie) nicht richtig übertragen. Es ist dann zum Beispiel nicht klar, ob ein Satz als Frage, Feststellung oder Bitte formuliert wird, oder ob es sich um eine Sprecherin oder einen Sprecher handelt. Wenn die Tonhöhe jedoch bei Musik nicht richtig wiedergegeben wird, so wird die Melodie weitgehend zerstört, und das Zuhören ist kaum mehr ein großer Genuss“ (BÜCHLER 2005, o. Seitenangabe). Natürlich soll auch Sprache angenehm klingen - für die Codierung des Sprachprozessors bedeutet Musik jedoch eine noch größere Herausforderung. Die Codierungsstrategie des CI´s verarbeitet drei der wichtigsten (Musik-)Parameter: • Lautheit, • Klangfarbe und • Tonhöhe. Unter Lautheit versteht man in Bezug auf die Codierung Takt, Rhythmus und Pausen. Sie werden mit dem CI bereits hinreichend übertragen. Viele CI-Träger bevorzugen deshalb vor allem Musikstücke, die eine ausgeprägte rhythmische Struktur haben. Anders verhält es sich mit dem Dynamikbereich (von sehr leise bis sehr laut): „Der Dynamikbereich des Pegels im CI ist jedoch für Sprache optimiert (etwa 40 dB), während vergleichsweise bei einem klassischen Konzert viel größere Pegelunterschiede möglich sind (bis zu 60 dB, also etwa 10-mal größer als bei Sprache)“ (BÜCHLER 2005, o. Seitenangabe). Ein Signal von solch großer Dynamik kann aus technischen Gründen nicht linear verarbeitet werden. Die Signale müssen vom Sprachprozessor verdichtet werden: „Das CI komprimiert deshalb das Signal, das heißt, die lauten Pegel werden leiser und die leisen lauter gemacht - ein Vorgang, der auch bei konventionellen Hörgeräten oder zum Beispiel bei Radio und Fernsehen üblich ist. Auch dort ist der Pegelbereich bei der Übertragung eingeschränkt. Beim CI kann dies zur Folge haben, dass sowohl leise als auch laute Töne etwa gleich laut wahrgenommen werden und dadurch ein `Klangbrei´ entsteht“ (BÜCHLER 2005, o. Seitenangabe). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 35 Durch die Klangfarbe werden Instrumente oder Stimmen unterschieden. Klangfarbe entsteht durch unterschiedliche Anzahl und Stärke der Obertöne sowie deren zeitlicher Verlauf beim Anspielen und Ausklingen eines Tones. Jedes Instrument, jede Stimme hat ein spezifisches spektrales Profil. Die Wiedergabe dieses spezifischen Profils ist jedoch beim CI durch die beschränkte Anzahl der Elektroden, die den Hörnerv reizen, eingeschränkt (vgl. KOELSCH et. al. 2004b). Ähnliche Probleme entstehen bei der Übertragung der Tonhöhe. Dabei sind ebenfalls die Obertöne von Bedeutung. Da sie immer im harmonischen Verhältnis zur Grundfrequenz stehen, wird durch die eingeschränkte Frequenzauflösung im CI die harmonische Struktur zerstört und im Extremfall für zwei unterschiedliche Obertöne die gleiche Elektrode stimuliert. „Durch die beschränkte Anzahl der Elektroden ist jedoch die Frequenzauflösung stark verringert und reicht nicht, um die harmonische Struktur des Tones zu erhalten, was Auswirkungen auf die wahrgenommene Tonhöhe und Klangfarbe hat“ (BÜCHLER 2005, o. Seitenangabe). Abb. 2.9. aus: BÜCHLER 2005, www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005). Das Frequenzspektrum (grau) des Tones „g“ einer Blockflöte. Die im Spektrum erkennbaren Spitzen repräsentieren den Grundton und die harmonischen Obertöne. Die Elektroden des CI (schwarz) stimulieren bei der Grundfrequenz (in diesem Falle bei 784 Hz) und ungefähr die Bereiche der ersten vier Obertöne. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 36 Ein weiterer feiner Unterschied von Musik- und Sprachdiskriminierung konnte von SMITH et. al. gezeigt werden. Während für die Sprachdiskriminierung in erster Linie die Informationen der Hüllkurve (envelope) eines Frequenzspektrums wichtig sind, ist für die Melodieerkennung die Feinstruktur (finestructure) des Frequenzspektrums von Bedeutung. „Here we show that the envelope is most important for speech reception, and the fine structure is most important for pitch perception and sound localization” (SMITH et. al. 2002, 87). Codierungsstrategien von Cochlea-Implantaten sind jedoch in erster Linie für die Wiedergabe der Informationen der Hüllkurve programmiert. Besonders spätertaubte CI-Träger haben mit der unzureichenden Übertragung von Musik mit dem CI zu kämpfen, da sie aus der Zeit vor der Ertaubung bereits viele Hörmuster im Gehirn abgespeichert haben, die nun mit den Eindrücken des CI´s nicht mehr viel gemeinsam haben (vgl. VONGPAISAL et. al. 2004, BROCKMEIER 2002; BROCKMEIER et. al. 2004). 2.2.3.2. Musik und Hörgeräte Hörgeräte waren bis zur Entwicklung des Cochlea-Implantates die einzige Möglichkeit eine Hörbeeinträchtigung zu mindern. Hörgeräte verstärken die Schallsignale die über ein Mikrophon eintreffen, frequenzabhängig entsprechen der vorliegenden Hörminderung. Das heißt, das Hörgerät wird an den jeweiligen Hörverlust angepasst und verstärkt nur jene Frequenzen, die vom Ohr nicht oder nicht ausreichend an den Hörnerv weitergeleitet werden. Neben dem Schallempfindungshörverlust und dem Schallleitungshörverlust sind viele hörbeeinträchtigen Menschen auch vom unter Kapitel 2.2.1. beschriebenen so genannte Recruitment betroffen (3/4 aller Hörverluste). Moderne Hörgeräte gleichen dies aus und es kommt ähnlich wie beim CI zu einer Kompression der eintreffenden Schallsignale. Wie bereits beschrieben beeinträchtigt dieser Effekt jedoch auch die Musikwahrnehmung von Hörgeräte-Trägern. Musik hören mit Hörgeräten wird sehr unterschiedlich empfunden (vgl. Kapitel 1.2. und 2.2.2.). „(…) von vielen Hörgeräteträgern ist aber auch bekannt, dass sie sich an diese Probleme gewöhnt und gelernt haben, Musik trotz des Hörgeräts zu genie- U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 37 ßen. Die neue Hörgerätetechnik bietet ohnehin die Möglichkeit, ein Extraprogramm für das Musikhören zu nutzen, bei dem die automatische Reglung für das bessere Sprachverstehen ausgeschaltet wird“ (WICKEL und HARTOGH 2006, 145). 2.2.4. Forschungsinteressen Manuela-Carmen PRAUSE beschäftigte sich im Rahmen Ihrer Dissertation intensiv mit den Anfängen und Entwicklungen des Phänomens Musik und Gehörlosigkeit. Sie vergleicht darin auch die Entwicklungen des anglo-amerikanischen Raumes mit dem deutschsprachigen Raum, in dem es leicht abweichende Entwicklungen gab (vgl. Kapitel 1.2. und PRAUSE 2001). Publikationen in Fachzeitschriften sind bis in die 1970er meist beschreibende Arbeiten und Einzelfallstudien, wie der Artikel Musikgenuß bei Gehörlosen in der Zeitschrift für Psychologie. KATZ beschreibt darin anhand eines Fallbeispieles die musikalischen Vorlieben und Fähigkeiten des als Vierjähriger ertaubten Eugen Sutermeisters (vgl. KATZ und REVESZ 1926). Experimentelle und empirische Studien seit den 1980er Jahren beziehen sich oft auf Leistungen, die mit verschiedenen Hörhilfen erbracht werden können. Die Frage wie das Hörorgan unterstützt oder sogar ersetzt werden kann, steht immer wieder im Zentrum des allgemeinen Forschungsinteresses. Ziel dabei ist es, den Spracherwerb bei gehörlosen und schwerhörigen Kindern zu erleichtern und/oder das Sprachverständnis zu verbessern. PRAUSE unterteilt die Forschungsinteressen in 3 Themenbereiche. Sie unterscheidet zwischen therapeutischen und curricularen (den Lehrplan betreffenden) Forschungsansätzen sowie Forschungsarbeiten über musikalische Fähigkeiten von Gehörlosen (vgl. PRAUSE 2001), die im Folgenden kurz erläutert werden: Therapeutische Ansätze für die Sprachtherapie oder für Rehabilitationsmaßnahmen nach der Hörgeräteversorgung finden sich für den deutschsprachigen Raum frühe Beispiele bei der Schweizer Musiktherapeutin Mimi Scheiblauer (vgl. SALMON 2003). Oder auch - um hier nur zwei Beispiele herauszugreifen - beim dänischen Musiktherapeuten Claus U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 38 BANG, der durch seine Arbeit mit den Klangstäben die Sprachtherapie für gehörlose Kinder maßgeblich beeinflusst hat (vgl. BANG 1984). Curriculare Ansätze finden sich zum Beispiel in der empirisch angelegten Langzeitstudie von ROBBINS und ROBBINS an einer New Yorker Schule, aus der ein Lehrplan für das Instrumentalspiel mit gehörlosen Schülern hervorging. Ihren Untersuchungen zufolge sind Kinder in erster Linie an Instrumenten interessiert, die sie aus ihrem Lebensumfeld kennen lernen wie Klavier oder Gitarre. Die Instrumente mit denen ROBBINS & ROBBINS ihre Forschungen begannen waren Klarinette, Bassklarinette und Trompete. Sie führen eine Liste mit gängigen Instrumenten an, die sie aufgrund ihrer Erfahrungen und Forschungen für den Musikunterricht hörbeeinträchtigter Kinder empfehlen (vgl. ROBBINS & ROBBINS 1980). Musikalische Fähigkeiten gehörloser Menschen Viele Arbeiten zum diesem Thema kommen aus dem anglo-amerikanischen Raum. „Die amerikanischen Musiktherapeutinnen Alice-Ann Darrow, Kate Gfeller und Mayra Staum leisteten Pionierarbeit auf dem Gebiet der Erforschung der musikalischen Fähigkeiten Gehörloser sowie der Effizienz und der Möglichkeiten musiktherapeutischer Ansätze und sind derzeit noch dabei, diesen Forschungszweig weiter auszubauen“ (PRAUSE 2001 S. 23). Aktuelle Studien sind jedoch auch aus dem europäischen und asiatischem Raum vorhanden (vgl. KOELSCH et. al. 2004b). Forschungsvorhaben betreffen oft die Rhythmus- und Melodiewahrnehmung. Die meisten dieser Forschungsarbeiten beziehen sich jedoch auf die Leistungen, die mit modernen Hörhilfen erbracht werden können. Allen voran die Leistungen des Cochlear-Implantates. So untersuchten zum Beispiel VONGPAISAL et. al. die Möglichkeiten der Melodie- und Liederkennung von prälingual (vor dem Spracherwerb) ertaubten CI-Trägern (vgl. VONGPAISAL et. al. 2004). Andere Forschungsarbeiten, die bei Prause noch unberücksichtigt blieben, bedienen sich immer öfter den Methoden der allgemeinen Gehirnforschung. Mit Hilfe von fMRI (funktioneller Magnetresonanz), MEG (Magnetenzephalographie) oder EEG (Elektroenzephalograpie) wird versucht, die Abläufe und Verarbeitungsstrategien des U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 39 Gehirns besser zu verstehen. Mit dieser Entwicklung kam es zu einer Intensivierung eines weiteren Themenbereichs in der Forschung. Wie verarbeitet unser Gehirn gleichzeitig eintreffende unterschiedliche Sinneseindrücke? Unter dem Begriff Multisensorik werden im Folgenden neuere Entwicklungen vorgestellt. U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 40 2.3. Multisensorik Musik als komplexes sinnliches Ereignis bezieht alle zur Verfügung stehenden Fernund Nahsinne des Menschen mit ein. Die folgende Abbildung zeigt schematisch alle Möglichkeiten der - in die Musikwahrnehmung - involvierten Sinne. Abb. 2.10. aus: WICKE 2006 S. 10, schematische Darstellung der an der Musikwahrnehmung beteilig ten möglichen Sinne Die Möglichkeit der mehrsinnigen Musikerfahrung wurde in der praktischen Arbeit mit gehörlosen und schwerhörigen Kindern seit Ende des 19. Jahrhunderts erkannt und beschrieben. KATZ und REVESZ verglichen in ihren Studien die Beschreibungen der taubblinden Helen Keller mit ihren eigenen Beobachtungen zur Musikwahrnehmung ihres gehörlosen Probanden Sutermeister. Während Helen Keller beschreibt, dass sie Musik vornehmlich über das Auflegen ihrer Hand an ein Musikinstrument wahrnimmt, so beschreibt Sutermeister seine Musikwahrnehmung durch Resonanzschwingungen seines Körpers (vgl. KATZ und RÉVÉSZ 1926). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 41 Später werden diese beiden Rezeptionsmöglichkeiten von van Uden als Kontaktfühlen (direkter Kontakt zur Schallquelle) und Resonanzfühlen (Übertragung der Vibrationen durch die Luft) bezeichnet und als Möglichkeiten alternativer Musikwahrnehmung bei Gehörlosigkeit dargestellt. Andere Autoren fügen dem noch die indirekte Vibrationsrezeption hinzu, das heißt, direkter Kontakt mit schwingenden Objekten wie Luftballon oder Handtrommel (vgl. van UDEN 1982, PLATH 1991, PRAUSE 2001). Die physikalische Grundlage dieser Rezeptionsmöglichkeiten ist die Fähigkeit der Haut Druck, Berührung und Vibration – zusammengefasst als Tastsinn bezeichnet zu registrieren. Diese Fähigkeit bezieht sich auf der Oberfläche des Körpers ebenso wie auf das Körperinnere (Oberflächensensibilität und Tiefensensibilität). Auf Druck reagieren die so genannten Merkel-Zellen bzw. Tastscheiben. Auf Berührung reagieren die Meissnerschen Körperchen bzw. Haarwurzelrezeptoren. Auf die Registrierung von Vibration hingegen sind die Pacinischen Körperchen spezialisiert. Abb. 2.11. aus: LEONHARDT 1990, S. 343, Schematische Darstellung der Hautschichten mit Ausschnitt „Pacinisches Körperchen“ Die Vater-Pacinische-Körperchen (nach ihrem Entdecker benannt) sind die größten Lamellenkörperchen der nervösen Endorgane der Haut. Sie sind zwiebelschalenartig aufgebaut und können eine Größe von bis zu 4mm Länge und 2mm Breite erreichen. Sie reagieren auf Vibrationen und leiten diese als proportionale Impulsfrequenz in die ableitenden Nervenfasern. Solche `Beschleunigungsdedektoren´ finden sich auch in U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 42 Sehnen, Muskeln und Gelenkkapseln. Sie spielen somit bei der Tiefensensibilität eine wichtige Rolle (vgl. LEONHARDT 1990; SILBERNAGEL und DESPOPOULOS 1988). In Erfahrungsberichten gehörloser und taubblinder Musiker, in Berichten von Hörgeschädigtenpädagogen und Psychologen die sich mit Musikpsychologie beschäftigen, wird Musik hören oft als aktiver Prozess beschrieben, der nicht auf die rein auditiven Möglichkeiten des Menschen beschränkt werden darf. Russ PALMER ist ein in England geborener seh- und hörbeeinträchtigter Musiktherapeut. Er ist sich dessen bewusst; wie schwer es aus der Sicht eines Hörenden und Sehenden zu verstehen sein muss, dass Musik über Vibration wahrgenommen eine ebenbürtige Form der Musikwahrnehmung ist. "In Music, vibrations producing Low Tones can be felt by body senses in the feet, legs & hips. The Middle Tones can be felt in the stomach, chest & arms; similarly the High Tones can be felt in the fingers, head and hair. (...) As a hearing and visually impaired musician, by taking off my hearing aids I am able to describe how and where I feel music from the rhythm and vibrations. From hearing/sighted person point of view this may be difficult to recreate” (PALMER 1994, 2). Die gehörlose Percussionistin Evelyn Glennie besaß ein absolutes Gehör bevor sie noch in der Kindheit ihre Hörfähigkeiten beinahe gänzlich verlor. Sie setzte sich in dieser Zeit zusammen mit Ihrem Musiklehrer intensiv mit der Tonhöhenwahrnehmung auseinander und vertritt die Ansicht, dass auch höhere Frequenzen als Vibration wahrgenommen werden könnten, wenn nicht unser Ohr diese Empfindung `ausblenden´ würde: „If we can all feel low frequency vibrations why can't we feel higher vibrations? It is my belief that we can, it's just that as the frequency gets higher and our ears become more efficient they drown out the more subtle sense of 'feeling' the vibrations” (GLENNIE 2005, o. Seitenangabe). Mit Hilfe naturwissenschaftlicher Untersuchungsmethoden können diese Erfahrungen genauer untersucht werden. Seit 1998 gibt es Untersuchungen zu kortikalen Verarbeitungsstrategien von Vibrationsempfindungen bei Gehörlosigkeit (vgl. LEVANEN 1998, SHIBATA 2001). Versuche mit gehörlosen und hörenden Probanden zeigten, dass Vibrationen bei beiden Versuchgruppen in einem bestimmten Teil des Gehirns verarbeitet werden. Zusätzlich zu diesem Bereich werden von gehörlosen Probanden U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 43 die Vibrationen auch in jener Hirnregion verarbeitetet, die normalerweise nur für die Verarbeitung von Höreindrücken aktiv wird: "These findings illustrate how altered experience can affect brain organization. It was once thought that brains were just hard-wired at birth, and particular areas of the brain always did one function, no matter what else happened. It turns out that, fortunately, our genes do not directly dictate the wiring of our brains. Our genes do provide a developmental strategy -- all the parts of the brain will be used to maximal efficiency" (SHIBATA et. al. 2001). Schon vor diesen Befunden, erkannten die Musiktherapeuten Carol and Clive ROBBINS in Ihrer Arbeit mit hörbeeinträchtigten Kindern das Zusammenwirken von Resthörvermögen und Vibrationsempfinden. Klänge wahrzunehmen ist durch eine Summe von Fähigkeiten möglich: Empfindsamkeit und Bewusstheit dem Klang gegenüber, Schulung des Unterscheidungsvermögens von Klangqualitäten, wieder erkennen von Gleichklängen und Verständnis über Musik beziehungsweise die Interpretation der Wahrnehmung (vgl. ROBBINS und ROBBINS 1980). „Die individuelle auditive Wahrnehmungsfähigkeit ist ein Prozess aktiv konstruierter akustischer Wirklichkeit. Sie ist da Resultat psychophysischer Erfahrung sowie genetischer und sozialisationsbedingter Faktoren und unterliegt einer großen Variabilität. Lebenslang werden auditive Erfahrungen angehäuft, die in immer wieder neuen Situationen verändert werden und nicht identisch wiederholt werden können“ (WICKEL und HARTOGH 2006, 116). Die oben genannten Studien von KATZ und RÉVÉSZ zeigen noch einen weiteren, bisher wenig berücksichtigten Aspekt der Musikwahrnehmung. Welchen Einfluss hat das Auge bei der Musikwahrnehmung? Die Bedeutung der visuellen Eindrücke beim Musikhören wurde erst allmählich nach der Erfindung von Tonträgern bewusst. Bis dahin waren visuelle und auditive Informationen so gut wie immer gekoppelt. Die Beobachtungen gehörloser Menschen wie die des oben erwähnten Musikers Sutermeister machten schon früh auf diese Zusammenhänge aufmerksam. „Viel hilft das Auge mit zu meiner Musikempfindung, indem die Bewegung des Dirigenten und der Spielenden, insbesondere des Pianisten, mir die Art und Weise der Musik leichter und schneller erklären und besser auf das Kommende vorbereiten, als wenn ich nicht hin sehe“ (KATZ und RÉVÉSZ 1926, 302). U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 44 Obwohl die gleichzeitige Verarbeitung unterschiedlicher Sinneseindrücke immer wieder Forschungsgegenstand der Psychologie war und ist, beklagt THOMPSON die mangelnde Berücksichtigung dieses Aspektes in der aktuellen Forschung zur Musikwahrnehmung. “Research on music performance has focused primarily on auditory aspect of expression such as pitch, timbre and dynamics. What is frequently ignored is that visual information greatly contributes o the experience of performed music. Such visual information includes gesture, facial expression and body language” (THOMPSON 2006, 217): Nach GEMBRIS haben sich innerhalb der Rezeptionsforschung unterschiedliche Schwerpunkt herausgebildet. Die Fragestellungen betreffen die kognitiven Wahrnehmungs- und Verarbeitungsprozesse beim Musikhören, das emotionale Erleben und die emotionale Wirkung von Musik, psychophysiologische Wirkungen des Musikhörens, das Entstehen von musikalischen Präferenzen und Einstellungen sowie die therapeutische Wirkung von Musik. „Die Rezeptionsforschung ist ein interdisziplinäres Forschungsgebiet, das sich mit der Wahrnehmung, dem Erleben und der Wirkung von Musik befasst. Für die Musiktherapie ist die Rezeptionsforschung insofern von Bedeutung, als sie Grundlagenwissen über das Musikhören und seine Wirkungen bereitstellt“ (GEMBRIS 1996, 321). Bei neueren Untersuchungen treten rein kognitive (die Erkenntnis betreffende) Theorien zur Musikverarbeitung in den Hintergrund. In der Rezeptionsforschung kann nun die Verschaltung von unterschiedlichen Sinneseindrücken aufgrund veränderter technischer und methodischer Möglichkeiten immer genauer untersucht werden. Die Forschergruppe um ALTENMÜLLER beispielsweise, ist diesem wesentlichen Aspekt der Musikverarbeitung nachgegangen. Nicht nur der Klang, also die auditiven Reize, erzeugen Musik in uns. Einen Musiker im Konzert zu beobachten, also die visuelle Wahrnehmung, beeinflusst ebenso unser Musikempfinden wie die, zum Beispiel bei lauten Passagen, gefühlten Vibrationen. Wenn wir selbst ein Instrument spielen nehmen wir Musik als Abfolge von Griffmustern wahr – also durch sensomotorische Informationen. Mit ausreichender Übung wird sogar aus bloßem Betrachten von Noten, zum Beispiel beim Studieren eines Notentextes (rein visuelle Information), in un- U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 45 serem Inneren Musik. In all diesen Modalitäten können wir Musik im Gedächtnis speichern und repräsentieren. „Berufspianisten können in der Tat eindrucksvoll schildern, wie ihnen beim Hören einer Klaviersonate die Finger jucken – und wie sie andererseits mit ihrem inneren Ohr Klaviermusik hören, wenn sie mit den Fingern selbstvergessen auf der Tischplatte trommeln“ (ALTENMÜLLER 2002, 24). Die gleichzeitige kortikale Verarbeitung von Sinneseindrücken, also die Verschmelzung von Informationen aus verschiedenen Sinnensorganen wird "multisensorische bzw. multimodale Integration“ genannt. In der englischsprachigen Literatur spricht man von „cross-modal interaction“. Im Alltag verarbeitet das Gehirn Informationen aus verschiedenen Sinnesorganen gleichzeitig, um seine Umgebung möglichst fehlerfrei beurteilen zu können. Der Effekt ist zum Beispiel beim Reiben der Hände bekannt. Nicht nur die taktilen und haptischen Eindrücke lassen die Hautoberfläche der Hände beurteilen, sondern auch das Geräusch das dabei entsteht, entscheidet wie die Hautoberfläche beurteilt wird. Wird dieses Geräusch geschickt manipuliert, dann schätzen Probanden ihre Haut völlig anders ein. Nahm man jedoch früher an, dass zuerst die unterschiedlichen Sinneseindrücke getrennt verarbeitet werden und erst in einer höheren Ebene miteinander verrechnet werden, zeigen neue Ergebnisse viel frühere Integration. So sorgen taktile Sinneseindrücke, die gemeinsam mit einem auditiven Reiz angeboten werden dafür, dass der sekundäre auditorische Kortex stärker aktiviert wird, als ohne zusätzlichen taktilen Reiz (vgl. KAYSER et. al. 2006, VINES et. al. 2006). Für den nun letzten hier vorgestellten Bereich der multisensorischen Wahrnehmungsmöglichkeiten ist wiederum ein Blick auf angrenzende Wissenschaftsgebiete nötig. Es waren eine Chemikerin und ein Physiker, Marie und Pierre Curie, die die Piezoelektrizität und somit das Phänomen des Ultraschalls entdeckten. Zoologen entdeckten Ultraschall als Jagdinstrument (der Fledermaus) und Kommunikationsmittel (bei Walen und Delphinen). Der Physiologe und Physiker HELMHOLTZ (1870) fand die Bedeutung der Obertöne für die Tonhöhenwahrnehmung und der Komponist HINDEMITH (2000) stellte Obertöne als Basis des Tonsatzes dar. Musikwissenschaftler wie FRICKE untersuchten akustische Phänomene wie Differenztöne im Be- U. Stelzhammer-Reichhardt Vom Hören und Nicht-Hören-Können 46 reich höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hören (vgl. FRICKE 1960): Die Erkenntnisse der unterschiedlichsten Disziplinen wurden immer wieder in Forschungsarbeiten zur Ultraschallwahrnehmung zusammengetragen und weiterentwickelt. Wie zum Beispiel die Untersuchungen der japanischen Forschergruppe um OOHASHI. Sie konnte nachweisen dass Musik, deren Ultraschallanteile nicht weggefiltert wurden (wie dies bei Aufnahmen auf Tonträgern aus technischen Gründen üblich ist) die Gehirnaktivität gegenüber gefilterter Musik erhöhte und von den Versuchspersonen als angenehmer empfunden wurde (vgl. OOHASHI et. al. 2000). Zur Untersuchung eines Teilaspektes der Musikwahrnehmung bei Gehörlosigkeit und hochgradiger Schwerhörigkeit wurde im Rahmen der vorliegenden Arbeit eine Studie zur Ultraschallwahrnehmung geplant und durchgeführt. Die folgenden Kapitel sind dieser Forschungsarbeit gewidmet. U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 47 3. Studien zur Ultraschallwahrnehmung 3.1. Physikalische Grundlagen 3.1.1. Allgemeine Schall- und Schwingungsphänomene Schall, der unser Ohr erreicht und eine Hörempfindung auslöst, ist nur ein kleiner Ausschnitt aus einer Vielzahl von möglichen Schallereignissen. Schall bildet sich aus Schwingungen und Wellen in elastischen Medien. Unter elastischen Medien versteht man im physikalischen Sinne Stoffe, deren Eigenschaft es ist, Schwingungen zuzulassen. Mechanische Schwingungen und Wellen sind eine zeitabhängige Größe und werden je nach Frequenz – die Zahl der Schwingung pro Sekunde - in Schallwellenbereiche eingeteilt. Dabei ist Frequenz f = 1 Hz Hertz, eine Schwingung pro Sekunde. Sie breiten sich unterschiedlich schnell in fester, flüssiger und gasförmiger Umgebung sowohl in Form von Transversalwellen (senkrechte Ausdehnung) als auch Longitudinalwellen (Längsausdehnung) aus (vgl. BREUER 1992, 83). Schallwellenbereiche: Infraschall Hörschall Ultraschall Abb. 3.1. aus BROSCHART et. al. 2003, S. 67, Schallwellenbereiche U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 48 Der hörbare Bereich von Schallwellen liegt etwa zwischen 20 bis 20 000 Hz. Die Angaben schwanken je nach Autor. In der Literatur finden sich auch Werte von 16 bis 20 000 Hz (vgl. VOGL 1990, HELLBRÜCK 2004 sowie Kapitel 2.1.1.). Schwingungen die unterhalb dieses Hörfeldes liegen werden als Infraschall bezeichnet und sind bei entsprechender Intensität als Vibrationen wahrnehmbar. Obwohl Infraschall nicht direkt hörbar ist, werden Reaktionen wie Unwohlsein oder Angstgefühle auf niederfrequente Schwingungen beschrieben (vgl. BERGLUND 1996). Große Orgeln erzeugen in manchen ihrer tiefen Register ebenfalls Infraschall. In einigen älteren Instrumenten gab es so genannte Demutspfeifen, die bei den Zuhörern die entsprechende demütige Stimmung hervorrufen sollten. Infraschall ist auch in Frequenzspektren von Tierlauten zu finden. Elefanten beispielsweise verwenden Infraschall zur Kommunikation (vgl. KRATOCHVIL 2006, LANGBAUER et. al. 1991). Schwingungen oberhalb des Hörfeldes bezeichnet man ganz allgemein als Ultraschall (siehe Abbildung 3.1.). Extrem hohe Frequenzen von 109 Hertz und höher, liegen im Bereich des Hyperschalls. Mit Hilfe von Hyperschall ist es zum Beispiel möglich Molekülstrukturen zu untersuchen (vgl. KOLLMANN 2006). Ultraschallwellen bewegen sich in verschiedenen Materialien und Medien unterschiedlich schnell fort. Aus dieser und noch weiteren Eigenschaften ergeben sich verschieden Anwendungs- und Einsatzbereiche für Ultraschallwellen. Man unterscheidet passive und aktive Anwendungsmöglichkeiten. Passive Anwendungen von Ultraschall finden sich in Einparkhilfen von Autos oder als Echolot im Schiffsverkehr. Hier kommen Frequenzen bis zu 200 kHz zum Einsatz. Für die Werkstoffprüfung fester Körper und zur medizinischen Diagnostik wird Ultraschall im Bereich von 3 – 20 MHz verwendet. Ein weit größeres Anwendungsfeld ist jedoch die aktive Nutzung von Ultraschall. Hier wird die Schwingungsenergie zum Reinigen, Schweißen, Schneiden, Umformen und Bearbeiten verwendet. Dabei werden oft sehr hohe Leistungen benötigt, die bei unsachgemäßem Umgang Schaden in Gewebe und Material verursachen können (vgl. LEHFELDT 1973). U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 49 3.1.2. Ultraschall nahe dem Hörfeld Für die Musikwahrnehmung ist der dem Hörschall am nächsten gelegene Bereich von Bedeutung. Die bei Instrumenten unterschiedlich stark ausgeprägten Obertöne können das Hörfeld überschreiten und reichen dann in den Ultraschallbereich hinein (vgl. FRICKE 1960). Der Klang eines Musikinstrumentes oder der Stimme besteht aus einer Vielzahl von komplexen Schwingungen. Die langsamste Schwingung oder auch Grundschwingung ist für die Bestimmung der Tonhöhe verantwortlich. Die weiteren Teilschwingungen sind immer ganzzahlige Vielfache der Grundschwingung und unterschiedlich stark ausgeprägt. Sie sind unter anderem für die Klangfarbe und Klangqualität verantwortlich. Grundton und Teiltöne stehen miteinander in Wechselwirkung. So sind die dem Grundton nahe liegenden Teiltöne ebenfalls wichtig für die Tonhöhenwahrnehmung. Obertöne die dem Grundton nicht mehr nahe liegen sind aber immer noch wichtig für die Beurteilung von Klangfarbe und Klangqualität (vgl. HINDEMITH 2000 sowie Kapitel 2.1.1.). In der Literatur wird auf die Bedeutung der Obertöne hingewiesen, dennoch fehlen entsprechende Frequenzmessungen bezüglich des Ultraschallbereiches bei Musikinstrumenten. FRICKE beschreibt diese Problematik bei Frequenzmessungen an der Orgel. Denn meist wird oder kann im hochfrequenten Bereich nicht mehr gemessen werden. „In 15 m Entfernung von der Orgel im Kirschenschiff kamen bei obertonhaltigen Klängen noch Teiltöne um 10 KHz mit Schalldrucken bis 0,1 µbar an. Oberhalb dieser Frequenz wurde nicht untersucht. (…) Doch ist anzunehmen, dass dieser (Schalldruck, Anm. der Autorin) nicht stärker ist als die bei 10 KHz liegenden Obertöne, da im Ganzen gesehen die Teiltöne mit steigender Ordnung schwächer werden. (…) Die Grenzen waren also bestimmt durch den höchsten verfügbaren Schalldruck, also durch die beschränkten Mittel der Meßapparatur“ (FRICKE 1960, 38). FRICKE führt die mangelnde Datenlage - neben den fehlenden technischen Möglichkeiten zu dieser Zeit - auch darauf zurück, dass diese hohen Schallbereiche zwar noch Hörempfindungen auslösen können, jedoch keine Tonhöhenunterscheidung mehr möglich ist. Für die Musikwahrnehmung scheint Ultraschall somit nicht mehr von Bedeutung zu sein. Dass vereinzelt dennoch Untersuchungen zur Wahrneh- U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 50 mung von Ultraschall durchgeführt wurden, davon wird im nachfolgenden Kapitel berichtet. In der vorliegenden Arbeit beziehen sich alle Ausführungen zum Thema Ultraschall immer auf den für die Musikwahrnehmung bedeutenden Bereich. Es ist dies das an den Hörbereich angrenzende Frequenzspektrum von 20 kHz bis etwa 40 kHz. U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 51 3.2. Entwicklung einer Fragestellung 3.2.1. Allgemeine Forschungsgeschichte Pierre und Marie Curie entdeckten 1880 den piezoelektrischen Effekt mit dessen Hilfe Ultraschallwellen erzeugt und detektiert werden können. Die Perzeptionsmöglichkeiten, das heißt die Wahrnehmungs- und Verarbeitungsmechanismen von Ultraschall, werden seit Anfang des 20. Jahrhunderts bei der Fledermaus erforscht. Heute gilt als gesichert, dass auch andere Tiere wie Delphine, Spitzmäuse und verschiedene Insekten Ultraschall detektieren. Hunde zum Beispiel hören bis 50 kHz, Katzen bis 80 kHz, Heuschrecken und Grillen bis 100 kHz, Fledermäuse und Delphine je nach Art bis zu 200 kHz. Fledermäuse erzeugen sehr intensive Ultraschallsignale in rascher Folge mit dem Kehlkopf und empfangen die reflektierten Echos mit den Ohren. Der Energieverlust durch die Luft ist dabei sehr groß, sodass sich die Echoorientierung nur für den Nahbereich bis zu 20 Meter eignet (vgl. PUTZER 2005). Anders ist die Situation im Wasser. Die Leitfähigkeit von Ultraschall im Wasser ist weit höher. Delphine erzeugen Ultraschallsignale mit einem Mechanismus in der Lunge. Den reflektierten Schall nehmen sie mit ihrem Unterkiefer auf, von wo aus er an das Hörorgan weitergeleitet wird. Die Orientierung mittels Echo ist bei den Delphinen nicht angeboren sondern wird erlernt und ermöglicht die Jagd auch in trübem Wasser (vgl. KOLLMANN 2006). Die Ultraschallperzeption beim Menschen wurde, wie bereits unter Kapitel 1. 2. erwähnt, erstmals in den 1940er Jahren zur Diskussion gestellt (vgl. GAVREAU 1948). Seither versuchen Wissenschaftler die Mechanismen der Ultraschallperzeption und deren Einfluss auf die Musikwahrnehmung zu erforschen, sowie Unterstützungsmöglichkeiten für Hörgeschädigte zu entwickeln. Die meisten Publikationen entstanden in den USA und in Japan in etwa gleich bleibender Intensität von 4 – 6 Publikationen im Jahr. In den 1980 Jahren gab es auch einige Publikationen in Deutschland. FLACH und HOFMANN untersuchten mittels EEG-Messungen - wie sie in der Diagnostik von Hörstörungen angewandt werden – ob durch Ultraschall evozierte (ausgelöste) Potentiale im auditorischen Kortex nachzuweisen sind. Damit erhofften sich die Wissenschaftler eine Erweiterung des audiologischen Prüfspektrums um zusätzliche Informationen zur Hörfähigkeit zu erlangen. U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 52 Obwohl sowohl Flach als auch Hofmann hier eine geeignete Methode zur erweiterten Hörprüfung sahen, wurden die offenen Forschungsfragen nicht weiter verfolgt. „Es muß jedoch darauf hingewiesen werden, daß (…) Schlußfolgerungen zur Wertung der Grundlagen eines angestrebten klinischen Einsatzes der Hörprüfung im Ultraschallbereich noch nicht gezogen werden können. Daß es sich um Vorgänge handelt, die auf das akustische System zu beziehen sind (…) steht außer Zweifel“ (FLACH 1980, 843; vgl. auch FLACH 1978 und HOFMANN 1980). Die Forschungen der letzten Jahre kommen verstärkt aus dem asiatischen Raum (vgl. FUJIMOTO 2005; YANG 2005). 3.2.2. Mechanismen der Ultraschall-Perzeption Die kontroverse Diskussion zur Ultraschallwahrnehmung lässt sich in zwei Bereiche gliedern: • Ultraschallwahrnehmung via Knochenleitung und • Ultraschallwahrnehmung via Luftleitung (vgl. NISHIMURA et. al. 2000). Die meisten frühen Forschungsberichte gehen von einer Wahrnehmungsmöglichkeiten von Ultraschall via Knochenleitung in hörenden Probanden aus (vgl. CORSO 1963 und DIEROFF et. al. 1975). 1991 zeigten LENHARDT et al., dass auch Gehörlose aus ultraschall-modulierten Sprachsignalen Wörter diskriminieren konnten (vgl. LENHARDT 1991, 82). Diese Ergebnisse führten dazu, dass Martin LENHARDT ein Patent für ein Ultraschallhörgerät anmeldete. In späteren Studien von HOSOI wurde mittels Magnetenzephalographie (MEG) die Aktivierung des auditorischen Kortex durch Ultraschall via Knochenleitung in gehörlosen Probanden bestätigt: „The same cortical area was also significantly activated in the profoundly deaf subjects although the percentage increase in regional cerebral blood flow (rCBF) was smaller than in normal subjects” (HOSOI 1998, 496). Über die Wahrnehmungsmechanismen und Pfade konnten noch keine gesicherten Aussagen gemacht werden. Weitere Forschungen beschäftigten sich mit den Gemeinsamkeiten und Unterschieden zwischen Hörschall und Ultraschall: U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 53 NAKAGAWA et. al. beobachteten mit Hilfe der Messung von Laufzeitunterschieden zwischen Ultraschall-Schallreiz und Reizantwort in der linken und rechten HirnHemisphäre, dass sich Ultraschall in der Reizantwort ähnlich dem Hörschall verhält (vgl. NAKAGAWA 2000). NISHIMURA untersuchte die Dynamikbereiche von Ultraschall und fand hier Unterschiede zum Hörschall. Er schloss aus seinen Beobachtungen, dass die inneren Haarzellen an der Perzeption beteiligt sein könnten. Er schließt aber nicht aus, dass es mehrere Wahrnehmungspfade geben könnte: NISHIMURA fasst die bisherigen Beobachtungen in zwei unterschiedlichen Theorien zusammen • Ultraschallperzeption als Ergebnis inadäquater Stimulation von Teilen des Hörsystems, also zufällig und ohne weitere Bedeutung • Ultraschallperzeption als Ergebnis adäquater Stimulation von Teilen des Hörsystems. Wäre diese der Fall kämen 2 Wahrnehmungspfade in Betracht: o Die Wahrnehmung basiert auf Ultraschall-Rezeptoren. o Die Wahrnehmung basiert auf der Entstehung von Differenz-, oder Kombinationstönen im hörbaren Bereich. Trotz weiterer Studien konnten bisher keine Mechanismen oder Rezeptoren für die Ultraschallperzeption gesichert nachgewiesen werden (vgl. NISHIMURA 2000). Andere Detailuntersuchungen zeigten, dass sich für Ultraschall keine tonotope Karte im Kortex findet, wie es für den Hörschall beschrieben wird (vgl. FUJIOKA 2002, siehe Kapitel 2.1.4.). Alle diese Versuche bezogen sich immer auf Ultraschallsignale, die mittels Knochenleitung übertragen wurden. Via Luftleitung konnten bei den verwendeten Studiendesigns keine Reaktionen beobachtet werden. 3.2.3. Ultraschall als Hörhilfe und Tinnitusmasker LENHARDT et. al. schlugen 1991 die Möglichkeit vor, Hörhilfen auf Ultraschallbasis zur Unterstützung für hörgeschädigte Menschen einzusetzen. „These data suggest, that ultrasonic bone conduction hearing has potential as an alternative communication channel in the rehabilitation of hearing disorders” (LENHARDT 1991, 82). In seinem Lexikon der Hörschäden führt Plath 1993 diese Forschungsberichte an, nach denen Gehörlose über Ultraschall Sprache verstehen können. Die Verfahren U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 54 seinen aber nicht ausreichend erprobt und in ihrer „Wirksamkeit zweifelhaft“ (PLATH 1993, 260). Ungeachtet dessen beobachten und forschen verschiedene Arbeitsgruppen in Japan und den USA weiter an den Möglichkeiten der Ultraschallwahrnehmung von gehörlosen und hochgradig schwerhörigen Probanden auf der Suche nach adäquaten Hörhilfen. In Vergleichsstudien zu verschiedenen Hörhilfen wie Luftleitungs- und Knochenleitungshörgeräten sowie vibro-taktile Hörhilfen und Ultraschallhörgeräten, konnten HOSOI et. al. und IMAIZUMI et. al. zeigen, dass alle Geräte den auditorischen Kortex in ähnlicher Weise stimulieren. Ein Versuch zur Sprachdiskriminierung zeigte, dass 28 von 53 gehörlosen Probanden sprachmodulierte Ultraschalle detektieren konnten und davon wiederum 11 Probanden die Sprachsignale auch differenzieren konnten (vgl. HOSOI et. al. 1998, IMAIZUMI et. al. 2001). LENHARDT stützt sich in seinen Untersuchungen auf frühe Beobachtungen aus den späten 1940er Jahren wo bereits festgehalten wurde, dass Ultraschallhören unter bestimmten Voraussetzungen möglich ist. Er unternimmt weitere Versuche (vgl. LENHARDT 1991, 2003, 2005) und fasst zusammen, dass es keinen bestimmten Platz für Ultraschall-Wahrnehmung zu geben scheint, sondern dass es sich offenbar um eine dynamische Funktion handelt. Das Ohr wird scheinbar nicht direkt durch Ultraschall stimuliert, sondern es kommt zu einer Interaktion durch zwischengeschaltete Strukturen die noch nicht genau bekannt sind. Es gibt Hinweise darauf, dass die Resonanz des Gehirns eine Rolle spielt. LENHARDT, aber auch NISHIMURA beobachten weiters durch die Interaktion von Ultraschall und hochfrequentem Hörschall Maskierungseffekte. Sie sehen darin eine Möglichkeit zur Behandlung von Tinnitus durch die Entwicklung eines so genannten Tinnitusmaskers. Tinnitus bezeichnet eine Krankheit des Hörsystems, bei dem der Patient von Störgeräuschen geplagt ist, die nicht von außen auf das Ohr treffen, sonder gleichsam im Patienten selbst entstehen. Ein Tinnitusmasker ist ein Art Hörgerät das die Störgeräusche im Ohr überdeckt (vgl. LENHARDT 2003, NISHIMURA 2002 und Kapitel 1.2.). U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 55 3.2.4. Ultraschall und Musikwahrnehmung – „Hypersonic Effekt“ Der Einfluss von Ultraschall auf die Musikwahrnehmung wurde von FRICKE 1960 untersucht. FRICKE weißt dabei auf die Problematik der Messtechnik hin. Oftmals wurde der Frequenzbereich von Musikinstrumenten über 10, 15, oder 20 kHz nicht mehr untersucht (vgl. FRICKE 1960, WINKLER 1988 und Kapitel 3.1.1.) Die Frage nach den für die Musikwahrnehmung wichtigen Frequenzen wurde mit der Erfindung der digitalen Audio-Formate vakant. Erstmals wurde es notwendig die aufzuzeichnenden Frequenzbereiche – und somit die Datenmenge - festzulegen. Die hörbaren Frequenzbereiche für Audio-Aufnahmen wurden durch umfassende Studien offizieller Stellen wie zum Beispiel dem französischen Komitee „Comité Consultatif Internationals Radiophonique“ 1978 festgelegt. Nach Forschungsarbeiten in der ersten Hälfte des 20 Jahrhunderts. wurde generell akzeptiert, dass Frequenzen über 20 kHz die menschliche (Hör-)Wahrnehmung nicht mehr beeinflussen (vgl. HELLBBRÜCK 2004). Die Entwicklung von Aufnahmetechniken wurde dementsprechend standardisiert und enthält demnach keine hochfrequenten Komponenten. Heutige Künstler und Techniker, die an der Produktion von akustisch perfekten Musikaufnahmen arbeiten, sind jedoch durch ihre praktischen Erfahrungen davon überzeugt, dass hochfrequente Schallkomponenten über dem hörbaren Bereich die Musikqualität maßgeblich beeinflussen. In der Produktbeschreibung eines Lautsprechers, bei dem besonders die Ausgewogenheit zwischen Tief-, Mittel- und Hochtonkomponenten beworben wird, heißt es: „Ein neuer Hochtöner, der einen noch weiter ausgedehnten Frequenzverlauf bis über 45.000Hz aufweist, findet nun seinen Einsatz – der JET4“ (BURMESTER 2007, o. Seitenangabe). Im Klangspektrum vieler Instrumente aber auch in natürlicher Geräuschumgebung wie zum Beispiel im tropischen Regenwald sind ein hoher Anteil an Frequenzen im Ultraschallbereich enthalten (vgl. MONTEALEGRE 2006). OOHASHI untersuchte deshalb 2000, ob diese Ultraschallanteile in Verbindung mit den hörbaren Anteilen der Musik die Hirnaktivität und somit unsere Wahrnehmung beeinflussen. OOHASHI bot seinen normal hörenden Probanden verschieden gefilterte Musik an. Die Hörbeispiele bestanden aus natürlicher Musik des Gamelanorchesters aus Bali, welches reich an hochfrequenten Komponenten (high-frequency-components – HFC) über 22 kHz ist. Weiters Hörbeispiele wurde dieselbe Musik gefiltert, sodass nur tieffrequente U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 56 Komponenten (low-frequency-components – LFC) unter 22 kHz übrig blieben. Es konnte bei den Hörbeispielen mit ultraschallreicher Musik eine signifikante Zunahme der Alpha-Aktivität hinterhauptseitig (occipital) im EEG beobachtet werden. Aber auch die PET-Messungen (Positronenemissionstomographie: bildhafte Darstellung und quantitative Erfassung des Stoffwechsels und des Funktionszustandes von Organen wie z.B. des Gehirns) ergaben eine Zunahme des regionalen cerebralen Blutflusses im Hirnstamm und Thalamus. Die gefilterten Hörbeispiele mit LFC (lowfrequency-components) ergaben keine Zunahme im EEG und PET im Vergleich mit der Baseline (= Messungen im Ruhezustand ohne Reizangebot). Aber auch HFC (high-frequency-components) alleine ohne Hörschall angeboten zeigten keine Zunahme der Hirnaktivität (vgl. OOHASHI 2000). Eine parallel dazu durchgeführte musikpsychologische Evaluierung ergab, dass die Probanden die ultraschallreichen Hörbeispiele als o weicher und mehr widerhallend, o mit einer besseren Balance der Instrumente beurteilten o und als angenehmer für das Ohr und reicher an Nuancen beschrieben. Er nannte diese Beobachtung `hypersonic effect´: „In this study, we used noninvasive physiological measurements of brain responses to provide evidence that sounds containing high-frequency components (HFCs) above the audible range significantly affect the brain activity of listeners. (…) results suggest the existence of a previously unrecognized response to complex sound containing particular types of high frequencies above the audible range. We term this phenomenon the "hypersonic effect" (OOHASI 2000, 3548). OOHASI findet keine Erklärung für Mechanismen der Ultraschallperzeption. Er stellt fest, dass es eine Interaktion zwischen „innerhalb“ und „außerhalb“ des klassischen Hörfeldes gibt. Weiters; dass die Beteiligung von nicht-auditorischen Systemen und somatosensorische Perzeptionsmöglichkeiten in der weiteren Forschung bedacht werden müssen. „In conclusion, our findings (…) give strong evidence supporting the existence of a preciously unrecognized response to high- frequency sound beyond the audible range that might be distinct from more usual auditory phenomena.” (OOHASHI 2000, 3549) Die Studie von OOHASI wurde 2003 von YAGI et. al. aufgegriffen und weiter entwickelt. YAGI untersuchte die näheren Zusammenhänge zwischen HFC (high- U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 57 frequency-component) und der Schwelle der angenehmsten Lautstärke (comfortable listening level, CLL). Dafür wurde ein Multi-Parameter-Verfahren verwendet, bei dem • der CLL erfasst wurde, • psychologische Verfahren zur Kategorisierung des subjektiven Eindrucks und • physiologische Messungen unter Verwendung des EEG angewandt wurden. Die Studie zeigte eine Zunahme des comfortable listening level (CLL) bei Zunahme der high-frequency components (HFC) sowie eine Verbesserung des subjektiven Klangeindruckes was sich im EEG als Zunahme im Alpha-EEG abbildete. Die höchste Zunahme des Effektes fand bei der Zunahme des HFC um +6 dB statt. Es konnte gezeigt werden, dass die Zunahme des Effektes nicht linear erfolgt, jedoch einen `Optimal-Punkt´ erreichen kann. „Taken together, the results of the present study demonstrate, that an enhanced HFC increased the CLL and improved the subjective impression of the sound in association with an increase in the alpha-eeg. These effect were most prominent with an increase of +6 dB in the HFC, plateauing or decreasing again with a further increase in the HFC. These results suggest that the inaudible HFC has a modulatory effect on human sound perception and that such an effect may not linearly increase an the intensity of the HFC increases, but hat some optimum point” (YAGI 2003, 191). Ultraschall spielt demnach in der Musikwahrnehmung eine Rolle. Die Bedeutung dürfte dabei vor allem in der Hör- bzw. Klangqualität liegen. 3.2.5. Fragestellung und Planung des vorliegenden Forschungsprojektes In den vorangegangenen Unterkapiteln (3.2.1. bis 3.2.4.) wurde versucht, die unterschiedlichen Entwicklungsstränge der Ultraschallforschung aufzuzeigen. Von den ersten Entdeckungen des piezoelektrischen Effekts (Ultraschallerzeugung) über die Wahrnehmungs- und Kommunikationsmöglichkeiten via Ultraschall von Tieren bis hin zu den Untersuchungen zur Bedeutung der Ultraschallwahrnehmung für den Menschen. Dabei konzentrierten sich die bisherigen Versuche auf zwei Bereiche: • Zum einen auf die Ultraschallwahrnehmung via Knochenleitung. Hier konnte eine Aktivierung des auditorischen Kortex, und somit die Auslösung eines akustisch bedeutsamen Reizes durch Ultraschall, in hörenden und gehörlosen Probanden U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 58 beobachtet werden. Die kortikalen Antworten hatten eine Charakteristik die ähnlich der Antworten auf Hörschall ist (vgl. HOSOI 1998, FUJIOKA 2002, siehe auch 3.2.2.). • Zum anderen gibt es Beobachtungen zur Ultraschallwahrnehmung via Luftleitung. Diese Untersuchungen wurden bisher immer mit hörenden Probanden durchgeführt und zielten im Gegensatz zu den Untersuchungen zur Knochenleitung nicht auf die Sprachwahrnehmung, sondern auf die Musikwahrnehmung ab (vgl. OOHASI 2000, YAGI 2003, siehe auch 3.2.4.). In der vorliegenden Arbeit steht die Musikwahrnehmung gehörloser und hochgradig schwerhöriger Menschen im Vordergrund. Für die musikpädagogische und musiktherapeutische Praxis ist die Frage nach den Grundlagen der Musikwahrnehmung von elementarer Bedeutung. Deshalb wurden zuerst die zurzeit bekannten multisensorischen Zugangsweisen zur Musikwahrnehmung vorgestellt. Mit der Planung und Durchführung eines eigenen Forschungsprojektes zur Ultraschallwahrnehmung soll ein neuer Aspekt zur multisensorischen Musikwahrnehmung aufgezeigt werden. Dabei wurde aus den Beobachtungen zur Ultraschallwahrnehmung in einem musikalischen Kontext bei hörenden Probanden ein Studiendesign für gehörlose und hochgradig schwerhörige Probanden entwickelt. Es entstanden dabei zwei zentrale Fragestellungen: • Gibt es eine kortikale und/oder psycho-physiologische Antwort auf Ultraschall in einem musikbezogenen Kontext und via Luftleitung übertragen bei gehörlosen und hochgradig schwerhörigen Probanden? • Welche Überlegungen entstehen aus der Betrachtung der Ergebnisse für die musikpädagogische und musiktherapeutische Praxis? Planung der Ultraschallstudie In Anlehnung an frühere Studien wurde für das vorliegende Forschungsprojekt ein Ultraschallsignal mit einer gleich bleibenden • Frequenz von etwa 28 kHz ausgewählt. Diese Frequenz liegt nahe am Hörschall und entspricht so der Hypothese, dass es zwischen Hör- und Ultraschall zu einer Wechselwirkung kommen kann. Als musikalischer Kontext wurde die • Rhythmisierung gewählt. Die Reduzierung auf einen einzelnen musikalischen Parameter erleichtert die Auswertung der gewonnen Daten und die Interpreta- U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 59 tion. Um für gehörlose, schwerhörige und hörenden Probanden die gleichen Bedingungen zu schaffen war es notwendig, die Untersuchungen in einem • schalldichten Raum durchzuführen. So konnte unter gleichen Voraussetzungen, ohne akustische Ablenkung der hörenden Probanden in der Kontrollgruppe, Ultraschall via • Luftleitung übertragen und angeboten werden. Als • Messinstrumente wurden ein Elektroenzephalogramm (EEG) und die so genannte SMARD-Watch eingesetzt. Beide Instrumente erlauben eine objektive Beobachtung der Reaktionen auf die Ultraschallsignale, da eine bewusste Wahrnehmung durch die Probanden nicht zu erwarten war. Die teilnehmenden • Probanden sollten einen seit ihrer Kindheit hochgradigen Hörverlust aufweisen beziehungsweise gehörlos sein. In einer Kontrollgruppe wurde der Versuchablauf mit normal hörenden Probanden durchgeführt. Die verwendeten Materialien und Methoden werden im folgenden Kapitel detailliert beschreiben. U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 60 3.3. Material und Methoden Eine Pilotstudie oder auch Leitstudie genannt, kommt dann zum Einsatz, wenn aufgrund der Forschungslage noch keine standardisierten Methoden vorliegen. „Untersuchung mit nicht standardisierten Mitteln (…), die mitunter der Vorbereitung einer größeren Studie (mit standardisierten Techniken) dient“ (MEYERS LEXIKON 2007, o. Seitenangabe). Eine Pilotstudie kann auch dann durchgeführt werden, wenn die Effektivität einer Forschungsmethode erprobt werden soll. In der empirischen Sozialforschung versteht man unter einer Pilotstudie eine Studie, die die Tauglichkeit einer These anhand einer kleinen überschaubaren Gruppe repräsentativ ausgewählter Personen belegt werden soll (vgl. BORTZ, 1984). Das vorliegende Forschungsprojekt entspricht in diesem Sinne einer Pilotstudie. 3.3.1. Probanden: Für das Forschungsprojekt konnten 26 Personen zur Teilnahme gewonnen werden. Von den 26 gemeldeten Probanden gab es 1 Absage durch Krankheit, 1 Absage nach Informationsgespräch, 1 Nichterscheinen am Versuchstag. Es verblieben 23 Teilnehmer. Davon • 12 gehörlose (gl) und hochgradig schwerhörige (hsh) Probanden für die Versuchsgruppe und • 11 normal hörende (h) Probanden für die Kontrollgruppe Tab. 3.1. Probandenstammdaten Versuchsgruppe. Zum Schutz der Anonymität wurden in dieser Tabelle Angaben zu Geschlecht und Alter entfernt. U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 61 Kontrollgruppe: n=11 fortlfd. Nr. ID-Nr. Hörstatus Alter Geschlecht 1 1 h 46 weibl. 2 3 h 25 weibl. 3 10 h 40 weibl. 4 13 h 49 weibl. 5 8 h 27 weibl. 6 2 h 58 weibl. 7 11 h 37 weibl. 8 20 h 58 männl. 9 15 h 35 weibl. 10 9 h 46 weibl. 11 21 h 45 weibl. Tab. 3.2. Probandenstammdaten Kontrollgruppe Erläuterung der Tabellen 3.1. und 3.2.: Insgesamt nahmen 17 Frauen und 6 Männer im Alter von 25 bis 67 Jahren an der Studie teil. Die Versuchsgruppe umfasste 12 gehörlose und hochgradig schwerhörige Probanden, die Kontrollgruppe 11 normal hörende. Um den Hörstatus (h=hörend, gl=gehörlos, hsh=hochgradig schwerhörig) zu protokollieren wurde von jedem Probanden ein Audiogramm erstellt. Ein Audiogramm beschreibt das subjektive Hörvermögen, also die frequenzabhängige Hörempfindlichkeit eines Menschen und gilt als wichtiges Diagnosewerkzeug der HNO-Heilkunde. Mit einem Audiogramm können Aussagen über die Symptome und teilweise auch über die Ursachen von Beeinträchtigung des Hörvermögens getroffen werden. Der Hörverlust der gehörlosen und hochgradig schwerhörigen Probanden lag bei 97 dB im Mittel. Die Hörschwelle der normal hörenden Probanden lag zwischen 0 und 20 dB (vgl. Kapitel 2.2.1.). U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 62 Abb. 3.2. aus: Versuchsprotokoll, Beispielaudiogramm Kontrollgruppe normal hörende Probanden Abb. 3.3. aus: Versuchsprotokoll, Beispielaudiogramm Versuchsgruppe gehörlose Probanden (die Pfeile kennzeichnen jene Frequenzen bei denen keine Hörschwelle ermittelt werden konnte, da sie jenseits der höchsten hier messbaren Lautheit liegt). Die Angaben zur technischen Versorgung (HG), Art/Ursache der Hörbeeinträchtigung und Zeitpunkt der Ertaubung wurden mittels Stammdatenfragebogen ermittelt. U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 63 3.3.2. Geräte und Räume: 5 1 7 1 4 1 6 1 1 1 2 1 3 1 Abb. 3.4. verwendete Geräte Erläuterung der verwendeten Geräte: 1. Funktionsgenerator: VCQ/VCA Generator, Modell 136 der Fa. Wavetek 2. Ultraschalllautsprecher: Piezo-Kalotten-Hochtonlautsprecher mit Trichter L001 der Fa. Kemo (Kemo-Electronic GmbH, D-27607 Langen) 3. Schalldruckpegelmessgerät: Sound Level Meter SL-4001 der Fa. Lutron (Lutron Electronic Enterprise Co, Taiwan ) 4. Ultraschalldetektor: Ultraschall-NF-Konverter der Fa. ELV 5. Oszillogprah: Oszilloskope HM 404-2 der Fa. Hameg 6. Schaltbrett: Archiv Mozarteum 7. Funktionsgenerator: (Reserve; Archiv Mozarteum) Ohne Abbildung: • EEG-Gerät: BQ 3200 der Fa. micromed (www.micromed-it.com) • EEG-Software: Brain Quick System Plus der Fa. micromed • SMARD-Watch: I.S.F. Institut für Stressforschung GmbH, Berlin U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 64 Ultraschall-Frequenzerzeugung Die Ultraschallsignale wurden von einem • Funktionsgenerator (1) erzeugt, der außerhalb des Versuchsraumes aufgebaut war. Funktionsgeneratoren sind Geräte zum Erzeugen elektrischer Schwingungen mit unterschiedlichen Kurvenformen. Die in der vorliegenden Studie erzeugte Frequenz lag bei 28 kHz in Sinusform und wurde mit einer Periodendauer von 6 Sekunden manuell über einen Regler moduliert um einen Rhythmus von 10 an- und abschwellenden Pulsen pro Minute zu erzeugen. Mittels • Ultraschalllautsprecher (2) wurden die sinusförmigen Ultraschalltöne in den schalldichten Versuchraum übertragen. Der Schalldruckpegel der Signale betrug am Hörplatz 43,35 dB SPL am Lautsprecher 73,85 dB SPL und entsprach dem maximal mit dem Funktionsgenerator erzeugbaren Schalldruck. SPL steht für sound pressure level und gibt die Bezugsgröße 0dB = 20µPa (Mikropascal) an. Der Abstand zwischen Hörplatz und Lautsprecher lag bei 1,10 m. Kontrollinstrumente Als Kontrollinstrumente wurden ein • Oszillograph (5), ein • Ultraschalldetektor (4) sowie ein • Schalldruckpegelmessgerät (3) verwendet. Ein Oszillograph ist ein technisches Gerät zum Sichtbar machen von periodischen Vorgängen. Mittels Oszillographen wurden die Frequenzen und Schalldrucke des Ultraschalls während des Versuchsablaufes kontrolliert. Mittels Schallpegelmessgerät wurde der Schalldruck vor dem Versuch kontrolliert, damit an jedem Versuchtag gleich bleibende Werte gesichert waren. Der Ultraschalldetektor bzw. -konverter transformiert Ultraschall in den Hörbereich. Mit Hilfe des Ultraschallkonverters wurde an jedem Versuchstag der Versuchsraum abgehört um eventuelle Ultraschallstörschalle auszuschließen. Messgeräte und -methoden • Elektroenzephalogramm (EEG) • SMARD-Watch U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 65 Das Elektroenzephalogramm Die Existenz von elektrischen Spannungen physiologischen Ursprungs im Kopfbereich ist seit 1875 bekannt. Seit den 1930er Jahren ist die Anwendung beim Menschen beschrieben. „Die Gesamtheit aller von der Kopfhaut mit Hilfe von Elektroden ableitbaren elektrischen Potentiale wird als das EEG bezeichnet“ (HOTH 1994, 18). Die Aufzeichnung dieser elektrischen Potentiale zählt zusammen mit der Aufzeichnung von Magnetfeldern (Magnetenzephalogramm, MEG und Positronenemissionstomographie, PET) zu den wichtigsten methodischen Zugängen um informationsverarbeitende Prozesse im Gehirn zu erforschen. Zu diesen zählen auch akustisch evozierte Potentiale. In der HNO-Heilkunde ist die elektrische Reaktions-Audiometrie eine der Möglichkeiten, das Hörvermögen zu überprüfen. Die Untersuchung des fortlaufenden EEG mittels Fourieranalyse und statistischen Verfahren zur Erforschung des Musikhörens wurde von Hellmuth PETSCHE in den 1980er und 1990er Jahren forciert. „Zur Messung der Beeinflussung physiologischer Vorgänge im Gehirn durch Musikhören kommen vor allem Untersuchungen des Hirnstoffwechsels, der lokalen Hirndurchblutung und der elektrischen Hirntätigkeit (EEG) in Betracht“ (PETSCHE 1989, 111). EEG-Messungen verfügen über eine gute Zeitauflösung. Dafür entsteht eine örtliche Ungenauigkeit bezüglich des anatomischen Ursprungs der gemessenen Spannungsschwankung. Mit Hilfe mathematisch–statistischer Analysen wird versucht, diese Ungenauigkeit auszugleichen. In der klinischen Praxis werden EEG-Messungen oft durch bildgebende Verfahren ergänzt. Die in den Zellmembranen der Großhirnrinde (Kortex) entstehenden exzitatorischen (erregenden) und inhibitorischen (hemmenden) postsynaptischen Potentiale sind größtenteils für die EEG-Spannung verantwortlich. Einen geringen Anteil leisten die Aktionspotentiale der Nervenzellen. Weitere Potentiale, Myogene, die aus Muskelfasern stammen, gehören nicht zum EEG. Sie können aber bei der Aufzeichnung eines EEG das elektrische Signal überlagern und erfordern deshalb bei der Beobachtung von sensorisch evozierten Potentialen Beachtung. Die messbaren elektrischen Signale sind sehr schwach. Die Spannungsschwankungen liegen zwischen 1 – 200 Millionstel Volt, also im Mikrovoltbereich (µV). Sie werden von der Schädeloberfläche mit Hilfe von Elektroden aus Silberlegierung und ei- U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 66 ner gut leitenden Paste abgeleitet und aufgezeichnet. Immer zwei Elektroden werden mit einem Verstärkerkanal verbunden, der die Potentialdifferenz beider unter den Elektroden liegenden Orte misst. Zur Aufzeichnung von mehreren Orten des Gehirns wird ein Polygraph benötigt, der mehrere Verstärkereingänge besitzt und die Spannungsschwankungen in Form von Wellen entweder auf Papier oder auf Bildschirm aufzeichnet. Ein Polygraph unterdrückt weiters Störsignale und hebt die für die Messung wichtigen Potentialdifferenzen hervor (Filtercharakteristik). Das international verwendete System zur Platzierung der EEG-Elektroden geht zurück auf den kanadischen Neurowissenschaftler und Pionier auf dem Gebiet der Elektroenzephalographie Herbert Henri Jasper (1906–1999). Sein 1958 eingeführtes 10-20-System wird nach wie vor angewandt (vgl. BIRBAUMER und SCHMIDT 1999, HOTH 1994). Abb. 3.4. aus: BIRBAUMER und SCHMIDT, 1999 S.490, Platzierung der EEGElektroden nach dem internationalen 10-20-System nach Jasper Abb. 3.5. Anlegen der EEG-Elektroden Die EEG Wellen werden zur Charakterisierung in eine Reihe von Sinuswellen unterschiedlicher Frequenz und Amplitude zerlegt. Die Frequenzen werden in Frequenzbereiche eingeteilt: U. Stelzhammer-Reichhardt • Delta -Band: < 4 Hz • Theta – Band: 4 – 8 Hz • Alpha – Band: 8 – 13 Hz • Beta – Band: 13 - 30 Hz • Gamma-Band: > 30 Hz Studien zur Ultraschallwarhnehmung 67 Die Variabilität der Wellenmuster ist innerhalb der Frequenzbänder sehr groß und sieht bei jedem Menschen anders aus (vgl. HOTH 1994, GAZZANIGA 2002). Im vorliegenden Forschungsprojekt werden EEG-Messungen zur Beobachtung der Hirntätigkeit bei Reizangebot durch Ultraschall eingesetzt. Zusätzlich wurden psychophysiologische Parameter mittels SMARD-Watch am Handgelenk gemessen. SMARD-Watch Abb. 3.6. aus : SMARD-Watch-Handbuch 2000, SMARD-Watch 2-teilig: Messband mit Elektroden und Messgerät Die SMARD-Watch ist ein vom Berliner Institut für Stressforschung entwickeltes System zur noninvasiven Messung und Analyse in der Regulations-Diagnostik und Therapie. Mit der SMARD-Watch können kontinuierlich Daten psycho-physiologischer Parameter wie • Herzfrequenz • Pulsfrequenz • Elektromyogramm • Hautwiderstand • Hautpotential • Hauttemperatur und • Konvektionstemperatur U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 68 mittels spezieller Elektroden bzw. Sensoren registriert werden. Abb. 3.7. aus : SMARD-Watch-Handbuch 2000, Institut für Stressforschung GmbH 04/200, Berlin, Messpunkte am SMARD-Watch Armband Aus den relativen Änderungen der registrierten Daten können mittels Zeitreihenanalyse chronobiologische sowie Vorgänge beziehungsweise Zustandsänderungen biologischer Prozesse aufgezeigt werden. Die zeitliche Auflösung der Messungen beträgt zwischen 1 bzw. 10 Sekunden. Die Datenerfassung erfolgt mit Hilfe von Mikroprozessortechnik und kann sowohl offline als auch online über serielle Schnittstellen am PC verarbeitet werden (vgl. SMARDWatch Handbuch 2000). Für die vorliegende Studie wurden vor allem die Messungen von Hautpotential und Hautwiderstand berücksichtigt: Die Zellverbände auf der Hautoberfläche zeigen eine elektrische Aktivität die sich aus Membranpotentialen bildet. Das • elektrische Hautpotential charakterisiert daraus den allgemeinen Erregungsgrad der Hautoberfläche. • Der elektrische Hautwiderstand resultiert aus dem mehrschichtigen Aufbau der Haut, der physikalisch gesehen mehrere in Serie und parallel geschaltete Widerstände darstellt. Er reflektiert die emotionell-sympathische Reaktion des Menschen (vgl. SMARD-Watch Handbuch 2000; BOUCSEIN 1988). U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 69 Versuchsräume Die Versuche wurden in den Räumen der Audiologie der HNO-Abteilung des St. Johanns-Spital in Salzburg durchgeführt. • Arbeits- bzw. Vorbereitungsraum: Anlegen des EEG, Vor- und Nachbesprechung, Geräteaufbau • Versuchsraum: Schalldichter Audiometrieraum mit Sichtfenster zum Arbeitsraum; Ultraschalllautsprecher, Messgeräte Abb. 3.8. Audiometriezimmer 3.3.3. Versuchsverlauf: Vorbereitung: In einem • Vorgespräch wurden dem Probanden der Versuchsablauf (siehe unten) erläutert, ein • Stammdatenblatt vom Probanden ausgefüllt sowie ein • Audiogramm erstellt. Weitere Vorbereitungsarbeiten waren das • Anlegen der Messinstrumente EEG und SMARD-Watch und • Einstellen des Hörplatzes auf den Probanden. • Danach erfolgte eine Rückfrage bezüglich Wohlbefinden und Hinweis zur Möglichkeit des jederzeitigen Abbruchs des Versuches. U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 70 Abb. 3.9. Anlegen der Messinstrumente SMARD-Watch und EEG Versuchsablauf: Der Versuchsablauf selbst dauerte 12 Minuten. Davon waren 5 Minuten Ruhephase, 2 Minuten modulierte Ultraschallsignale, und anschließend wieder 5 Minuten Ruhephase. Die Probanden wurden über Anzahl, Dauer und Zeitpunkt der Ultraschallsignale nicht informiert. Ablauf im Detail: • 5 min Ruhephase. • Beginn Ultraschallphase: o 30 sec Dauerschall, anschließend o 1 min an- und abschwellen des Schalldruckes in 6-sec-Intervallen, dann o 30 sec Dauerschall. • Ende Ultraschallphase, im Anschluss wiederum • 5 min Ruhephase U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 71 Abb. 3.10. schematische Darstellung des Versuchsablaufes im Detail 3.3.4. Auswertung: • Auswertung der EEG-Daten • Auswertung der SMARD-Watch-Daten Für die vorliegende Studie war es notwendig eine Methode zu finden, die es gestattet innerhalb eines EEG-Signals oder Signals eines vegetativen Parameters (Messungen der SMARD-Watch) – welches als Zeitreihe vorliegt – ein definiertes, von außen auf die Versuchsperson einwirkendes Signalmuster in Form einer Sinuswelle, zu entdecken. Im Idealfall korreliert das EEG-Signal oder das Signal des vegetativen Parameters zum Auftrittszeitpunkt des Modulationssignals zu 100 %. Diese Methode findet sich in der dynamischen Kreuzkorrelationsanalyse nach SCHRUEFER und BALZER, die hier zur Anwendung kam (vgl. SCHRUEFER 1990, BALZER 2002): Bei der Auswertung des EEG wurden nicht wie bei audiologischen Messungen üblich die evozierten Aktionspotentiale analysiert. Vielmehr wurden die Summenpotentiale einer Kreuzkorrelationsanalyse unterzogen. Das heißt, es wurden die EEG-Daten mit dem Frequenzmuster der Ultraschallsignale verglichen um zu sehen, ob und wie die Hirnströme mit dem Ultraschallmuster korrelieren. In gleicher Weise wurde mit den Zeitreihen aus den Messungen der vegetativen Parameter der SMARD-WATCH verfahren. Um die Wechselbeziehungen zwischen zwei Vorgängen zu verifizieren, werden Zeitreihen von Messdaten der jeweiligen Vorgänge aufgenommen und innerhalb eines Datenfensters die Korrelationsfunktion Φxy bestimmt. Bei Durchschieben des Datenfensters durch die beiden Vorgänge f(x,t) und f(y,t) entsteht die Änderung des Korre- U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 72 lationskoeffizienten über die Zeit, bezeichnet als dynamische Kreuzkorrelationsfunktion. Während bei der gewöhnlichen Kreuzkorrelation von zwei identischen Sinusfunktionen • Φxy = 1 ist, ist im Vergleich dazu bei der dynamischen KKF • Φxy[t] = 1. Das EEG wurde mit einer Abtastrate von 256/sec. gemessen. Die Modulation des Ultraschallsignals erfolgte manuell über einen Regler mit einer Periodendauer von 6 sec. (0,167 Hz). Dadurch wurde das Ultraschallsignal 10mal innerhalb von 1 Minute sinusartig moduliert. Zum Nachweis der Beeinflussung des EEG-Signals durch Ultraschall wurde von der Hypothese ausgegangen, dass der Ultraschall auf Grund seiner hohen Frequenz von ca. 28 KHz selbst nicht im EEG-Signal zu finden ist, wohl aber niederfrequente Modulationen des Ultraschallsignals. Zur Analyse mittels der dynamischen KKF wurde das EEG-Signal blockweise mit dem Faktor 16 gemittelt, entsprechend einer mittleren Abtastrate von 16/sec. Dazu wurde ein sinusförmiges Vergleichssignal 1 mit der Periode 6 sec (6 * 16 Werte/sec * 60 sec. = 960 Werte) als Zeitreihe generiert. Dieses Vergleichsignal wurde durch die Zeitreihe des EEG-Signal geschoben und der jeweilige KKF-Koeffizient (KKF = Kreuzkorrelation) bestimmt. Abb. 3.11. Vergleichssignal 1: Die rote Linie stellt das Rechenmodell des über eine Minute ausgestrahlten Ultraschallsignals dar. Abb. 3.12. Verrechnung des Vergleichssignals 1 mit dem Datenmaterial U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 73 Auf Grund der wesentlich geringeren Abtastrate des zur Messung vegetativen Parameters benutzten Gerätes SMARD-Watch (1/sec.) enthält das Vergleichsignal 2 bei der Periode 6 exakt 1 Wert/sec. *60 sec = 60 Werte (vgl. BALZER 2007). 25 20 15 10 5 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 -5 -10 -15 -20 -25 Abb. 3.13. Vergleichsignal 2 3.3.4.1. Auswertung der EEG-Daten Schritte der Auswertung: 1. Mittelung der Rohdaten Nach Abschluss der Messungen wurden die Rohdaten zur weiteren Verarbeitung aufbereitet. Dafür wurde die Datenmenge durch Mittelung reduziert (siehe 3.3.4.). 2. Entwicklung des Rechenmodells für die Kreuzkorrelation Nachdem die Modulation des Ultraschallsignals aus technischen Gründen nicht in Originaldaten vorhanden war, wurde für die Kreuzkorrelationsanalyse ein Rechenmodell erstellt (siehe 3.3.4.). Das Computerprogramm legt nun das Rechenmodell des Ultraschallsignals wie eine Schablone über die EEG-Daten und stellt in der blauen Linie die Übereinstimmung mit den EEG-Daten dar. Wie in Abb. 3.14. Modell für die Kreuzkorrelationsanalyse ersichtlich, zeigt sich an der Stelle mit dem eingefügten Modell die größte Übereinstimmung, also der höchste Korrelationswert. U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 74 Abb. 3.14. Modell für die Kreuzkorrelationsanalyse (KKF-Analyse) 3. Durchführung der Kreuzkorrelationsanalyse: Für jede Ableitung wurde eine Korrelationsberechnung durchgeführt und als Graphik dargestellt. Pro Proband wurden 18 Ableitungen auf diese Weise berechnet. Abb. 3.15. Durchführung der Kreuzkorrelation U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 75 4. Bewertung: Für die Bewertung wurden 2 Kriterien festgelegt, nämlich die • Ähnlichkeit des Korrelationsmusters mit dem Modell und die • Höhe des Korrelationswertes im Zeitfenster des Ultraschallsignals Bewertung A: In einem ersten Bewertungsschritt wurde für jede Ableitung ein Korrelationswert bestimmt. Der erste Bewertungsschritt bestimmt, ob eine Ableitung eine Korrelation zwischen Ultraschallsignal und Hirnströme verzeichnet. Dabei wird zwischen starker Anregung (hohe Korrelation), geringer bis mittlerer Anregung (niedrige Korrelation) und keine Anregung (es kann keine Korrelation erkannt werden) unterschieden. Tab. 3.3. Bewertung der Korrelationsmuster (Bewertung A) Bewertung B: In einem zweiten Bewertungsschritt wurde für jeden Probanden die Summe aus allen Ableitungen ermittelt, zum Gesamtkorrelationswert zusammengefasst, und bewertet: Beurteilung des Gesamtkorrelationswertes: keine Anregung 0 Punkte aus Bewertung A geringe Anregung 1 - 3 Punke aus Bewertung A starke Anregung ab 4 Punkte aus Bewertung A Tab. 3.4. Beurteilung des Gesamtkorrelationswertes (Bewertung B) Bewertung C: Im dritten Schritt wurden Häufigkeit und Anregungsgrad der einzelnen Kanäle bewertet: U. Stelzhammer-Reichhardt Studien zur Ultraschallwarhnehmung 76 Beurteilung der Häufigkeit von Nennungen einzelner Ableitungen: geringe Häufung 3 Nennungen mittlere Häufung 4-5 Nennungen starke Häufung ab 6 Nennungen Tab. 3.5. Häufigkeit der Nennungen (Bewertung C) 3.3.4.2. Auswertung der SMARD-Watch-Daten: Die SMARD-Watch-Daten jener Probanden, deren EEG-Auswertung die höchsten Korrelationen erbrachten, wurden im Anschluss ebenfalls einer Kreuzkorrelationsanalyse (KKF) unterzogen (siehe 3.3.4.). Es wurden dabei die Parameter Hautwiderstand und Hautpotential zur Analyse ausgewählt. Es sind dies jene Parameter, die am raschesten auf Änderungen reagieren und somit auf die relativ kurze Zeit von 1 Minute Ultraschallsignalausstrahlung am ehesten Reaktionen erwarten ließen (Abb. 3.16.). Die Kreuzkorrelationen wurden im Anschluss nach Bewertung A analysiert. (siehe 3.3.4.1.) Abb. 3.16. Beispiel für eine dynamische Kreuzkorrelation (KKF) des Hautpotentials aus der SMARD-Watch-Messung U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 77 3.4. Ergebnisse Die Analyse der Probandenstammdaten der Versuchsgruppe ergab folgendes Probandenprofil: • Art der Hörschädigung: 5 Probanden haben erworbene und 7 Probanden eine angeborene Hörschädigung. • Technische Versorgung: 4 Probanden tragen keine Hörhilfen, 4 Probanden trugen in ihrem Leben zeitweise Hörhilfen (meist während der Kindheit bzw. Schulzeit) und 4 Probanden verwenden aktuell Hörhilfen wobei alle Probanden Träger von konventionellen Hörgeräten (HG) sind. • Zeitpunkt der Hörschädigung: 4 Probanden während des Spracherwerbes und 8 Probanden vor dem Spracherwerb. • Kommunikationsformen: 11 Probanden kommunizieren bevorzugt in der Gebärdensprache und fühlen sich der Gehörlosenkultur verbunden. 1 Proband kommuniziert lautsprachlich und pflegt keine Kontakte zur Gehörlosenkultur. 3.4.1. Ergebnisse der EEG Auswertung Für die Analyse der EEG – Daten wurden die gemittelten Daten der Kreuzkorrelationsanalyse (beschrieben unter 3.3.4.) unterzogen, in Gruppen eingeteilt und unabhängig von der Zugehörigkeit Versuchs- oder Kontrollgruppe bewertet. Dabei zeichneten sich 3 verschiedene Kategorien ab. Kreuzkorrelationen (KKF), die eine geringe Anregung durch das Ultraschallsignal zeigten, KKF die keine Anregung zeigten, und solche die eine starke Anregung durch das Ultraschallsignal zeigten. geringe Anregung Abb. 3.17. Beispiel KKF – geringe Anregung U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 78 keine Anregung Abb. 3.18. Beispiel KKF – keine Anregung starke Anregung Abb. 3.19. Beispiel KKF – starke Anregung In einem ergänzenden Auswertungsschritt wurde - durch die Umformatierung der Daten in einer Excel-Datei - die Daten mit einer Markierung für die Beginn- und Endzeiten des Ultraschallsignals ergänzt und konnten graphisch dargestellt werden. Die Graphiken dienten zur Kontrolle der Bewertung A (siehe Abb. 3.20. bis 3.22.): U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 79 Abb. 3.20. Graphikbeispiel für geringe Anregung (höchster Korrelationswert im US-Zeitfenster jedoch kein spezifisches Korrelationsmuster) Abb. 3.21. Graphikbeispiel für keine Anregung (kein Korrelationsmuster und kein höchster Wert im US-Zeitfenster) U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 80 Abb. 3.22. Graphikbeispiel für starke Anregung (Korrelationsmuster und höchster Korrelationswert im Zeitfenster) Nach der Beurteilung und Kategorisierung der Kreuzkorrelationsanalyse wurden die Ergebnisse in eine Exceltabelle eingetragen und Versuchs- und Kontrollgruppe getrennt voneinander weiter bearbeitet: Versuchsgruppe: Die nachfolgende Tabelle 3.3. zeigt die Ergebnisse der • Bewertung A (Beurteilung jeder einzelnen Ableitung), • Bewertung B (Summe aus A je Proband) • und Bewertung C (Summe der Nennungen pro Ableitung aller Probanden) U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 81 B A C Tab. 3.3. Auswertung Versuchsgruppe nach der Kreuzkorrelation U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 82 Bewertung B: Dabei wurden die einzelnen Korrelationswerte zu einem Gesamtwert zusammengeführt und bewertet. Die ermittelten Korrelationswerte Gesamt liegen zwischen 0 und 30. Keine kortikale Antwort zeigen demnach 3 Probanden. Eine geringe kortikale Antwort zeigen 6 Probanden und 3 Probanden zeigen eine starke Antwort auf die Ultraschallsignale. Die Bewertung C fasst die Häufigkeit der Nennung einzelner Kanäle zusammen um so einen Trend zu zeigen, welche Gehirnregionen in welcher Intensität eine Anregung bzw. eine kortikale Antwort zeigen. Häufungen wurden ab 3 Nennungen gewertet. 5 Kanäle erreichten den Nennwert 3. Drei Kanäle erreichten den Nennwert 4-5 und ebenfalls 3 Kanäle zeigten Nennungen größer-gleich 6. Häufungen < 3 wurden nicht berücksichtigt. Die Verteilung der Nennungen wird anhand der folgenden Ableitungsgraphik dargestellt: Abb. 3.23. Ableitungsgraphik Versuchsgruppe: • Grüne Markierung: Kanäle bzw. Ableitungen mit geringem Nennwert (3) • Gelbe Markierung: Kanäle bzw. Ableitungen mit mittlerem Nennwert (4-5) • Rosa Markierung: Kanäle bzw. Ableitungen mit hohem Nennwert (6 und mehr) U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 83 Kontrollgruppe: Wie in der Versuchsgruppe wurde auch in der Kontrollgruppe nach der • Bewertung A, der • Korrelationswert Gesamt (Bewertung B) für jeden Probanden ermittelt. Die Bewertung B zeigt Korrelationswerte von 0 bis 8. Keine kortikale Antwort zeigen 5 Probanden. Eine geringe kortikale Antwort zeigen 5 Probanden und 1 Proband zeigt eine starke Antwort auf die Ultraschallsignale. • Die Bewertung C zeigt keinen Nennwert größer als 3. An 8 Ableitungen wurde ein Nennwert von 1 verzeichnet. An 3 Ableitungen wurde der Nennwert 2 ermittelt. Obwohl bei der Versuchsgruppe Nennwerte unter 3 nicht berücksichtigt wurden, wurde für die Kontrollgruppe eine Graphik mit Nennwerten 1 und 2 angefertigt um einen eventuellen Trend zu zeigen: U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 84 Abb. 3.24. Ableitungsgraphik Kontrollgruppe: Häufung von Nennungen je Ableitung • Dunkelblaue Markierung: Nennwert 2 • Hellblaue Markierung: Nennwert 1 Datenvergleich von Versuchs- und Kontrollgruppe: Bewertung B: 7 6 5 4 3 2 1 0 keine Anregung geringe Anregung Kontrollgruppe hörend starke Anregung Versuchsgruppe gehörlos Abb. 3.25. Datenvergleich Versuchgruppe (Bewertung B) Der Datenvergleich von Versuchs- und Kontrollgruppe zeigt, dass in der Kontrollgruppe die meisten Probanden keine oder eine geringe Anregung zeigten. In der Kategorie „geringe Anregung“ und „starke Anregung“ dominiert die Versuchsgruppe. U. Stelzhammer-Reichhardt Studien zur Ultraschallwahrnehmung 85 Bewertung C: Abb. 3.26. Datenvergleich Versuchgruppe : Kontrollgruppe (Bewertung C) Die Bewertung C der Versuchsgruppe zeigt eine Dominanz der frontal (stirnseitig) rechts liegenden Ableitungen verlaufend zu einer schwächeren Nennung nach rechts okzipital (hinterhauptseitig). Die Bewertung C der Kontrollgruppe zeigt trotz eines insgesamt geringeren Nennwertes eine Dominanz frontal mit einer leichten Betonung der rechten Seite, die nach okzipital verläuft. In beiden Gruppen kann insgesamt eine Dominanz der stirnseitigen und rechts liegenden Ableitungen verzeichnet werden. 3.4.2. Ergebnisse der SMARD Watch Auswertung Die dynamische Kreuzkorrelation der SMARD Watch Daten jener Probanden, die im EEG-Signal die höchsten Korrelationen erbrachten, zeigten in den vegetativen Parametern Hautwiderstand (HW) und Hautpotential (HP) keine sicher zu bewertenden Korrelationen. Abb. 3.27. dynamische KKF des Hautpotentials Die Auswertung wurde deshalb nicht weitergeführt. U. Stelzhammer-Reichhardt Diskussion 4. Diskussion Die vorliegende Studie zeigt, dass eine kortikale Reaktion auf Ultraschall in einem musikbezogenen Kontext via Luftleitung bei hörenden, gehörlosen und schwerhörigen Probanden möglich ist. Die psycho-physiologischen Messungen zeigen keine für eine Interpretation ausreichenden Resultate. Die Ergebnisse unterstützen jene musikpädagogischen Ansätze, die einen multisensorischen Zugang zur Musik in den Mittelpunkt ihres pädagogischen Handelns stellen. 4.1. Interpretation der zentralen Ergebnisse Die Ergebnisse zeigen, dass bei 15 Probanden der insgesamt 23 Probanden (davon 9 gehörlos/hochgradig schwerhörig und 6 hörend) eine geringe bis starke Anregung auf rhythmisierte Ultraschallsignale im EEG zu verzeichnen war. Bei 8 Probanden (davon 5 hörend und 3 gehörlos/hochgradig schwerhörig) konnte keine Anregung gezeigt werden. Mehr als die Hälfte aller Probanden reagierte demnach auf die Ultraschallsignale im EEG. Die Ergebnisse zeigen eine signifikant erhöhte Sensibilität der gehörlosen Versuchsgruppe (n=11) gegenüber der hörenden Kontrollgruppe (n=12). Ultraschallsignale korrelieren in einem musikbezogenen Kontext (im vorliegenden Versuch war der Kontext der rhythmische Parameter) und via Luftleitung übertragen bei 75 % der gehörlosen und hochgradig schwerhörigen Probanden in geringem bis starkem Maße mit dem EEG. Im Sinne einer Pilotstudie sind durch diese Ergebnisse keine allgemein gültigen Aussagen zu treffen. Dennoch konnten einige wichtige Dinge geklärt werden: Ultraschall - Schalldruck Die Fülle der Untersuchungen zu knochenübertragenem Ultraschall ließen im Vorfeld Zweifel aufkommen, ob eine Untersuchung mit luftübertragenem Ultraschall sinnvoll ist. Da aber in der Praxis des Musikunterrichts der luftübertragene Ultraschall von Bedeutung ist, war genau dieser Punkt die Herausforderung. 86 U. Stelzhammer-Reichhardt Diskussion Dazu kamen die Einschränkungen des Versuchsaufbaues durch die vorhandenen technischen Gegebenheiten. Der Signalgeber, ein Frequenzgenerator, erreichte in Verbindung mit dem Ultraschalllautsprecher eine Lautstärke beziehungsweise Schallintensität von knapp 74 dB SPL (vgl. Kapitel 3.3.2.). Dazu musste der starke Energieverlust durch die Luftübertragung berücksichtigt werden. Am Hörplatz erreichte das Ultraschallsignal etwas mehr als 43 dB SPL. Das entspricht der normalen Gesprächslautstärke. In der musikalischen Praxis sind in jedem Fall weit höhere Schallpegel (bis zu 100 dB im Symphonieorchester) zu erwarten (vgl. DAVID 1988). Die Auswertung der EEG-Daten zeigten, dass einige der Probanden eine sehr hohe Sensibilität aufweisen und selbst unter diesen ungünstigen Bedingungen Reaktionen auf die Ultraschallsignale zeigten. Unter verbesserten technischen Bedingungen wären demnach deutlichere Ergebnisse zu erwarten. Eine Ausweitung der Versuche mit unterschiedlichem Schalldruck, sowie ein direkter Vergleich zwischen Knochenübertragung und Luftübertragung wären weitere interessante Versuchsschritte. Ultraschall - Frequenzbereiche Die in früheren Untersuchungen verwendeten Ultraschallfrequenzen schwanken je nach Autor und Studiendesign zwischen 25 und 80 kHz. In Anlehnung an eine Studie von NISHIMURA verwendeten wir eine Ultraschallfrequenz von etwa 28 kHz (NISHIMURA et. al. 2000). Die Nähe zum Hörschall beruht auf der Überlegung, dass die von Instrumenten erzeugten Obertöne sich über den Bereich des Hörschalls hinaus erstrecken können und im angrenzenden Ultraschallbereich noch genügend Schallenergie besitzen, um in der Luft übertragen werden zu können. Die Mechanismen der Ultraschallwahrnehmung sind bislang weitgehend unklar. Eine Hypothese stützt sich auf die Resonanzfähigkeit des Knochens für Ultraschallfrequenzen. Das würde auch die gute Übertragbarkeit bei Knochenleitung erklären. Da aber jeder Mensch eine etwas abweichende Knochenresonanz aufweist, deckt eine Messung mit nur einer Frequenz nur einen kleinen Bereich möglicher Resonanzfrequenzen ab. Eine Ausweitung der angebotenen Frequenzspektren könnte hier zur Klärung beitragen. 87 U. Stelzhammer-Reichhardt Diskussion Ultraschall –Wahrnehmungswege Bei der Betrachtung der Auswertung C, der Auszählung der am häufigsten angeregten Ableitungen im EEG, konnte eine auffallende Dominanz der stirnseitigen und rechts liegenden Ableitungen gefunden werden. Die Strahlungsrichtung des Ultraschalllautsprechers war von rechts vorne kommend. Die häufigsten angeregten Ableitungen entsprechen damit der Strahlungsrichtung. Dieses Ergebnis spricht gegen die Aufnahme von Ultraschall über das Hörsystem. Wären Ultraschallrezeptoren im Hörsystem (zum Beispiel in der Schnecke) vorhanden, hätten die meisten angeregten Ableitungen linksseitig zu finden sein müssen. Das Hörsystem leitet einen Großteil der eintreffenden Schallsignale nach kontralateral, also auf die der Schallquelle gegenüberliegenden Hirnseite (vgl. Kapitel 2.1.). Die Häufung der angeregten Ableitungen lässt keine Rückschlüsse auf die verarbeitenden Hirnareale zu weil die Methode der Messung von evozierten Potentialen in der vorliegenden Studie nicht zur Anwendung kam. Vielmehr wurde versucht eine Harmonisierung zwischen den EEG-Signalen und dem Rhythmus der Ultraschallsignale zu zeigen. Diese Annäherung zwischen den EEG-Signalen und den Ultraschallsignalen konnte an den direkten Berührungsstellen gezeigt werden. Dies würde bedeuten, dass auch via Luftleitung übertragener Ultraschall die Knochenresonanz anregt und schlussendlich die Beobachtungen, die bereits via Knochenleitung gemacht wurden, für die Musikwahrnehmung via Luftleitung gültig wären. Die fehlende Zuordnung auf verarbeitende Hirnareale unterstützt weiters die Hypothese, dass nicht Ultraschall selbst eine Hörwahrnehmung auslöst (vgl. FUJIOKA 2002 und Kapitel 3.2.2.), sondern dass die Entstehung von Differenz-, oder Kombinationstönen unterstützt wird. So könnte Ultraschall auch weniger für den primären auditorischen Kortex als vielmehr für die assoziativen auditorischen Bereiche eine Rolle spielen (vgl. Kapitel 2.1.4.). Ultraschall – Gehörlosigkeit und Schwerhörigkeit Die Mehrzahl bisheriger Ultraschall-Studien wurde mit hörenden Probanden durchgeführt. Daraus ergab sich folgende Annahme: Wenn Anregungen durch Ultraschall in der Versuchsgruppe (gehörlos) gezeigt werden können, sind in der hörenden Kontrollgruppe in etwa gleichwertige Ergebnisse zu erwarten. Dabei ist zu beachten, dass durch die geringe Schallenergie nur bei besonders sensiblen Probanden Reaktionen zu erwarten sind. 88 U. Stelzhammer-Reichhardt Diskussion Sowohl in der Versuchsgruppe, als auch in der Kontrollgruppe war diese Sensibilität zu finden. Die vorliegende Studie ergab jedoch eine deutlich erhöhte Sensibilität in der Versuchsgruppe (gehörlos). Die Wichtigkeit alternativer Wahrnehmungskanäle des Gesamtphänomens `Hören´ konnte damit deutlich gezeigt werden. OOHASHI konnte bei hörenden Probanden nur beim Zusammenspiel von Hörschall und Ultraschall Änderungen im Alpha-EEG zeigen. Die Sensibilität für Ultraschallfrequenzen schien demnach im Zusammenhang mit dem Hörvermögen zu stehen. Dieser Zusammenhang konnte in der vorliegenden Studie so nicht bestätigt werden. Es scheint jedoch, dass durch den Ausfall des Hörorgans andere Wahrnehmungskanäle verstärkt aktiviert werden. Dieses Ergebnis unterstützt die Beobachtung der hochgradig schwerhörigen Musikerin Evelyn GLENNIE, die der Überzeugung ist, dass ein funktionstüchtiges Hörorgan andere Wahrnehmungskanäle eher ausblendet. „If we can feel low frequency vibrations why can’t we feel higher vibrations? It is my belief that we can, it’s just that as the frequency gets higher and our ears become more efficient they drown out the more subtle sense of `feeling´ the vibrations” (GLENNIE 2005, o. Seitenangabe). Ultraschall - Methodenwahl Da die bewusste Wahrnehmung von Ultraschall nicht gesichert ist, stellt das EEG eine objektive Meßmethode dar, um eine Aktivierung des Kortex und somit einen Wahrnehmungsvorgang, darzustellen. Der Einsatz des EEGs wurde in ähnlichen musikbezogenen oder ultraschallbezogenen Studien bereits erprobt (vgl. PETSCHE 1989, OOHASHI 2000). Die Grenzen des EEG liegen darin, dass die elektrische Tätigkeit an der Kopfhaut nur in stark abgeschwächter Form messbar ist, und dass das Untersuchungsdesign starken Einschränkungen unterworfen ist. Messungen sind zum Beispiel nur in Ruhelage und mit geschlossenen Augen möglich (vgl. BIRBAUMER 1999). Einige Wissenschaftler ergänzen deshalb das Studiendesign mit Positronenemissionstomographie (PET) zur bildhaften Darstellungen des Stoffwechsels des Gehirns oder Magnetenzephalographie (MEG) (vgl. NISHIMURA 2002; OOHASHI 2000). Diese Methoden erfordern jedoch im Vergleich zum EEG einen enorm höheren Aufwand an Material, sodass diese Untersuchungsmethoden größeren Forschungsprojekten und Arbeitsgruppen vorbehalten bleiben (vgl. GROSSBACH und ALTENMÜLLER 2002). Weiters sind die dabei benötigten Geräte (Computertomographen) im Betrieb ge- 89 U. Stelzhammer-Reichhardt Diskussion räuschintensiv. Um die gleichen Voraussetzungen für gehörlose und hörende Probanden zu schaffen war es aber wichtig, die Versuche in einer stillen bzw. schalldichten Umgebung durchzuführen. Die Ergebnisse des EEG der vorliegenden Untersuchung bestätigen die hohe Eignung der Methode für das vorliegende Forschungsdesign im Bereich Musikwahrnehmung und Rezeptionsforschung. Im Vergleich dazu brachte die Auswertung der SMARD-Watch-Daten keine sicheren Ergebnisse. Mögliche Erklärung dafür könnte zum einen die kurze Abstrahlzeit der Ultraschallsignale von nur einer Minute, oder die schwache Intensität von rund 43 dB am Hörplatz sein. Zum anderen würden die fehlenden Ergebnisse auch Rückschlüsse auf die unbewusste Wahrnehmung von Ultraschall zulassen und diese Hypothese (vgl. OOHASHI 2000) bestärken. Die Wahl einer Pilotstudie erwies sich als vorteilhaft, weil die zur Verfügung stehende Probandengruppe gehörloser Menschen einen an der Zahl kleinen Personenkreis umfasst. Eine Ausweitung auf eine größere Probandengruppe wäre in einem großstädtischen Umfeld eher möglich. Erschwerend erwies sich das Fehlen von finanziellen Mitteln. Es war durch intensive persönliche Kontakte jedoch möglich, ausreichend Probanden zur Mitarbeit zu gewinnen. Ultraschall – Resonanzfrequenzen und Ausblick Die verwendete Resonanzfrequenz von rund 28 kHz stellt einen sehr kleinen Ausschnitt möglicher musikbezogener Frequenzen dar. Ein natürlicher Instrumentenoder Stimmklang ist immer ein Konglomerat aus Teiltönen bzw. Einzelfrequenzen (vgl. Kapitel 2.1.1.). Eine einzelne Frequenz als Reiz anzubieten bedeutet eine extreme Reduzierung und hat im strengen Sinn nichts mit Klang zu tun. Es war aber im vorliegenden Versuch im Sinne einer definierten Abgrenzung zu möglichen Kombinationstönen notwendig. Als einziger, aber wesentlicher musikalischer Parameter wurde die Rhythmisierung eingesetzt (vgl. GROSSBACH und ALTENMÜLLER 2002). Über diese Rhythmisierung konnte eine kortikale Reaktion gezeigt werden. Da nicht bei allen Probanden Reaktionen auf Ultraschallsignale gefunden werden konnten, sind weiterführende Studien zu Resonanzfrequenzen und Schalldruck von Interesse. Im Folgenden ein Ausblick auf wichtige Themenbereiche: • Ausweitung der angebotenen Resonanzfrequenzen Zur Überprüfung weiterer Frequenzbereiche wäre eine Untersuchung nötig, die vom Hörbereich ausgehend stufenweise immer höhere Frequenzen anbie- 90 U. Stelzhammer-Reichhardt Diskussion tet. Eine andere Zugangsweise wäre die bereits in anderen Studien unter anderen Methoden verwendeten Frequenzspektren zu überprüfen. • Versuche zu den erforderlichen Schalldruckpegeln Wie bereits erwähnt, waren die verwendeten Schalldruckpegel gering und entsprachen nicht der musikalischen Praxis. Durch bessere technische Ausstattung sollte es möglich sein, den Schalldruckpegel der realen Situation nachzuempfinden und so zu genaueren Messergebnissen zu gelangen. • Frequenzanalysen von Musikinstrumenten Die mangelhafte Forschungslage zu Frequenzanalysen von Musikinstrumenten im Ultraschallbereich erschwert die Interpretation der Ergebnisse. Die Ausweitung der Klang- und Frequenzanalysen von Musikinstrumenten oder Orchesterklängen in den Ultraschallbereich wäre von großem Interesse. 4.2. Bedeutung der Ergebnisse für die musikpädagogische Arbeit Im Folgenden sollen nun die zentralen Ergebnisse auf ihre Bedeutung für die musikpädagogische Arbeit hin erörtert werden. Grundlage der Überlegungen bilden die Inhalte der interdisziplinären Rezeptionsforschung die sich nach GEMBRIS mit der Wahrnehmung, dem Erleben und der Wirkung von Musik befasst und das Grundlagenwissen über das Musikhören und seine Wirkungen bereitstellt (vgl. GEMBRIS 1996). Die Auseinandersetzung mit dem `Nicht-Hören-Können´ lässt das `Hören-Können´ besser verstehen. Es führt zu einer größeren Sensibilität und zu einem Öffnen des Blicks auf neue Wege der Unterrichtskonzeption in der allgemeinen Musikpädagogik. ROEDERER beschreibt in seinen Physikalischen und psychoakustischen Grundlagen der Musik ebenfalls einen interdisziplinären Zugang zur Thematik: Versucht man die Wahrnehmung von Musik aus dem Blickwinkel der akustischen Informationsverarbeitung zu betrachten, finden sich drei Faktoren, die musikalisches Erleben bilden: • der augenblickliche Schwierigkeitsgrad der Erkennung von Schallmustern • die Treffsicherheit von Vorhersagen, die das Gehirn zur Beschleunigung dieses Erkennungsprozesses erstellt und • die Art der Assoziation, die durch Vergleich mit gespeicherter Information über früher gewonnene Eindrücke hervorgerufen wird 91 U. Stelzhammer-Reichhardt Diskussion Für ROEDERER ist demnach die Musikwahrnehmung „(…) sowohl durch die Eigenschaften eines angeborenen neuronalen Mechanismus (primäre Verarbeitungsvorgänge) als auch durch kulturelle Einwirkung (gespeicherte Botschaften und erlernte Verarbeitungsvorgänge) bestimmt (…)“ (ROEDERER 2000, 18). Der Reiz musikalischen Erlebens liegt im Entdecken von Symmetrien, Regelmäßigkeiten, Überraschung im plötzlichen Wechsel von vertrauten musikalischen Parametern, Erkennen von Wiederholungen und Prinzipien wie Ordnung und Veränderung. Dieses musikalische Erleben bezieht sich sowohl auf Parameter mit Kurzzeitcharakter (Erkennen von Klangfarben, tonale Erwartungen) wie auch auf länger dauernde Strukturen wie Melodieverlauf oder Metrum (vgl. ROEDERER 2000, sowie Kapitel 2.1.1.). Steht in diesem Sinne die Interpretation des Schallreizes und die Erfahrung mit demselben im Zentrum musikalischen Erlebens, treten die reinen auditiven Fähigkeiten zur Musikwahrnehmung in den Hintergrund. Die individuelle Verarbeitung von Musik steht über den physikalischen Hörmöglichkeiten (Audiogramm) des Einzelnen. Dies trifft für Menschen, die von Gehörlosigkeit und Schwerhörigkeit betroffen sind, ebenso zu, wie für Hörende (vgl. GRUHN 2005). Eingehende Wahrnehmungen knüpfen neue neuronale Verbindungen, alte Verbindungen lösen sich auf. Hören ist also nicht gleich zuhören. Im Englischen findet diese Unterscheidung viel deutlicher statt, nämlich im Wort `hear´ für hören im Sinne des physikalischen Vorgangs und `listen´ für zuhören im Sinne einer Aufmerksamkeitszuwendung. Während es sich beim Hören um den rein physiologischen Vorgangs der Schallwahrnehmung des Hörorgans handelt, bedeutet zuhören die Verarbeitung von Schallsignalen, die eine Mitarbeit des Gehirns voraussetzt. Der Hirnforscher Hellmut PETSCHE spricht deshalb bei der Musikverarbeitung von einem „hochkreativen Vorgang“ (PETSCHE 1999, o. Seitenangabe). Sowohl im Kapitel Multisensorik als auch im vorgestellten Forschungsprojekt konnte gezeigt werden, dass die menschliche Hörwahrnehmung nicht nur auf Reize des Hörorgans zurückgreift. Um eintreffende Reize zu bewerten, werden auch im Falle voll funktionsfähiger Sinnesorgane immer auch andere Sinneseindrücke als Kontrollinstanz mit einbezogen. Materialeigenschaften von Gegenständen zum Beispiel wer- 92 U. Stelzhammer-Reichhardt Diskussion den durch den Klang ebenso wie durch das Aussehen und durch das Fühlen der Oberfläche, durch den Widerstand beim Drücken usw. erfasst. Bei teilweisem oder vollständigem Ausfall eines Sinnesorgans, in der vorliegenden Arbeit des Hörorgans, kommt den verbleibenden Sinnesorganen eine besondere Aufmerksamkeit zu. Schon in sehr frühen pädagogischen Ansätzen war die Bedeutung des Vibrationsempfindens im Bewusstsein der Pädagogen und Therapeuten. GLENNIE weist in ihren Überlegungen zur Musikwahrnehmung darauf hin, dass im Italienischen das Wort `sentire´ hören und `sentirisi´ fühlen meint. Die Begriffe hören und fühlen haben den gleichen Wortstamm. Vibration ist für GLENNIE gefühlter Klang (vgl. GLENNIE 2005). Aber nicht nur der Tieftonbereich ist von Interesse. Das obere Ende des Hörfeldes blieb lange Zeit wenig beachtet. Erfahrungen aus der musikpädagogischen Praxis in der Arbeit mit gehörlosen und schwerhörigen Kindern geben jedoch interessante Hinweise darauf. In der vorliegenden Arbeit konnten die Beobachtungen der Musikpädagogen (vgl. Kapitel 1.3.) nun erstmals in einen physiologischen und physikalischen Zusammenhang gebracht werden. 4.2.1. Reflexion der Ergebnisse im besonderen musikpädagogischen Kontext Noch nicht im Ultraschallbereich aber doch im Hochtonbereich entwickelte die Firma Audiva in Zusammenarbeit mit der Universität Magdeburg einen Hochtontrainer. Der Hochtontrainer verstärkt die hochfrequenten Schallanteile und überträgt die so veränderte Musik via Knochenleitungskopfhörer an die Schüler. Das System wurde im Rahmen eines Unterrichtsprogramms zur musikalisch-motorischen Ausbildung von gehörlosen und schwerhörigen Schülerinnen und Schülern erfolgreich erprobt: Bei den teilnehmenden Probanden konnte gegenüber einer Kontrollgruppe eine deutliche Leistungssteigerung in den Bereichen Bewegungskoordination und Rhythmisierungsfähigkeit gezeigt werden (vgl. HÖKLMANN 2005). Diese Studie steht für ein seltenes Beispiel, bei dem der Hochtonbereich Gegenstand der Forschung im Zusammenhang mit Gehörlosigkeit und Schwerhörigkeit ist. Ergänzend dazu werden nun Beobachtungen aus der musikpädagogischen Praxis vorgestellt, die zur Entwicklung der vorliegenden Arbeit geführt haben. Diese Beo- 93 U. Stelzhammer-Reichhardt Diskussion bachtungen werden anschließend unter Berücksichtigung der vorliegenden Untersuchungsergebnisse reflektiert: Claus BANG, dänischer Musiktherapeut stellt fest, „Hörgeschädigte Kinder lieben Dissonanzen; ihre Vibration können sie am besten fühlen“ (BANG 1975, ohne Seitenangabe). Dieselbe Beobachtung findet sich auch bei KATZ, der die Aussagen eines gehörlosen Probanden analysiert: “Ganz besondere Beachtung dürfte aber in den angeführten Sätzen die Feststellung verdienen, daß auch vom vibratorischen Musikgenuß her Chromatismen zur Auslösung kommen können“ (KATZ 1925, 292). Während einer Fortbildungsveranstaltung erzählt BANG vom Lieblingsinstrument eines taubblinden Mädchens. Es ist das Becken. Auch in meiner musikpädagogischen Arbeit wählen hochgradig hörbeeinträchtigte Kinder immer wieder gerne das Becken als ihr Lieblingsinstrument. Ein Kollege erzählt davon, dass seine Schüler akustische Instrumente, wie zum Beispiel das Klavier, den elektrischen Instrumenten, wie zum Beispiel dem Keyboard immer wieder vorziehen. Der hochgradig schwerhörig geborene und im Alter von 11 Jahren ertaubte Musiker Paul WHITTAKER erklärt den schwierigen Umgang mit elektronischen Instrumenten: „Gleichgültig, welchen Ton man auf dem elektronischen Keyboard anschlägt, das `Gefühl´ bleibt stets im Wesentlichen gleich“ (WHITTAKER 2006, 40). In einem Artikel in der Zeitschrift für Orgelbau ARS ORGANI wird vom Neubau einer Kirchenorgel speziell für eine Gemeinde von gehörlosen Gläubigen in Zürich berichtet. Dabei werden auch die musikalischen Erfahrungen der gehörlosen Mitglieder des Mimenchores, der `Mimenspieler´, beschrieben. „Es sind nicht nur die tiefen `donnernden´ Töne der Orgelbässe, sogar hohe, leise Gedacktpfeifen konnten noch wahrgenommen werden. Auch wussten oft die Spieler spontan zu sagen, welche Art Harmonien gespielt wurden“ (HUNZIGER 1972, 1700). Die Mitglieder des Mimenchores waren auch in die Entscheidungsfindung zur Neuanschaffung einer Orgel mit einbezogen. Versuche mit den Mimenspielern zeigten bald die eindeutige Überlegenheit der Pfeifenorgel gegenüber einer elektronischen Orgel. 94 U. Stelzhammer-Reichhardt Diskussion „Der Gesamtklang der Orgel wirkt sehr rund, machtvoll und edel. (…) Lautstärke ist weniger wichtig als Fülle“ (HUNZIGER 1972, 1701). WHITTAKER entdeckte noch als Kind seine Liebe zur Orgel. Obwohl er einräumt, dass die Orgel aufgrund der fehlenden Anschlagsvibration (wie beim Klavier der Fall) schwerer wahrzunehmen ist als andere Instrumente. WHITTAKER analysiert verschiedene Instrumente auf ihre Praxistauglichkeit für gehörlose und schwerhörige Schüler und kommt zu dem Schluss: „ – in jungen Jahren war ich fest überzeugt, dass es einige Instrument gibt, die ein Gehörloser schlicht nicht spielen könnte. Glücklicherweise bin ich in diesem Punkt eines Besseren belehrt worden“ (WHITTAKER 2006, 41; vgl. auch ROBBINS & ROBBINS 1980, HASH 2003). Dieser kleine Einblick in die musikalische Praxis zeigt, wie immer wieder ähnliche Beobachtungen in unterschiedlichen Arbeitsfeldern von unterschiedlichen Menschen gemacht wurden. Diese verschiedenen Beobachtungen fügen sich jedoch zu einem einheitlichen Bild zusammen wenn Musik unter strukturellen und physikalischen Gesichtspunkten betrachtet wird. Die strukturellen Parameter von Musik wie die Melodiestruktur, die Zeitstruktur, die vertikale harmonische Struktur und die dynamische Struktur, entstehen aus physikalischen Ereignissen. Luftteilchen die sich wellenartig verdichten und verdünnen, werden als Druckschwankungen vom Hörorgan ebenso wahrgenommen wie über Vibrationsrezeptoren in der Haut und im Körperinnern. Die Körperflüssigkeiten und unser Knochengerüst können in Resonanz mit den Druckschwankungen geraten. Unser Gehirn verarbeitet alle diese eintreffenden Reize. Es filtert, fasst zusammen, vergleicht, speichert und reagiert auf die Reize. Musik unter diesen Aspekten betrachtet, verliert die Enge der Vorstellung, Musik bestehe lediglich aus tiefen bis hohen Tönen, die unser Ohr aufnehmen und unser Hirn verarbeiten kann. Musik ist eine ganzkörperliche Erfahrung und unser Körper schöpft seine Informationen aus einem reichen Spektrum an eintreffenden Schallwellen. Das können tieffrequente Schwingungen ebenso sein wie hochfrequente. Während Erstere die Beurteilung der Zeitstruktur unterstützen, unterstützen Zweitere die Beurteilung von Klangfülle und Klangqualität. Die Bedeutung von Vibration für die Musikwahrnehmung im besonderen musikpädagogischen Kontext gilt als gesichert. Die Bedeutung des Hochton- und Ultraschallbereiches war bislang noch wenig im Bewusstsein. Im Folgenden deshalb die Interpre- 95 U. Stelzhammer-Reichhardt Diskussion tation der Ergebnisse in Bezug auf die in Kapitel 1.3. vorgestellten praktischen Erfahrungen und Beobachtungen in der musikpädagogischen Arbeit mit gehörlosen und schwerhörigen Kindern: • Die Bevorzugung von akustischen Instrumenten gegenüber elektronischen wird zum einen in der geringeren Anschlagsvibration liegen, die elektronische Instrumente aufweisen (vgl. WHITTAKER, oben). Zum anderen im reicheren Klangspektrum durch die Fülle von Obertönen und vor allem durch Differenz- und Kombinationstöne wie sie auf elektronischem Wege (noch) nicht herstellbar sind. Ultraschallreiche Klänge unterstützen die Klangfülle maßgeblich und heben in besonderer Weise die Klangqualität an (vgl. OOHASI 2000). • Zur bevorzugten Auswahl von Instrumenten deren Klangspektrum subjektiv außerhalb des gemessenen Hörfeldes liegt: Die besondere Sensibilität von gehörlos geborenen bzw. früh ertaubten Menschen für Ultraschall ist eine mögliche Erklärung für die oft beobachtete Auswahl von Becken, Gong und anderen hoch klingenden Instrumenten. Ultraschall verliert auf dem Luftweg jedoch rasch an Schallenergie. Evelyn GLENNIE setzt ihre Schüler gerne mitten zwischen die Musiker ins Orchester. Hier ist die Schallenergie sehr stark und alle Frequenzanteile können auf die Schüler einwirken. Sie können in den Klänge baden. Diese intensiven Erlebnisse sind wichtige musikalische Erfahrungsbereiche. • Vorliebe für dissonante Klänge und Reibeklänge: Naturklänge die durch Reibung entstehen dürften ebenfalls sehr ultraschallreich sein. Hinweise darauf finden sich in den Naturklängen des Regenwaldes. Das ultraschallreiche Klangspektrum des Regenwaldes beruht auf den Tönen, die Insekten (z. B. verschiedene Heuschreckenarten) mit ihren Flügeln erzeugen (vgl. MONTEALEGRE 2006) Die in anderen Ultraschallforschungsprojekten verwendete Gamelanmusik gilt ebenfalls als sehr ultraschallreich. Die wichtigsten Instrumente darin sind Trommeln und Gongs. Bei Instrumenten, deren Töne durch Reibung erzeugt werden (Streichinstrumente), konnte ebenfalls ein Ultraschallspektrum gezeigt werden (vgl. BALZER 2004, OOHASHI 2000, WICKE 2006). • Zur Problematik von Tonträgern: Ähnliche Einschränkungen, die elektronische oder elektrische Instrumente aufweisen, sind auch auf Tonträger zu übertragen. Hinzu kommt der der verminderte Dynamikbereich, der das musikalische Erleben einschränkt. Während ein Sinfonieorchester Schallpegelschwankungen 80 dB und mehr zwischen Pianissimo und Fortis- 96 U. Stelzhammer-Reichhardt Diskussion simo erreicht, beträgt der Dynamikbereich bei der Schallplatte rund 40 dB, beim Tonband immerhin schon 65 dB (vgl. DAVID 1988). Der Dynamikbereich von Hörgeräten und Cochlearimplantaten ist ebenfalls eingeschränkt (vgl. Kapitel 2.2.2.1.). Für Träger von Hörhilfen kommt es folglich zweimal zu einer Einschränkung des Dynamikbereiches. In früheren Jahren, als mein Arbeitsraum mit einem tragbaren StereoRecorder ausgestattet war, konnte ich bemerken, dass sich die Schüler, egal ob schwerhörig oder gehörlos, von Musik via Tonträger immer schnell wieder abwandten. Erst seit qualitativ hochwertigste Raumlautsprecher mit einem individuell regelbaren Mischpult unsere Musikanlage bilden, sind zumindest die schwerhörigen Schüler wieder gerne beim Tanzen nach Musik vom Tonträger dabei. Die gehörlosen Schüler ziehen nach wie vor das Musizieren mit und das Bewegen zu live gespielter Musik vor. Ein weiterer Aspekt ist der eingeschränkt abgespeicherte Frequenzbereich von unter 20 kHz bei digitalisierten Musikaufnahmen, also CD-Aufnahmen (vgl. DAVID 1988). Die erhöhte Sensibilität für Ultraschall wird bislang bei CD-Aufnahmen nicht berücksichtigt. 4.2.1.1. Exkurs: Musik und Sprache – Hörschall und Ultraschall. Gemeinsamkeiten und trennende Aspekte: Hier sei nochmals auf die Unterschiede von Sprache und Musik sowie auf die Unterschiede von Hörschall und Ultraschall verwiesen (vgl. Kapitel 2.2.2. und 3.1.). Es wäre ein falscher Schluss von einer erhöhten Sensibilität für Ultraschall auf eine mögliche Lautsprachförderung bei Gehörlosigkeit durch Musiktherapie mittels Ultraschall rückzuschließen. Es ist weder geklärt welche Mechanismen bei der Ultraschallwahrnehmung zum Tragen kommen, noch welche Verarbeitungspfade beschritten werden. In der vorliegenden Ultraschallstudie konnte eine Synchronisierung zwischen EEG und dem Rhythmus des Ultraschallsignals in wenigen hörenden und einigen gehörlosen Probanden gefunden werden. Dieser Befund unterstreicht die wesentliche Bedeutung der Zeitstruktur in der Musik als tragendes Element in allen Schallbereichen. Die sensible Auswahl von Musikinstrumenten unter Berücksichtigung der möglichen Frequenzspektren auch im Hochton- und Ultraschallbereich kann gehörlose und schwerhörige Schüler zu einem tieferen und intensiveren Klangerlebnis führen, das in weiterer Folge die musikalische und persönliche Entwicklung positiv anregt. Die 97 U. Stelzhammer-Reichhardt Diskussion weit verbreitete Meinung, je massiver die Hörbeeinträchtigung desto tief klingender müssten die verwendeten Instrumente sein, konnte durch die Studie nicht bestätigt werden. Vielmehr sind die Qualität und Intensität eines Klanges und der Reichtum seines Frequenzspektrums ausschlaggebend für die Wahrnehmung. Die Befunde lassen keine Rückschlüsse auf die Sprachwahrnehmung zu. 4.2.2. Reflexion der Ergebnisse im allgemeinen musikpädagogischen Kontext Was können nun die Beobachtungen im besonderen musikpädagogischen Kontext für die allgemeine Musikpädagogik bedeuten? Maria SPYCHIGER weist immer wieder auf die Wichtigkeit des kritischen Umgangs mit Studienergebnissen hin. Sie nennt 12 Punkte, die methodische Schwachstellen von musikbezogenen Studien aufzeigen. Einer davon ist das Problem der „Post-hoc Erklärung zur Bedeutung von Ergebnissen“ (SPYCHIGER 2002, 18), also die Problematik der falschen Schlüsse in Bezug auf Ursache und Wirkung. Auch KAISER betont die Grenzen der Transformation neurobiologischer Forschungs- und Sachstände in musikpädagogisches Denken. Er räumt jedoch ein, dass musikpädagogisches Denken „nicht gegen neurowissenschaftliche Befunde oder an ihnen vorbei erfolgen“ kann (KAISER 2004, 38). Die Erforschung musikbezogener Lernprozesse ist Teil des empirisch-analytischen Forschungsansatzes der Musikpädagogik und zählt zu den interdisziplinären Forschungsbereichen der Hirnforschung, Psychologie und Pädagogik (vgl. KRAEMER 2004). Musikbezogene Lernprozesse sind nur dann möglich, wenn musikalische Erfahrungen gemacht werden können. Musik zu erfahren schließt die Musizierpraxis ebenso mit ein, wie das Hören und Fühlen von sowie das Nachdenken über Musik (vgl. HELMS et. al. 2005). SPYCHIGER und KAISER ermahnen zur Vorsicht im Umgang mit musikbezogenen Forschungsergebnissen. Welchen Erkenntnisgewinn kann die Musikpädagogik trotzdem aus den vorliegenden Befunden ziehen? Die Studie zur Ultraschallwahrnehmung konnte bestätigen, dass der Mensch eine Sensibilität für Schallereignisse, die außerhalb des Hörfeldes liegen, aufweist. Dieser Befund fordert die Musikpädagogik heraus, ihre Aufmerksamkeit auf einen besonderen Aspekt der Musikwahrnehmung zu lenken. Nämlich die Bewusstmachung von multisensorischen Wahrnehmungsvor- 98 U. Stelzhammer-Reichhardt Diskussion gängen als Basis für musikalisches Erleben und Lernen. Einen kleinen Ausschnitt der multisensorischen Wahrnehmung bildet die Perzeption von Ultraschall. Obwohl die Sensibilität für Ultraschall bei gehörlosen Probanden deutlicher nachzuweisen war als bei hörenden Probanden, sprechen die Befunde dafür, dass auch für den Hörenden die Anteile von Ultraschall im musikalischen Frequenzspektrum für die Beurteilung der Klangqualität von Bedeutung sind. Es ist wieder Evelyn GLENNIE, die darauf aufmerksam macht, dass das normal funktionierende Hörorgan eine sehr dominante Rolle in der Wahrnehmung spielt. Dieser Umstand täuscht oft darüber hinweg, dass Hören dennoch ein sehr komplexer vielsinniger Vorgang ist. “The various processes involved in hearing a sound are very complex but we all do it subconciversly so we group all these processes together and call it simply listening” (GLENNIE 2005, ohne Seitenangabe). Wenn auch in vielen Untersuchungen zur Entwicklung der Hörverarbeitung und Hörwahrnehmung besondere Frequenzspektren im Tiefton- oder Hochtonbereich nicht berücksichtigt wurden, so gilt doch als gesichert, dass der Hörsinn nicht von Geburt an vollständig ausgebildet ist, sondern, „dass es zur Entwicklung eines voll funktionsfähigen Hörsinns akustischer Stimulation bedarf“ (SPITZER 2004, 156). Dabei werden die akustischen Reize aber nicht einfach aufgenommen und als Einzelinformationen gespeichert, sondern nach Regeln untersucht und geordnet in Kategorien abgespeichert. Je vielsinniger eine Erfahrung ist, umso umfangreicher und genauer werden die angelegten Kategorien und Regelsysteme erstellt und umso ausgefeilter die sinnliche `Feinabstimmung´ unserer Hörwahrnehmung. Wie auch SPITZER betont, kann kein noch so guter elektrisch erzeugter Ton diese sinnlichen Erfahrungen natürlich erzeugter Töne ersetzen. „Beginnen Kinder zu musizieren, so sollten sie Töne so leibhaft wie möglich erleben. Die Luft aus den eigenen Lungen, das Vibrieren der Saiten an den Fingern oder einfach das Hören der eigenen Stimme sind wichtige Erlebnisse, die nur sehr abgeschwächt oder gar nicht durch elektronische Klangerzeugung nachgeahmt werden können“ (SPITZER 2004, 333). Während in der frühen Kindheit diesem Bedürfnis nach vielsinnigen Erfahrungsfeldern in der musikpädagogischen Interaktion in Kindergärten, Eltern-Kind-Gruppen oder in der musikalischen Früherziehung noch Raum gegeben wird, verändern sich 99 U. Stelzhammer-Reichhardt Diskussion die musikpädagogischen Angebote mit Schuleintritt stark in Richtung kognitive Leistungen (vgl. SPYCHIGER im Druck) Ortwin NIMCIK weist in einem Artikel zum Musik lernen in der Schule auf die Problematik der mangelnden Kontinuität, der mangelnden Musizierpraxis und Überfrachtung des Musikunterrichts mit Musiktheorie hin. Er fordert eine Neukonzeption des Musikunterrichts und eine Auseinandersetzung mit der Frage, wie musikalisches Lernen auf Seiten der Schülerinnen und Schüler stimmig fortschreitend aufzubauen ist: „Für eine notwendige Neukonzeption bedarf es an dieser Stelle unabdingbar der verstärkten Berücksichtigung von Erkenntnissen der Musikpsychologie und der neurobiologischen Forschung. Wesentlich dabei ist der Blick auf die altersspezifischen Entwicklungsfähigkeiten musikalischer Erfahrung und auf das musikalische Lernen sowie die daraus resultierenden Orientierung des Unterrichts an den wissenschaftlichen Erkenntnissen über Erwerb und kontinuierlichen Aufbau musikalischer Vorstellungen“ (NIMCZIK 2001, 3). Ein Teil der musikalischen Erfahrung ist ein bewusster Umgang mit dem Hören und eine Hörerziehung. WICKEL und HARTOGH berichten von einem didaktischen Konzept aus den 1970er Jahren, dass sich verstärkt diesem Thema widmete. „Auditive Wahrnehmungserziehung will im Kindergarten und in der Schule der akustischen Reizüberflutung entgegentreten und Kinder und Jugendliche zu einem bewussten Hören erziehen. In den 1970er Jahren wurden diese didaktische Konzeption in der Musikpädagogik entwickelt und sogleich kontrovers diskutiert, da der Gegenstand des Musikunterrichts in der Schule nicht auf Musik beschränkt, sondern auf alle auditiv wahrnehmbaren Phänomene erweitert werden sollte“ (WICKEL und HARTOGH 2006, 120). In diesem Zusammenhang findet sich in der Literatur der Begriff Soundscape. Er wird in unterschiedlichen Zusammenhängen verwendet. In der Bedeutung von Geräuschkulisse, als auch im Sinne einer Klanglandschaft verstanden, taucht er in der NewAge-Musikszene als Kompositionselement ebenso auf, wie im Rundfunk als Gestaltungsansatz unkonventioneller Radiomacher. Soundscape findet sich als Gestaltungsmittel im Hörspiel ebenso wieder wie in der Verbindung mit auditiver Wahrnehmungserziehung oder im Projektkreis Schule des Hörens, als wichtiger didaktischer Bereich der Musikerziehung. Allen diesen Bewegungen und Initiativen ist gemein, die 100 U. Stelzhammer-Reichhardt Diskussion Bedeutung des (Zu)Hörens aber auch die Notwendigkeit des Hören-Lernens in das öffentliche Bewusstsein zu heben (vgl. FRISIUS 1973, STROH o. Jahresangabe, WERNER; 2006). Nach einer ersten Welle in den 1970er und 1980er Jahren konnte sich die Ideen der Soundscape-Bewegung nicht im allgemeinen Bewusstsein verfestigen. In gegenwärtigen Unterrichtskonzepten finden sich Aspekte der Soundscape-Bewegungen in didaktischen Nischen wie Klangexperimente im Zusammenhang mit Instrumentenkunde und Auseinandersetzung mit Alltags-Schall beziehungsweise musikbezogene Alltagstätigkeiten, Hinführung zu neuerer Musik (Avantgarde) und im Themenbereich musikalischer Parameteranalyse oder in der Projektarbeit (vgl. DIETZE 2000, 92 und http://www.uni-oldenburg.de/musik-for/didaktik/blatt6.rtf (Stand 05/2006)). Eine vermutlich unbewusste Anknüpfung an dieses Thema fand 2004 Thomas Riedelsheimers Film Touch the Sound. A sound journey with Evelyn Glennie. Und obwohl sich hier der Themenkreis zwischen Hören und Nicht-Hören-Können schließt, steht im Film nicht Glennies hochgradige Hörbeeinträchtigung im Mittelpunkt. „Ich wollte herausarbeiten, dass Töne und Klänge mehr sind als nur ‚hörbare’ Erfahrungen. Sie sind spürbar, sie schwingen in uns, sie beeinflussen und verändern uns. Natürlich ist ein Mensch, der Töne mehr fühlt als hört, in diesem Zusammenhang besonders interessant“ (RIEDELSHEIMER 2004, ohne Seitenangabe). `Besonders interessant´ ist in diesem Zusammenhang auch die Beschreibung einer gehörlosen jungen Schülerin aus Venezuela. In der Fernsehreportage Singende Hände im März diesen Jahres (vgl. BOHUN 2007) besucht Stefan BOHUN eine Schule der im Nordwesten Venezuelas liegenden Stadt Barquisimeto, in der gehörlose Schülerinnen und Schüler Instrumente erlernen und in einem Gehörlosen-Chor in Gebärdensprache singen. BOHUN begleitet einige Chormitglieder im Alltag. Eine etwa 17-jährige junge Frau dirigiert leidenschaftlich gerne, sie wird bei Probearbeiten vom Fernsehteam begleitet und interviewt: „Die Musik ist sehr eindrucksvoll für mich. Ich bekomme dabei Herzrasen. Ich spüre die Musik am ganzen Körper. Das Orchester ist so groß, so viele Leute. Der Professor hilft mir, wenn sich das Tempo ändert. Das Dirigieren ist körperlich anstrengend. B-e-e-t-h-o-v-e-n (Eigennamen werde in der Gebärdensprache meist buchstabiert, Anmerkung der Verfasserin), ich bewundere seine 101 U. Stelzhammer-Reichhardt Diskussion Musik, sie ist so stark. Diese Streicher, diese Bläser, wenn ich das höre, berührt es mich ganz tief drinnen“ (zitiert nach BOHUN 2007). Diese junge Schülerin lässt den Zuseher teilhaben an ihrer Art des Musik Hörens. Es ist ein sehr sinnlicher, ein vielsinniger Zugang. Die vorliegende Studie und die vorangestellten Überlegungen konnten bestätigen, dass Musikwahrnehmung nicht nur die Wahrnehmung aus dem Hörfeld betrifft, sondern einen multisensorischen Vorgang darstellt. Um musikpädagogisch tätig zu werden, um Musik zu vermitteln, müssen deshalb multisensorische Angebote im Zentrum des Handeln stehen. Musik in seinem vollen Frequenzspektrum erfahrbar zu machen bedeutet, auch für den hörenden Schüler Möglichkeiten für einen vielsinnigen Zugang zu Musik zu schaffen. Eine intensive Auseinandersetzung mit selbst gespielter oder live gehörter Musik ist dabei unumgänglich. Hörbeispiele von digitalisierten Tonträgern wie Compactdisc und Audioformate stellen immer nur eine flache Abbildung der musikalischen Wirklichkeit dar, niemals die musikalische Wirklichkeit selbst. Nach GRUHN erfolgt musikalisches Lernen jedoch in hohem Maße durch möglichst vielfältige neuronale Repräsentationen: „Hören und Verstehen werden umso intensiver und lebendiger sein, je mehr unterschiedliche Repräsentationen aktiviert werden können. (…) Das Ziel musikalischen Lernens müsste also darauf gerichtet sein, multiple Repräsentationen zu ermöglichen und verschiedenartige Spuren und Pläne anzulegen (…), damit Musik als Musik auf vielfältige Weise erfahren und verstanden werden kann“ (GRUHN 1998, 174). Musik mit allen Sinnen erleben ist die Basis für ein umfassendes Musikverständnis. Oder wie Joseph BEUYS (1921 – 1986) es ausdrückte: „Kunst ist Denken mit dem ganzen Körper“. In Anlehnung an diesen Gedanken, muss es auch für Musik als künstlerische Ausdrucksmittel heißen: Musik ist Denken mit dem ganzen Körper. Die Aufgabe der Musikpädagogik ist es, dies zu vermitteln. 102 U. Stelzhammer-Reichhardt Zusammenfassung 103 5. Zusammenfassung Einen naturwissenschaftlichen Zugang zum Phänomen der Musikwahrnehmung innerhalb eines musikpädagogischen Kontexts aufzuzeigen, ist Inhalt der vorliegenden Untersuchungen. Bisherige Forschungen zur Wahrnehmung und Verarbeitung von Schall- bzw. Klangereignissen beziehen sich oftmals auf ein voll funktionsfähiges Hörorgan. Was aber bleibt von Musik übrig, wenn das Ohr als Sinnesorgan teilweise oder vollständig ausfällt? In früheren Untersuchungen wurde auf die Wahrnehmungsmöglichkeit von Ultraschall in hörenden und unter bestimmten Voraussetzungen in gehörlosen Probanden hingewiesen. Aufbauend auf diese Studien wurde in der vorliegenden Arbeit die kortikale Reaktion auf modulierte Ultraschallsignale in einer Versuchgruppe mit gehörlosen und hochgradig schwerhörigen Probanden und einer Kontrollgruppe mit hörenden Probanden untersucht. Hirnstrommessungen mittels Elektroenzephalogramm und Messungen psycho-physiologischer Parameter wurden mit Hilfe eines Computerprogramms ausgewertet und anschließend interpretiert. Insgesamt nahmen 23 Probanden an der Untersuchung teil. In beiden Gruppen konnten Korrelationen zwischen den Ultraschallsignalen und den Messungen des Elektroenzephalogramms gefunden werden. Dabei zeigte die Versuchgruppe (gehörlos und hochgradig schwerhörig) im Vergleich zur Kontrollgruppe (hörend) eine erhöhte Sensibilität gegenüber den Ultraschallsignalen. Die psycho-physiologischen Messungen brachten keine ausreichenden Ergebnisse. Insgesamt konnten frühere Untersuchung bestätigt werden, die zeigen, dass Ultraschall für die Musikwahrnehmung von Bedeutung ist. Detailergebnisse unterstützen die Theorie, dass Ultraschall nicht über den herkömmlichen Weg der Hörbahn aufgenommen wird, sondern noch nicht geklärten Wahrnehmungsmechanismen unterliegt. Da nicht bei allen Probanden Reaktionen auf Ultraschallsignale gefunden werden konnten, sind weiterführende Studien zu Resonanzfrequenzen und Schalldruck von Interesse. Die Ergebnisse zeigen, dass gehörlose und hochgradig schwerhörige Menschen alternative Zugangsweisen zur Musik finden können. Sie unterstützen weiters jene musikpädagogischen Ansätze, die einen multisensorischen Zugang zur Musik in den Mittelpunkt des pädagogischen Handelns stellen. U. Stelzhammer-Reichhardt Zusammenfassung 104 Summary Objects: Science on music perception deals very often with audible sounds and a fully functional acoustic organ. What about profoundly deaf and music? Described skills of ultrasound perception in hearing human should be tested in profoundly deaf. Methods: In a pilot study we investigated the reaction on modulated sound pressure ultrasound signals. The electroencephalography records and the measurements of psycho-physiological parameters were assessed with software. Results: 23 subjects in two groups have been evaluated. Both the normal hearing and the profoundly deaf have shown correlations between the ultrasound signals and the measurements of the electroencephalograph. A higher sensibility to the ultrasounds signal was shown in the profoundly deaf. The measurements of psychophysiological parameters didn’t show any results. Conclusion: The results corroborate the theory that ultrasound perception doesn’t use the usual pathway of hearing. No all of the subjects showed a reaction to the used resonance frequency of 28 kHz. For these reason it is necessary to discover optimal frequency of resonance and sound pressure level in further studies. Nevertheless these investigations support the theory of a music pedagogic approach which shows a multi sensory access in the center of music pedagogic acting. U. Stelzhammer-Reichhardt Literaturverzeichnis 105 6. Literaturverzeichnis ALTENMÜLLER, Eckart (1995): Gehör. Zentrale Verarbeitung. In: FINSCHER, Ludwig (Hrsg.): Musik in Geschichte und Gegenwart. Sachteil 3, 2. neubearbeitete Ausgabe, Kassel: Bärenreiter, 1093-1104 ALTENMÜLLER, Eckart (2000): Apollo in uns: Wie das Gehirn Musik verarbeitet. In: ELSNER, Norbert und LÜER, Gerd (Hrsg.): Das Gehirn und sein Geist. Göttingen: Wallstein, 87-104 ALTENMÜLLER, Eckart (2002): Musik im Kopf. In: Gehirn und Geist. Zeitschrift Spektrum der Wissenschaft, 1/2002, 18-25 BALZER, Hans-Ullrich, Pietzko, A., Bigalke, K. D. (2002): Untersuchung zur Charakterisierung der vegetativ-nervalen Reaktion von Hunden und der vegetativnervalen Wechselwirkung zwischen Hund und Hundeführer mittels noninvasiver Messung von Hautpotentialen. In: Berl. Münch. Tierärztl. Wochenschr. (BMTW) Heft 7/8, 115/2002, 241-246 BALZER, Hans-Ullrich (2004): Versuchsreihe Ultraschallfrequenzanteile von Violintönen, Forschungsnetzwerk Mensch und Musik, unveröffentlicht BALZER, Hans-Ullrich (2007): Untersuchungsmethode der dynamischen Kreuzkorrelation (KKF). Manuskript, unveröffentlicht BANG, Claus (1975): Musik durchdringt die lautlose Welt. In: Musik + Medizin. No 9/1975, Neu Isenburg: Verlag Musik & Medizin BANG, Claus (1978): Ein Weg zum vollen Erlebnis und zur Selbstverwirklichung für gehörlose Kinder. In: WOLFGART, Hans (Hrsg.): Das Orff-Schulwerk im Dienste der Erziehung und Therapie behinderter Kinder. 1978/2.Aufl., Berlin: Marhold, 147-163 BANG, Claus (1984): Eine Welt von Klang und Musik. In: Hörgeschädigtenpädagogik. 38.Jg. (2)1984, 77-88 BERGLUND, B., Hassmen, P., Soames-Job, R. F. (1996): Sources and effects of low-frequency noise. In: J. Acoust. Soc. Am. (JASA) 99 (5), 2985-3002 BERNSTEIN, Leonhard (1979): Musik die offene Frage. Dt. Ausgabe, WienMünchen-Zürich-Innsbruck: Verlag Fritz Moden BIRBAUMER, Nils & SCHMIDT, Robert (1999): Biologische Psychologie. 4. Aufl. Berlin: Springer BOENNINGHAUS, Hans-Georg und LENARZ Thomas (2004): Hals-Nasen-OhrenHeilkunde. 12. Aufl. Heidelberg: Springer BOHUN, Stefan (2007): Singende Hände. Reportage aus der ORF-Reihe „Am Schauplatz“. Erstsendung am 20.03.2007 http://orf.at (Stand 03/2007) U. Stelzhammer-Reichhardt Literaturverzeichnis 106 BOUCSEIN, W. (1988): Elektrodermale Aktivität. Heidelberg: Springer BREUER, Hans (1992): dtv-Atlas zur Physik. Bd. 1, 3. Aufl. München: Deutscher Taschenbuchverlag BROCKMEIER, J. (2002): Musikhören mit CI – eine Studie. In: Schnecke. Nr. 38; 14. Jg. 37-38 BROCKMEIER, S. J., Grasmeder, M. L., Vischer, M., Mawaman, D. Baumgartner, W.D., Stark, T. Müller, J. Braunschweigt, T., Arnold, W. (2004): Comparison of musical activities by cochlear implant users. International Congress Series. Volume 1273, 11/2004, 205-207; http://www.ics-elsevier.com (Stand 02/2005) BROSCHART, Jürgen, Tentrup, Isabelle, Ellingmann, Stephan (2003): Der Klang der Sinne. In: Geo 11/2003, 55-88 BRUHN, H., OERTER, R., RÖSING H. (1993): Musik und Psychologie – Musikpsychologie. In: BRUHN, OERTER und RÖSING (Hrsg.): Musikpsychologie – Ein Handbuch. Reinbek bei Hamburg: Rowohlt BRUHN, H. (1993): Tonpsychologie – Gehörpsychologie – Musikpsychologie. In: BRUHN, OERTER und RÖSING (Hrsg.): Musikpsychologie – Ein Handbuch: Reinbek bei Hamburg: Rowohlt BRUHN, H. (2000): Zur Definition von Rhythmus. In: MÜLLER, K., ASCHERSLEBEN G. (Hrsg.): Rhythmus. Ein interdisziplinäres Handbuch. Bern: Huber, 41-56 BURMESTER (2007): Produktbeschreibung - JET4. In: http://www.burmester.de/produktlinien/lautsprecher-961-infos.html (Stand 01/2007) BÜCHLER, Michael, Lai, W., Diller, N. (2005): Musik hören mit dem Cochlea - Imp lantat – Lust oder Frust. In: http://www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005) CARTER, Rita (1999): Atlas Gehirn: Entdeckungsreisen durch unser Unterbewusstsein (Mapping the mind). Aus dem Engl. übers. von SCHICKERT, H., München: Schneekluth CORSO, J.F. (1963): Bone-conduction thresholds for sonic and ultrasonic frequentcies. In: J. Acoust. Soc. Am. 35/1963, 1738-1743 DAVID, Edward E. jr. (1988): Aufzeichnung und Wiedergabe von Klängen. In: Die Physik der Musikinstrumente. Heidelberg: Spektrum der Wissenschaft Verlagsgesellschaft mbH & Co, 150-160 DIEROFF, H. G., und ERTL H. (1975): Some Thoughts on the Perception of Ultra sound by Man. In: Arch. OtoRhinoLaryng. 209/1975, 277-290 U. Stelzhammer-Reichhardt Literaturverzeichnis 107 DIETZE, Lena (2000): Soundscapes – Klanglandschaften. Soundwalks – Klangspaziergänge. In: HUBER, L. und ODERSKY, E. (Hrsg.): Zuhören – Lernen – Verstehen. Braunschweig: Westermann, 92-103 FERNER, Katharina und STELZHAMMER-REICHHARDT, Ulrike (2004): „Es hat so gut getan …“– Musik und Sprache für Familien mit hörbehinderten Klein—Kindern – Bericht einer Projektwoche. In: Orff-Schulwerk-Information. Nr. 73, Winter 04, 26-32 FLACH, M., Hofmann, G., Ertl, H., Knothe, J. (1978): Objektivierung der Hörempfindungen im Ultraschallgebiet mittels evozierter Potentiale (ERA) – Measurements of Hearing Sensation in Ultrasound Range by Electrical Response Audiometry (ERA): In: Laryng. Rhinol. 57/1978, Stuttgart: Thieme-Verlag, 680-686 FLACH, M. und HOFMAN, G. (1980): Ultaschallhören des Menschen: Objektivierung mittels Hirnstammpotential. In: Laryng. Rhinol. 59/1980, Stuttgart - New York: Georg Thieme Verlag; 840-843 FORUM BESSER 01/2007). HÖREN (2007): http://www.forumbesserhoeren.de (Stand: FÖDERMAYR, Franz (1996): Klangfarbe. In: FINSCHER, Ludwig (Hrsg.): Musik in Geschichte und Gegenwart. 2. neu bearbeitete Ausg. Sachteil 5, Kassel: Bärenreiter, 138-170 FUJIMOTO, K., Nakagawa, S., Tonoike, M. (2005): Nonlinear explanation for bone conducted ultrasonic hearing. In: Hearing Research 204/2005, 210-215 FUJIOKA, T., Kakigi, R., Gunji, A., Takeshima, Y. (2002): The auditory evoked magnetic fields to very high frequency tones. In: Neuroscience. Vol. 112, Issue 2, 18., 6/2002, 367-381 FRICKE, Jobst (1960): Über subjektive Differenztöne höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hören. Kölner Beitrag zur Musikforschung, Bd. XVI, Regensburg: Bosse FRIEDRICH, Wolfgang (2001): Momel singt Lieder in einfacher Sprache. Donau wörth: Auer-Verlag FRISIUS, Rudolf (1973): Musikunterricht als auditive Wahrnehmungserziehung. In: Musik und Bildung 1/1973 http://www.musikpädagogikonline.de/unterricht/netzspezial/reflexion/frisius/index.html (Stand 05/07) GAZZANIGA, M. S., Ivry, R. und Magnun, G. R. (2002): Cognitive Neuroscience: The Biology of the Mind. 2. Auflage, Norton GAAB, N., Gaser, C., Zaehle, T., Jankcke, L., Schlaug, G. (2003): Functional anatomy of pitch memory – an fMRI study with sparse temporal sampling. In: NeuroImage 19/2003, 1417-1426 U. Stelzhammer-Reichhardt Literaturverzeichnis 108 GAVREAU, V. (1948): Audubillite de sons de frequence elevee. In: Compt Rendu 226, 2053-2054 GEMBRIS, Heiner (1996): Rezeptionsforschung. In: DECKER-VOIGT, Hans-Helmut (Hrsg.) Lexikon Musiktherapie. Göttingen: Hogrefe 321-326 GFELLER, K., Olszewski, C., Rychener, M., Sena, K., Knutson, J.F., Witt, S., Mecpherson, B. (2005): Recognition of “Real-World” Musical Excerpts by Co chlear Implant Recipients and Normal-Hearing Adults. In: Ear and Hearing, Vol. 26 (3), June 2005, 237–250 GLENNIE, Evelyn (2005): Evelyn´s Hearing. In: http://www.evelyn.co.uk/hearing.htm (Stand 03/2005) GROSSBACH, Michael und ALTENMÜLLER, Eckart (2002): Neurophysiologische Forschungsansätze zur Zeitverarbeitung in der Musik. In: GRUHN, Wilfried (Hrsg.): Aspekte musikpädagogischer Forschung. Kassel: Gustav Bosse Ver lag, 109-125 GRUHN, Wilfried (2005): Der Musikverstand. Neurobiologische Grundlagen des musikalischen Denkens, Hören und Lernens. 2. neu überarbeitete Auflage, Hildesheim: Georg Olms Verlag HASH, Phillip M. (2003): Teaching instrumental music to deaf and hard of hearing students. In: RIME – Research and Issues in Music Education. Vol. 1/No. 1, 9/2003 HAUS, Reiner (2002): “Spiel doch mal…“ Musiktherapie als Hilfe, das Hören zu lernen bei Kindern mit Cochlea-Implantat. In: Musiktherapeutische Umschau 23, 1/2002; 37-45 HELLBRÜCK, Jügen und ELLERMEIER, Wolfgang (2004): Hören. Physiologie, Psychologie und Pathologie. 2. Aufl., Göttingen: Hogrefe HELMHOLTZ, H. (1870): Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik. 3. Ausgabe, Braunschweig: Verlag von Friedrich Vieweg und Sohn HELMS, Siegmund, Schneider, R. und Weber, R. (Hrsg.) (2005): Lexikon der Musik pädagogik. Sachteil, Mainz: Bosse HINDEMITH Paul (2000): Unterweisung im Tonsatz Bd. 1 Theoretischer Teil. Neue erw. Aufl. Bd.1, Mainz: Schott HOFMANN, G., Diroff, H. G., Flach, M. (1980): Beitrag zur Frage der Ultraschallperzeption bei Gehörlosen. Ultrasound perception in deaf patients. In: Laryng. Rhinol. 59/1980, Stuttgart: Thieme-Verlag, 163-165 U. Stelzhammer-Reichhardt Literaturverzeichnis 109 HÖKELMANN, Anita (2005): Musikorientiertes motorisches Lernen bei gehörgeschädigten und gehörlosen Kindern. In: http://www.ttz.unimagdeburg.de/scripts/fokat/visitenkarte.idc?Nr=737 (Stand: 08/2005) HOTH, S. und LENARZ, T. (1994): Elektrische Reaktions-Audiometrie. Berlin: Springer-Verlag HOSOI, H., Imaizumi, S., Sakaguchi T., Tonoike, M., Murata, K.(1998): Activation of the auditory cortex by ultrasound. In: The Lancet, Vol. 351, Issue 9101, 14. February 1998, 496-497 HUMER, Petra (2004): Musik & Gehörlosigkeit. Protokoll der 1. Tagung der Arbeitsgemeinschaft Musik und Hörbeeinträchtigung in Linz, Februar 2004, unveröffentlicht HUNZIGER, Paul (1972): Die neue Orgel in der Gehörlosenkirche zu Zürich. In: Ars Organi. Zeitschrift für das Orgelwesen. Heft 40, Juni 1972, Berlin: Verlag Merseburger IMAIZUMI, S., Hosoi, H., Sakaguchi, T., Watanabe, Y., Sadato, N., Nakamura, S., Waki, A., Yonekura, Y. (2001): Ultrasound activates the auditory cortex of profoundly deaf subjects. In: Neuroreport Vol. 12 (3), 3/2001, 583-586 KAISER, Hermann J. (2002): Wieviel Neurobiologie braucht die Musikpädagoik? Fragen-Entwürfe-Verständigungsversuche. In: PFEFFER, M., VOGT, J. (Hrsg.): Lernen und Lehren als Themen der Musikpädagogik. Sitzungsbericht 2002 der wiss. Sozietät Musikpädagogik, Münster: LIT, 16-41 KANDEL, Eric R. (Hrsg.), (1995): Essentials of Neural Science and Behaviour, New York: McGraw KATZ, D. und RÉVÉSZ, G. (1926): Musikgenuss bei Gehörlosen (Ein Beitrag zur Theorie des musikalischen Genusses). In: Zeitschrift für Psychologie 99, 289– 323 KAYSER, C., Petov, C., Augath, M., Logothetis, N. (2005): Integration of touch and sound in auditory cortex. Pressemitteilung Max Planck Gesellschaft/18. Oktober 2005. In: http://www.kyb.mpg.de/publication.html?publ=3549 (Stand: 10/ 2005) KAISER, Hermann J. (2004): Wieviel Neurobiologie braucht die Musikpädagogik? Fragen – Entwürfe - Verständigungsversuche. In: PFEFFER, Martin und VOGT, Jürgen (Hrsg.): Lernen und Lehren als Themen der Musikpädagogik. Sitzungsbericht 2002 der wissenschaftlichen Sozietät Musikpädagogik Münster (LIT), 2004, 16-41 U. Stelzhammer-Reichhardt Literaturverzeichnis 110 KIEFER, J., Tillein, J., Ilberg, C. von, Pfenningsdorff, T., Stürzbecher, E., Klinke, R., Gstöttner, W. (2002): Fundamental aspects and first clinical results of the clinical application of combined electric and acoustic stimulation of the auditory system. In: KUBO. T., TAKAHASHI, Y. and IWAKI, T. (eds.): Cochlear Implants - an Update. The Netherlands: Kugler Publications, The Hague KOELSCH, S., Gunter, T. C., Yves von Cramon, D., Zysset, S., Lohmann, G., Fiderici, A. D. (2002): Bach Speaks: A Cortical „Language-Network” Serves the Processing of Music. In: NeuroImage 17. doi:10.1006/nimg 2002, 956-966 KOELSCH, S., Kasper, E., Smmler, E., Schulze, K., Gutner, T., Friderici, A. D. (2004a): Music, language and meaning: brain signatures of semantic processing. In: Nature Neuroscience. 3/2004 Volume 7 Nr. 3, 302-307 KOELSCH, S., Wottfoth, M., Wolf, A., Müller, J., Hahne, A. (2004b): Music perception in cochlear implant users: an event-related potential study. In: Clinical Neurophysiology 115/2004, 966-972 KOELSCH, S., Fritz, T., Schulze, K., Alsop, D., Schlaug, G. (2005a): Adults and children processing music: An fMRI study. In: NeuroImage. 25/2005, 1068–1076 KOELSCH, S. und SIEBEL, W. A. (2005b): Towards a neural basis of music perception. In: Trends in Cognitive Sciences. Vol. 9 No 12, 12/2005 KOLLMANN, Christian (2006): Der Ultraschall in der Natur. http://www.meduniwien.ac.at/zbmtp/people/kollch1/download/usnatur.pdf (Stand: 09/06) In: KONG, Y.-Y., Cruz, R., Jones, J. A., Zeng, F.-G. (2004): Music Perception with Temporal Cues in Acoustic and Electric Hearing. In: Ear and Hearing. Vol. 25 (2), April 2004, 173-185 KRAEMER, Rudolf-Dieter (2004): Musikpädagogik – eine Einführung in das Studium. Forum Musikpädagogik. Band 55, Augsburg: Wißner-Verlag KRATOCHVIL, Helmut (2006): Die Sprache der Elefanten. Forschungsprojekte des Tiergartens Schönbrunn. In: http://www.zoovienna.at/elep_aku.html (Stand 10/06) KRUMHANSL, Carol L. (2000): Rhythm and Pitch in Music Cognition. In:Psychologi cal Bulletin Vol. 126, Issue 1, 1/2000, 159-179 LANGBAUER, William R. Jr., Payne, K.-B., Charif, R.-A., Rapaport, L. (1991): African Elephants Respond to Distant Playbacks of Low-Frequency Conspecific Calls. In: Journal of Experimental Biology, 157/1991, 35-46 LEHFELDT, Dr. Wilhelm (1973): Ultraschall kurz und bündig - Physikalische Grundlagen und Anwendungen. Würzburg: Vogelverlag U. Stelzhammer-Reichhardt Literaturverzeichnis 111 LEHNHARDT, Marty (1991): Human ultrasonic speech perception. In: Science, July 1991/5 Vol. 253, 82-85 LEHNHARDT, Marty (2003): Ultrasonic Hearing in Humans: Applications for Tinnitus Treatment. In: International Tinnitus Journal, Vol. 9, No. 2, 2003 LEHNHARDT, Marty (2005): Where´d You Get those Ultrasonic Peepers? Vortrag ASA/NOISE-CON 2005 Meeting. 19. Oct., Minneapolis LEONHARDT, Annette (2002): Einführung in die Hörgeschädigtenpädagogik. 2. Aufl., München-Basel: Reinhardt-Verlag LEONHARDT, H. (1990): Histologie, Zytologie und Mikroanatomie des Menschen. Thieme: Stuttgart, 343-350. LEVANEN, S., Jousmaki, V., Hari, R. (1998): Vibration-induced auditory-cortex activation in a congenital deaf adult. In: Curr. Biol., July 1998, 16;8 (15), 869-872 LINDSAY, P. H. & NORMAN, D. A. (1981): Einführung in die Psychologie. Informationsaufnahme und -verarbeitung beim Menschen. Berlin: Springer MEYERS Lexikon (2007): Stichwort Leitstudie. In: http://lexikon.meyers.de/meyers/Leitstudie (Stand 10/2006) MONTEALEGRE, F., Morris, G. K., Mason, A. C. (2006): Generation of extreme ultrasonics in rainforest katydids. In: Journal of Experimental Biology 209/2006, 4923 – 4937 http://jeb.biologists.org/cgi/content/abstract/209/24/4923 (Stand: 01/2007) NAKAGAWA, S., Yamaguchi, M., Tonoike, M., Hosoi, H., Watanabe, Y., Imaizumi, S. (2000): Characteristics of bone-conducted ultrasound perception revealed by neuromagnetic measurements. In: http://www.biomag2000.hut.fi/papers/0129.pdf (Stand: 03/05) NISHIMURA T., Sakaguchi, T., Nakagawa, S., Hosoi, H., Watanabe, Y., onoike, M., Imaizumi, S. (2000): Dynamic range for bone conduction ultrasound. In: http://www.biomag2000.hut.fi/papers/0125.pdf (Stand: 03/05) NIMCZIK, Ortwin (2001): Musik lernen in der Schule? In: Musik und Bildung. 3/2001 OOHASHI, T., Nishina, E., Honda, M., Yonekura, Y., Fuwamoto, Y., Kawai, N., Maekawa, T., Nakamura, S., Fukuyama, H., Shibasaki, H. (2000): Inaudible high-frequency sounds affect brain activity: hypersonic effect. In: Journal of Neurophysiology American Physiological Society. Vol 83, 3548-3558 ORFF, Gertrud (1974): Die Orff-Musiktherapie. München: Kindler ORFF, Gertrud (1990): Schlüsselbegriffe der Orff-Musiktherapie. München: Psychologie Verlags-Union U. Stelzhammer-Reichhardt Literaturverzeichnis 112 PALMER, Russ (1997): Feeling The Music Philosophy - A New Approach in Under standing How People with Sensory Impairment Perceive and Interpret Music. Based on the paper presented at the third Nordic Conference of Music Therapy in Jyväskylä. Finland 12-15 June, 1997, unveröffentlicht PECH, Karel (1969): Hören im „optischen Zeitalter“, Karlsruhe: Verlag G. Braun PEIRCE, John R. 1985. Klang: Musik mit den Ohren der Physik. Heidelberg: Spektrum der Wissenschaft PETSCHE Hellmuth (1989): Die Bedeutung des EEG für die Musikpsychologie. In: PETSCHE Hellmuth (Hrsg.): Musik–Gehirn–Spiel. Beiträge zum vierten Her bert von Karajan-Symposium in Wien. Basel: Birkhäuser Verlag PETSCHE Hellmuth (1999): Was heißt „musikalische Begabung“? Vortragsreihe im Herbert von Karajan Centrum vom 02.12.1999 http://ww.karajan.org/de/centrum/events/index.asp (Stand: 10/2004) PLATH, Peter (1991): Allgemeine Grundlagen des Hörens und seiner Störungen. In: JUSSEN und H./CLAUSSEN, W.H. (Hrsg.): Chancen für Hörgeschädigte: Hilfen aus internationaler Perspektive. München: Ernst Reinhardt, 31–44 PLATH, Peter (Hrsg.), (1993): Lexikon der Hörschäden. Heidelberg: Edition Harmsen PLATTIG, Karl Heinz (1993): Aufbau von Außen-, Mittel- und Innenohr. In: BRUHN, OERTER & RÖSING (Hrsg.): Musikpsychologie. Ein Handbuch. Reinbeck: Rohwolt, 613-621 PLATTIG, Karl Heinz (1995): Das Gehör. Periphere Verarbeitung. In: FINSCHER, Ludwig (Hrsg.): Musik in Geschichte und Gegenwart. Sachteil 3, 2. neu bearbeitete Ausgabe, Kassel: Bärenreiter, 1077-1093 PRAUSE, Manuela-Carmen (2001): Musik und Gehörlosigkeit. Kölner Studien zur Musik in Erziehung und Therapie. PRIEL, Walter (Hrsg.) Köln-Reinkassel: Verlag Dohr PROFIT, Karl-Ludwig (2000): Evelyn Glennie - im Gespräch mit der Weltklasse- Per cussionistin. In: Hörpäd 1/2000, 40-45 PUTZER, Monika (2005): Mit den Ohren sehen. Mitschnitt eines Interviews in der Sendereihe „Vom Leben der Natur“ Ö1, 25.04.2005 – 29.04.2005, 8:55 Uhr bis 9:00 Uhr RICKEY (2006): In: http://www.deafreave.com/index.php (Stand 10/2006) RIEDELSHEIMER, Thomas (2004): Touch the Sound. A sound journey with Evelyn Glennie. Begleitheft zur DVD www.touch-the-sound.de (Stand 10/2006) ROBBINS, Carol, ROBBIINS, Clive (1980): Music for the hearing impaired & other special groups. Baton: Magnamusic U. Stelzhammer-Reichhardt Literaturverzeichnis 113 ROEDERER, Juan G. (2000): Physikalische und psychoakustische Grundlagen der Musik. 3. Aufl., Berlin: Springer-Verlag SACKS, Oliver (1992): Stumme Stimmen. Reise in die Welt der Gehörlosen. Reinbek bei Hamburg: Rowohlt SALMON, Shirley (2001): Wege zum Dialog – Erfahrungen mit hörgeschädigten Kindern in integrativen Gruppen. In: SALMON, Shirley und SCHUMACHER Karin (Hrsg.): Symposion Musikalische Lebenshilfe. Hamburg: Books on Demand SALMON, Shirley (2003): Spiellieder in der multi-sensorischen Förderung von Kin dern mit Hörbeeinträchtigungen. Diplomarbeit an der Leopold-FranzensUniversität, Innsbruck http://bidok.uibk.ac.at/library/salmon-dipl-hoerbeeintraechtigung.html (Stand: Okt. 2003) SCHMIDT, Robert F. (Hrsg.) (1985): Grundriß der Sinnesphysiologie. Heidelberger Taschenbücher, 5. Aufl., Berlin: Springer SCHMITHORST, Vincent J. und HOLLAND, Scott K. (2003): The effect of musical training on music processing: a functional magnetic resonance imaging study in humans. In: Neuroscience Letters 348 (2003), 65–68; http://www.elsevier.com/locate/neulet (Stand 06/2006) SCHRÜFER, E. (1990): Signalverarbeitung – Numeriesche Verarbeitung digitaler Signale. München: Hanser Verlag SHIBATA, Dean (2001): Brains of deaf people rewire do “hear” music. In: http://www.uwnews.org/article.asp?articleID=2730&Search=shibata (Stand: 11/2001) SILBERNAGEL, Stefan und DESPOPOULOS Aqamemnon (2003): Taschenatlas der Physiologie. 6. Aufl., Stuttgart: Georg Thieme SMARD-Watch-Handbuch (2000): I.S.F. Institut für Stressforschung GmbH (Hrsg.), Berlin-Charlottenburg SPITZER, Manfred (2004): Musik im Kopf: Hören, Musizieren, Verstehen und Erleben im neuronalen Netz. 4. korr. Nachdruck, Stuttgart: Schattauer SPYCHIGER, Maria (2002): Musikwirkungen von der Antike bis heute. In: GRUHN, Wilfried: Aspekte musikpädagogischer Forschung. Vortragsreihe im Wintersemester 2001/2002 und Sommersemester 2002. Basel: Gustav Bosse Verlag, 11-35 SPYCHIGER, Maria (im Druck): „Man kann nur aus dem Ärmel schütteln, was vorher hineingesteckt wurde“. Strukturen und Entwicklungen im Forschungsfeld des musikalischen Lernens. Erscheint als Eröffnungsbeitrag im Jahrbuch der Deutschen Gesellschaft für Musikpsychologie 2007 U. Stelzhammer-Reichhardt Literaturverzeichnis 114 STELZHAMMER, Ulrike (2006a): Zur Musikwahrnehmung bei hochgradiger Schwerhörigkeit und Gehörlosigkeit am Beispiel Ultraschall. In: Wiener Medizinsche Wochenschrift 156. Jahrgang/Supplementum 120/2006, 14 STELZHAMMER, Ulrike (2006b): Zwischen Musikpädagogik und Naturwissenschaft Einblicke in die Erforschung der Musikwahrnehmung des (hörbeeinträchtigten) Menschen. In: SALMON, S. (Hrsg.) 2006: Hören – Spüren - Spielen. Musik und Bewegung mit schwerhörigen und gehörlosen Kindern. Wiesbaden, Reichert Verlag STROH, Wolfgang Martin (o. Jahresangabe): Wiederbelebung der Auditiven Wahrnehmungserziehung durch die akustikökologische SoundscapeBewegung? Zum 75. Geburtstag von Ulrich Günther. In: http://www.uni-oldenburg.de/musik/texte/soundscape/soundscape.html (Stand: 04/2007) TREHUB, Sandra (2003): The developmental origins of musicality. In: Nat. Neuroscience 6, 669–673 THOMPSON, William F., Russo, F A., Quinto, L. (2006): Preattentive Integration of visual and auditory dimensions of music. In: Proceedings of the Second International Conference on Music and Gesture, RNCM, Manchester, UK (2023 July 2006) UDEN, A. VAN (1982): Rhythmisch-musikalische Erziehung. In: JUSSEN, H. und KRÖHNERT, O. (Hrsg.): Handbuch der Sonderpädagogik. Bd.3. Pädagogik der Schwerhörigen und Gehörlosen. Berlin: Marhold, 320-330 VINES, Bradley W., Krumhansl, C., Wanderley M. M., Levitin, D.J. (2006): Cross-modal interactions in the perception of musical performance. In: Cognition 101/2006, S. 80-113 http://www.elsevier.com/locate/COGNIT (Stand: 01/2007) VOGEL, Günter und ANGERMANN, Hartmut (1990): dtv-Atlas zur Biologie. 5. Aufl., München: Deutscher Taschenbuchverlag VONGPAISAL, Tara, Trehub, Sandra E., SCHellenberg E. G., Papsin, B (2004): Music recognition by children with cochlear implants. In: International Congress Series, Vol. 1273, 11/ 2004, 193–196 WAITE, Helen E (1991): Helen Keller, Anne Sullivan: Öffne mir das Tor zur Welt! Das Leben der taubblinden Helen Keller und ihrer Lehrerin Anne Sullivan. 3. Aufl. München: DTV WAYNER, Donna S. (ohne Jahresangabe): Mein Kind hat einen Hörverlust. Ein Ratgeber für Eltern. Informationsbroschüre der Fa. Phonak hearing systems, www.phonak.com WERNER, Hans U. (2006): Soundscape-Dialog. Landschaften und Methoden des Hörens. STIFTUNG ZUHÖREN (Hrsg.) Edition Zuhören. Bd. 5, Göttingen: Vandenhoeck & Ruprecht U. Stelzhammer-Reichhardt Literaturverzeichnis 115 WHITTAKER, Paul (2006): MATD – Music and the Deaf. In: SALMON, Shirley (Hrsg.): Hören-Spüren-Spielen Musik und Bewegung mit gehörlosen und schwerhörigen Kindern. Wiesbaden: Reichert Verlag, 31-44 WICKE, Peter (Hrsg.) (2006): Musik Lehrbuch S II, Gymnasiale Oberstufe. Berlin, Duden Paetec, WICKEL, Hans Hermann, HARTOGH, Theo (2006): Musik und Hörschäden. Grundlagen für Prävention und Intervention in sozialen Berufsfeldern. Weinheim und München: Juventa Verlag WINKLER, Klaus (1988): Einführung. In: SPEKTRUM DER WISSENSCHAFT: (Hrsg.): Die Physik der Musikinstrumente. Heidelberg: Spektrum der Wissen schaft WISOTZKI, Karl Heinz (1994): Grundriß der Hörgeschädigtenpädagogik. Reihe: Grundrisse der Sonderpädagogik. Bd. 4, Berlin: Edition Marhold YAGI, R., Nishina, E., Honda, M., Ooohashi, T. (2003): Modulatory effect of inaudible high-frequency sounds on human acoustic perception. In: Neurosci. Lett. 11/2003, 351(3), 191-195 YANG, D. (2005): The Study of Digital Ultrasonic Bone Conduction Hearing Aid. In: Engineering in Medicine and Biology Society - International Conference of the; 01.-04.09.2005, 1893-1896 ZACK, Omer (2006): Music and the Deaf. In: http://www.zak.co.il/deaf-info/old/music.html (Stand: 12/2006) ZENNER, Hans-Peter (2002): Beethovens Taubheit: "Wie ein Verbannter muß ich leben". In: Deutsches Ärzteblatt 99. Ausgabe 42, 10/2002, A 2762-2766