Dissertation

Werbung
Möglichkeiten der Musikwahrnehmung bei
Gehörlosigkeit und hochgradiger Schwerhörigkeit
– Studien zur Ultraschallwahrnehmung
Dissertation
zur Erlangung des Doktorgrades der Naturwissenschaften
an der Musikuniversität Mozarteum, Salzburg
eingereicht von
Mag.a art. Ulrike Stelzhammer-Reichhardt
Erstbegutachtung: Univ.-Prof. Dr.in Monika Oebelsberger, Mozarteum, Salzburg
Zweitbegutachtung: A.o. Univ.-Prof. Dr. Hans-Christian Bauer,
Paris-Lodron-Universität, Salzburg
Salzburg, im Juni 2007
Für Benedikt, Marie-Christine und Wolfgang
Dank
Für ihr Interesse und die Bereitschaft, sich auf mein Dissertationsthema einzulassen
sowie für die fachliche und persönliche Begleitung möchte ich mich ganz herzlich bei
UNIV.-PROF. DR.IN MONIKA OEBELSBERGER und A. O. UNIV.-PROF. DR. HANSCHRISTIAN BAUER bedanken.
Für die intensiven Diskussionen sowie für die Unterstützung und das Engagement
bei der Planung und Durchführung des Ultraschallprojektes bedanke ich mich
besonders bei UNIV.-PROF. DR. HANS-ULLRICH BALZER und bei den Kolleginnen
und Kollegen des Forschungsnetzwerkes Mensch und Musik.
Das vorliegende Forschungsprojekt hätte nicht ohne die Unterstützung der HNOAbteilung des St. Johanns Spitals Salzburg, unter der Leitung von UNIV.-PROF.
PRIM. DR. KLAUS ALBEGGER, entstehen können. Vor allem gilt mein Dank MAG.
ALOIS MAIR, der mich in die Geheimnisse der Audiologie eingeführt und die
Durchführung des Ultraschallprojektes begleitet hat. In diesem Zusammenhang
bedanke ich mich auch ganz herzlich bei meinen Probanden, die durch ihre Offenheit
und Bereitschaft an der Entstehung dieser Arbeit maßgeblich beteiligt waren.
Für anregende Diskussionen, die in der Phase der Themenentwicklung besonders
wichtig waren, bedanke ich mich bei EMER. O. PROF., DR. MED. HELLMUTH
PETSCHE und ASS.-PROF., DR. CHRISTIAN KOLLMANN.
Meiner Mentorin im Bereich Musik und Tanz in sozialer Arbeit und integrativer
Pädagogik MAG.A SHIRLEY SALMON danke ich für ihre beherzte Unterstützung
meiner Forschungsarbeit und ihr unermüdliches Engagement.
Nicht zuletzt möchte ich mich bei sehr persönlichen Wegbegleitern bedanken:
Meinem Mann DR. WOLFGANG STELZHAMMER danke ich für die anregenden
Gespräche zum Thema interdisziplinäres Denken, für die kritische Durchsicht des
Manuskriptes sowie für die partnerschaftliche Organisation des Familienalltages.
Für ihre Unterstützung und Begleitung bedanke ich mich von Herzen bei meiner
Familie und meinen Freunden, vor allem bei meinen Kindern MARIE-CHRISTINE
und BENEDIKT sowie bei MARIA STELZHAMMER und HERTHA DERFLINGER.
U. Stelzhammer-Reichhardt
Inhaltsverzeichnis
1
Inhaltsverzeichnis
1. Einleitung …..………………………………………………………………………….…3
1.1. Thema und Zielsetzung …………………………………………………………...3
1.2. Forschungsstand und Quellen ……………………………………………………7
1.3. Aufbau der vorliegenden Arbeit ………………………………………………....11
2. Vom Hören und Nicht-Hören-Können …………………………………………….....14
2.1. Musikwahrnehmung und Hörverarbeitung bei normalem Hörvermögen …...14
2.1.1. Musikalische Parameter ………………………………………..………….14
2.1.2. Auf dem Weg durch das Ohr …………………………………………..….17
2.1.3. Schaltstelle Cochlea ………………………………………………………..19
2.1.4. Über die Hörbahn zum Hörkortex …………………………………..…….21
2.1.5. Repräsentation und Neuroplastizität – Psychoakustik ………………….23
2.2. Musikwahrnehmung und Hörverarbeitung bei
beeinträchtigtem Hörvermögen …………………………………………..……..26
2.2.1. Formen der Hörbeeinträchtigung …………………………………………26
2.2.2. Musik und Sprache im Hörfeld ……………………………………………30
2.2.3. Hilfen beim Hören …………………………………………………………..31
2.2.3.1. Musik und Cochlea-Implantat ……………………………..…….33
2.2.3.2. Musik und Hörgeräte ……………………………………………..36
2.2.4. Forschungsinteressen ……………………………………………………...37
2.3. Multisensorik ……………………………………………………………………....40
3. Studien zur Ultraschallwahrnehmung ………………………………………………..47
3.1. Physikalische Grundlagen ……………………………………………………….47
3.1.1. Allgemeine Schall- und Schwingungsphänomene …………………...…47
3.1.2. Ultraschall nahe dem Hörfeld ……………………………………………..49
3.2. Entwicklung einer Fragestellung ………………………………………………..51
3.2.1. Allgemeine Forschungsgeschichte ……………………………………….51
3.2.2. Mechanismen der Ultraschall-Perzeption ………………………………..52
3.2.3. Ultraschall als Hörhilfe und Tinnitusmasker ……………………………..53
3.2.4. Ultraschall und Musikwahrnehmung – „Hypersonic Effekt“ ……………55
3.2.5. Fragestellung und Planung des vorliegenden Forschungsprojektes …57
U. Stelzhammer-Reichhardt
Inhaltsverzeichnis
2
3.3. Material und Methoden …………………………………………………………..60
3.3.1. Probanden …………………………………...……………………………...60
3.3.2. Geräte und Räume …………………………………………………………63
3.3.3. Versuchsverlauf …………………………………………………………….69
3.3.4. Auswertung ………………………………………………………………….71
3.3.4.1. Auswertung der EEG Daten ……………………………………..73
3.3.4.2. Auswertung der SMARD Watch Daten ………………………...76
3.4. Ergebnisse …………………………………………………………………………77
3.4.1. Ergebnisse der EEG Auswertung …………………………………………77
3.4.2. Ergebnisse der SMARD Watch Auswertung …………………………….85
4. Diskussion ……………………………………………………………………………….86
4.1. Interpretation der zentralen Ergebnisse ………………………………………….86
4.2. Bedeutung der Ergebnisse für die musikpädagogische Arbeit …………..……91
4.2.1. Reflexion der Ergebnisse im besonderen
musikpädagogischen Kontext ………………………………………….....93
4.2.1.1. Exkurs: Musik und Sprache – Hörschall und Ultraschall …….97
4.2.2. Reflexion der Ergebnisse im allgemeinen
musikpädagogischen Kontext ………………………………………….…98
5. Zusammenfassung – Summary ………………………………………………..……103
Literaturverzeichnis ………………………………………………………………………105
Lebenslauf ………………………………………………………………………………...116
Anmerkung:
Aus Gründen der Verständlichkeit und zugunsten des Leseflusses wird in der
vorliegenden Arbeit im Allgemeinen die männlich-neutrale Form grammatischer
Konstruktion verwendet. Bezieht sich eine Aussage explizit auf ein Geschlecht, wird
dies entsprechend angegeben.
U. Stelzhammer-Reichhardt
Einleitung
1. Einleitung
1.1.
Thema und Zielsetzung
`Alle Menschen werden Brüder´ so heißt es im Finalsatz von Beethovens 9. Sinfonie,
in dem er Friedrich Schillers Ode an die Freude verarbeitete. Seit 1985 von der Europäischen Gemeinschaft als offizielle Hymne angenommen, versinnbildlicht sie die
Einheit in der Vielfalt der gesellschaftlichen und sozialen Ordnungen. Doch als Beethoven seine letzte vollendete Sinfonie komponierte, lebte er bereits stark zurückgezogen von seinem sozialen Umfeld. Gezeichnet von der Belastung seiner Ertaubung.
Ludwig van Beethoven (1770 - 1827) litt ab seinem 28. Lebensjahr an beginnender
Schwerhörigkeit. Tinnitus (Ohrgeräusche), Sprachverständlichkeitsverlust, Hyperakusis (Lärmempfindlichkeit) und Hochtonverlust kamen bis zur völligen Ertaubung ab
1819 hinzu. Der Komponist und Dirigent Beethoven zieht sich aus der Welt der Hörenden zurück und äußert in seinen Briefen Suizidgedanken. Nur seine Musik rettet
ihn. Auch wenn er sie nicht mehr hören kann, ist sie in ihm lebendiger als je zuvor.
Herausragende Kompositionen wie die Missa Solemnis (Op.123) oder die bereits
erwähnte 9. Sinfonie (Op.125) entstanden nach Beethovens vollständiger Ertaubung
(vgl. ZENNER 2002).
Doch auch weniger prominente Menschen, die von Gehörlosigkeit oder hochgradiger
Schwerhörigkeit betroffen sind wollen Musik in ihrem Leben nicht missen. Einträge in
Diskussionsforen und Informationsseiten im Internet zum Thema Musik und Gehörlosigkeit geben einen ersten Einblick in die gegenwärtige Situation. Omer ZAK zum
Beispiel sammelt Zitate und Stellungnahmen gehörloser Musiker:
“William 'Bill' Harkness says at 11 Dec 1995: There's ear music, eye music,
and skin musics. (…) Although the hearing people are only familiar with one
type of music, the ear music. It's amazing that the hearing people think that
we, the DEAF, can't enjoy the sheer of music when in fact they're only confined themselves into thinking that there's only one type of music and we're
"lacking" as non-functional in this aspect because we can't hear the "ear" music as well as they can” (ZAK 1997, ohne Seitenangabe).
ZAK gibt zu bedenken, dass die Ausgangssituation von Spätertaubten und von Geburt oder früher Kindheit an Ertaubten völlig verschieden ist. Während Beethoven
3
U. Stelzhammer-Reichhardt
Einleitung
über viele Jahre Musik wahrnehmen konnte bevor er ertaubte, sind diese Erfahrungen taub geborenen Menschen nicht zugänglich:
“No discussion of the subject of music and the deaf is complete without mentioning Beethoven, the most famous deaf musician. Personally, I don't like
people holding him as a role model of what deaf persons can achieve. This is
because he was late-deafened adult and could hear, learn and appreciate music for several, several years before losing his hearing. Children who were
born deaf or got deafened before learning everything about music simply don't
have the background which Beethoven had and utilized to write his music. It is
matter of gamble to make them aspire to achieve what Beethoven achieved”
(ZAK 1997; ohne Seitenangabe):
Zu den frühen Beschreibungen zur Musikwahrnehmung gehörlos geborener Menschen gehören die Publikationen von und über die taubblinde Helen Keller. Sie beschreibt wie sie über den Vibrationssinn Musik wahrnimmt und genießt (vgl. KATZ
und RÉVÉSZ 1926; WAITE 1991). Auch andere gehörlose und hochgradig schwerhörige Menschen berichten immer wieder von ihren ganz besonderen Zugängen zur
Musik. Dabei spielt der ganze Körper, als Sinnesorgan das Musik wahrnehmen kann,
eine große Rolle.
Dass gehörlose Menschen in einer `Welt der Stille´ leben, widerlegt Oliver SACKS in
seinem Buch Stumme Stimmen in vielfältigen Beispielen:
„Taubgeborene erleben weder eine völlige `Stille´, noch klagen sie darüber
(…). Das sind nur unsere Projektionen, unsere Metaphern für ihren Zustand“
(SACKS 1992, 28).
In Europa gibt es vor allem in England eine aktive Musikszene innerhalb der Gehörlosenkultur. So treffen sich zum Beispiel gehörlose Rave-Musiker bei speziellen Rave-Partys für Gehörlose um auf der Bühne Musik und Gebärdensprache in künstlerischer Auseinandersetzung zu gestalten, oder wie im Szene-Jargon ausgedrückt, zu
`performen´:
„To all deaf rave people, you don't have to be hearing to enjoy music as you
can see... you can enjoy it visually or personally... it’s an amazing thing that
we as deaf people are getting the chance to perform and enjoy a small per-
4
U. Stelzhammer-Reichhardt
Einleitung
centage of what mainstream perfromers do...” (RICKEY 2006, ohne Seitenangabe).
Die zurzeit wohl populärste gehörlose Musikerin in diesem Zusammenhang ist Evelyn Glennie. Auch sie engagiert sich intensiv für die musikalische Förderung hörbeeinträchtigter Kinder und Jugendlicher. Im Unterschied zu anderen Organisationen
geht es ihr aber um die Professionalisierung gehörloser und schwerhöriger junger
Musikerinnen und Musiker. Nach ihrer Art des Hörens befragt, antwortet sie: Klang
ist vibrierende Luft und Hören eine spezialisierte Form der Berührung:
„Hearing is basically a specialized form of touch. Sound is simply vibrating air
which the ear picks up and converts to electrical signals, which are then interpreted by the brain. The sense of hearing is not the only sense that can do
this, touch can do this too” (GLENNIE 2005, ohne Seitenangabe).
Musik wird von vielen Autoren nicht als reines physikalisches Ereignis gesehen, sondern in einem weiteren Zusammenhang als Phänomen unterschiedlichster Ausprägungen und Ebenen betrachtet. BRUHN beispielsweise unterscheidet drei Daseinsebenen von Musik:
•
Musik als extern kodierte Information. Gemeint ist notierte Musik ebenso wie
mechanisch, analog oder digital gespeicherte Musik. Mit dieser Form von Musik beschäftigen sich die Musikwissenschaft, Musikpädagogik und Technik,
aber auch die Akustik und Informationstheorie.
•
Musik als akustische Struktur. Hier wird Musik als physikalisches Schallereignis betrachtet, das vor allem für die Physik, Akustik, Technik und Computertechnologie von Interesse ist.
•
Musik als Phänomen menschlichen Erlebens. Erst wenn Musik als physikalisches Schallereignis aufgenommen und im menschlichen Kortex repräsentiert
wurde, „existiert Musik als wahrgenommenes bzw. vorgestelltes Ereignis“.
(BRUHN, OERTER UND RÖSING 1993, 15) Mit dieser Ebene von Musik beschäftigt sich die Musikpsychologie aber auch die Musikpädagogik und Musiksoziologie.
In Bezug auf GLENNIE´s Auffassung von `Musik hören´, verschmelzen die zwei letzteren dieser Daseinsebenen von Musik beim Vorgang der Musikwahrnehmung. Akustische Struktur trifft auf den Menschen und wird zur Basis des Erlebens von Musik. In der vorliegenden Arbeit soll genau dieser Aspekt betrachtet werden. Nicht die
5
U. Stelzhammer-Reichhardt
Einleitung
Interpretation des menschlichen Erlebens von Musik steht im Mittelpunkt, auch nicht
akustische Struktur von Musik allein. Vielmehr geht es um den Schnittpunkt zwischen
Schallwellen als akustische Struktur und menschlichem Erleben. Welche Wahrnehmungsmöglichkeiten stehen dem Menschen zur Verfügung?
Die Suche nach einem Musikzentrum im Gehirn begann im 19. Jahrhundert. Als einzige Forschungsmethode stand zu dieser Zeit für derartige Fragen die neuropsychologische Methode der Läsionsstudien zur Verfügung. Die Wahrnehmungseinschränkungen nach Verletzung oder Erkrankung von Teilen des Gehirns ließen Rückschlüsse auf die eigentlichen Mechanismen des Gehirns ziehen. Ein ähnlicher Zugang stellt sich mit der Frage: Was bleibt von Musikwahrnehmung übrig, wenn die
Hörfähigkeit nur mehr eingeschränkt, oder nicht mehr vorhanden ist. Ist musikalischakustische Struktur mehr als regelmäßige Schallwellen im Frequenzspektrum von 20
bis 20 000 Hz?
Die Auseinandersetzung mit den Funktionsmechanismen und Einflussfaktoren der
Musikwahrnehmung bilden die Basis für die musikpädagogische und musiktherapeutische Arbeit. Durch die Zusammenarbeit von Musikpädagogik und Naturwissenschaft entstehen wertvolle Synergien die zur Diskussion beitragen und helfen die
jeweiligen Bereiche weiter zu entwickeln (vgl. STELZHAMMER 2006b).
Nicht nur BRUHN, auch andere Autoren weisen auf unzählige Überschneidungen
verschiedenster Disziplinen hin. Musik als gehörtes akustisches Ereignis beschäftigt
auch Teilbereiche der Audiologie, Anatomie, Histologie, Biochemie, Neurologie sowie
Teilbereiche der Musikpädagogik, Linguistik, Instrumentenbau und die Psychoakustik
als Teilgebiet der Wahrnehmungspsychologie (vgl. PECH 1969, HELLBRÜCK u.
ELLERMEIER 2004, BRUHN 1993):
„Die Kenntnis zur und über Musik ist (…) unglaublich verteilt, und je mehr man
weiß, umso stärker ist dieses Wissen in einer Weise verstreut, dass man große Mühe hat, sich eine Übersicht zu verschaffen“ (SPITZER 2004; 19):
Diese Mühe ist jedoch notwendig um die verschiedenen Disziplinen weiter zu entwickeln. Das Ausmaß an Spezialisierung ist bereits derart groß, dass in der weiteren
Spezialisierung der einzelnen Wissensgebiete weniger Potential liegt als in der Ver-
6
U. Stelzhammer-Reichhardt
Einleitung
netzung derselben. Leonhard BERNSTEIN spricht darüber in der ersten von sechs,
später als Buch erschienenen, Vorlesungen zum Thema Musik – die offene Frage:
„Das Wichtigste, das ich von Professor Prall – und überhaupt von Harvard –
mitgenommen habe, war vielleicht das Verständnis für interdisziplinäre Gültigkeiten: dass der beste Weg, ein Problem zu erkennen, in seinen Zusammenhängen mit einem anderen Wissensgebiet liegt. Ich halte demnach meine Vorlesungen in diesem Verständnis sich kreuzender Wissensgebiete; ich werde,
wenn ich über Musik spreche, dabei Streifzüge scheinbar unnützer Art auf die
Gebiete der Dichtkunst, der Sprachwissenschaft, der Ästhetik und – der Himmel steh mir bei – auch der Elementarphysik unternehmen“ (BERNSTEIN
1979, 11):
Ludwig van BEETHOVEN hielt 1802 in seinem Testament eine eindringliche Bitte an
seinen Arzt fest: „Sobald ich tot bin, (…) so bittet ihn in meinem Namen, daß er meine Krankheit beschreibe, (…) damit wenigstens soviel als möglich die Welt
nach meinem Tode mit mir versöhnt werde“ (zitiert nach ZENNER 2002,
2762).
Beethoven sucht nach Erklärungen für seine Hörbeeinträchtigung. Er will verstehen
und weiß zugleich, dass es zu seinen Lebzeiten keine Antwort auf seine Fragen geben kann. Aber er bittet seinen Arzt die Erforschung des Hörens - mit ihm selbst als
Forschungsobjekt - aufzunehmen, damit es den Menschen nach ihm besser ergehe.
Gehörlose Menschen zeigen uns ihren ganz besonderen Zugang zur Musik. Das
Phänomen des Musikhörens fordert in seiner Komplexität die unterschiedlichsten
Methoden zu seiner Erforschung. Einen naturwissenschaftlichen Zugang innerhalb
eines musikpädagogischen Kontexts zu finden und zu diskutieren ist Ziel dieser Arbeit.
1.2.
Forschungsstand und Quellen
Der Vorgang des Hörens und der Hörverarbeitung ist immer noch nicht gänzlich geklärt (vgl. WICKEL und HARTOGH 2006). Die Akustik als Naturwissenschaft findet
ihren Ursprung in Griechenland und in China. Pythagoras, dem die Entwicklung der
Notenskala zugeschrieben wird und Ling Lun, der im Auftrag des Kaisers von China
7
U. Stelzhammer-Reichhardt
Einleitung
Wissen über die Tonskala erwerben sollte, zählen zu den ersten bekannten Wissenschaftlern auf diesem Gebiet. Die von HELLBRÜCK und ELLERMEIER dargestellte
Geschichte des Hörens weist aber nicht nur auf antike Ursprünge hin, sondern auch
auf die Interdisziplinarität des Forschungsgebietes (vgl. HELLBRÜCK und ELLERMEIER 2004). Erkenntnisse aus der Hirnforschung, die die Hörverarbeitung und
die Fähigkeit des Zuhörens immer besser beschreiben, erweiterten die Forschungsgebiete der Psychoakustik in den letzten Jahren hin zur Neurologie.
„Im Hinblick auf das Hören und Machen von Musik ist die Kenntnis der dies
ermöglichenden neuronalen Maschinerie zwar nicht notwendig, der Musiker
wird aber dennoch vieles besser verstehen, wenn die physikalischen und physiologischen Grundlagen klar sind“ (SPITZER 2004, 49).
Ist das Hörvermögen beeinträchtigt, verändern sich die Bedingungen des Musikhörens. Je nach Art und Zeitpunkt des Auftretens der Hörbeeinträchtigung ergeben sich
völlig unterschiedliche Voraussetzungen. Verschiedenste technische Hilfsmittel erleichtern oder stören die Musikwahrnehmung. Der technische Fortschritt ist sehr groß
und muss mit jedem neu entwickeltem Hörgerät aufs Neue für den Einsatz beim Musikhören individuell erprobt werden, was bislang nicht von allen Hörgeräteherstellern
als Selbstverständlichkeit erachtet wurde. Erst in den letzten Jahren gehen Hörgerätehersteller auf besondere Bedürfnisse von Schwerhörigen und Gehörlosen ein und
versuchen die Bedingungen für das Musikhören durch technische Neuerungen zu
verbessern.
Eine erste umfassende Zusammenschau von Forschungsergebnissen im Bereich
Musik und Gehörlosigkeit gelang Manuela PRAUSE in ihrer Dissertation über „Therapeutische und pädagogische Aspekte der Verwendung von Musik bei gehörlosen
Menschen unter besonderer Berücksichtigung des angloamerikanischen Forschungsgebietes“ (vgl. PRAUSE 2001). Diese Berücksichtigung des angloamerikanischen Raumes ist vor allem deshalb wichtig, weil die USA im Gegensatz zum
deutschsprachigen Raum auf eine mehr als „hundertjährige kontinuierliche Erfahrung
auf diesem Gebiet“ zurückgreifen können (PRAUSE 2001, 17).
Seit Ende des 19. Jahrhunderts finden sich in der Literatur Beschreibungen von Musikunterricht für gehörlose und schwerhörige Menschen. Zu den musikpädagogischen Pionieren im deutschsprachigen Raum gehören Mimi Scheiblauer (Zürich),
8
U. Stelzhammer-Reichhardt
Einleitung
Karl Hofmarksrichter (Straubing) und Charlotte Ziegler (Wien). Eine Übersicht über
die deutschsprachigen musikpädagogischen Ansätze findet sich bei SALMON
(2003).
Der Einsatz von Musik und Bewegung fand vor Mitte der 1970er Jahre immer als
`zweckdienliches´ oder zweckbezogenes Konzept statt. Das heißt außermusikalische
Ziele, wie die Verbesserung der Lautsprache und die Schulung des Restgehörs,
standen im Mittelpunkt der musikpädagogischen Interventionen.
Mitte der 1970er entstehen im deutschsprachigen Raum Konzepte die nicht mehr
ausschließlich auf Hörtraining und Lautspracherwerb abzielen, sondern einen multisensorischen und integrativen Ansatz verfolgen wie zum Beispiel die Arbeit von Gertrud Orff: „Der Einsatz der musikalischen Mittel (…) ist so gestaltet, dass er alle Sinne
anspricht. Durch diese multisensorischen Impulse ist es möglich, auch da
noch anzusetzen, wo ein wichtiges Sinnesorgan ausfällt oder geschädigt ist“
(ORFF 1974, 9; vgl. auch ORFF 1990).
Daneben entstehen aber weiterhin zweckbezogen Konzepte wie beispielsweise jenes des dänischen Musiktherapeuten Claus BANG (vgl. BANG 1978). Seit den
1990ern gewinnen die von Shirley SALMON weiterentwickelten multisensorischen
und integrativen Ansätze wieder mehr an Bedeutung (vgl. SALMON 2001und 2003).
Weiterentwicklungen dieser Konzepte finden Unterstützung im europäischen Raum
durch EU-Projekte an Schulen und persönlichem Engagement einzelner Pädagogen
und Therapeuten (vgl. FERNER 2004, STELZHAMMER 2006b, FRIEDRICH 2001;
HUMER 2004).
Im angloamerikanischen Raum entwickelten sich parallel zu den zweckbezogen Konzepten immer auch `zweckfreie´ beziehungsweise künstlerische Konzepte. Das heißt
Konzepte, die nicht ein außermusikalisches Ziel - wie oben beschrieben - beinhalten.
Zum Beispiel Kunstformen die Musik mit neuen Tanzformen und (Gehörlosen)theater
in Verbindung setzen. Lebendiges Zeichen dafür sind Musikkurse die an den beiden
wichtigsten Zentren der amerikanischen Gehörlosenkultur (das Technical Institute in
Rochester, New York und die Gallaudet Universität, Washington D.C.) angeboten
werden. Neue Kunstformen sind unter anderem durch die Verbindung von Gesang
und Gebärdensprache entstanden. Unter `Sign-Lyric´ fallen Kunstformen wie die
Gestaltung von Gebärdenliedern, so genanntes `sign-singing´ und `song-signing´, die
auch in der musikpädagogischen Praxis immer mehr Eingang finden:
9
U. Stelzhammer-Reichhardt
Einleitung
„Durch die Einbeziehung gehörlosenkultureller Elemente (Gebärdensprache,
Mimik, Körpersprache u. a.) in vorhandene Kunstformen sind diese Innovationen als so genannte `Gehörlosenkunst´ innerhalb der Gehörlosenkultur entstanden“ (PRAUSE 2001, 264; vgl. auch SACKS 1988, FRIEDRICH 2001).
Rhythmisch-musikalische Erziehung wurde lange Zeit vor allem zur Verbesserung
der lautsprachlichen Fähigkeiten Gehörloser eingesetzt. Grund dafür sind Gemeinsamkeiten von Musik und Sprache. Parameter wie Rhythmus, Melodie, Phrase oder
Akzentuierung verhalten sich sowohl in der Musik als auch in der Sprache gleich (vgl.
KOELSCH et. al. 2002 und 2004a).
Publikationen zum Themenbereich Musik und Gehörlosigkeit sind sowohl im angloamerikanischen als auch im europäischen Raum bis in die 1970er beschreibende
Arbeiten und Einzelfallstudien. Erst seit den 1980er kommen auch empirische und
experimentelle Studien dazu (vgl. PRAUSE 2001).
Wenig Beachtung fanden bisher Forschungsberichte angrenzender Wissensgebiete
und multisensorische Forschungsansätze wie die des Radiologen Dean SHIBATA.
Das Forschungsteam um SHIBATA untersuchte die Wahrnehmungsverarbeitung von
Vibrationen bei Gehörlosen (vgl. SHIBATA 2001, LEVANEN et. al. 1998).
Die Auseinandersetzung mit derartigen Forschungsansätzen und die Frage - was
bleibt von Musikwahrnehmung übrig, wenn das menschliche Hörorgan als Rezeptionsmechanismus weitgehend ausfällt - führte zur weiteren Suche nach Forschungsansätzen die über Untersuchungen zum Hörschallbereich hinausgehen (vgl. STELZHAMMER 2006a S 14).
Neben den Überlegungen, dass tieffrequente und vibratorische Schallanteile unsere
Musikwahrnehmung beeinflussen (vgl. HELMHOLTZ 1870, GLENNIE 2005), wird
auch die Bedeutung von sehr hohen Schallanteilen für die Musikwahrnehmung immer wieder diskutiert (vgl. FRICKE 1960, OOHASHI 2000). Die Möglichkeiten der
Ultraschallwahrnehmung beim Menschen wurde erstmals in den 1940er Jahren vom
französischen Wissenschaftler Vincent GAVREAU vorgestellt und seither sehr unterschiedlich diskutiert (vgl. GAVREAU 1948). In den USA wurden in der Folge Hörhilfen auf der Basis von Ultraschallübertragung ebenso entwickelt wie so genannte Tinnitusmasker. Ein Tinnitusmasker ist eine Art Hörgerät, das störende Ohrgeräusche
durch Abstrahlung der gleichen Frequenz auslöscht bzw. maskiert und so Tinnituspa-
10
U. Stelzhammer-Reichhardt
Einleitung
tienten unter bestimmten Voraussetzungen zu einer Linderung verhelfen kann (vgl.
LENHARDT 2003).
In den 1980er Jahren wurde in Deutschland der Frage nachgegangen, ob Hörüberprüfungen (Audiogramme) in den Ultraschallbereich ausgeweitet werden sollen
(HOFMANN et. al. 1980, FLACH et. al. 1978).
Die Rolle von Ultraschall in der Musikwahrnehmung wurde auch von japanischen
Forschergruppen untersucht. OOHASI und andere untersuchten die Aktivierung des
Kortex in hörenden Probanden durch ultraschallreiche Musik (vgl. OOHASI 2000 und
FUJOMOTO et. al. 2005). Die Untersuchung von OOHASI bildete die Basis für die
Entwicklung eines eigenen Forschungsprojektes, das im Rahmen dieser Arbeit
durchgeführt wurde.
1.3.
Aufbau der vorliegenden Arbeit
In Anlehnung an die bereits vorgestellten musiktherapeutischen Konzepte von Claus
Bang und den multisensorischen Ansätzen von Shirley Salmon, begann die Verfasserin 1994 eigene Erfahrungen im Bereich Musik mit gehörlosen und schwerhörigen
Kindern zu machen. Die Rückmeldungen der Eltern, Frühförderinnen, Lehrerinnen
und Erzieherinnen waren bald sehr positiv. Dabei standen weniger die, in der Literatur oftmals beschriebene, Verbesserung der Lautsprache im Mittelpunkt. Vielmehr
fielen die positiven emotionalen Reaktionen der Kinder auf wie zum Beispiel Steigerung der Lebensfreude und Kommunikationslust oder die Intensivierung der ElternKind-Beziehung. Der positive Einfluss auf die Lautsprachentwicklung wie die Steigerung der Fähigkeit zur Stimmmodulierung oder die Verbesserung der Höraufmerksamkeit wurden aber auch in den Rückmeldungen genannt.
Auffallend an den Beobachtungen und Rückmeldungen ist dabei die Unabhängigkeit
vom Grad des Hörverlustes. Selbst Kinder mit hochgradigem Hörverlust zeigen Reaktionen auf Musikangebote. Neben stark vibratorischen Angeboten (Trommel, Klavier, Vibrationsliege) kommt dem Singen eine große Bedeutung zu, durch das sehr
oft eine Steigerung der (Hör)Aufmerksamkeit beobachtet werden kann.
11
U. Stelzhammer-Reichhardt
Einleitung
In Gesprächen mit Musikpädagogen und Musiktherapeuten die mit gehörlosen und
schwerhörigen Kindern und Jugendlichen arbeiten, tauchen immer wieder ähnliche
Beobachtungen auf:
•
Vorliebe für dissonante Klänge
•
Wahl von Instrumenten, deren Klangspektrum subjektiv außerhalb des gemessenen Hörbereiches des jeweiligen Kindes liegen
•
Vorliebe für `live´ bzw. `unplugged´ gespielte Instrumente sowie
•
wenig Interesse für Tonträger
Die bisherigen Beobachtungen erfolgten jedoch unstrukturiert, zufällig und beliebig.
Allgemein gültige oder gar wissenschaftliche Aussagen sind dadurch nicht möglich.
Manuela PRAUSE weist auf den allgemeinen Forschungsrückstand in diesem Themenbereich hin (vgl. PRAUSE 2001). So entstand die Idee, die Möglichkeiten der
Musikwahrnehmung bei hochgradiger Schwerhörigkeit bzw. Gehörlosigkeit zu untersuchen:
Die Funktionsmechanismen, die dem Musikhören zugrunde liegen, stehen in engem
Zusammenhang mit den Hörerfahrungen die ein Mensch im Laufe seines Lebens
macht. Es besteht ein großer Unterschied zwischen Menschen die taub geboren oder in früher Kindheit ertaubt sind, und Menschen die erst in einer späteren Lebensphase ertaubt sind oder von Schwerhörigkeit betroffen wurden.
In der vorliegenden Arbeit werden deshalb in Kapitel 2.1. die Funktionsmechanismen
des normalen Hörvermögens dargestellt. Bevor die anatomischen Gegebenheiten
des Ohres erläutert werden, werden die musikalischen und akustischen Parameter
vorgestellt. Der Weg des Schalls über die Cochlea bis hin zum auditorischen Kortex
führt zum Themenbereich Psychoakustik.
In Kapitel 2.2. steht die Beschreibung der verschieden Formen der Hörbeeinträchtigung und ihre Auswirkungen auf die Musikwahrnehmung im Vordergrund. Dabei werden auch verschiedene Hörhilfen und vorgestellt.
Neuere Forschungen aus dem Bereich der multisensorischen Musikwahrnehmung
(Kapitel 2.3.) führen hin zu einem Forschungsprojekt, das im Rahmen dieser Dissertation geplant und durchgeführt wurde und das im Anschluss in Kapitel 3 beschrieben wird. In Anlehnung an frühere Studien zur Wahrnehmung von Ultraschall wurde
eine weiterführende Pilotstudie mit hörenden und gehörlosen Probanden entwickelt
und durchgeführt. In der vorliegenden Arbeit werden zuerst die physikalischen
Grundlagen von Ultraschall erläutert. In einem historischen Abriss werden die Zu-
12
U. Stelzhammer-Reichhardt
Einleitung
sammenhänge von Ultraschall und Musik aufgezeigt und der aktuelle Stand der Forschung beschrieben. Die daraus entstandene Fragestellung führt zu Material und
Methoden des Forschungsprojektes. Die an 9 Versuchstagen durchgeführten Messungen an 23 Probanden wurden mit Hilfe von eigens dafür entwickelten Computerprogrammen ausgewertet.
Abschließenden werden die Ergebnisse des Forschungsprojekts in einen Zusammenhang mit den zuvor vorgestellten Möglichkeiten der Musikwahrnehmung gebracht. Dabei werden sowohl Konsequenzen für die Musikpädagogik im speziellen
Bereich, das heißt in der Arbeit mit hörbeeinträchtigten Menschen, als auch allgemeine musikpädagogische Konsequenzen diskutiert und erläutert.
Gehörlose Menschen interessieren sich für Musik, sie verbinden damit positive, aber
auch negative Gefühle. Musik berührt die Menschen über den hörbaren Schall hinaus. Musik ist vielleicht mehr als sein hörbares Frequenzspektrum. Der Frage nach
diesem `mehr´ soll im Folgenden nachgegangen werden.
13
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
14
2. Vom Hören und Nicht-Hören-Können
2.1. Musikwahrnehmung und Hörverarbeitung bei normalem Hörvermögen
An das Ohr dringen unaufhörlich Schallwellen. Im Gegensatz zum Auge kann das
Ohr nicht ruhen. Hörorgan und Gehirn be- und verarbeiten den Schall der kontinuierlich an unser Ohr dringt in der Form, dass wir schließlich einzelne Schallereignisse
heraushören oder aber auch aus unserer Wahrnehmung ausblenden können. Wie
bei der Verarbeitung von visuellen Eindrücken (hier werden rasch wechselnde Farbbzw. Lichtflecken vom Gehirn als Objekte und visuelle Ereignisse nach bestimmten
Funktionsprinzipien gestaltet) geschieht ähnliches beim Hören. Die über den Hörnerven eingehenden Impulse werden mit bereits gespeicherten Informationen verglichen
und in einem aktiven Gedächtnisprozess bewertet.
Um aus dem ständig ans Ohr treffenden Schallwellen überhaupt etwas heraushören
zu können bildet das Gedächtnis Gruppen, verbindet oder trennt eintreffende
Schallmerkmale, schafft es mit Hilfe von Habituierung (Lernschritt durch Gewöhnung
an einen Reiz) Wichtiges von Unwichtigem zu unterscheiden, ordnet mit Hilfe des
Langzeitgedächtnisses das Gehörte in einen kulturell geprägten Kontext und orientiert sich bei neuen, unbekannten Schalleindrücken an ähnliche Strukturen aus dem
jeden Tag reicher werdenden Schatz an Hörerfahrung.
2.1.1. Musikalische Parameter
Schall besteht, wenn er unser Ohr erreicht, aus Druckschwankungen der Luft. Diese
von einer Schallquelle ausgelösten Druckschwankungen breiten sich in der Luft aber
auch in Wasser und verschiedenen Materialien wellenförmig aus. Zeigen die entstandenen Schwingungen mehr oder weniger komplexe periodische Muster, nehmen
wir Töne und Klänge wahr. Aperiodische Schwingungen bzw. Schalle werden als
Geräusch wahrgenommen.
Die Zahl der Schwingung pro Sekunde wird als Frequenz bezeichnet mit der Einheit
Hertz (Hz). Schwingungen im Bereich von etwa 20 Hz bis 20.000 Hz führen zu einer
primären Hörwahrnehmung.
Natürliche Töne enthalten immer komplexe Schwingungsmuster die aus einer Grundfrequenz und deren ganzzahligen Vielfachen, den Ober- oder Partialtönen bestehen.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
15
Abb. 2.1. aus: www.tonalemusik.de/bild/schwingung.gif (Stand 10/2006)
Wie im schematisierten Beispiel in Abbildung 2.1. dargestellt, besteht ein Ton oder
Klang aus mehreren Schallkomponenten. Schwingung 1 stellt die Grundschwingung
dar. Schwingung 2, 3, und 4 sind ganzzahlige Vielfache der Grundschwingung und
sorgen je nach ihrer Intensität unter anderem für die unterschiedlichen Klänge verschiedener Musikinstrumente. Zusammengesetzt entsteht ein für das jeweilige Instrument charakteristisches Frequenzmuster (Gesamtschwingung).
Die Einordnung von Tönen in ein Tonhöhensystem gelingt durch zwei Komponenten
eines Tones: Zum einen durch sein Chroma, die zyklisch wiederkehrende Komponente des Frequenzspektrum. Mit Hilfe des Chromas lässt sich der Ton bestimmen
(zum Beispiel als `A´). Aber erst durch die Helligkeit (linear kontinuierliche Komponente des Frequenzspektrums) lässt sich bestimmen in welcher Oktave das `A´ erklingt.
Wenn zwei oder mehr Klänge gleichzeitig auftreten, wird nicht die Summe der Einzelklänge wahrgenommen. Es kommt zu Wechselwirkungen, die die Gesamtwahrnehmung beeinflussen - wie Verdeckungseffekte, Schwebungen und Kombinationstöne die physikalisch nicht existieren, sondern die unser Gehirn entstehen lässt.
Durch das Zusammenwirken der verschieden musikalischen Parameter Ton-, Melodie- und Zeitstruktur sowie harmonische und dynamische Struktur entsteht Musik
(vgl. PEIRCE 1989, FÖDERMAYR 1996, ROEDERER 1977).
Töne, die in einer bestimmten zeitlichen Abfolge gehört werden, ergeben eine Melodie. Liegen die zeitlichen Abstände zwischen zwei Tönen zu weit auseinander, kann
das Gehirn keine Melodie mehr erkennen. Hierbei spielen die Kapazitäten des Arbeitsgedächtnisses eine Rolle.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
16
Ein weiterer musikalischer Parameter ist die Zeitstruktur beziehungsweise das Rhythmusempfinden. Töne werden unterschiedlich lang dargeboten und ergeben zeitliche
Einheiten. Diese werden als solche vom Gehirn gruppiert. So empfinden wir bei gleicher Melodie einen Walzerrhythmus völlig anders als einen Marschrhythmus. Das
Gedächtnis unterstützt die Musikwahrnehmung besonders dann, wenn die zeitlichen
Gruppierungen nicht durch einen realen Ton geformt werden.
„Man nimmt einen Rhythmus auch dann wahr, wenn ihm gar kein physikalisches Ereignis entspricht, wie dies beim Jazz nicht selten der Fall ist. Der
Taktschlag, das Metrum, muss vom Hörer sozusagen gedacht werden, um
dann die Synkopen als Abweichung vom Metrum überhaupt wahrnehmen zu
können“ (BRUHN 2000, 41).
Mit `harmonische Struktur´ als musikalischer Parameter ist die parallele Verarbeitung
von gleichzeitig erklingenden Einzeltönen gemeint, wie es bei mehrstimmiger Instrumental- oder Chormusik der Fall ist. Ergänzend dazu kommen noch dynamische
Strukturen. Das heißt, dass innerhalb eines Musikstückes die Schallereignisse
schneller und langsamer, lauter und leiser werden. Ein und dieselbe Melodie kann in
kurzen Einzeltönen - Stakkato - oder aber in ineinander übergehenden Tönen – Legato - gespielt werden. Das Ohr und das Gehirn verarbeiten alle diese musikalischen
Parameter gleichzeitig und im Wechselspiel (vgl. KRUMHANSL 2000).
Neben der analytischen Verarbeitung von Musik wird diese auch emotionell verarbeitet. Beim Analysieren und Abspeichern von Musik ist immer auch das limbische System und somit die emotionale Reaktion beteiligt (vgl. HELLBRÜCK und
ELLERMEIER 2004). Die Gefühlselemente entstehen durch das Entdecken von
Symmetrien, Regelmäßigkeiten, aber auch durch Überraschungseffekte, zum Beispiel durch einen plötzlichen Wechsel von vertrauten musikalischen Mustern. Die
ausgelösten emotionalen Muster sind Entspannung – Erregung – Anspannung – Erleichterung – Entspannung (vgl. CARTER 1999). Entscheidend dabei ist die Hörerfahrung. Untersuchungen mit Musikern und Nicht-Musikern zu Tonartenwechsel ergaben unterschiedliche emotionale Reaktionen. Musiker reagieren im Vergleich mit
Nicht-Musikern in verstärktem Maße auf Tonartenwechsel und geben dabei auch
verstärkt emotionelle Reaktionen an:
„Musikalische Ereignisse wie ein Tonartenwechsel werden von ihnen (NichtMusikern, Anmerkung der Verfasserin) zwar gehört, aber nicht interpretiert,
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
17
und rufen deshalb auch keine Gefühlsreaktionen hervor“ (ROEDERER 2000,
225).
Dass die individuelle Verarbeitung von Schallereignissen über den physikalischen
Hörmöglichkeiten (also dem Reintonaudiogramm) steht, bestätigen auch die Erfahrungsberichte von Audiologen und Musiktherapeuten. ROBBINS und ROBBINS beschreiben dieses Phänomen in Music for the hearing impaired & other special
groups:
„To me, musicality is the ability to retain, recognize and produce sound patterns and to associate them with emotions and with other aspects of experience. It certainly isn´t something that resides in the ear. It resides in the brain”
(ROBBINS & ROBBINS 1980, 22).
2.1.2. Auf dem Weg durch das Ohr
Das Ohr gliedert sich anatomisch in äußeres Ohr, Mittelohr und Innenohr. Jeder der
drei Bereiche erfüllt eine ganz spezifische Aufgabe und ist spezialisiert. Die größte
Spezialisierung erreichte das Hörorgan im Laufe der Evolution für Sprachverarbeitung. Funktionseinschränkungen in auch nur einem Teilbereich führen zu mehr oder
weniger massiven Beeinträchtigungen in der Hörwahrnehmung und -verarbeitung.
Abb. 2.2. aus: LINDSAY und NORMANN 1981, S. 96
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
18
Das Außenohr
Das äußere Ohr umfasst Ohrmuschel, Gehörgang und Trommelfell. Bereits an der
Ohrmuschel und im Gehörgang werden die eintreffenden Schallereignisse `vorgeformt´. Das heißt bestimmte Frequenzen werden bevorzugt verstärkt. Durch die Form
der Ohrmuschel wird bereits an dieser Stelle Schall der von vorne kommt verstärkt,
und Schall der von hinten kommt gedämpft. Dieses Dämpfen und Verstärken ist für
die räumliche Wahrnehmung wichtig.
Die Form des Gehörgangs funktioniert ähnlich einer Orgelpfeife als Resonanzrohr
und verstärkt vor allem die für das Sprachverständnis wichtigen Frequenzbereiche
zwischen 2000 und 5500 Hz.
Das Mittelohr
Zum Mittelohr zählen die 3 Gehörknöchelchen Hammer, Amboss und Steigbügel (die
Steigbügelplatte ist so groß wie ein halbes Reiskorn) sowie die eustachische Röhre.
Die Gehörknöchelchen übertragen den Luftschall an die mit Endolymphflüssigkeit
gefüllte Hörschnecke. Da Schallwellen in Flüssigkeit anders reagieren als in Luft,
werden sie von den Gehörknöchelchen für die Weiterleitung in der Hörschnecke `optimiert´. Das Trommelfell fokussiert den Schall auf die Gehörknöchelchen, die die
relativ kraftarme aber große Schwingung in eine kleinere aber kräftigere Schwingung
umwandeln und an die kleine Eingangsfläche zur Hörschnecke, dem ovalen Fenster,
weitergeben. Bei zu lauten, hörschädigenden Schallereignissen übernehmen die
Gehörknöchelchen auch eine Schallschutzfunktion indem sie mit Hilfe angesetzter
Muskeln (die kleinsten Muskeln im Körper überhaupt) die eintreffenden Schallwellen
abschwächen.
Der Druck im Mittelohr entspricht immer dem atmosphärischen Außendruck. Um dieses Verhältnis ständig beizubehalten, ist das Mittelohr über die „Eustachische Röhre“
mit dem Rachenraum verbunden
Das Innenohr
Das Innenohr mit Hörschnecke (Cochlea) und Gleichgewichtsorgan (Bogengänge)
liegt geschützt hinter dem härtesten Knochen im menschlichen Körper, dem Felsenbein. Die Schnecke ist ein etwa 3,2 cm langes Rohr das sich in 2,5 Windungen wie
eine Schnecke formt. Insgesamt so groß wie eine Erbse, ist die Hörschnecke das
einzige Körperteil, das bereits im pränatalen Stadium (zwischen 4. und 5. Monat)
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
19
vollständig ausgebildet ist und danach nicht mehr wächst (vgl. HELLBRÜCK u.
ELLERMEIER 2004, BOENNINGHAUS und LENARZ 2004, PLATTIG 1993).
2.1.3. Schaltstelle Cochlea
In der Cochlea sitzt das eigentliche Hörsinnesorgan. Hier werden die mechanischen
Druckschwankungen der Luft in elektrische Nervenimpulse umgewandelt.
Die Cochlea ist in drei Schläuche unterteilt. Die Scala vestibuli, die Scala timpani und
die Scala media. In der Scala media (Schneckengang) sitzt das eigentliche Hörorgan
- das cortische Organ (siehe Abbildung 2.3.).
Abb. 2.3. aus: SCHMIDT 1985, S. 244, 245
Der Schneckengang ist mit Flüssigkeit - Endolymphe -gefüllt, die beiden anderen
Schläuche mit Perilymphe. Die Enolymphe entspricht der intrazellulären Flüssigkeit
und enthält überwiegend Kaliumionen, die Perilymphe entspricht der Flüssigkeit in
den Zellzwischenräumen und enthält überwiegend Natriumionen.
Diese unterschiedliche Ionenkonzentration bedeutet elektrische Spannung. Es
herrscht ein Gleichspannungspotential. Dieses Potential wiederum dient als Batterie
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
20
für die in den Rezeptoren stattfindenden elektrischen Vorgänge (vgl. HELLBRÜCK u.
ELLERMEIER 2004, SPITZER 2004, PLATTIG 1995).
Das cortische Organ mit inneren und äußeren Haarsinneszellen sitzt auf der Basilarmembran. Die Haarsinneszellen werden durch die Schallwelle, die als Wanderwelle die Hörschnecke durchläuft, ausgelenkt. An der Spitze jeder Haarzelle befinden
sich Ionenkanäle die im Ruhezustand halb geöffnet sind. In Abhängigkeit der Verbiegung werden sie weiter oder weniger weit geöffnet oder geschlossen, es fließen also
mehr oder weniger Ionen. Die dabei generierten elektrischen Impulse (Aktionspotentiale) laufen über den Hörnerv zu den weiteren Stationen der Hörbahn. Dies geschieht im Vergleich zum Sehen mit einer um zwei bis drei Zehnerpotenzen größeren
Schnelligkeit bzw. zeitlichen Auflösungsfähigkeit und ist ein noch nicht vollständig
erforschter Vorgang:
„Keineswegs alle Komponenten dieser Überführung mechanischer Bewegung
in neuronale Aktivität sind bis in jede Einzelheit aufgeklärt“ (SPITZER 2004,
61).
SPITZER weißt darauf hin, dass jedoch die Prinzipien der Schallumwandlung in Nervenimpulse als geklärt gelten.
Die maximale Auslenkung der Basilarmembran und damit der Haarsinneszellen erfolgt je nach Höhe des Tones mehr beim ovalen Fenster (hohe Töne) oder mehr an
der Schneckenspitze (tiefe Töne). Das heißt dass unterschiedliche Frequenzen unterschiedlich weit in der Schnecke entlang wandern und die Haarsinneszellen auf
unterschiedliche Frequenzen spezialisiert sind. Diese „Frequenzkarten“ finden sich
an allen Stellen der Hörbahn bis hin zum auditorischen Kortex wo die einzelnen Frequenzen einer bestimmten Stelle im Kortex zugeordnet werden können:
„Entscheidend ist, dass jeder dieser Haarzellen ein bestimmter Schwingungsbereich zugeordnet ist. (…) Im Innenohr werden also Ortskoordinaten in Tonhöheninformation umgewandelt, ein Phänomen, das Tonotopie genannt wird“
(ALTENMÜLLER 2000, 91).
Das Hörorgan steht in enger Kommunikation mit den Verarbeitungsstellen im Gehirn.
Es gehen nicht nur Nervenimpulse vom cortischen Organ zum Zentralnervensystem
sondern auch umgekehrt. Durch die absteigende Nervenfasern, Effektoren, kann die
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
21
Aufmerksamkeit gezielt auf bestimmte Frequenzbereiche der Basilarmembran gelenkt werden:
“Während die inneren Haarzellen im Innenohr als eigentliche Frequenzmelder
fungieren, sind die äußeren Haarzellen Effektoren, die von Zentralnervensystem gesteuert werden und über die absteigenden Hörbahn Schwingungen der
Basilarmembran örtlich umschrieben gezielt verstärken und dämpfen können
und damit die Trennschärfe bei der Schallanalyse erhöhen“ (ALTENMÜLLER
2000, 9; vgl. auch HELLBRÜCK u. ELLERMEIER 2004).
2.1.4. Über die Hörbahn zum Hörkortex
Vom Innenohr kommend verlaufen 3.500 Nervenfasern aus den inneren Haarzellen die eigentlichen Frequenzmelder - und 12 000 Nervenfasern aus den äußeren Haarzellen (die wiederum zum größten Teil der absteigenden Kommunikation zwischen
Zentralnervensystem und cortischem Organ dienen) zum zentralen Hörnerv zusammen (vgl. BIRBAUMER und SCHMIDT 1999).
Die afferente, also aufsteigende Hörbahn gliedert sich in mehrere Verarbeitungsstufen. Parallel dazu verläuft die efferente Hörbahn die sich vom Kortex bis zur Cochlea
erstreckt. Stark vereinfacht dargestellt in Abbildung 2.4.:
Abb. 2.4. aus: BIRBAUMER und SCHMIDT 1999, S 422
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
22
Die Spiralganglien (die mit den Haarzellen verbundenen Neuronen zum Hörnerv zusammenlaufenden Fasern) enden nach dem Eintreten in den Hirnstamm im Nucleus
cochlearis. Hier kreuzt nun ein Großteil der Fasern auf die dem Ohr gegenüberliegende Hirnseite (etwa 90 % verläuft kontralateral und 10 % blieben ipsilateral) und
läuft weiter zum Olivenkomplex. In der Oliva superior medialis treffen die Informationen von beiden Ohren zusammen. Hier erfolgt wahrscheinlich durch die Verrechung
der Laufzeitunterschiede von rechtem und linkem Ohr die Schallquellenlokalisation.
Es folgen höhere Kerngebiete wie die Vierhügelplatte, der mittlere Kniehöcker und
die Olivenkerne. Dabei gibt es immer wieder Verbindungen zwischen kontra- und
ipsilateraler Hörbahn. Vor allem auch über den Balken, der mit etwa 200 Millionen
Nervenfasern die beiden Gehirnhemisphären miteinander verbindet.
Die afferente Hörbahn endet in der `heschlschen Querwindung´ des Schläfenlappens, der primären Hörrinde. In der primären Hörrinde werden vor allem die Tonhöheninformationen verarbeitet. Wie schon im cortischen Organ sind auch hier die
Tonhöhen örtlich genau umschrieben repräsentiert. Die primäre Hörrinde ist umgeben von Assotiationsfeldern, die weitere musikalische Parameter wie zum Beispiel
Klangfarbe, Rhythmus oder Mehrstimmigkeit verarbeiten (vgl. HELLBRÜCK und
ELLERMEIER 2004; GAAB et. al. 2003).
Die Umschaltstationen im Gehirn dienen der Mustererkennung, Filterung und zur Berechnung von Laufzeitdifferenzen des Schalles zwischen beiden Ohren (Richtungshören). Im Bereich des Thalamus wird Information gezielt zum Kortex durchgestellt
oder unterdrückt. Dieser Mechanismus wird „Gating-Effekt“ genannt und ermöglicht
die selektive Aufmerksamkeitssteuerung, zum Beispiel auf ein bestimmtes Instrument
im Orchester. Die Verarbeitung entlang der aufsteigenden Hörbahn erfolgt aber nicht
nur hintereinander in zunehmend komplizierteren Analysevorgängen, sondern erfolgt
immer auch parallel. Das heißt die Schallinformation wird immer auch in verschieden
Teilen des Hirnstamms, Mittelhirns und es Großhirns unter unterschiedlichen Aspekten verarbeitet.
Zu den an den primären Hörkortex angrenzenden großen Hirnrindengebieten, die
auditorischen Assoziationskortizes, gehört auch die Wernicke-Region, die eine entscheidende Rolle bei der Sprachwahrnehmung spielt (vgl. ALTENMÜLLER 2000).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
23
2.1.5. Repräsentation und Neuroplastizität - Psychoakustik
Wo genau im Gehirn Musik verarbeitet wird zeigen die Forschungsergebnisse der
letzten Jahre immer genauer. Schon seit den 1970er Jahren gibt es Hinweise darauf,
dass Musik sich in Abhängigkeit von der musikalischen Spezialisierung eines Menschen unterschiedlich im Gehirn repräsentiert. Bei einem Berufsmusiker anders als
bei einem Laien, bei einem Trompeter anders als bei einem Cellisten.
“Man weiß dass die Verbindungen zwischen Nervenzellen erfahrungsabhängig beständig neu geknüpft werden, dass Nervenzellen sogar neu entstehen
können und dass sich kortikale Karten beständig anhand der Erfahrungen, die
von ihnen verarbeitet werden, umorganisieren“ (SPITZER 2004, 211).
Die (Frequenz-)Analyse der Schallereignisse aus der afferenten Hörbahn geschieht
in der primären und sekundären Hörrinde sowie den umgebenden Strukturen des
Temporallappens. In dessen Nähe sind auch Melodie, Harmonie, Dynamik, Klangfarbe, Stimme, Tonleitern, Intervalle, Tonalität und Takt repräsentiert.
Beim Musizieren oder Tanzen werden die motorischen und sensorischen Areale aktiviert. Von Aktivierung betroffen sind aber auch jene anschließenden Areale die für
die Planung einerseits und das Verstehen von Musik andererseits zuständig sind.
In den frontalen Hirnbereichen werden Wiederholungen von Phrasen oder ganzen
Stücken erkannt und programmiert sowie das allgemeine Wissen gespeichert. Hier
werden auch unerwartete musikalische Ereignisse (Tonartwechsel, Synkopen etc.)
bemerkt.
Ebenfalls im Frontalhirn sind der Musikgeschmack, kulturelle Eigenarten und Stilrichtungen repräsentiert. Hier gibt es einen engen Zusammenhang zu den Bereichen
des Gehirns, in denen emotionale Reaktionen und Ereignisse kodiert sind. Das tiefer
im Gehirn liegende limbische System sorgt für die körperlichen Begleiterscheinungen
wie Gänsehaut und Kribbeln im Bauch beim Hören der Lieblingsmusik (vgl.
ALTENMÜLLER 1995, SPITZER 2004).
Neben dieser groben Einteilung in Hören, aktiv Musizieren und Tanzen, Musik verstehen, erleben und fühlen zeigen neuere Forschungsergebnisse ein immer feineres
Bild der neuronalen Repräsentation von Musik. So konnten musikbezogene Bereiche
aufgezeigt werden für
•
die akustische Analyse und Repräsentation,
•
das Tastempfinden beim Musizieren,
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
24
•
Motorische Bereiche für das Musizieren, Singen und Tanzen,
•
visuelle Verarbeitung beim Noten lesen,
•
Raum- und Körperempfinden beim Tanzen,
•
Zeitempfindungen wie Metrum und Rhythmus,
•
musikalische Erwartungen, Planung und allgemeines Musikwissen,
•
musikalische Persönlichkeit, Vorlieben und Musikgeschmack,
•
Emotionen
•
Stimme und Melodie hören
•
sowie musikalische Assoziationen, Erfahrungen und Episoden (vgl. SPITZER
2004 und KOELSCH et. al. 2005b).
Anders als beim analytischen Hören eines Tones werden bei der Verarbeitung von
komplexer Musik mit ihren vielen Einzelparametern auch viele Bereiche des Gehirns
mit einbezogen.
„Es gibt im Gehirn kein Musikzentrum. (…) neueste Studien zur Repräsentation von Musik im Gehirn ergaben, dass praktisch das gesamte Gehirn zur Musik beiträgt“ (SPITZER 2004, 212).
Entgegen früherer Annahmen gilt heute als gesichert, dass das Gehirn sich Zeit seines Lebens verändert. Das Zentralnervensystem passt sich permanent an die gemachten Lebenserfahrungen des Organismus an. Diese Anpassungsvorgänge bezeichnet man als Neuroplastizität. Neuroplastizität geschieht auf verschiedenen Ebenen. Die am Besten erforschte Ebene ist die der Synapsen, den Verbindungen
zwischen den Nervenzellen. Bei Lernvorgängen veränderte sich die Stärke der Verbindung. Dies konnte zum Beispiel bei Untersuchungen der Meeresschnecke Aplysia
gezeigt werden (vgl. KANDEL 1995).
„Neurobiologisch betrachtet besteht Lernen an der Veränderung der Stärke
der Verbindungen zwischen Nervenzellen“ (SPITZER 2004, 175).
Bei Berufsmusikern konnten teils erhebliche Veränderungen der Bereiche gefunden
werden, die für deren jeweiliges Instrument wichtig sind. Zum Beispiel ist der kleine
Finger eines Geigers wesentlich stärker repräsentiert als bei einem Nicht-Geiger.
Das Gehirn hat im Laufe der Übezeit die Verbindungen zur Steuerung des kleinen
Fingers verstärkt. Kortikale Karten können sich innerhalb von Wochen bis hin zu Jah-
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
25
ren verändern. Die unterschiedlichen Prozesse mit ihren Größenordnungen werden
in Abbildung 2.5. dargestellt:
Abb. 2.5. aus: SPITZER 2004 S, 175
Die ansteigende Zahl an Studien zur Musikwahrnehmung brachte eine Fülle sich
zum Teil widersprechender Ergebnisse.
„Ein besonderes Charakteristikum der neuropsychologischen Befunde zur
Musikverarbeitung
ist
jedoch
die
starke
Variabilität
der
Befunde“
(ALTENMÜLLER 2000, 94).
Einen Teil dieser Varianzen führt Altenmüller darauf zurück, dass die Untersuchungstechniken sehr unterschiedliche und nicht standardisiert sind.
„Die unterschiedliche emotionale Bewertung von Musik ist (…) ein weiterer
Faktor, der die Variabilität der Hirnaktivierungsmuter beim Musikhören erhöht“
(ALTENMÜLLER 2000, 94).
Weiters festigt sich die Ansicht, dass es unterschiedliche erworbene Strategien der
Hörverarbeitung gibt. Den analytischen oder ganzheitlichen Hörer bzw. den Grundtonhörer oder den Obertonhörer (vgl. KOELSCH et. al. 2004a, SCHMITHORST
2003). Musik hören und verstehen wird somit als äußerste komplexe Leistung verstanden, die nicht nur besondere Fähigkeiten des Gehörs verlangt, sondern in gleicher Weise auch kognitive Leistungen fordert.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
26
2.2. Musikwahrnehmung und Hörverarbeitung bei beeinträchtigtem Hörvermögen
2.2.1. Formen der Hörbeeinträchtigung
Wie oben beschrieben durchläuft ein Schallsignal – bevor es unser Gehirn erreichen
kann - den äußerst komplexen Vorgang der Umwandlung vom mechanischen Reiz in
einen elektrischen. Die sensiblen Teilbereiche des Ohres können von Geburt an in
ihrer Funktion beeinträchtigt sein oder im Laufe des Lebens Schaden erleiden.
Unterscheidung von Hörstörungen nach Ort der Schädigung
Hörstörungen können in verschiedenen Bereichen des Außen- und Innenohres auftreten. Demnach wird unterschieden zwischen
•
Schallleiter-Schwerhörigkeit
•
Schallempfindungs-Schwerhörigkeit
Auch kombinierte Formen sind möglich. Eine Hörstörung kann ein- oder beidseitig
vorliegen.
Hörstörungen
SchallleitungsSchwerhörigkeit
(conductive hearing loss)
SchallempfindungsSchwerhörigkeit
(sensorineural hearing loss)
Außen- und Mittelohr
Innenohr und Hörnerv
Tab. 2.1. Einteilung von Hörstörungen nach Ort der Schädigung
Liegt eine Schallleitungs-Schwerhörigkeit vor, gelangen die Schallwellen nicht ausreichend ans Innenohr. Die Tonqualität bleibt zwar weitgehend unverändert, die Intensität ist jedoch zu gering. Störungen im Mittelohr können mit operativen Eingriffen
und spezieller Hörgerätetechnologie gut ausgeglichen werden.
Bei einer Schallempfindungs-Schwerhörigkeit liegt die Störung im Innenohr, in der
zentralen Hörbahn oder im Hirnbereich vor. Wobei sich sensorische Schwerhörigkeit
auf eine cochleare Beeinträchtigung bezieht, neurale Schwerhörigkeit auf eine Beeinträchtigung der Weiterleitung (=sensorineural) (vgl. HELLBRÜCK und ELLERMEIER
2004).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
27
Zu einer allgemein oder nur in bestimmten Frequenzbereichen verminderte Hörfähigkeit kann besonders bei einer Lärm- oder altersbedingten Schwerhörigkeit eine gesteigerte Lautheitsempfindlichkeit (Recruitment) hinzukommen. Das heißt die Hörschwelle ist verschoben, es wird eine größere Lautheit benötigt. Andererseits werden
laute Töne schneller als unangenehm empfunden. Der Dynamikbereich ist mehr oder
weniger stark eingeschränkt:
„Auch ein leicht zu hoher Pegel beim Musikhören wird als sehr unangenehm
empfunden, die Musik erscheint merklich verzerrt. Der Grund dafür ist, dass
der Bereich zwischen Wahrnehmungsschwelle des Schalls und der Schmerzgrenze infolge der Schwerhörigkeit – normalerweise die ganze Bandbreite von
0 bis ca. 120 dB umfassend – deutlich zusammengestaucht wird“ (WICKEL
und HAROGH 2006, 76).
Unterscheidung von Hörstörungen nach Ursachen
Hörstörungen können genetisch bedingt sein oder vor der Geburt beziehungsweise.
im Laufe des Lebens durch Krankheit, Unfälle oder aufgrund von Überbelastung
durch Lärm erworben werden. Einige erworbene Ursachen können sein: Schwangerschaftsröteln, Toxoplasmose, Frühgeburt, Geburtstraumen, verschiedene Infektionskrankheiten wie Mumps, Masern, Meningitis. Schwere Schädelverletzungen, Hörsturz, Durchblutungsstörungen und Tumore können ebenfalls Ursache für eine Hörstörung sein.
Unterscheidung von Hörstörungen nach Zeitpunkt des Eintretens der Störung
Sowohl erblich bedingte, als auch erworbene Hörschäden können zu unterschiedlichen Zeitpunkten eintreten. Es werden im Kindes-, Jugend- oder Erwachsenenalter
auftretende Hörstörungen unterschieden. Die sensible Phase des Spracherwerbes ist
durch eine Hörstörung besonders gefährdet. Es wird deshalb zusätzlich zwischen
prä- peri- und postlingualem Auftreten (das heißt vor, während und nach dem
Spracherwerb) einer Hörstörung unterschieden (vgl. WICKEL und HAROGH 2006,
LÖWE 1979).
Unterscheidung von Hörstörungen nach Grad des Hörverlustes
Eine weitere Möglichkeit Hörstörungen zu kategorisieren ist die Einteilung nach dem
verbleibenden Hörbereich, bzw. nach dem Grad der Einschränkung. Die Einteilung
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
28
ist nicht einheitlich festgelegt, sondern je nach Autor verschieden (vgl. LEONHARDT
2002, WICKEL und HARTOG 2006, HELLBRÜCK und ELLERMEIER 2004, PLATH
1995).
Kategorisierung
Grad des Hörverlustes
Normalhörigkeit od. annähernde Normalhörigkeit
0 – 20 %
Geringgradige Schwerhörigkeit
20 – 40 %
Mittelgradige Schwerhörigkeit
40 – 60 %
Hochgradige Schwerhörigkeit
60 – 80 %
An Taubheit grenzenden Schwerhörigkeit
80 – 95 %
Taubheit______
95 – 100 %___
Tab. 2.2. Kategorisierung von Hörverlusten nach BOENNINGHAUS und LENARZ 2005, S. 358
Eine leicht- oder geringgradige Hörstörung beeinträchtigt die Wahrnehmung von sehr
feinen Geräuschen. Beginnende Altersschwerhörigkeit macht sich oft zuerst durch
den Verlust von Naturgeräuschen wie Blätterrauschen oder Vogelgezwitscher bemerkbar. Obwohl die Person im normalen Gespräch noch keine Verständnisschwierigkeiten hat, gehen doch viele Feinheiten bereits verloren.
Bei einer mittelgradigen Hörstörung ist es bereits nur mehr sehr schwer möglich, ohne Hörhilfen einem Gespräch zu folgen. Besonders wenn Hintergrundgeräusche (wie
zum Beispiel Verkehrslärm bei geöffnetem Fenster) vorhanden sind.
Ab einer hochgradigen Hörschädigung ist die Sprachwahrnehmung über das Ohr
ohne Hörhilfen unmöglich, wie in der folgenden Graphik schematisch dargestellt.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
29
Abb. 2.6. aus: WAYNER o. Jahresangabe,
S. 7: Schematische Darstellung von
Hörschwellen (rechts, Einteilung von
Hörschädigungen nach Grad des
Hörverlustes) im Vergleich mit Umweltgeräuschen
und
Sprachlauten
im mittleren Frequenzbereich des
Hörfeldes.
Unterscheidung von Hörstörungen nach Gesichtspunkten der Sprachentwicklung
Die Pädagogik orientiert sich in der Kategorisierung von Hörschäden an der Fähigkeit
der Sprachwahrnehmung über den Hörsinn und unterscheidet demnach im Vergleich
zu BOENNINGHAUS nur 3 Gruppen. Schwerhörigkeit (Kommunikation stützt sich auf
die Lautsprache), Resthörigkeit (obwohl noch verwertbare Hörreste vorhanden sind,
ist die Entwicklung von Lautsprache ohne visuelle Unterstützung nicht möglich) und
Gehörlosigkeit (Sprache ist über den akustischen Kanal nicht wahrnehmbar) (vgl.
PRAUSE 2001, WISOTZKI 1994).
Der Begriff „gehörlos“ bezeichnet auch eine kulturelle Gruppe von gebärdensprachlich kommunizierenden Menschen, die unabhängig von ihrem tatsächlichen Hör- und
Lautsprachvermögen in Gebärdensprache kommunizieren und sich mit der Gebärdensprachkultur identifizieren (vgl. SACKS, 1992).
„Obwohl versucht wird, die einzelnen Gruppierungen von Hörgeschädigten
näher zu beschreiben, muss angemerkt werden , dass die Erscheinungsbilder
hörgeschädigter Menschen und ihre psychosoziale Situation infolge der Vielzahl der Faktoren, die am Zustandekommen der Hörschädigung beteiligt sind,
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
30
und infolge der sehr unterschiedlichen Intensität und Zeitdauer, mit denen diese wirken, ein sehr breites Spektrum aufweisen. Es ist de facto nicht möglich,
von dem Gehörlosen, dem Schwerhörigen oder dem Ertaubten zu sprechen“
(LEONHARDT 2002, 71).
2.2.2. Musik und Sprache im Hörfeld
Der Rahmen für die Musikwahrnehmung ist für den hörenden Menschen durch das
so genannte Hörfeld gegeben. Das sind jene Frequenzbereiche in denen unser Gehör eine Sinneswahrnehmung an das Gehirn weiterleitet. Im Normalfall sind das
Schallreize zwischen 20 und 20 000 Hertz im Lautstärkebereich von 0 bis 120 Dezibel (siehe Abb. 2.7.).
Abb. 2.7. aus: BÜCHLER 2005, www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005)
Das Gehör ist spezialisiert auf den Bereich der Sprache. Ungefähr zwischen 200 und
5500 Hz weist es die größte Sensibilität auf. Der Sprachbereich ist jedoch nur ein
kleiner Ausschnitt unseres Hörvermögens. Der Musikbereich ist im Vergleich dazu
viel größer. Das Schallfeld der Musik ist sowohl im Frequenzbereich als auch in der
Intensität viel größer als das Schallfeld der Sprache. Selbst wenn eine Hörstörung
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
31
vorhanden ist die die Wahrnehmung von Sprache bereits massiv beeinträchtigt, kann
immer noch – wenn auch eingeschränkt – Musik auditiv wahrgenommen werden.
Eine Hörstörung bedeutet jedoch nicht einfach eine nach oben verschobene Hörschwelle. Die Ausfälle und Störungen sind nicht auf alle Frequenzbereiche gleich
verteilt, sodass die Betroffenen oft einen verzerrten oder fragmentarisch verbleibenden Höreindruck haben. Eine Übertragung auf den visuellen Bereich könnte so aussehen:
Aus dem Wort
HÖREN
wird
.
Für Menschen mit einer spät erworbenen Hörstörung ist dies besonders im Bereich
des Musikhörens oftmals frustrierend, weil die verzerrten Töne für diese Menschen
„falsch“ - im Vergleich zu früher - klingen. Denn wie in Kapitel 2.1. beschrieben, analysiert, vergleicht und bewertet unser Gehirn alle eintreffenden Sinneseindrücke. Liefert das Gehör aber plötzlich veränderte, verzerrte Signale, löst das zumindest Irritation oder auch Unbehangen aus, ähnlich wie uns eine verstimme Gitarre irritiert. Für
Menschen mit angeborenen Hörstörungen ist dies weniger problematisch, weil sie
von vornherein ihre verbleibenden Höreindrücke als „richtig“ im Gehirn speichern.
2.2.3. Hilfen beim Hören
Der Gebrauch von Hörhilfen lässt sich bereits in der Antike und im Mittelalter nachweisen. Erst im 17 Jahrhundert setzte jedoch eine serienmäßige Herstellung und
Verbreitung ein. Von Beethoven wird berichtet, dass er zur Verstärkung der Klavierklänge zuerst ein an seinem Erard-Flügel befestigtes Holzstäbchen zwischen die
Zähne klemmte. Später erhielt er ein Hörrohr:
„Es war Johann Melzel, der Erfinder des Metronoms, der Beethoven 1814 eine
kleine Hilfe zukommen ließ: ein Hörrohr“ (ZENNER 2002, 2764).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
32
Abb. 2.8. aus: www.bonn-region.de (Stand: 01/2007) Beethovens Hörrohre
Die jahrhunderte lange Verwendung von Hörrohren wurden erst durch die Erfindung
des Telefons durch Alexander Graham Bell und die damit einhergehende Entwicklung von so genannten Kohlemikrofongeräten abgelöst. Der Lebenszyklus von Hörgeräten hat sich seit dieser Zeit massiv verkürzt. Heute steht alle 2 Jahre eine neue
Generation von Hörsystemen zur Unterstützung einer differenzierten Schallverarbeitung zur Verfügung. Microchip und digitale Verstärkertechnik bilden die Basis moderner Hörhilfen (vgl. FORUM BESSER HÖREN 2007).
Neben der Weiterentwicklung des konventionellen Hörgerätes mit Hilfe der Computertechnik entstanden vor etwa 40 Jahren die ersten implantierbaren Hörhilfen. Das
Cochlea Implantat (CI) als wichtigstes Beispiel ist eine im Schädelknochen hinter der
Ohrmuschel implantierte Hörprothese, die mit Hilfe eines Sprachprozessors Höreindrücke in elektrische Impulse umgewandelt und diese Signale direkt in der Hörschnecke an den Hörnerv leitet.
Weitere Entwicklungen sind Mittelohrprothesen, knochenverankerte Hörgeräte sowie
Kombinationen aus Cochlear-Implantat - für den Ausgleich von Hochtonverlusten und
akustischem
Hörgerät
-
für
den
Tieftonbereich
(vgl.
GANTZ
2005;
SATTERFIELD 2000, KIEFER 2002).
Ist die Cochlea soweit geschädigt, dass auch ein CI keine akustischen Eindrücke
mehr übermitteln kann, ist der nächste Entwicklungsschritt ein Hirnstammimplantat.
Mit einem auditorischen Hirnstammimplantat (Auditory Brainstem Implantat – ABI) ist
es möglich durch elektrische Stimulation des zweiten Neuron der Hörbahn den Verlust der Hörnerv- und Innenohrfunktion ansatzweise zu kompensieren (vgl. DILLER
1997, ROSAHL 2004).
Hörhilfen - akustische Hörgeräte oder implantierte Hörhilfen - sind jedoch immer noch
in erster Linie auf die verbesserte Wahrnehmung von Sprache ausgerichtet. Die der
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
33
Musik eigenen Gesetzmäßigkeiten können (auch durch technische Grenzen) wenig
berücksichtigt werden, sodass die Hörhilfen für die Musikwahrnehmung nicht immer
eine Hilfe sind und die Betroffenen sehr unterschiedlich damit umgehen.
Manche legen die Hörhilfen zum Musizieren ab und verlassen sich lieber auf ihre
multisensorische Wahrnehmungen. Evelyn Glennie berichtet im Interview mit KarlLudwig PROFIT über ihre Erfahrungen mit Hörgeräten, die sie von ihrem 9. Lebensjahr an bis zum Ende ihrer Teenagerzeit trug:
„Aber als ich mehr und mehr in die Musik hineingezogen wurde, verstärkten
die Hörhilfen vor allem die Lautstärke zu sehr und weniger die Klangqualität.
Ich benötigte aber reine Töne und keine Lautstärke. (…) Deshalb legte ich die
Hörhilfen allmählich ab und konzentrierte mich auf das Hören, wie ich es jetzt
verstehe. Ich entdeckte während eines längeren Zeitraums meinen Leib als
Resonanzkörper, wie eine Orgelpfeife“ (Glennie zitiert nach PROFIT 2000,
43).
Der gehörlose englische Musiker Paul WHITTAKER, der mit einer Hörbeeinträchtigung geboren wurde und im Alter von 11 Jahren vollständig ertaubte, erinnert sich an
seine frühen Höreindrücke und beschreibt den Einsatz von Hörhilfen beim Musizieren:
„Meine früheste Erinnerung an Musik ist sehr vage, aber ich erinnere mich,
dass ich es nie einfach fand, Tonlage und Intervalle nur über das Gehör zu unterscheiden. Als ich mit dem Klavierspiel begann, konnte ich akustisch noch
partiell Noten bis zu zwei Oktaven bis zum mittleren C ohne Hörhilfen wahrnehmen. Heute kann ich ohne diese Unterstützung keine einzige Note `hören´, wohingegen ich mit Hörhilfen bis zu zwei Oktaven über dem mittleren C
`hören´ kann“ (WHITTAKER 2006, 32).
2.2.3.1.
Musik und Cochlea-Implantat
Die zurzeit üblichen Codierungsstrategien von Sprachprozessoren (welche die
Schallereignisse für das Implantat aufbereiten) sind vor allem für ein möglichst gutes
Sprachverständnis ausgelegt und optimiert. Zwar haben physikalisch betrachtet Musik und Sprache sehr ähnliche Parameter – beide sind hoch organisierte Kombinationen von Tonhöhe, Klangfarbe, Akzentuierung und Rhythmus, die bestimmten Re-
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
34
geln folgen. Die Wichtigkeit der einzelnen Parameter sind für die Wahrnehmung von
Musik und Sprache jedoch unterschiedlich.
„Sprache kann zum Beispiel auch noch verstanden werden, wenn die Tonhöhe nicht richtig repräsentiert wird; allenfalls wird die Sprachmelodie (die Prosodie) nicht richtig übertragen. Es ist dann zum Beispiel nicht klar, ob ein Satz
als Frage, Feststellung oder Bitte formuliert wird, oder ob es sich um eine
Sprecherin oder einen Sprecher handelt. Wenn die Tonhöhe jedoch bei Musik
nicht richtig wiedergegeben wird, so wird die Melodie weitgehend zerstört, und
das Zuhören ist kaum mehr ein großer Genuss“ (BÜCHLER 2005, o. Seitenangabe).
Natürlich soll auch Sprache angenehm klingen - für die Codierung des Sprachprozessors bedeutet Musik jedoch eine noch größere Herausforderung.
Die Codierungsstrategie des CI´s verarbeitet drei der wichtigsten (Musik-)Parameter:
•
Lautheit,
•
Klangfarbe und
•
Tonhöhe.
Unter Lautheit versteht man in Bezug auf die Codierung Takt, Rhythmus und Pausen. Sie werden mit dem CI bereits hinreichend übertragen. Viele CI-Träger bevorzugen deshalb vor allem Musikstücke, die eine ausgeprägte rhythmische Struktur
haben. Anders verhält es sich mit dem Dynamikbereich (von sehr leise bis sehr laut):
„Der Dynamikbereich des Pegels im CI ist jedoch für Sprache optimiert (etwa
40 dB), während vergleichsweise bei einem klassischen Konzert viel größere
Pegelunterschiede möglich sind (bis zu 60 dB, also etwa 10-mal größer als bei
Sprache)“ (BÜCHLER 2005, o. Seitenangabe).
Ein Signal von solch großer Dynamik kann aus technischen Gründen nicht linear
verarbeitet werden. Die Signale müssen vom Sprachprozessor verdichtet werden:
„Das CI komprimiert deshalb das Signal, das heißt, die lauten Pegel werden
leiser und die leisen lauter gemacht - ein Vorgang, der auch bei konventionellen Hörgeräten oder zum Beispiel bei Radio und Fernsehen üblich ist. Auch
dort ist der Pegelbereich bei der Übertragung eingeschränkt. Beim CI kann
dies zur Folge haben, dass sowohl leise als auch laute Töne etwa gleich laut
wahrgenommen werden und dadurch ein `Klangbrei´ entsteht“ (BÜCHLER
2005, o. Seitenangabe).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
35
Durch die Klangfarbe werden Instrumente oder Stimmen unterschieden. Klangfarbe
entsteht durch unterschiedliche Anzahl und Stärke der Obertöne sowie deren zeitlicher Verlauf beim Anspielen und Ausklingen eines Tones. Jedes Instrument, jede
Stimme hat ein spezifisches spektrales Profil. Die Wiedergabe dieses spezifischen
Profils ist jedoch beim CI durch die beschränkte Anzahl der Elektroden, die den Hörnerv reizen, eingeschränkt (vgl. KOELSCH et. al. 2004b).
Ähnliche Probleme entstehen bei der Übertragung der Tonhöhe. Dabei sind ebenfalls
die Obertöne von Bedeutung. Da sie immer im harmonischen Verhältnis zur Grundfrequenz stehen, wird durch die eingeschränkte Frequenzauflösung im CI die harmonische Struktur zerstört und im Extremfall für zwei unterschiedliche Obertöne die
gleiche Elektrode stimuliert.
„Durch die beschränkte Anzahl der Elektroden ist jedoch die Frequenzauflösung stark verringert und reicht nicht, um die harmonische Struktur des Tones
zu erhalten, was Auswirkungen auf die wahrgenommene Tonhöhe und Klangfarbe hat“ (BÜCHLER 2005, o. Seitenangabe).
Abb. 2.9. aus: BÜCHLER 2005, www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005). Das
Frequenzspektrum (grau) des Tones „g“ einer Blockflöte. Die im Spektrum erkennbaren
Spitzen repräsentieren den Grundton und die harmonischen Obertöne. Die Elektroden des CI
(schwarz) stimulieren bei der Grundfrequenz (in diesem Falle bei 784 Hz) und ungefähr die
Bereiche der ersten vier Obertöne.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
36
Ein weiterer feiner Unterschied von Musik- und Sprachdiskriminierung konnte von
SMITH et. al. gezeigt werden. Während für die Sprachdiskriminierung in erster Linie
die Informationen der Hüllkurve (envelope) eines Frequenzspektrums wichtig sind, ist
für die Melodieerkennung die Feinstruktur (finestructure) des Frequenzspektrums von
Bedeutung.
„Here we show that the envelope is most important for speech reception, and
the fine structure is most important for pitch perception and sound localization”
(SMITH et. al. 2002, 87).
Codierungsstrategien von Cochlea-Implantaten sind jedoch in erster Linie für die
Wiedergabe der Informationen der Hüllkurve programmiert.
Besonders spätertaubte CI-Träger haben mit der unzureichenden Übertragung von
Musik mit dem CI zu kämpfen, da sie aus der Zeit vor der Ertaubung bereits viele
Hörmuster im Gehirn abgespeichert haben, die nun mit den Eindrücken des CI´s
nicht mehr viel gemeinsam haben (vgl. VONGPAISAL et. al. 2004, BROCKMEIER
2002; BROCKMEIER et. al. 2004).
2.2.3.2.
Musik und Hörgeräte
Hörgeräte waren bis zur Entwicklung des Cochlea-Implantates die einzige Möglichkeit eine Hörbeeinträchtigung zu mindern. Hörgeräte verstärken die Schallsignale die
über ein Mikrophon eintreffen, frequenzabhängig entsprechen der vorliegenden
Hörminderung. Das heißt, das Hörgerät wird an den jeweiligen Hörverlust angepasst
und verstärkt nur jene Frequenzen, die vom Ohr nicht oder nicht ausreichend an den
Hörnerv weitergeleitet werden. Neben dem Schallempfindungshörverlust und dem
Schallleitungshörverlust sind viele hörbeeinträchtigen Menschen auch vom unter Kapitel 2.2.1. beschriebenen so genannte Recruitment betroffen (3/4 aller Hörverluste).
Moderne Hörgeräte gleichen dies aus und es kommt ähnlich wie beim CI zu einer
Kompression der eintreffenden Schallsignale. Wie bereits beschrieben beeinträchtigt
dieser Effekt jedoch auch die Musikwahrnehmung von Hörgeräte-Trägern. Musik hören mit Hörgeräten wird sehr unterschiedlich empfunden (vgl. Kapitel 1.2. und 2.2.2.).
„(…) von vielen Hörgeräteträgern ist aber auch bekannt, dass sie sich an diese Probleme gewöhnt und gelernt haben, Musik trotz des Hörgeräts zu genie-
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
37
ßen. Die neue Hörgerätetechnik bietet ohnehin die Möglichkeit, ein Extraprogramm für das Musikhören zu nutzen, bei dem die automatische Reglung für
das bessere Sprachverstehen ausgeschaltet wird“ (WICKEL und HARTOGH
2006, 145).
2.2.4. Forschungsinteressen
Manuela-Carmen PRAUSE beschäftigte sich im Rahmen Ihrer Dissertation intensiv
mit den Anfängen und Entwicklungen des Phänomens Musik und Gehörlosigkeit. Sie
vergleicht darin auch die Entwicklungen des anglo-amerikanischen Raumes mit dem
deutschsprachigen Raum, in dem es leicht abweichende Entwicklungen gab (vgl.
Kapitel 1.2. und PRAUSE 2001).
Publikationen in Fachzeitschriften sind bis in die 1970er meist beschreibende Arbeiten und Einzelfallstudien, wie der Artikel Musikgenuß bei Gehörlosen in der Zeitschrift für Psychologie. KATZ beschreibt darin anhand eines Fallbeispieles die musikalischen Vorlieben und Fähigkeiten des als Vierjähriger ertaubten Eugen Sutermeisters (vgl. KATZ und REVESZ 1926). Experimentelle und empirische Studien seit den
1980er Jahren beziehen sich oft auf Leistungen, die mit verschiedenen Hörhilfen erbracht werden können. Die Frage wie das Hörorgan unterstützt oder sogar ersetzt
werden kann, steht immer wieder im Zentrum des allgemeinen Forschungsinteresses. Ziel dabei ist es, den Spracherwerb bei gehörlosen und schwerhörigen Kindern
zu erleichtern und/oder das Sprachverständnis zu verbessern. PRAUSE unterteilt die
Forschungsinteressen in 3 Themenbereiche. Sie unterscheidet zwischen therapeutischen und curricularen (den Lehrplan betreffenden) Forschungsansätzen sowie Forschungsarbeiten über musikalische Fähigkeiten von Gehörlosen (vgl. PRAUSE
2001), die im Folgenden kurz erläutert werden:
Therapeutische Ansätze
für die Sprachtherapie oder für Rehabilitationsmaßnahmen nach der Hörgeräteversorgung finden sich für den deutschsprachigen Raum frühe Beispiele bei der
Schweizer Musiktherapeutin Mimi Scheiblauer (vgl. SALMON 2003). Oder auch - um
hier nur zwei Beispiele herauszugreifen - beim dänischen Musiktherapeuten Claus
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
38
BANG, der durch seine Arbeit mit den Klangstäben die Sprachtherapie für gehörlose
Kinder maßgeblich beeinflusst hat (vgl. BANG 1984).
Curriculare Ansätze
finden sich zum Beispiel in der empirisch angelegten Langzeitstudie von ROBBINS
und ROBBINS an einer New Yorker Schule, aus der ein Lehrplan für das Instrumentalspiel mit gehörlosen Schülern hervorging. Ihren Untersuchungen zufolge sind Kinder in erster Linie an Instrumenten interessiert, die sie aus ihrem Lebensumfeld kennen lernen wie Klavier oder Gitarre. Die Instrumente mit denen ROBBINS &
ROBBINS ihre Forschungen begannen waren Klarinette, Bassklarinette und Trompete. Sie führen eine Liste mit gängigen Instrumenten an, die sie aufgrund ihrer Erfahrungen und Forschungen für den Musikunterricht hörbeeinträchtigter Kinder empfehlen (vgl. ROBBINS & ROBBINS 1980).
Musikalische Fähigkeiten gehörloser Menschen
Viele Arbeiten zum diesem Thema kommen aus dem anglo-amerikanischen Raum.
„Die amerikanischen Musiktherapeutinnen Alice-Ann Darrow, Kate Gfeller und
Mayra Staum leisteten Pionierarbeit auf dem Gebiet der Erforschung der musikalischen Fähigkeiten Gehörloser sowie der Effizienz und der Möglichkeiten
musiktherapeutischer Ansätze und sind derzeit noch dabei, diesen Forschungszweig weiter auszubauen“ (PRAUSE 2001 S. 23).
Aktuelle Studien sind jedoch auch aus dem europäischen und asiatischem Raum
vorhanden (vgl. KOELSCH et. al. 2004b).
Forschungsvorhaben betreffen oft die Rhythmus- und Melodiewahrnehmung. Die
meisten dieser Forschungsarbeiten beziehen sich jedoch auf die Leistungen, die mit
modernen Hörhilfen erbracht werden können. Allen voran die Leistungen des Cochlear-Implantates. So untersuchten zum Beispiel VONGPAISAL et. al. die Möglichkeiten der Melodie- und Liederkennung von prälingual (vor dem Spracherwerb) ertaubten CI-Trägern (vgl. VONGPAISAL et. al. 2004).
Andere Forschungsarbeiten, die bei Prause noch unberücksichtigt blieben, bedienen
sich immer öfter den Methoden der allgemeinen Gehirnforschung. Mit Hilfe von fMRI
(funktioneller Magnetresonanz), MEG (Magnetenzephalographie) oder EEG (Elektroenzephalograpie) wird versucht, die Abläufe und Verarbeitungsstrategien des
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
39
Gehirns besser zu verstehen. Mit dieser Entwicklung kam es zu einer Intensivierung
eines weiteren Themenbereichs in der Forschung. Wie verarbeitet unser Gehirn
gleichzeitig eintreffende unterschiedliche Sinneseindrücke? Unter dem Begriff Multisensorik werden im Folgenden neuere Entwicklungen vorgestellt.
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
40
2.3. Multisensorik
Musik als komplexes sinnliches Ereignis bezieht alle zur Verfügung stehenden Fernund Nahsinne des Menschen mit ein. Die folgende Abbildung zeigt schematisch alle
Möglichkeiten der - in die Musikwahrnehmung - involvierten Sinne.
Abb. 2.10. aus: WICKE 2006 S. 10, schematische Darstellung der an der Musikwahrnehmung beteilig
ten möglichen Sinne
Die Möglichkeit der mehrsinnigen Musikerfahrung wurde in der praktischen Arbeit mit
gehörlosen und schwerhörigen Kindern seit Ende des 19. Jahrhunderts erkannt und
beschrieben. KATZ und REVESZ verglichen in ihren Studien die Beschreibungen der
taubblinden Helen Keller mit ihren eigenen Beobachtungen zur Musikwahrnehmung
ihres gehörlosen Probanden Sutermeister. Während Helen Keller beschreibt, dass
sie Musik vornehmlich über das Auflegen ihrer Hand an ein Musikinstrument wahrnimmt, so beschreibt Sutermeister seine Musikwahrnehmung durch Resonanzschwingungen seines Körpers (vgl. KATZ und RÉVÉSZ 1926).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
41
Später werden diese beiden Rezeptionsmöglichkeiten von van Uden als Kontaktfühlen (direkter Kontakt zur Schallquelle) und Resonanzfühlen (Übertragung der Vibrationen durch die Luft) bezeichnet und als Möglichkeiten alternativer Musikwahrnehmung bei Gehörlosigkeit dargestellt. Andere Autoren fügen dem noch die indirekte
Vibrationsrezeption hinzu, das heißt, direkter Kontakt mit schwingenden Objekten wie
Luftballon oder Handtrommel (vgl. van UDEN 1982, PLATH 1991, PRAUSE 2001).
Die physikalische Grundlage dieser Rezeptionsmöglichkeiten ist die Fähigkeit der
Haut Druck, Berührung und Vibration – zusammengefasst als Tastsinn bezeichnet zu registrieren. Diese Fähigkeit bezieht sich auf der Oberfläche des Körpers ebenso
wie auf das Körperinnere (Oberflächensensibilität und Tiefensensibilität). Auf Druck
reagieren die so genannten Merkel-Zellen bzw. Tastscheiben. Auf Berührung reagieren die Meissnerschen Körperchen bzw. Haarwurzelrezeptoren. Auf die Registrierung von Vibration hingegen sind die Pacinischen Körperchen spezialisiert.
Abb. 2.11. aus: LEONHARDT 1990, S. 343, Schematische Darstellung der Hautschichten mit Ausschnitt „Pacinisches Körperchen“
Die Vater-Pacinische-Körperchen (nach ihrem Entdecker benannt) sind die größten
Lamellenkörperchen der nervösen Endorgane der Haut. Sie sind zwiebelschalenartig
aufgebaut und können eine Größe von bis zu 4mm Länge und 2mm Breite erreichen.
Sie reagieren auf Vibrationen und leiten diese als proportionale Impulsfrequenz in die
ableitenden Nervenfasern. Solche `Beschleunigungsdedektoren´ finden sich auch in
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
42
Sehnen, Muskeln und Gelenkkapseln. Sie spielen somit bei der Tiefensensibilität eine wichtige Rolle (vgl. LEONHARDT 1990; SILBERNAGEL und DESPOPOULOS
1988).
In Erfahrungsberichten gehörloser und taubblinder Musiker, in Berichten von Hörgeschädigtenpädagogen und Psychologen die sich mit Musikpsychologie beschäftigen,
wird Musik hören oft als aktiver Prozess beschrieben, der nicht auf die rein auditiven
Möglichkeiten des Menschen beschränkt werden darf.
Russ PALMER ist ein in England geborener seh- und hörbeeinträchtigter Musiktherapeut. Er ist sich dessen bewusst; wie schwer es aus der Sicht eines Hörenden und
Sehenden zu verstehen sein muss, dass Musik über Vibration wahrgenommen eine
ebenbürtige Form der Musikwahrnehmung ist.
"In Music, vibrations producing Low Tones can be felt by body senses in the
feet, legs & hips. The Middle Tones can be felt in the stomach, chest & arms;
similarly the High Tones can be felt in the fingers, head and hair. (...) As a
hearing and visually impaired musician, by taking off my hearing aids I am
able to describe how and where I feel music from the rhythm and vibrations.
From hearing/sighted person point of view this may be difficult to recreate”
(PALMER 1994, 2).
Die gehörlose Percussionistin Evelyn Glennie besaß ein absolutes Gehör bevor sie
noch in der Kindheit ihre Hörfähigkeiten beinahe gänzlich verlor. Sie setzte sich in
dieser Zeit zusammen mit Ihrem Musiklehrer intensiv mit der Tonhöhenwahrnehmung auseinander und vertritt die Ansicht, dass auch höhere Frequenzen als Vibration wahrgenommen werden könnten, wenn nicht unser Ohr diese Empfindung `ausblenden´ würde:
„If we can all feel low frequency vibrations why can't we feel higher vibrations?
It is my belief that we can, it's just that as the frequency gets higher and our
ears become more efficient they drown out the more subtle sense of 'feeling'
the vibrations” (GLENNIE 2005, o. Seitenangabe).
Mit Hilfe naturwissenschaftlicher Untersuchungsmethoden können diese Erfahrungen
genauer untersucht werden. Seit 1998 gibt es Untersuchungen zu kortikalen Verarbeitungsstrategien von Vibrationsempfindungen bei Gehörlosigkeit (vgl. LEVANEN
1998, SHIBATA 2001). Versuche mit gehörlosen und hörenden Probanden zeigten,
dass Vibrationen bei beiden Versuchgruppen in einem bestimmten Teil des Gehirns
verarbeitet werden. Zusätzlich zu diesem Bereich werden von gehörlosen Probanden
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
43
die Vibrationen auch in jener Hirnregion verarbeitetet, die normalerweise nur für die
Verarbeitung von Höreindrücken aktiv wird:
"These findings illustrate how altered experience can affect brain organization.
It was once thought that brains were just hard-wired at birth, and particular areas of the brain always did one function, no matter what else happened. It
turns out that, fortunately, our genes do not directly dictate the wiring of our
brains. Our genes do provide a developmental strategy -- all the parts of the
brain will be used to maximal efficiency" (SHIBATA et. al. 2001).
Schon vor diesen Befunden, erkannten die Musiktherapeuten Carol and Clive
ROBBINS in Ihrer Arbeit mit hörbeeinträchtigten Kindern das Zusammenwirken von
Resthörvermögen und Vibrationsempfinden. Klänge wahrzunehmen ist durch eine
Summe von Fähigkeiten möglich: Empfindsamkeit und Bewusstheit dem Klang gegenüber, Schulung des Unterscheidungsvermögens von Klangqualitäten, wieder erkennen von Gleichklängen und Verständnis über Musik beziehungsweise die Interpretation der Wahrnehmung (vgl. ROBBINS und ROBBINS 1980).
„Die individuelle auditive Wahrnehmungsfähigkeit ist ein Prozess aktiv konstruierter akustischer Wirklichkeit. Sie ist da Resultat psychophysischer Erfahrung sowie genetischer und sozialisationsbedingter Faktoren und unterliegt einer großen Variabilität. Lebenslang werden auditive Erfahrungen angehäuft,
die in immer wieder neuen Situationen verändert werden und nicht identisch
wiederholt werden können“ (WICKEL und HARTOGH 2006, 116).
Die oben genannten Studien von KATZ und RÉVÉSZ zeigen noch einen weiteren,
bisher wenig berücksichtigten Aspekt der Musikwahrnehmung. Welchen Einfluss hat
das Auge bei der Musikwahrnehmung? Die Bedeutung der visuellen Eindrücke beim
Musikhören wurde erst allmählich nach der Erfindung von Tonträgern bewusst. Bis
dahin waren visuelle und auditive Informationen so gut wie immer gekoppelt. Die Beobachtungen gehörloser Menschen wie die des oben erwähnten Musikers Sutermeister machten schon früh auf diese Zusammenhänge aufmerksam.
„Viel hilft das Auge mit zu meiner Musikempfindung, indem die Bewegung des
Dirigenten und der Spielenden, insbesondere des Pianisten, mir die Art und
Weise der Musik leichter und schneller erklären und besser auf das Kommende vorbereiten, als wenn ich nicht hin sehe“ (KATZ und RÉVÉSZ 1926, 302).
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
44
Obwohl die gleichzeitige Verarbeitung unterschiedlicher Sinneseindrücke immer wieder Forschungsgegenstand der Psychologie war und ist, beklagt THOMPSON die
mangelnde Berücksichtigung dieses Aspektes in der aktuellen Forschung zur Musikwahrnehmung.
“Research on music performance has focused primarily on auditory aspect of
expression such as pitch, timbre and dynamics. What is frequently ignored is
that visual information greatly contributes o the experience of performed music. Such visual information includes gesture, facial expression and body language” (THOMPSON 2006, 217):
Nach GEMBRIS haben sich innerhalb der Rezeptionsforschung unterschiedliche
Schwerpunkt herausgebildet. Die Fragestellungen betreffen die kognitiven Wahrnehmungs- und Verarbeitungsprozesse beim Musikhören, das emotionale Erleben
und die emotionale Wirkung von Musik, psychophysiologische Wirkungen des Musikhörens, das Entstehen von musikalischen Präferenzen und Einstellungen sowie
die therapeutische Wirkung von Musik.
„Die Rezeptionsforschung ist ein interdisziplinäres Forschungsgebiet, das sich
mit der Wahrnehmung, dem Erleben und der Wirkung von Musik befasst. Für
die Musiktherapie ist die Rezeptionsforschung insofern von Bedeutung, als sie
Grundlagenwissen über das Musikhören und seine Wirkungen bereitstellt“
(GEMBRIS 1996, 321).
Bei neueren Untersuchungen treten rein kognitive (die Erkenntnis betreffende) Theorien zur Musikverarbeitung in den Hintergrund. In der Rezeptionsforschung kann nun
die Verschaltung von unterschiedlichen Sinneseindrücken aufgrund veränderter
technischer und methodischer Möglichkeiten immer genauer untersucht werden. Die
Forschergruppe um ALTENMÜLLER beispielsweise, ist diesem wesentlichen Aspekt
der Musikverarbeitung nachgegangen. Nicht nur der Klang, also die auditiven Reize,
erzeugen Musik in uns. Einen Musiker im Konzert zu beobachten, also die visuelle
Wahrnehmung, beeinflusst ebenso unser Musikempfinden wie die, zum Beispiel bei
lauten Passagen, gefühlten Vibrationen. Wenn wir selbst ein Instrument spielen
nehmen wir Musik als Abfolge von Griffmustern wahr – also durch sensomotorische
Informationen. Mit ausreichender Übung wird sogar aus bloßem Betrachten von Noten, zum Beispiel beim Studieren eines Notentextes (rein visuelle Information), in un-
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
45
serem Inneren Musik. In all diesen Modalitäten können wir Musik im Gedächtnis
speichern und repräsentieren.
„Berufspianisten können in der Tat eindrucksvoll schildern, wie ihnen beim Hören einer Klaviersonate die Finger jucken – und wie sie andererseits mit ihrem
inneren Ohr Klaviermusik hören, wenn sie mit den Fingern selbstvergessen
auf der Tischplatte trommeln“ (ALTENMÜLLER 2002, 24).
Die gleichzeitige kortikale Verarbeitung von Sinneseindrücken, also die Verschmelzung von Informationen aus verschiedenen Sinnensorganen wird "multisensorische
bzw. multimodale Integration“ genannt. In der englischsprachigen Literatur spricht
man von „cross-modal interaction“. Im Alltag verarbeitet das Gehirn Informationen
aus verschiedenen Sinnesorganen gleichzeitig, um seine Umgebung möglichst fehlerfrei beurteilen zu können.
Der Effekt ist zum Beispiel beim Reiben der Hände bekannt. Nicht nur die taktilen
und haptischen Eindrücke lassen die Hautoberfläche der Hände beurteilen, sondern
auch das Geräusch das dabei entsteht, entscheidet wie die Hautoberfläche beurteilt
wird. Wird dieses Geräusch geschickt manipuliert, dann schätzen Probanden ihre
Haut völlig anders ein. Nahm man jedoch früher an, dass zuerst die unterschiedlichen Sinneseindrücke getrennt verarbeitet werden und erst in einer höheren Ebene
miteinander verrechnet werden, zeigen neue Ergebnisse viel frühere Integration.
So sorgen taktile Sinneseindrücke, die gemeinsam mit einem auditiven Reiz angeboten werden dafür, dass der sekundäre auditorische Kortex stärker aktiviert wird, als
ohne zusätzlichen taktilen Reiz (vgl. KAYSER et. al. 2006, VINES et. al. 2006).
Für den nun letzten hier vorgestellten Bereich der multisensorischen Wahrnehmungsmöglichkeiten ist wiederum ein Blick auf angrenzende Wissenschaftsgebiete
nötig. Es waren eine Chemikerin und ein Physiker, Marie und Pierre Curie, die die
Piezoelektrizität und somit das Phänomen des Ultraschalls entdeckten. Zoologen
entdeckten Ultraschall als Jagdinstrument (der Fledermaus) und Kommunikationsmittel (bei Walen und Delphinen). Der Physiologe und Physiker HELMHOLTZ (1870)
fand die Bedeutung der Obertöne für die Tonhöhenwahrnehmung und der Komponist
HINDEMITH (2000) stellte Obertöne als Basis des Tonsatzes dar. Musikwissenschaftler wie FRICKE untersuchten akustische Phänomene wie Differenztöne im Be-
U. Stelzhammer-Reichhardt
Vom Hören und Nicht-Hören-Können
46
reich höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen
Hören (vgl. FRICKE 1960):
Die Erkenntnisse der unterschiedlichsten Disziplinen wurden immer wieder in Forschungsarbeiten zur Ultraschallwahrnehmung zusammengetragen und weiterentwickelt. Wie zum Beispiel die Untersuchungen der japanischen Forschergruppe um
OOHASHI. Sie konnte nachweisen dass Musik, deren Ultraschallanteile nicht weggefiltert wurden (wie dies bei Aufnahmen auf Tonträgern aus technischen Gründen üblich ist) die Gehirnaktivität gegenüber gefilterter Musik erhöhte und von den Versuchspersonen als angenehmer empfunden wurde (vgl. OOHASHI et. al. 2000).
Zur Untersuchung eines Teilaspektes der Musikwahrnehmung bei Gehörlosigkeit und
hochgradiger Schwerhörigkeit wurde im Rahmen der vorliegenden Arbeit eine Studie
zur Ultraschallwahrnehmung geplant und durchgeführt. Die folgenden Kapitel sind
dieser Forschungsarbeit gewidmet.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
47
3. Studien zur Ultraschallwahrnehmung
3.1. Physikalische Grundlagen
3.1.1. Allgemeine Schall- und Schwingungsphänomene
Schall, der unser Ohr erreicht und eine Hörempfindung auslöst, ist nur ein kleiner
Ausschnitt aus einer Vielzahl von möglichen Schallereignissen. Schall bildet sich aus
Schwingungen und Wellen in elastischen Medien. Unter elastischen Medien versteht
man im physikalischen Sinne Stoffe, deren Eigenschaft es ist, Schwingungen zuzulassen.
Mechanische Schwingungen und Wellen sind eine zeitabhängige Größe und werden
je nach Frequenz – die Zahl der Schwingung pro Sekunde - in Schallwellenbereiche
eingeteilt. Dabei ist Frequenz f = 1 Hz Hertz, eine Schwingung pro Sekunde. Sie breiten sich unterschiedlich schnell in fester, flüssiger und gasförmiger Umgebung sowohl in Form von Transversalwellen (senkrechte Ausdehnung) als auch Longitudinalwellen (Längsausdehnung) aus (vgl. BREUER 1992, 83).
Schallwellenbereiche:
Infraschall
Hörschall
Ultraschall
Abb. 3.1. aus BROSCHART et. al. 2003, S. 67, Schallwellenbereiche
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
48
Der hörbare Bereich von Schallwellen liegt etwa zwischen 20 bis 20 000 Hz. Die
Angaben schwanken je nach Autor. In der Literatur finden sich auch Werte von 16
bis 20 000 Hz (vgl. VOGL 1990, HELLBRÜCK 2004 sowie Kapitel 2.1.1.). Schwingungen die unterhalb dieses Hörfeldes liegen werden als Infraschall bezeichnet und
sind bei entsprechender Intensität als Vibrationen wahrnehmbar. Obwohl Infraschall
nicht direkt hörbar ist, werden Reaktionen wie Unwohlsein oder Angstgefühle auf
niederfrequente Schwingungen beschrieben (vgl. BERGLUND 1996). Große Orgeln
erzeugen in manchen ihrer tiefen Register ebenfalls Infraschall. In einigen älteren
Instrumenten gab es so genannte Demutspfeifen, die bei den Zuhörern die entsprechende demütige Stimmung hervorrufen sollten. Infraschall ist auch in Frequenzspektren von Tierlauten zu finden. Elefanten beispielsweise verwenden Infraschall
zur Kommunikation (vgl. KRATOCHVIL 2006, LANGBAUER et. al. 1991). Schwingungen oberhalb des Hörfeldes bezeichnet man ganz allgemein als Ultraschall (siehe Abbildung 3.1.). Extrem hohe Frequenzen von 109 Hertz und höher, liegen im
Bereich des Hyperschalls. Mit Hilfe von Hyperschall ist es zum Beispiel möglich Molekülstrukturen zu untersuchen (vgl. KOLLMANN 2006).
Ultraschallwellen bewegen sich in verschiedenen Materialien und Medien unterschiedlich schnell fort. Aus dieser und noch weiteren Eigenschaften ergeben sich
verschieden Anwendungs- und Einsatzbereiche für Ultraschallwellen. Man unterscheidet passive und aktive Anwendungsmöglichkeiten. Passive Anwendungen von
Ultraschall finden sich in Einparkhilfen von Autos oder als Echolot im Schiffsverkehr.
Hier kommen Frequenzen bis zu 200 kHz zum Einsatz. Für die Werkstoffprüfung fester Körper und zur medizinischen Diagnostik wird Ultraschall im Bereich von 3 – 20
MHz verwendet.
Ein weit größeres Anwendungsfeld ist jedoch die aktive Nutzung von Ultraschall. Hier
wird die Schwingungsenergie zum Reinigen, Schweißen, Schneiden, Umformen und
Bearbeiten verwendet. Dabei werden oft sehr hohe Leistungen benötigt, die bei unsachgemäßem Umgang Schaden in Gewebe und Material verursachen können (vgl.
LEHFELDT 1973).
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
49
3.1.2. Ultraschall nahe dem Hörfeld
Für die Musikwahrnehmung ist der dem Hörschall am nächsten gelegene Bereich
von Bedeutung. Die bei Instrumenten unterschiedlich stark ausgeprägten Obertöne
können das Hörfeld überschreiten und reichen dann in den Ultraschallbereich hinein
(vgl. FRICKE 1960).
Der Klang eines Musikinstrumentes oder der Stimme besteht aus einer Vielzahl von
komplexen Schwingungen. Die langsamste Schwingung oder auch Grundschwingung ist für die Bestimmung der Tonhöhe verantwortlich. Die weiteren Teilschwingungen sind immer ganzzahlige Vielfache der Grundschwingung und unterschiedlich
stark ausgeprägt. Sie sind unter anderem für die Klangfarbe und Klangqualität verantwortlich. Grundton und Teiltöne stehen miteinander in Wechselwirkung. So sind
die dem Grundton nahe liegenden Teiltöne ebenfalls wichtig für die Tonhöhenwahrnehmung. Obertöne die dem Grundton nicht mehr nahe liegen sind aber immer noch
wichtig für die Beurteilung von Klangfarbe und Klangqualität (vgl. HINDEMITH 2000
sowie Kapitel 2.1.1.).
In der Literatur wird auf die Bedeutung der Obertöne hingewiesen, dennoch fehlen
entsprechende Frequenzmessungen bezüglich des Ultraschallbereiches bei Musikinstrumenten.
FRICKE beschreibt diese Problematik bei Frequenzmessungen an der Orgel. Denn
meist wird oder kann im hochfrequenten Bereich nicht mehr gemessen werden.
„In 15 m Entfernung von der Orgel im Kirschenschiff kamen bei obertonhaltigen Klängen noch Teiltöne um 10 KHz mit Schalldrucken bis 0,1 µbar an. Oberhalb dieser Frequenz wurde nicht untersucht. (…) Doch ist anzunehmen,
dass dieser (Schalldruck, Anm. der Autorin) nicht stärker ist als die bei 10 KHz
liegenden Obertöne, da im Ganzen gesehen die Teiltöne mit steigender Ordnung schwächer werden. (…) Die Grenzen waren also bestimmt durch den
höchsten verfügbaren Schalldruck, also durch die beschränkten Mittel der
Meßapparatur“ (FRICKE 1960, 38).
FRICKE führt die mangelnde Datenlage - neben den fehlenden technischen Möglichkeiten zu dieser Zeit - auch darauf zurück, dass diese hohen Schallbereiche zwar
noch Hörempfindungen auslösen können, jedoch keine Tonhöhenunterscheidung
mehr möglich ist. Für die Musikwahrnehmung scheint Ultraschall somit nicht mehr
von Bedeutung zu sein. Dass vereinzelt dennoch Untersuchungen zur Wahrneh-
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
50
mung von Ultraschall durchgeführt wurden, davon wird im nachfolgenden Kapitel berichtet.
In der vorliegenden Arbeit beziehen sich alle Ausführungen zum Thema Ultraschall
immer auf den für die Musikwahrnehmung bedeutenden Bereich. Es ist dies das an
den Hörbereich angrenzende Frequenzspektrum von 20 kHz bis etwa 40 kHz.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
51
3.2. Entwicklung einer Fragestellung
3.2.1. Allgemeine Forschungsgeschichte
Pierre und Marie Curie entdeckten 1880 den piezoelektrischen Effekt mit dessen Hilfe Ultraschallwellen erzeugt und detektiert werden können.
Die Perzeptionsmöglichkeiten, das heißt die Wahrnehmungs- und Verarbeitungsmechanismen von Ultraschall, werden seit Anfang des 20. Jahrhunderts bei der Fledermaus erforscht. Heute gilt als gesichert, dass auch andere Tiere wie Delphine,
Spitzmäuse und verschiedene Insekten Ultraschall detektieren. Hunde zum Beispiel
hören bis 50 kHz, Katzen bis 80 kHz, Heuschrecken und Grillen bis 100 kHz, Fledermäuse und Delphine je nach Art bis zu 200 kHz. Fledermäuse erzeugen sehr intensive Ultraschallsignale in rascher Folge mit dem Kehlkopf und empfangen die reflektierten Echos mit den Ohren. Der Energieverlust durch die Luft ist dabei sehr
groß, sodass sich die Echoorientierung nur für den Nahbereich bis zu 20 Meter eignet (vgl. PUTZER 2005). Anders ist die Situation im Wasser. Die Leitfähigkeit von
Ultraschall im Wasser ist weit höher. Delphine erzeugen Ultraschallsignale mit einem
Mechanismus in der Lunge. Den reflektierten Schall nehmen sie mit ihrem Unterkiefer auf, von wo aus er an das Hörorgan weitergeleitet wird. Die Orientierung mittels
Echo ist bei den Delphinen nicht angeboren sondern wird erlernt und ermöglicht die
Jagd auch in trübem Wasser (vgl. KOLLMANN 2006).
Die Ultraschallperzeption beim Menschen wurde, wie bereits unter Kapitel 1. 2. erwähnt, erstmals in den 1940er Jahren zur Diskussion gestellt (vgl. GAVREAU 1948).
Seither versuchen Wissenschaftler die Mechanismen der Ultraschallperzeption und
deren Einfluss auf die Musikwahrnehmung zu erforschen, sowie Unterstützungsmöglichkeiten für Hörgeschädigte zu entwickeln.
Die meisten Publikationen entstanden in den USA und in Japan in etwa gleich bleibender Intensität von 4 – 6 Publikationen im Jahr. In den 1980 Jahren gab es auch
einige Publikationen in Deutschland. FLACH und HOFMANN untersuchten mittels
EEG-Messungen - wie sie in der Diagnostik von Hörstörungen angewandt werden –
ob durch Ultraschall evozierte (ausgelöste) Potentiale im auditorischen Kortex nachzuweisen sind. Damit erhofften sich die Wissenschaftler eine Erweiterung des audiologischen Prüfspektrums um zusätzliche Informationen zur Hörfähigkeit zu erlangen.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
52
Obwohl sowohl Flach als auch Hofmann hier eine geeignete Methode zur erweiterten
Hörprüfung sahen, wurden die offenen Forschungsfragen nicht weiter verfolgt.
„Es muß jedoch darauf hingewiesen werden, daß (…) Schlußfolgerungen zur
Wertung der Grundlagen eines angestrebten klinischen Einsatzes der Hörprüfung im Ultraschallbereich noch nicht gezogen werden können. Daß es sich
um Vorgänge handelt, die auf das akustische System zu beziehen sind (…)
steht außer Zweifel“ (FLACH 1980, 843; vgl. auch FLACH 1978 und
HOFMANN 1980).
Die Forschungen der letzten Jahre kommen verstärkt aus dem asiatischen Raum
(vgl. FUJIMOTO 2005; YANG 2005).
3.2.2. Mechanismen der Ultraschall-Perzeption
Die kontroverse Diskussion zur Ultraschallwahrnehmung lässt sich in zwei Bereiche
gliedern:
•
Ultraschallwahrnehmung via Knochenleitung und
•
Ultraschallwahrnehmung via Luftleitung (vgl. NISHIMURA et. al. 2000).
Die meisten frühen Forschungsberichte gehen von einer Wahrnehmungsmöglichkeiten von Ultraschall via Knochenleitung in hörenden Probanden aus (vgl. CORSO
1963 und DIEROFF et. al. 1975).
1991 zeigten LENHARDT et al., dass auch Gehörlose aus ultraschall-modulierten
Sprachsignalen Wörter diskriminieren konnten (vgl. LENHARDT 1991, 82). Diese
Ergebnisse führten dazu, dass Martin LENHARDT ein Patent für ein Ultraschallhörgerät anmeldete. In späteren Studien von HOSOI wurde mittels Magnetenzephalographie (MEG) die Aktivierung des auditorischen Kortex durch Ultraschall via Knochenleitung in gehörlosen Probanden bestätigt:
„The same cortical area was also significantly activated in the profoundly deaf
subjects although the percentage increase in regional cerebral blood flow
(rCBF) was smaller than in normal subjects” (HOSOI 1998, 496).
Über die Wahrnehmungsmechanismen und Pfade konnten noch keine gesicherten
Aussagen gemacht werden. Weitere Forschungen beschäftigten sich mit den Gemeinsamkeiten und Unterschieden zwischen Hörschall und Ultraschall:
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
53
NAKAGAWA et. al. beobachteten mit Hilfe der Messung von Laufzeitunterschieden
zwischen Ultraschall-Schallreiz und Reizantwort in der linken und rechten HirnHemisphäre, dass sich Ultraschall in der Reizantwort ähnlich dem Hörschall verhält
(vgl. NAKAGAWA 2000).
NISHIMURA untersuchte die Dynamikbereiche von Ultraschall und fand hier Unterschiede zum Hörschall. Er schloss aus seinen Beobachtungen, dass die inneren
Haarzellen an der Perzeption beteiligt sein könnten. Er schließt aber nicht aus, dass
es mehrere Wahrnehmungspfade geben könnte: NISHIMURA fasst die bisherigen
Beobachtungen in zwei unterschiedlichen Theorien zusammen
•
Ultraschallperzeption als Ergebnis inadäquater Stimulation von Teilen des Hörsystems, also zufällig und ohne weitere Bedeutung
•
Ultraschallperzeption als Ergebnis adäquater Stimulation von Teilen des Hörsystems. Wäre diese der Fall kämen 2 Wahrnehmungspfade in Betracht:
o Die Wahrnehmung basiert auf Ultraschall-Rezeptoren.
o Die Wahrnehmung basiert auf der Entstehung von Differenz-, oder Kombinationstönen im hörbaren Bereich.
Trotz weiterer Studien konnten bisher keine Mechanismen oder Rezeptoren für die
Ultraschallperzeption gesichert nachgewiesen werden (vgl. NISHIMURA 2000).
Andere Detailuntersuchungen zeigten, dass sich für Ultraschall keine tonotope Karte
im Kortex findet, wie es für den Hörschall beschrieben wird (vgl. FUJIOKA 2002, siehe Kapitel 2.1.4.). Alle diese Versuche bezogen sich immer auf Ultraschallsignale,
die mittels Knochenleitung übertragen wurden. Via Luftleitung konnten bei den verwendeten Studiendesigns keine Reaktionen beobachtet werden.
3.2.3. Ultraschall als Hörhilfe und Tinnitusmasker
LENHARDT et. al. schlugen 1991 die Möglichkeit vor, Hörhilfen auf Ultraschallbasis
zur Unterstützung für hörgeschädigte Menschen einzusetzen.
„These data suggest, that ultrasonic bone conduction hearing has potential as
an alternative communication channel in the rehabilitation of hearing disorders” (LENHARDT 1991, 82).
In seinem Lexikon der Hörschäden führt Plath 1993 diese Forschungsberichte an,
nach denen Gehörlose über Ultraschall Sprache verstehen können. Die Verfahren
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
54
seinen aber nicht ausreichend erprobt und in ihrer „Wirksamkeit zweifelhaft“ (PLATH
1993, 260).
Ungeachtet dessen beobachten und forschen verschiedene Arbeitsgruppen in Japan
und den USA weiter an den Möglichkeiten der Ultraschallwahrnehmung von gehörlosen und hochgradig schwerhörigen Probanden auf der Suche nach adäquaten Hörhilfen.
In Vergleichsstudien zu verschiedenen Hörhilfen wie Luftleitungs- und Knochenleitungshörgeräten sowie vibro-taktile Hörhilfen und Ultraschallhörgeräten, konnten
HOSOI et. al. und IMAIZUMI et. al. zeigen, dass alle Geräte den auditorischen Kortex
in ähnlicher Weise stimulieren. Ein Versuch zur Sprachdiskriminierung zeigte, dass
28 von 53 gehörlosen Probanden sprachmodulierte Ultraschalle detektieren konnten
und davon wiederum 11 Probanden die Sprachsignale auch differenzieren konnten
(vgl. HOSOI et. al. 1998, IMAIZUMI et. al. 2001).
LENHARDT stützt sich in seinen Untersuchungen auf frühe Beobachtungen aus den
späten 1940er Jahren wo bereits festgehalten wurde, dass Ultraschallhören unter
bestimmten Voraussetzungen möglich ist. Er unternimmt weitere Versuche (vgl.
LENHARDT 1991, 2003, 2005) und fasst zusammen, dass es keinen bestimmten
Platz für Ultraschall-Wahrnehmung zu geben scheint, sondern dass es sich offenbar
um eine dynamische Funktion handelt. Das Ohr wird scheinbar nicht direkt durch Ultraschall stimuliert, sondern es kommt zu einer Interaktion durch zwischengeschaltete
Strukturen die noch nicht genau bekannt sind. Es gibt Hinweise darauf, dass die Resonanz des Gehirns eine Rolle spielt. LENHARDT, aber auch NISHIMURA beobachten weiters durch die Interaktion von Ultraschall und hochfrequentem Hörschall Maskierungseffekte. Sie sehen darin eine Möglichkeit zur Behandlung von Tinnitus durch
die Entwicklung eines so genannten Tinnitusmaskers. Tinnitus bezeichnet eine
Krankheit des Hörsystems, bei dem der Patient von Störgeräuschen geplagt ist, die
nicht von außen auf das Ohr treffen, sonder gleichsam im Patienten selbst entstehen.
Ein Tinnitusmasker ist ein Art Hörgerät das die Störgeräusche im Ohr überdeckt (vgl.
LENHARDT 2003, NISHIMURA 2002 und Kapitel 1.2.).
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
55
3.2.4. Ultraschall und Musikwahrnehmung – „Hypersonic Effekt“
Der Einfluss von Ultraschall auf die Musikwahrnehmung wurde von FRICKE 1960
untersucht. FRICKE weißt dabei auf die Problematik der Messtechnik hin. Oftmals
wurde der Frequenzbereich von Musikinstrumenten über 10, 15, oder 20 kHz nicht
mehr untersucht (vgl. FRICKE 1960, WINKLER 1988 und Kapitel 3.1.1.)
Die Frage nach den für die Musikwahrnehmung wichtigen Frequenzen wurde mit der
Erfindung der digitalen Audio-Formate vakant. Erstmals wurde es notwendig die aufzuzeichnenden Frequenzbereiche – und somit die Datenmenge - festzulegen. Die
hörbaren Frequenzbereiche für Audio-Aufnahmen wurden durch umfassende Studien offizieller Stellen wie zum Beispiel dem französischen Komitee „Comité Consultatif Internationals Radiophonique“ 1978 festgelegt. Nach Forschungsarbeiten in der
ersten Hälfte des 20 Jahrhunderts. wurde generell akzeptiert, dass Frequenzen über
20 kHz die menschliche (Hör-)Wahrnehmung nicht mehr beeinflussen (vgl.
HELLBBRÜCK 2004). Die Entwicklung von Aufnahmetechniken wurde dementsprechend standardisiert und enthält demnach keine hochfrequenten Komponenten. Heutige Künstler und Techniker, die an der Produktion von akustisch perfekten Musikaufnahmen arbeiten, sind jedoch durch ihre praktischen Erfahrungen davon überzeugt, dass hochfrequente Schallkomponenten über dem hörbaren Bereich die Musikqualität maßgeblich beeinflussen. In der Produktbeschreibung eines Lautsprechers, bei dem besonders die Ausgewogenheit zwischen Tief-, Mittel- und Hochtonkomponenten beworben wird, heißt es: „Ein neuer Hochtöner, der
einen noch weiter ausgedehnten Frequenzverlauf bis über 45.000Hz aufweist,
findet nun seinen Einsatz – der JET4“ (BURMESTER 2007, o. Seitenangabe).
Im Klangspektrum vieler Instrumente aber auch in natürlicher Geräuschumgebung
wie zum Beispiel im tropischen Regenwald sind ein hoher Anteil an Frequenzen im
Ultraschallbereich enthalten (vgl. MONTEALEGRE 2006). OOHASHI untersuchte
deshalb 2000, ob diese Ultraschallanteile in Verbindung mit den hörbaren Anteilen
der Musik die Hirnaktivität und somit unsere Wahrnehmung beeinflussen. OOHASHI
bot seinen normal hörenden Probanden verschieden gefilterte Musik an. Die Hörbeispiele bestanden aus natürlicher Musik des Gamelanorchesters aus Bali, welches
reich an hochfrequenten Komponenten (high-frequency-components – HFC) über 22
kHz ist. Weiters Hörbeispiele wurde dieselbe Musik gefiltert, sodass nur tieffrequente
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
56
Komponenten (low-frequency-components – LFC) unter 22 kHz übrig blieben. Es
konnte bei den Hörbeispielen mit ultraschallreicher Musik eine signifikante Zunahme
der Alpha-Aktivität hinterhauptseitig (occipital) im EEG beobachtet werden. Aber
auch die PET-Messungen (Positronenemissionstomographie: bildhafte Darstellung
und quantitative Erfassung des Stoffwechsels und des Funktionszustandes von Organen wie z.B. des Gehirns) ergaben eine Zunahme des regionalen cerebralen Blutflusses im Hirnstamm und Thalamus. Die gefilterten Hörbeispiele mit LFC (lowfrequency-components) ergaben keine Zunahme im EEG und PET im Vergleich mit
der Baseline (= Messungen im Ruhezustand ohne Reizangebot). Aber auch HFC
(high-frequency-components) alleine ohne Hörschall angeboten zeigten keine Zunahme der Hirnaktivität (vgl. OOHASHI 2000). Eine parallel dazu durchgeführte musikpsychologische Evaluierung ergab, dass die Probanden die ultraschallreichen Hörbeispiele als
o weicher und mehr widerhallend,
o mit einer besseren Balance der Instrumente beurteilten
o
und als angenehmer für das Ohr und reicher an Nuancen beschrieben.
Er nannte diese Beobachtung `hypersonic effect´:
„In this study, we used noninvasive physiological measurements of brain responses to provide evidence that sounds containing high-frequency components
(HFCs) above the audible range significantly affect the brain activity of listeners.
(…) results suggest the existence of a previously unrecognized response to complex sound containing particular types of high frequencies above the audible
range. We term this phenomenon the "hypersonic effect" (OOHASI 2000, 3548).
OOHASI findet keine Erklärung für Mechanismen der Ultraschallperzeption. Er stellt
fest, dass es eine Interaktion zwischen „innerhalb“ und „außerhalb“ des klassischen
Hörfeldes gibt. Weiters; dass die Beteiligung von nicht-auditorischen Systemen und
somatosensorische Perzeptionsmöglichkeiten in der weiteren Forschung bedacht
werden müssen.
„In conclusion, our findings (…) give strong evidence supporting the existence
of a preciously unrecognized response to high- frequency sound beyond the
audible range that might be distinct from more usual auditory phenomena.”
(OOHASHI 2000, 3549)
Die Studie von OOHASI wurde 2003 von YAGI et. al. aufgegriffen und weiter entwickelt. YAGI untersuchte die näheren Zusammenhänge zwischen HFC (high-
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
57
frequency-component) und der Schwelle der angenehmsten Lautstärke (comfortable
listening level, CLL). Dafür wurde ein Multi-Parameter-Verfahren verwendet, bei dem
•
der CLL erfasst wurde,
•
psychologische Verfahren zur Kategorisierung des subjektiven Eindrucks und
•
physiologische Messungen unter Verwendung des EEG angewandt wurden.
Die Studie zeigte eine Zunahme des comfortable listening level (CLL) bei Zunahme
der high-frequency components (HFC) sowie eine Verbesserung des subjektiven
Klangeindruckes was sich im EEG als Zunahme im Alpha-EEG abbildete. Die höchste Zunahme des Effektes fand bei der Zunahme des HFC um +6 dB statt. Es konnte
gezeigt werden, dass die Zunahme des Effektes nicht linear erfolgt, jedoch einen
`Optimal-Punkt´ erreichen kann.
„Taken together, the results of the present study demonstrate, that an enhanced HFC increased the CLL and improved the subjective impression of the
sound in association with an increase in the alpha-eeg. These effect were
most prominent with an increase of +6 dB in the HFC, plateauing or decreasing again with a further increase in the HFC. These results suggest that the inaudible HFC has a modulatory effect on human sound perception and that
such an effect may not linearly increase an the intensity of the HFC increases,
but hat some optimum point” (YAGI 2003, 191).
Ultraschall spielt demnach in der Musikwahrnehmung eine Rolle. Die Bedeutung
dürfte dabei vor allem in der Hör- bzw. Klangqualität liegen.
3.2.5. Fragestellung und Planung des vorliegenden Forschungsprojektes
In den vorangegangenen Unterkapiteln (3.2.1. bis 3.2.4.) wurde versucht, die unterschiedlichen Entwicklungsstränge der Ultraschallforschung aufzuzeigen. Von den
ersten Entdeckungen des piezoelektrischen Effekts (Ultraschallerzeugung) über die
Wahrnehmungs- und Kommunikationsmöglichkeiten via Ultraschall von Tieren bis hin
zu den Untersuchungen zur Bedeutung der Ultraschallwahrnehmung für den Menschen. Dabei konzentrierten sich die bisherigen Versuche auf zwei Bereiche:
•
Zum einen auf die Ultraschallwahrnehmung via Knochenleitung. Hier konnte eine
Aktivierung des auditorischen Kortex, und somit die Auslösung eines akustisch
bedeutsamen Reizes durch Ultraschall, in hörenden und gehörlosen Probanden
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
58
beobachtet werden. Die kortikalen Antworten hatten eine Charakteristik die ähnlich der Antworten auf Hörschall ist (vgl. HOSOI 1998, FUJIOKA 2002, siehe auch
3.2.2.).
•
Zum anderen gibt es Beobachtungen zur Ultraschallwahrnehmung via Luftleitung.
Diese Untersuchungen wurden bisher immer mit hörenden Probanden durchgeführt und zielten im Gegensatz zu den Untersuchungen zur Knochenleitung nicht
auf die Sprachwahrnehmung, sondern auf die Musikwahrnehmung ab (vgl.
OOHASI 2000, YAGI 2003, siehe auch 3.2.4.).
In der vorliegenden Arbeit steht die Musikwahrnehmung gehörloser und hochgradig
schwerhöriger Menschen im Vordergrund. Für die musikpädagogische und musiktherapeutische Praxis ist die Frage nach den Grundlagen der Musikwahrnehmung von
elementarer Bedeutung. Deshalb wurden zuerst die zurzeit bekannten multisensorischen Zugangsweisen zur Musikwahrnehmung vorgestellt. Mit der Planung und
Durchführung eines eigenen Forschungsprojektes zur Ultraschallwahrnehmung soll
ein neuer Aspekt zur multisensorischen Musikwahrnehmung aufgezeigt werden. Dabei wurde aus den Beobachtungen zur Ultraschallwahrnehmung in einem musikalischen Kontext bei hörenden Probanden ein Studiendesign für gehörlose und hochgradig schwerhörige Probanden entwickelt. Es entstanden dabei zwei zentrale Fragestellungen:
•
Gibt es eine kortikale und/oder psycho-physiologische Antwort auf Ultraschall in
einem musikbezogenen Kontext und via Luftleitung übertragen bei gehörlosen
und hochgradig schwerhörigen Probanden?
•
Welche Überlegungen entstehen aus der Betrachtung der Ergebnisse für die musikpädagogische und musiktherapeutische Praxis?
Planung der Ultraschallstudie
In Anlehnung an frühere Studien wurde für das vorliegende Forschungsprojekt ein
Ultraschallsignal mit einer gleich bleibenden
•
Frequenz von etwa 28 kHz ausgewählt. Diese Frequenz liegt nahe am Hörschall und entspricht so der Hypothese, dass es zwischen Hör- und Ultraschall
zu einer Wechselwirkung kommen kann. Als musikalischer Kontext wurde die
•
Rhythmisierung gewählt. Die Reduzierung auf einen einzelnen musikalischen
Parameter erleichtert die Auswertung der gewonnen Daten und die Interpreta-
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
59
tion. Um für gehörlose, schwerhörige und hörenden Probanden die gleichen
Bedingungen zu schaffen war es notwendig, die Untersuchungen in einem
•
schalldichten Raum durchzuführen. So konnte unter gleichen Voraussetzungen, ohne akustische Ablenkung der hörenden Probanden in der Kontrollgruppe, Ultraschall via
•
Luftleitung übertragen und angeboten werden. Als
•
Messinstrumente wurden ein Elektroenzephalogramm (EEG) und die so genannte SMARD-Watch eingesetzt. Beide Instrumente erlauben eine objektive
Beobachtung der Reaktionen auf die Ultraschallsignale, da eine bewusste
Wahrnehmung durch die Probanden nicht zu erwarten war. Die teilnehmenden
•
Probanden sollten einen seit ihrer Kindheit hochgradigen Hörverlust aufweisen
beziehungsweise gehörlos sein. In einer Kontrollgruppe wurde der Versuchablauf mit normal hörenden Probanden durchgeführt.
Die verwendeten Materialien und Methoden werden im folgenden Kapitel detailliert
beschreiben.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
60
3.3. Material und Methoden
Eine Pilotstudie oder auch Leitstudie genannt, kommt dann zum Einsatz, wenn aufgrund der Forschungslage noch keine standardisierten Methoden vorliegen.
„Untersuchung mit nicht standardisierten Mitteln (…), die mitunter der Vorbereitung einer größeren Studie (mit standardisierten Techniken) dient“
(MEYERS LEXIKON 2007, o. Seitenangabe).
Eine Pilotstudie kann auch dann durchgeführt werden, wenn die Effektivität einer
Forschungsmethode erprobt werden soll. In der empirischen Sozialforschung versteht man unter einer Pilotstudie eine Studie, die die Tauglichkeit einer These anhand einer kleinen überschaubaren Gruppe repräsentativ ausgewählter Personen
belegt werden soll (vgl. BORTZ, 1984). Das vorliegende Forschungsprojekt entspricht in diesem Sinne einer Pilotstudie.
3.3.1. Probanden:
Für das Forschungsprojekt konnten 26 Personen zur Teilnahme gewonnen werden.
Von den 26 gemeldeten Probanden gab es 1 Absage durch Krankheit, 1 Absage
nach Informationsgespräch, 1 Nichterscheinen am Versuchstag.
Es verblieben 23 Teilnehmer. Davon
•
12 gehörlose (gl) und hochgradig schwerhörige (hsh) Probanden
für die Versuchsgruppe und
•
11 normal hörende (h) Probanden für die Kontrollgruppe
Tab. 3.1. Probandenstammdaten Versuchsgruppe. Zum Schutz der Anonymität wurden in dieser Tabelle Angaben zu Geschlecht und Alter entfernt.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
61
Kontrollgruppe: n=11
fortlfd. Nr.
ID-Nr.
Hörstatus Alter Geschlecht
1
1
h
46
weibl.
2
3
h
25
weibl.
3
10
h
40
weibl.
4
13
h
49
weibl.
5
8
h
27
weibl.
6
2
h
58
weibl.
7
11
h
37
weibl.
8
20
h
58
männl.
9
15
h
35
weibl.
10
9
h
46
weibl.
11
21
h
45
weibl.
Tab. 3.2. Probandenstammdaten Kontrollgruppe
Erläuterung der Tabellen 3.1. und 3.2.:
Insgesamt nahmen 17 Frauen und 6 Männer im Alter von 25 bis 67 Jahren an der
Studie teil. Die Versuchsgruppe umfasste 12 gehörlose und hochgradig schwerhörige Probanden, die Kontrollgruppe 11 normal hörende. Um den Hörstatus (h=hörend,
gl=gehörlos, hsh=hochgradig schwerhörig) zu protokollieren wurde von jedem Probanden ein Audiogramm erstellt. Ein Audiogramm beschreibt das subjektive Hörvermögen, also die frequenzabhängige Hörempfindlichkeit eines Menschen und gilt als
wichtiges Diagnosewerkzeug der HNO-Heilkunde. Mit einem Audiogramm können
Aussagen über die Symptome und teilweise auch über die Ursachen von Beeinträchtigung des Hörvermögens getroffen werden. Der Hörverlust der gehörlosen und
hochgradig schwerhörigen Probanden lag bei 97 dB im Mittel. Die Hörschwelle der
normal hörenden Probanden lag zwischen 0 und 20 dB (vgl. Kapitel 2.2.1.).
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
62
Abb. 3.2. aus: Versuchsprotokoll, Beispielaudiogramm Kontrollgruppe normal hörende Probanden
Abb. 3.3. aus: Versuchsprotokoll, Beispielaudiogramm Versuchsgruppe gehörlose Probanden (die
Pfeile kennzeichnen jene Frequenzen bei denen keine Hörschwelle ermittelt werden konnte,
da sie jenseits der höchsten hier messbaren Lautheit liegt).
Die Angaben zur technischen Versorgung (HG), Art/Ursache der Hörbeeinträchtigung
und Zeitpunkt der Ertaubung wurden mittels Stammdatenfragebogen ermittelt.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
63
3.3.2. Geräte und Räume:
5
1
7
1
4
1
6
1
1
1
2
1
3
1
Abb. 3.4. verwendete Geräte
Erläuterung der verwendeten Geräte:
1.
Funktionsgenerator: VCQ/VCA Generator, Modell 136 der Fa. Wavetek
2.
Ultraschalllautsprecher: Piezo-Kalotten-Hochtonlautsprecher mit Trichter L001
der Fa. Kemo (Kemo-Electronic GmbH, D-27607 Langen)
3.
Schalldruckpegelmessgerät: Sound Level Meter SL-4001 der Fa. Lutron
(Lutron Electronic Enterprise Co, Taiwan )
4.
Ultraschalldetektor: Ultraschall-NF-Konverter der Fa. ELV
5.
Oszillogprah: Oszilloskope HM 404-2 der Fa. Hameg
6.
Schaltbrett: Archiv Mozarteum
7.
Funktionsgenerator: (Reserve; Archiv Mozarteum)
Ohne Abbildung:
•
EEG-Gerät: BQ 3200 der Fa. micromed (www.micromed-it.com)
•
EEG-Software: Brain Quick System Plus der Fa. micromed
•
SMARD-Watch: I.S.F. Institut für Stressforschung GmbH, Berlin
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
64
Ultraschall-Frequenzerzeugung
Die Ultraschallsignale wurden von einem
•
Funktionsgenerator (1) erzeugt, der außerhalb des Versuchsraumes aufgebaut war. Funktionsgeneratoren sind Geräte zum Erzeugen elektrischer
Schwingungen mit unterschiedlichen Kurvenformen. Die in der vorliegenden
Studie erzeugte Frequenz lag bei 28 kHz in Sinusform und wurde mit einer
Periodendauer von 6 Sekunden manuell über einen Regler moduliert um einen Rhythmus von 10 an- und abschwellenden Pulsen pro Minute zu erzeugen. Mittels
•
Ultraschalllautsprecher (2) wurden die sinusförmigen Ultraschalltöne in den
schalldichten Versuchraum übertragen. Der Schalldruckpegel der Signale betrug am Hörplatz 43,35 dB SPL am Lautsprecher 73,85 dB SPL und entsprach
dem maximal mit dem Funktionsgenerator erzeugbaren Schalldruck. SPL
steht für sound pressure level und gibt die Bezugsgröße 0dB = 20µPa (Mikropascal) an.
Der Abstand zwischen Hörplatz und Lautsprecher lag bei 1,10 m.
Kontrollinstrumente
Als Kontrollinstrumente wurden ein
•
Oszillograph (5), ein
•
Ultraschalldetektor (4) sowie ein
•
Schalldruckpegelmessgerät (3) verwendet.
Ein Oszillograph ist ein technisches Gerät zum Sichtbar machen von periodischen
Vorgängen. Mittels Oszillographen wurden die Frequenzen und Schalldrucke des
Ultraschalls während des Versuchsablaufes kontrolliert.
Mittels Schallpegelmessgerät wurde der Schalldruck vor dem Versuch kontrolliert,
damit an jedem Versuchtag gleich bleibende Werte gesichert waren.
Der Ultraschalldetektor bzw. -konverter transformiert Ultraschall in den Hörbereich.
Mit Hilfe des Ultraschallkonverters wurde an jedem Versuchstag der Versuchsraum
abgehört um eventuelle Ultraschallstörschalle auszuschließen.
Messgeräte und -methoden
•
Elektroenzephalogramm (EEG)
•
SMARD-Watch
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
65
Das Elektroenzephalogramm
Die Existenz von elektrischen Spannungen physiologischen Ursprungs im Kopfbereich ist seit 1875 bekannt. Seit den 1930er Jahren ist die Anwendung beim Menschen beschrieben.
„Die Gesamtheit aller von der Kopfhaut mit Hilfe von Elektroden ableitbaren
elektrischen Potentiale wird als das EEG bezeichnet“ (HOTH 1994, 18).
Die Aufzeichnung dieser elektrischen Potentiale zählt zusammen mit der Aufzeichnung von Magnetfeldern (Magnetenzephalogramm, MEG und Positronenemissionstomographie, PET) zu den wichtigsten methodischen Zugängen um informationsverarbeitende Prozesse im Gehirn zu erforschen. Zu diesen zählen auch akustisch
evozierte Potentiale. In der HNO-Heilkunde ist die elektrische Reaktions-Audiometrie
eine der Möglichkeiten, das Hörvermögen zu überprüfen. Die Untersuchung des fortlaufenden EEG mittels Fourieranalyse und statistischen Verfahren zur Erforschung
des Musikhörens wurde von Hellmuth PETSCHE in den 1980er und 1990er Jahren
forciert.
„Zur Messung der Beeinflussung physiologischer Vorgänge im Gehirn durch
Musikhören kommen vor allem Untersuchungen des Hirnstoffwechsels, der lokalen Hirndurchblutung und der elektrischen Hirntätigkeit (EEG) in Betracht“
(PETSCHE 1989, 111).
EEG-Messungen verfügen über eine gute Zeitauflösung. Dafür entsteht eine örtliche
Ungenauigkeit bezüglich des anatomischen Ursprungs der gemessenen Spannungsschwankung. Mit Hilfe mathematisch–statistischer Analysen wird versucht, diese Ungenauigkeit auszugleichen. In der klinischen Praxis werden EEG-Messungen oft
durch bildgebende Verfahren ergänzt.
Die in den Zellmembranen der Großhirnrinde (Kortex) entstehenden exzitatorischen
(erregenden) und inhibitorischen (hemmenden) postsynaptischen Potentiale sind
größtenteils für die EEG-Spannung verantwortlich. Einen geringen Anteil leisten die
Aktionspotentiale der Nervenzellen. Weitere Potentiale, Myogene, die aus Muskelfasern stammen, gehören nicht zum EEG. Sie können aber bei der Aufzeichnung eines
EEG das elektrische Signal überlagern und erfordern deshalb bei der Beobachtung
von sensorisch evozierten Potentialen Beachtung.
Die messbaren elektrischen Signale sind sehr schwach. Die Spannungsschwankungen liegen zwischen 1 – 200 Millionstel Volt, also im Mikrovoltbereich (µV). Sie werden von der Schädeloberfläche mit Hilfe von Elektroden aus Silberlegierung und ei-
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
66
ner gut leitenden Paste abgeleitet und aufgezeichnet. Immer zwei Elektroden werden
mit einem Verstärkerkanal verbunden, der die Potentialdifferenz beider unter den
Elektroden liegenden Orte misst. Zur Aufzeichnung von mehreren Orten des Gehirns
wird ein Polygraph benötigt, der mehrere Verstärkereingänge besitzt und die Spannungsschwankungen in Form von Wellen entweder auf Papier oder auf Bildschirm
aufzeichnet. Ein Polygraph unterdrückt weiters Störsignale und hebt die für die Messung wichtigen Potentialdifferenzen hervor (Filtercharakteristik).
Das international verwendete System zur Platzierung der EEG-Elektroden geht zurück auf den kanadischen Neurowissenschaftler und Pionier auf dem Gebiet der Elektroenzephalographie Herbert Henri Jasper (1906–1999). Sein 1958 eingeführtes
10-20-System wird nach wie vor angewandt (vgl. BIRBAUMER und SCHMIDT 1999,
HOTH 1994).
Abb. 3.4. aus: BIRBAUMER und SCHMIDT,
1999 S.490, Platzierung der EEGElektroden nach dem internationalen
10-20-System nach Jasper
Abb. 3.5. Anlegen der EEG-Elektroden
Die EEG Wellen werden zur Charakterisierung in eine Reihe von Sinuswellen unterschiedlicher Frequenz und Amplitude zerlegt. Die Frequenzen werden in Frequenzbereiche eingeteilt:
U. Stelzhammer-Reichhardt
•
Delta -Band: < 4 Hz
•
Theta – Band: 4 – 8 Hz
•
Alpha – Band: 8 – 13 Hz
•
Beta – Band: 13 - 30 Hz
•
Gamma-Band: > 30 Hz
Studien zur Ultraschallwarhnehmung
67
Die Variabilität der Wellenmuster ist innerhalb der Frequenzbänder sehr groß und
sieht bei jedem Menschen anders aus (vgl. HOTH 1994, GAZZANIGA 2002).
Im vorliegenden Forschungsprojekt werden EEG-Messungen zur Beobachtung der
Hirntätigkeit bei Reizangebot durch Ultraschall eingesetzt. Zusätzlich wurden psychophysiologische Parameter mittels SMARD-Watch am Handgelenk gemessen.
SMARD-Watch
Abb. 3.6. aus : SMARD-Watch-Handbuch 2000, SMARD-Watch 2-teilig: Messband mit
Elektroden und Messgerät
Die SMARD-Watch ist ein vom Berliner Institut für Stressforschung entwickeltes System zur noninvasiven Messung und Analyse in der Regulations-Diagnostik und Therapie. Mit der SMARD-Watch können kontinuierlich Daten psycho-physiologischer
Parameter wie
•
Herzfrequenz
•
Pulsfrequenz
•
Elektromyogramm
•
Hautwiderstand
•
Hautpotential
•
Hauttemperatur und
•
Konvektionstemperatur
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
68
mittels spezieller Elektroden bzw. Sensoren registriert werden.
Abb. 3.7. aus : SMARD-Watch-Handbuch 2000, Institut für Stressforschung GmbH 04/200, Berlin,
Messpunkte am SMARD-Watch Armband
Aus den relativen Änderungen der registrierten Daten können mittels Zeitreihenanalyse chronobiologische sowie Vorgänge beziehungsweise Zustandsänderungen biologischer Prozesse aufgezeigt werden.
Die zeitliche Auflösung der Messungen beträgt zwischen 1 bzw. 10 Sekunden. Die
Datenerfassung erfolgt mit Hilfe von Mikroprozessortechnik und kann sowohl offline
als auch online über serielle Schnittstellen am PC verarbeitet werden (vgl. SMARDWatch Handbuch 2000).
Für die vorliegende Studie wurden vor allem die Messungen von Hautpotential und
Hautwiderstand berücksichtigt: Die Zellverbände auf der Hautoberfläche zeigen eine
elektrische Aktivität die sich aus Membranpotentialen bildet. Das
•
elektrische Hautpotential charakterisiert daraus den allgemeinen Erregungsgrad der Hautoberfläche.
•
Der elektrische Hautwiderstand resultiert aus dem mehrschichtigen Aufbau
der Haut, der physikalisch gesehen mehrere in Serie und parallel geschaltete
Widerstände darstellt. Er reflektiert die emotionell-sympathische Reaktion des
Menschen (vgl. SMARD-Watch Handbuch 2000; BOUCSEIN 1988).
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
69
Versuchsräume
Die Versuche wurden in den Räumen der Audiologie der HNO-Abteilung des St. Johanns-Spital in Salzburg durchgeführt.
•
Arbeits- bzw. Vorbereitungsraum: Anlegen des EEG, Vor- und Nachbesprechung, Geräteaufbau
•
Versuchsraum: Schalldichter Audiometrieraum mit Sichtfenster zum Arbeitsraum; Ultraschalllautsprecher, Messgeräte
Abb. 3.8. Audiometriezimmer
3.3.3. Versuchsverlauf:
Vorbereitung: In einem
•
Vorgespräch wurden dem Probanden der Versuchsablauf (siehe unten) erläutert, ein
•
Stammdatenblatt vom Probanden ausgefüllt sowie ein
•
Audiogramm erstellt. Weitere Vorbereitungsarbeiten waren das
•
Anlegen der Messinstrumente EEG und SMARD-Watch und
•
Einstellen des Hörplatzes auf den Probanden.
•
Danach erfolgte eine Rückfrage bezüglich Wohlbefinden und Hinweis zur
Möglichkeit des jederzeitigen Abbruchs des Versuches.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
70
Abb. 3.9. Anlegen der Messinstrumente SMARD-Watch und EEG
Versuchsablauf:
Der Versuchsablauf selbst dauerte 12 Minuten. Davon waren 5 Minuten Ruhephase,
2 Minuten modulierte Ultraschallsignale, und anschließend wieder 5 Minuten Ruhephase. Die Probanden wurden über Anzahl, Dauer und Zeitpunkt der Ultraschallsignale nicht informiert.
Ablauf im Detail:
•
5 min Ruhephase.
•
Beginn Ultraschallphase:
o 30 sec Dauerschall, anschließend
o 1 min an- und abschwellen des Schalldruckes in 6-sec-Intervallen, dann
o 30 sec Dauerschall.
•
Ende Ultraschallphase, im Anschluss wiederum
•
5 min Ruhephase
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
71
Abb. 3.10. schematische Darstellung des Versuchsablaufes im Detail
3.3.4. Auswertung:
•
Auswertung der EEG-Daten
•
Auswertung der SMARD-Watch-Daten
Für die vorliegende Studie war es notwendig eine Methode zu finden, die es gestattet
innerhalb eines EEG-Signals oder Signals eines vegetativen Parameters (Messungen der SMARD-Watch) – welches als Zeitreihe vorliegt – ein definiertes, von außen
auf die Versuchsperson einwirkendes Signalmuster in Form einer Sinuswelle, zu entdecken. Im Idealfall korreliert das EEG-Signal oder das Signal des vegetativen Parameters zum Auftrittszeitpunkt des Modulationssignals zu 100 %.
Diese Methode findet sich in der dynamischen Kreuzkorrelationsanalyse nach
SCHRUEFER und BALZER, die hier zur Anwendung kam (vgl. SCHRUEFER 1990,
BALZER 2002):
Bei der Auswertung des EEG wurden nicht wie bei audiologischen Messungen üblich
die evozierten Aktionspotentiale analysiert. Vielmehr wurden die Summenpotentiale
einer Kreuzkorrelationsanalyse unterzogen. Das heißt, es wurden die EEG-Daten mit
dem Frequenzmuster der Ultraschallsignale verglichen um zu sehen, ob und wie die
Hirnströme mit dem Ultraschallmuster korrelieren. In gleicher Weise wurde mit den
Zeitreihen aus den Messungen der vegetativen Parameter der SMARD-WATCH verfahren.
Um die Wechselbeziehungen zwischen zwei Vorgängen zu verifizieren, werden Zeitreihen von Messdaten der jeweiligen Vorgänge aufgenommen und innerhalb eines
Datenfensters die Korrelationsfunktion Φxy bestimmt. Bei Durchschieben des Datenfensters durch die beiden Vorgänge f(x,t) und f(y,t) entsteht die Änderung des Korre-
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
72
lationskoeffizienten über die Zeit, bezeichnet als dynamische Kreuzkorrelationsfunktion.
Während bei der gewöhnlichen Kreuzkorrelation von zwei identischen Sinusfunktionen
•
Φxy = 1 ist, ist im Vergleich dazu bei der dynamischen KKF
•
Φxy[t] = 1.
Das EEG wurde mit einer Abtastrate von 256/sec. gemessen. Die Modulation des
Ultraschallsignals erfolgte manuell über einen Regler mit einer Periodendauer von 6
sec. (0,167 Hz). Dadurch wurde das Ultraschallsignal 10mal innerhalb von 1 Minute
sinusartig moduliert.
Zum Nachweis der Beeinflussung des EEG-Signals durch Ultraschall wurde von der
Hypothese ausgegangen, dass der Ultraschall auf Grund seiner hohen Frequenz von
ca. 28 KHz selbst nicht im EEG-Signal zu finden ist, wohl aber niederfrequente Modulationen des Ultraschallsignals. Zur Analyse mittels der dynamischen KKF wurde
das EEG-Signal blockweise mit dem Faktor 16 gemittelt, entsprechend einer mittleren Abtastrate von 16/sec. Dazu wurde ein sinusförmiges Vergleichssignal 1 mit der
Periode 6 sec (6 * 16 Werte/sec * 60 sec. = 960 Werte) als Zeitreihe generiert. Dieses Vergleichsignal wurde durch die Zeitreihe des EEG-Signal geschoben und der
jeweilige KKF-Koeffizient (KKF = Kreuzkorrelation) bestimmt.
Abb. 3.11. Vergleichssignal 1: Die rote Linie stellt das
Rechenmodell des über eine Minute
ausgestrahlten Ultraschallsignals dar.
Abb. 3.12. Verrechnung des Vergleichssignals 1 mit
dem Datenmaterial
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
73
Auf Grund der wesentlich geringeren Abtastrate des zur Messung vegetativen Parameters benutzten Gerätes SMARD-Watch (1/sec.) enthält das Vergleichsignal 2 bei
der Periode 6 exakt 1 Wert/sec. *60 sec = 60 Werte (vgl. BALZER 2007).
25
20
15
10
5
0
1
3
5
7
9
11
13
15
17
19
21
23
25
27
29
31
33
35
37
39
41
43
45
47
49
51
53
55
57
59
61
-5
-10
-15
-20
-25
Abb. 3.13. Vergleichsignal 2
3.3.4.1. Auswertung der EEG-Daten
Schritte der Auswertung:
1. Mittelung der Rohdaten
Nach Abschluss der Messungen wurden die Rohdaten zur weiteren Verarbeitung
aufbereitet. Dafür wurde die Datenmenge durch Mittelung reduziert (siehe 3.3.4.).
2. Entwicklung des Rechenmodells für die Kreuzkorrelation
Nachdem die Modulation des Ultraschallsignals aus technischen Gründen nicht in
Originaldaten vorhanden war, wurde für die Kreuzkorrelationsanalyse ein Rechenmodell erstellt (siehe 3.3.4.).
Das Computerprogramm legt nun das Rechenmodell des Ultraschallsignals wie eine
Schablone über die EEG-Daten und stellt in der blauen Linie die Übereinstimmung
mit den EEG-Daten dar.
Wie in Abb. 3.14. Modell für die Kreuzkorrelationsanalyse ersichtlich, zeigt sich an
der Stelle mit dem eingefügten Modell die größte Übereinstimmung, also der höchste
Korrelationswert.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
74
Abb. 3.14. Modell für die Kreuzkorrelationsanalyse (KKF-Analyse)
3. Durchführung der Kreuzkorrelationsanalyse:
Für jede Ableitung wurde eine Korrelationsberechnung durchgeführt und als Graphik
dargestellt. Pro Proband wurden 18 Ableitungen auf diese Weise berechnet.
Abb. 3.15. Durchführung der Kreuzkorrelation
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
75
4. Bewertung:
Für die Bewertung wurden 2 Kriterien festgelegt, nämlich die
•
Ähnlichkeit des Korrelationsmusters mit dem Modell und die
•
Höhe des Korrelationswertes im Zeitfenster des Ultraschallsignals
Bewertung A:
In einem ersten Bewertungsschritt wurde für jede Ableitung ein Korrelationswert bestimmt. Der erste Bewertungsschritt bestimmt, ob eine Ableitung eine Korrelation
zwischen Ultraschallsignal und Hirnströme verzeichnet. Dabei wird zwischen starker
Anregung (hohe Korrelation), geringer bis mittlerer Anregung (niedrige Korrelation)
und keine Anregung (es kann keine Korrelation erkannt werden) unterschieden.
Tab. 3.3. Bewertung der Korrelationsmuster (Bewertung A)
Bewertung B:
In einem zweiten Bewertungsschritt wurde für jeden Probanden die Summe aus allen
Ableitungen ermittelt, zum Gesamtkorrelationswert zusammengefasst, und bewertet:
Beurteilung des Gesamtkorrelationswertes:
keine Anregung
0 Punkte aus Bewertung A
geringe Anregung
1 - 3 Punke aus Bewertung A
starke Anregung
ab 4 Punkte aus Bewertung A
Tab. 3.4. Beurteilung des Gesamtkorrelationswertes (Bewertung B)
Bewertung C:
Im dritten Schritt wurden Häufigkeit und Anregungsgrad der einzelnen Kanäle
bewertet:
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwarhnehmung
76
Beurteilung der Häufigkeit von Nennungen einzelner Ableitungen:
geringe Häufung
3 Nennungen
mittlere Häufung
4-5 Nennungen
starke Häufung
ab 6 Nennungen
Tab. 3.5. Häufigkeit der Nennungen (Bewertung C)
3.3.4.2. Auswertung der SMARD-Watch-Daten:
Die SMARD-Watch-Daten jener Probanden, deren EEG-Auswertung die höchsten
Korrelationen erbrachten, wurden im Anschluss ebenfalls einer Kreuzkorrelationsanalyse (KKF) unterzogen (siehe 3.3.4.). Es wurden dabei die Parameter Hautwiderstand und Hautpotential zur Analyse ausgewählt. Es sind dies jene Parameter, die
am raschesten auf Änderungen reagieren und somit auf die relativ kurze Zeit von 1
Minute Ultraschallsignalausstrahlung am ehesten Reaktionen erwarten ließen (Abb.
3.16.). Die Kreuzkorrelationen wurden im Anschluss nach Bewertung A analysiert.
(siehe 3.3.4.1.)
Abb. 3.16. Beispiel für eine dynamische Kreuzkorrelation (KKF) des Hautpotentials aus der
SMARD-Watch-Messung
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
77
3.4. Ergebnisse
Die Analyse der Probandenstammdaten der Versuchsgruppe ergab folgendes Probandenprofil:
•
Art der Hörschädigung: 5 Probanden haben erworbene und 7 Probanden eine
angeborene Hörschädigung.
•
Technische Versorgung: 4 Probanden tragen keine Hörhilfen, 4 Probanden
trugen in ihrem Leben zeitweise Hörhilfen (meist während der Kindheit bzw.
Schulzeit) und 4 Probanden verwenden aktuell Hörhilfen wobei alle Probanden Träger von konventionellen Hörgeräten (HG) sind.
•
Zeitpunkt der Hörschädigung: 4 Probanden während des Spracherwerbes und
8 Probanden vor dem Spracherwerb.
•
Kommunikationsformen: 11 Probanden kommunizieren bevorzugt in der Gebärdensprache und fühlen sich der Gehörlosenkultur verbunden. 1 Proband
kommuniziert lautsprachlich und pflegt keine Kontakte zur Gehörlosenkultur.
3.4.1. Ergebnisse der EEG Auswertung
Für die Analyse der EEG – Daten wurden die gemittelten Daten der Kreuzkorrelationsanalyse (beschrieben unter 3.3.4.) unterzogen, in Gruppen eingeteilt und unabhängig von der Zugehörigkeit Versuchs- oder Kontrollgruppe bewertet. Dabei zeichneten sich 3 verschiedene Kategorien ab. Kreuzkorrelationen (KKF), die eine geringe
Anregung durch das Ultraschallsignal zeigten, KKF die keine Anregung zeigten, und
solche die eine starke Anregung durch das Ultraschallsignal zeigten.
geringe Anregung
Abb. 3.17. Beispiel KKF – geringe Anregung
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
78
keine Anregung
Abb. 3.18. Beispiel KKF – keine Anregung
starke Anregung
Abb. 3.19. Beispiel KKF – starke Anregung
In einem ergänzenden Auswertungsschritt wurde - durch die Umformatierung der
Daten in einer Excel-Datei - die Daten mit einer Markierung für die Beginn- und Endzeiten des Ultraschallsignals ergänzt und konnten graphisch dargestellt werden. Die
Graphiken dienten zur Kontrolle der Bewertung A (siehe Abb. 3.20. bis 3.22.):
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
79
Abb. 3.20. Graphikbeispiel für geringe Anregung (höchster Korrelationswert im US-Zeitfenster jedoch
kein spezifisches Korrelationsmuster)
Abb. 3.21. Graphikbeispiel für keine Anregung (kein Korrelationsmuster und kein höchster Wert im
US-Zeitfenster)
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
80
Abb. 3.22. Graphikbeispiel für starke Anregung (Korrelationsmuster und höchster
Korrelationswert im Zeitfenster)
Nach der Beurteilung und Kategorisierung der Kreuzkorrelationsanalyse wurden die
Ergebnisse in eine Exceltabelle eingetragen und Versuchs- und Kontrollgruppe getrennt voneinander weiter bearbeitet:
Versuchsgruppe:
Die nachfolgende Tabelle 3.3. zeigt die Ergebnisse der
•
Bewertung A (Beurteilung jeder einzelnen Ableitung),
•
Bewertung B (Summe aus A je Proband)
•
und Bewertung C (Summe der Nennungen pro Ableitung aller Probanden)
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
81
B
A
C
Tab. 3.3. Auswertung Versuchsgruppe nach der Kreuzkorrelation
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
82
Bewertung B:
Dabei wurden die einzelnen Korrelationswerte zu einem Gesamtwert zusammengeführt und bewertet. Die ermittelten Korrelationswerte Gesamt liegen zwischen 0 und
30.
Keine kortikale Antwort zeigen demnach 3 Probanden. Eine geringe kortikale Antwort
zeigen 6 Probanden und 3 Probanden zeigen eine starke Antwort auf die Ultraschallsignale.
Die Bewertung C
fasst die Häufigkeit der Nennung einzelner Kanäle zusammen um so einen Trend zu
zeigen, welche Gehirnregionen in welcher Intensität eine Anregung bzw. eine kortikale Antwort zeigen.
Häufungen wurden ab 3 Nennungen gewertet. 5 Kanäle erreichten den Nennwert 3.
Drei Kanäle erreichten den Nennwert 4-5 und ebenfalls 3 Kanäle zeigten Nennungen
größer-gleich 6. Häufungen < 3 wurden nicht berücksichtigt.
Die Verteilung der Nennungen wird anhand der folgenden Ableitungsgraphik dargestellt:
Abb. 3.23. Ableitungsgraphik Versuchsgruppe:
• Grüne Markierung: Kanäle bzw. Ableitungen mit geringem Nennwert (3)
• Gelbe Markierung: Kanäle bzw. Ableitungen mit mittlerem Nennwert (4-5)
• Rosa Markierung: Kanäle bzw. Ableitungen mit hohem Nennwert (6 und mehr)
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
83
Kontrollgruppe:
Wie in der Versuchsgruppe wurde auch in
der Kontrollgruppe nach der
•
Bewertung A, der
•
Korrelationswert Gesamt (Bewertung B)
für jeden Probanden ermittelt.
Die Bewertung B zeigt Korrelationswerte
von 0 bis 8. Keine kortikale Antwort zeigen 5 Probanden. Eine geringe kortikale
Antwort zeigen 5 Probanden und 1 Proband zeigt eine starke Antwort auf die
Ultraschallsignale.
•
Die Bewertung C
zeigt keinen Nennwert größer als 3. An 8
Ableitungen wurde ein Nennwert von 1
verzeichnet. An 3 Ableitungen wurde der
Nennwert 2 ermittelt.
Obwohl bei der Versuchsgruppe Nennwerte unter 3 nicht berücksichtigt wurden, wurde für die Kontrollgruppe eine
Graphik mit Nennwerten 1 und 2 angefertigt um einen eventuellen Trend zu
zeigen:
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
84
Abb. 3.24. Ableitungsgraphik Kontrollgruppe: Häufung von Nennungen je Ableitung
• Dunkelblaue Markierung: Nennwert 2
• Hellblaue Markierung: Nennwert 1
Datenvergleich von Versuchs- und Kontrollgruppe:
Bewertung B:
7
6
5
4
3
2
1
0
keine Anregung
geringe Anregung
Kontrollgruppe hörend
starke Anregung
Versuchsgruppe gehörlos
Abb. 3.25. Datenvergleich Versuchgruppe (Bewertung B)
Der Datenvergleich von Versuchs- und Kontrollgruppe zeigt, dass in der Kontrollgruppe die meisten Probanden keine oder eine geringe Anregung zeigten. In der Kategorie „geringe Anregung“ und „starke Anregung“ dominiert die Versuchsgruppe.
U. Stelzhammer-Reichhardt
Studien zur Ultraschallwahrnehmung
85
Bewertung C:
Abb. 3.26. Datenvergleich Versuchgruppe : Kontrollgruppe (Bewertung C)
Die Bewertung C der Versuchsgruppe zeigt eine Dominanz der frontal (stirnseitig)
rechts liegenden Ableitungen verlaufend zu einer schwächeren Nennung nach rechts
okzipital (hinterhauptseitig).
Die Bewertung C der Kontrollgruppe zeigt trotz eines insgesamt geringeren Nennwertes eine Dominanz frontal mit einer leichten Betonung der rechten Seite, die nach
okzipital verläuft. In beiden Gruppen kann insgesamt eine Dominanz der stirnseitigen
und rechts liegenden Ableitungen verzeichnet werden.
3.4.2. Ergebnisse der SMARD Watch Auswertung
Die dynamische Kreuzkorrelation der SMARD Watch Daten jener Probanden, die im
EEG-Signal die höchsten Korrelationen erbrachten, zeigten in den vegetativen Parametern Hautwiderstand (HW) und Hautpotential (HP) keine sicher zu bewertenden
Korrelationen.
Abb. 3.27. dynamische KKF des Hautpotentials
Die Auswertung wurde deshalb nicht weitergeführt.
U. Stelzhammer-Reichhardt
Diskussion
4. Diskussion
Die vorliegende Studie zeigt, dass eine kortikale Reaktion auf Ultraschall in einem
musikbezogenen Kontext via Luftleitung bei hörenden, gehörlosen und schwerhörigen Probanden möglich ist. Die psycho-physiologischen Messungen zeigen keine für
eine Interpretation ausreichenden Resultate.
Die Ergebnisse unterstützen jene musikpädagogischen Ansätze, die einen multisensorischen Zugang zur Musik in den Mittelpunkt ihres pädagogischen Handelns stellen.
4.1. Interpretation der zentralen Ergebnisse
Die Ergebnisse zeigen, dass bei 15 Probanden der insgesamt 23 Probanden (davon
9 gehörlos/hochgradig schwerhörig und 6 hörend) eine geringe bis starke Anregung
auf rhythmisierte Ultraschallsignale im EEG zu verzeichnen war. Bei 8 Probanden
(davon 5 hörend und 3 gehörlos/hochgradig schwerhörig) konnte keine Anregung
gezeigt werden. Mehr als die Hälfte aller Probanden reagierte demnach auf die Ultraschallsignale im EEG.
Die Ergebnisse zeigen eine signifikant erhöhte Sensibilität der gehörlosen Versuchsgruppe (n=11) gegenüber der hörenden Kontrollgruppe (n=12). Ultraschallsignale
korrelieren in einem musikbezogenen Kontext (im vorliegenden Versuch war der
Kontext der rhythmische Parameter) und via Luftleitung übertragen bei 75 % der gehörlosen und hochgradig schwerhörigen Probanden in geringem bis starkem Maße
mit dem EEG.
Im Sinne einer Pilotstudie sind durch diese Ergebnisse keine allgemein gültigen Aussagen zu treffen. Dennoch konnten einige wichtige Dinge geklärt werden:
Ultraschall - Schalldruck
Die Fülle der Untersuchungen zu knochenübertragenem Ultraschall ließen im Vorfeld
Zweifel aufkommen, ob eine Untersuchung mit luftübertragenem Ultraschall sinnvoll
ist. Da aber in der Praxis des Musikunterrichts der luftübertragene Ultraschall von
Bedeutung ist, war genau dieser Punkt die Herausforderung.
86
U. Stelzhammer-Reichhardt
Diskussion
Dazu kamen die Einschränkungen des Versuchsaufbaues durch die vorhandenen
technischen Gegebenheiten. Der Signalgeber, ein Frequenzgenerator, erreichte in
Verbindung mit dem Ultraschalllautsprecher eine Lautstärke beziehungsweise Schallintensität von knapp 74 dB SPL (vgl. Kapitel 3.3.2.). Dazu musste der starke Energieverlust durch die Luftübertragung berücksichtigt werden. Am Hörplatz erreichte
das Ultraschallsignal etwas mehr als 43 dB SPL. Das entspricht der normalen Gesprächslautstärke. In der musikalischen Praxis sind in jedem Fall weit höhere Schallpegel (bis zu 100 dB im Symphonieorchester) zu erwarten (vgl. DAVID 1988).
Die Auswertung der EEG-Daten zeigten, dass einige der Probanden eine sehr hohe
Sensibilität aufweisen und selbst unter diesen ungünstigen Bedingungen Reaktionen
auf die Ultraschallsignale zeigten.
Unter verbesserten technischen Bedingungen wären demnach deutlichere Ergebnisse zu erwarten. Eine Ausweitung der Versuche mit unterschiedlichem Schalldruck,
sowie ein direkter Vergleich zwischen Knochenübertragung und Luftübertragung wären weitere interessante Versuchsschritte.
Ultraschall - Frequenzbereiche
Die in früheren Untersuchungen verwendeten Ultraschallfrequenzen schwanken je
nach Autor und Studiendesign zwischen 25 und 80 kHz. In Anlehnung an eine Studie
von NISHIMURA verwendeten wir eine Ultraschallfrequenz von etwa 28 kHz (NISHIMURA et. al. 2000). Die Nähe zum Hörschall beruht auf der Überlegung, dass die
von Instrumenten erzeugten Obertöne sich über den Bereich des Hörschalls hinaus
erstrecken können und im angrenzenden Ultraschallbereich noch genügend Schallenergie besitzen, um in der Luft übertragen werden zu können.
Die Mechanismen der Ultraschallwahrnehmung sind bislang weitgehend unklar. Eine
Hypothese stützt sich auf die Resonanzfähigkeit des Knochens für Ultraschallfrequenzen. Das würde auch die gute Übertragbarkeit bei Knochenleitung erklären. Da
aber jeder Mensch eine etwas abweichende Knochenresonanz aufweist, deckt eine
Messung mit nur einer Frequenz nur einen kleinen Bereich möglicher Resonanzfrequenzen ab. Eine Ausweitung der angebotenen Frequenzspektren könnte hier zur
Klärung beitragen.
87
U. Stelzhammer-Reichhardt
Diskussion
Ultraschall –Wahrnehmungswege
Bei der Betrachtung der Auswertung C, der Auszählung der am häufigsten angeregten Ableitungen im EEG, konnte eine auffallende Dominanz der stirnseitigen und
rechts liegenden Ableitungen gefunden werden. Die Strahlungsrichtung des Ultraschalllautsprechers war von rechts vorne kommend. Die häufigsten angeregten Ableitungen entsprechen damit der Strahlungsrichtung. Dieses Ergebnis spricht gegen
die Aufnahme von Ultraschall über das Hörsystem. Wären Ultraschallrezeptoren im
Hörsystem (zum Beispiel in der Schnecke) vorhanden, hätten die meisten angeregten Ableitungen linksseitig zu finden sein müssen. Das Hörsystem leitet einen Großteil der eintreffenden Schallsignale nach kontralateral, also auf die der Schallquelle
gegenüberliegenden Hirnseite (vgl. Kapitel 2.1.).
Die Häufung der angeregten Ableitungen lässt keine Rückschlüsse auf die verarbeitenden Hirnareale zu weil die Methode der Messung von evozierten Potentialen in
der vorliegenden Studie nicht zur Anwendung kam. Vielmehr wurde versucht eine
Harmonisierung zwischen den EEG-Signalen und dem Rhythmus der Ultraschallsignale zu zeigen. Diese Annäherung zwischen den EEG-Signalen und den Ultraschallsignalen konnte an den direkten Berührungsstellen gezeigt werden. Dies würde bedeuten, dass auch via Luftleitung übertragener Ultraschall die Knochenresonanz anregt und schlussendlich die Beobachtungen, die bereits via Knochenleitung gemacht
wurden, für die Musikwahrnehmung via Luftleitung gültig wären.
Die fehlende Zuordnung auf verarbeitende Hirnareale unterstützt weiters die Hypothese, dass nicht Ultraschall selbst eine Hörwahrnehmung auslöst (vgl. FUJIOKA
2002 und Kapitel 3.2.2.), sondern dass die Entstehung von Differenz-, oder Kombinationstönen unterstützt wird. So könnte Ultraschall auch weniger für den primären auditorischen Kortex als vielmehr für die assoziativen auditorischen Bereiche eine Rolle
spielen (vgl. Kapitel 2.1.4.).
Ultraschall – Gehörlosigkeit und Schwerhörigkeit
Die Mehrzahl bisheriger Ultraschall-Studien wurde mit hörenden Probanden durchgeführt. Daraus ergab sich folgende Annahme: Wenn Anregungen durch Ultraschall in
der Versuchsgruppe (gehörlos) gezeigt werden können, sind in der hörenden Kontrollgruppe in etwa gleichwertige Ergebnisse zu erwarten. Dabei ist zu beachten,
dass durch die geringe Schallenergie nur bei besonders sensiblen Probanden Reaktionen zu erwarten sind.
88
U. Stelzhammer-Reichhardt
Diskussion
Sowohl in der Versuchsgruppe, als auch in der Kontrollgruppe war diese Sensibilität
zu finden. Die vorliegende Studie ergab jedoch eine deutlich erhöhte Sensibilität in
der Versuchsgruppe (gehörlos). Die Wichtigkeit alternativer Wahrnehmungskanäle
des Gesamtphänomens `Hören´ konnte damit deutlich gezeigt werden.
OOHASHI konnte bei hörenden Probanden nur beim Zusammenspiel von Hörschall
und Ultraschall Änderungen im Alpha-EEG zeigen. Die Sensibilität für Ultraschallfrequenzen schien demnach im Zusammenhang mit dem Hörvermögen zu stehen. Dieser Zusammenhang konnte in der vorliegenden Studie so nicht bestätigt werden. Es
scheint jedoch, dass durch den Ausfall des Hörorgans andere Wahrnehmungskanäle
verstärkt aktiviert werden. Dieses Ergebnis unterstützt die Beobachtung der hochgradig schwerhörigen Musikerin Evelyn GLENNIE, die der Überzeugung ist, dass ein
funktionstüchtiges Hörorgan andere Wahrnehmungskanäle eher ausblendet.
„If we can feel low frequency vibrations why can’t we feel higher vibrations? It
is my belief that we can, it’s just that as the frequency gets higher and our ears
become more efficient they drown out the more subtle sense of `feeling´ the
vibrations” (GLENNIE 2005, o. Seitenangabe).
Ultraschall - Methodenwahl
Da die bewusste Wahrnehmung von Ultraschall nicht gesichert ist, stellt das EEG
eine objektive Meßmethode dar, um eine Aktivierung des Kortex und somit einen
Wahrnehmungsvorgang, darzustellen. Der Einsatz des EEGs wurde in ähnlichen
musikbezogenen oder ultraschallbezogenen Studien bereits erprobt (vgl. PETSCHE
1989, OOHASHI 2000).
Die Grenzen des EEG liegen darin, dass die elektrische Tätigkeit an der Kopfhaut
nur in stark abgeschwächter Form messbar ist, und dass das Untersuchungsdesign
starken Einschränkungen unterworfen ist. Messungen sind zum Beispiel nur in Ruhelage und mit geschlossenen Augen möglich (vgl. BIRBAUMER 1999). Einige Wissenschaftler ergänzen deshalb das Studiendesign mit Positronenemissionstomographie (PET) zur bildhaften Darstellungen des Stoffwechsels des Gehirns oder
Magnetenzephalographie (MEG) (vgl. NISHIMURA 2002; OOHASHI 2000). Diese
Methoden erfordern jedoch im Vergleich zum EEG einen enorm höheren Aufwand an
Material, sodass diese Untersuchungsmethoden größeren Forschungsprojekten und
Arbeitsgruppen vorbehalten bleiben (vgl. GROSSBACH und ALTENMÜLLER 2002).
Weiters sind die dabei benötigten Geräte (Computertomographen) im Betrieb ge-
89
U. Stelzhammer-Reichhardt
Diskussion
räuschintensiv. Um die gleichen Voraussetzungen für gehörlose und hörende Probanden zu schaffen war es aber wichtig, die Versuche in einer stillen bzw. schalldichten Umgebung durchzuführen. Die Ergebnisse des EEG der vorliegenden Untersuchung bestätigen die hohe Eignung der Methode für das vorliegende Forschungsdesign im Bereich Musikwahrnehmung und Rezeptionsforschung.
Im Vergleich dazu brachte die Auswertung der SMARD-Watch-Daten keine sicheren
Ergebnisse. Mögliche Erklärung dafür könnte zum einen die kurze Abstrahlzeit der
Ultraschallsignale von nur einer Minute, oder die schwache Intensität von rund 43 dB
am Hörplatz sein. Zum anderen würden die fehlenden Ergebnisse auch Rückschlüsse auf die unbewusste Wahrnehmung von Ultraschall zulassen und diese Hypothese
(vgl. OOHASHI 2000) bestärken.
Die Wahl einer Pilotstudie erwies sich als vorteilhaft, weil die zur Verfügung stehende
Probandengruppe gehörloser Menschen einen an der Zahl kleinen Personenkreis
umfasst. Eine Ausweitung auf eine größere Probandengruppe wäre in einem großstädtischen Umfeld eher möglich. Erschwerend erwies sich das Fehlen von finanziellen Mitteln. Es war durch intensive persönliche Kontakte jedoch möglich, ausreichend
Probanden zur Mitarbeit zu gewinnen.
Ultraschall – Resonanzfrequenzen und Ausblick
Die verwendete Resonanzfrequenz von rund 28 kHz stellt einen sehr kleinen Ausschnitt möglicher musikbezogener Frequenzen dar. Ein natürlicher Instrumentenoder Stimmklang ist immer ein Konglomerat aus Teiltönen bzw. Einzelfrequenzen
(vgl. Kapitel 2.1.1.). Eine einzelne Frequenz als Reiz anzubieten bedeutet eine extreme Reduzierung und hat im strengen Sinn nichts mit Klang zu tun. Es war aber im
vorliegenden Versuch im Sinne einer definierten Abgrenzung zu möglichen Kombinationstönen notwendig. Als einziger, aber wesentlicher musikalischer Parameter wurde die Rhythmisierung eingesetzt (vgl. GROSSBACH und ALTENMÜLLER 2002).
Über diese Rhythmisierung konnte eine kortikale Reaktion gezeigt werden.
Da nicht bei allen Probanden Reaktionen auf Ultraschallsignale gefunden werden
konnten, sind weiterführende Studien zu Resonanzfrequenzen und Schalldruck von
Interesse. Im Folgenden ein Ausblick auf wichtige Themenbereiche:
•
Ausweitung der angebotenen Resonanzfrequenzen
Zur Überprüfung weiterer Frequenzbereiche wäre eine Untersuchung nötig,
die vom Hörbereich ausgehend stufenweise immer höhere Frequenzen anbie-
90
U. Stelzhammer-Reichhardt
Diskussion
tet. Eine andere Zugangsweise wäre die bereits in anderen Studien unter anderen Methoden verwendeten Frequenzspektren zu überprüfen.
•
Versuche zu den erforderlichen Schalldruckpegeln
Wie bereits erwähnt, waren die verwendeten Schalldruckpegel gering und entsprachen nicht der musikalischen Praxis. Durch bessere technische Ausstattung sollte es möglich sein, den Schalldruckpegel der realen Situation nachzuempfinden und so zu genaueren Messergebnissen zu gelangen.
•
Frequenzanalysen von Musikinstrumenten
Die mangelhafte Forschungslage zu Frequenzanalysen von Musikinstrumenten im Ultraschallbereich erschwert die Interpretation der Ergebnisse. Die
Ausweitung der Klang- und Frequenzanalysen von Musikinstrumenten oder
Orchesterklängen in den Ultraschallbereich wäre von großem Interesse.
4.2. Bedeutung der Ergebnisse für die musikpädagogische Arbeit
Im Folgenden sollen nun die zentralen Ergebnisse auf ihre Bedeutung für die musikpädagogische Arbeit hin erörtert werden.
Grundlage der Überlegungen bilden die Inhalte der interdisziplinären Rezeptionsforschung die sich nach GEMBRIS mit der Wahrnehmung, dem Erleben und der Wirkung von Musik befasst und das Grundlagenwissen über das Musikhören und seine
Wirkungen bereitstellt (vgl. GEMBRIS 1996). Die Auseinandersetzung mit dem
`Nicht-Hören-Können´ lässt das `Hören-Können´ besser verstehen. Es führt zu einer
größeren Sensibilität und zu einem Öffnen des Blicks auf neue Wege der Unterrichtskonzeption in der allgemeinen Musikpädagogik.
ROEDERER beschreibt in seinen Physikalischen und psychoakustischen Grundlagen der Musik ebenfalls einen interdisziplinären Zugang zur Thematik: Versucht man
die Wahrnehmung von Musik aus dem Blickwinkel der akustischen Informationsverarbeitung zu betrachten, finden sich drei Faktoren, die musikalisches Erleben bilden:
•
der augenblickliche Schwierigkeitsgrad der Erkennung von Schallmustern
•
die Treffsicherheit von Vorhersagen, die das Gehirn zur Beschleunigung dieses Erkennungsprozesses erstellt und
•
die Art der Assoziation, die durch Vergleich mit gespeicherter Information über
früher gewonnene Eindrücke hervorgerufen wird
91
U. Stelzhammer-Reichhardt
Diskussion
Für ROEDERER ist demnach die Musikwahrnehmung „(…) sowohl durch die Eigenschaften eines angeborenen neuronalen Mechanismus (primäre Verarbeitungsvorgänge) als auch durch kulturelle Einwirkung (gespeicherte Botschaften und erlernte Verarbeitungsvorgänge) bestimmt (…)“ (ROEDERER 2000,
18).
Der Reiz musikalischen Erlebens liegt im Entdecken von Symmetrien, Regelmäßigkeiten, Überraschung im plötzlichen Wechsel von vertrauten musikalischen Parametern, Erkennen von Wiederholungen und Prinzipien wie Ordnung und Veränderung.
Dieses musikalische Erleben bezieht sich sowohl auf Parameter mit Kurzzeitcharakter (Erkennen von Klangfarben, tonale Erwartungen) wie auch auf länger dauernde
Strukturen wie Melodieverlauf oder Metrum (vgl. ROEDERER 2000, sowie Kapitel
2.1.1.).
Steht in diesem Sinne die Interpretation des Schallreizes und die Erfahrung mit demselben im Zentrum musikalischen Erlebens, treten die reinen auditiven Fähigkeiten
zur Musikwahrnehmung in den Hintergrund. Die individuelle Verarbeitung von Musik
steht über den physikalischen Hörmöglichkeiten (Audiogramm) des Einzelnen. Dies
trifft für Menschen, die von Gehörlosigkeit und Schwerhörigkeit betroffen sind, ebenso zu, wie für Hörende (vgl. GRUHN 2005).
Eingehende Wahrnehmungen knüpfen neue neuronale Verbindungen, alte Verbindungen lösen sich auf. Hören ist also nicht gleich zuhören. Im Englischen findet diese Unterscheidung viel deutlicher statt, nämlich im Wort `hear´ für hören im Sinne
des physikalischen Vorgangs und `listen´ für zuhören im Sinne einer Aufmerksamkeitszuwendung. Während es sich beim Hören um den rein physiologischen Vorgangs der Schallwahrnehmung des Hörorgans handelt, bedeutet zuhören die Verarbeitung von Schallsignalen, die eine Mitarbeit des Gehirns voraussetzt. Der Hirnforscher Hellmut PETSCHE spricht deshalb bei der Musikverarbeitung von einem
„hochkreativen Vorgang“ (PETSCHE 1999, o. Seitenangabe).
Sowohl im Kapitel Multisensorik als auch im vorgestellten Forschungsprojekt konnte
gezeigt werden, dass die menschliche Hörwahrnehmung nicht nur auf Reize des
Hörorgans zurückgreift. Um eintreffende Reize zu bewerten, werden auch im Falle
voll funktionsfähiger Sinnesorgane immer auch andere Sinneseindrücke als Kontrollinstanz mit einbezogen. Materialeigenschaften von Gegenständen zum Beispiel wer-
92
U. Stelzhammer-Reichhardt
Diskussion
den durch den Klang ebenso wie durch das Aussehen und durch das Fühlen der
Oberfläche, durch den Widerstand beim Drücken usw. erfasst.
Bei teilweisem oder vollständigem Ausfall eines Sinnesorgans, in der vorliegenden
Arbeit des Hörorgans, kommt den verbleibenden Sinnesorganen eine besondere
Aufmerksamkeit zu.
Schon in sehr frühen pädagogischen Ansätzen war die Bedeutung des Vibrationsempfindens im Bewusstsein der Pädagogen und Therapeuten. GLENNIE weist in
ihren Überlegungen zur Musikwahrnehmung darauf hin, dass im Italienischen das
Wort `sentire´ hören und `sentirisi´ fühlen meint. Die Begriffe hören und fühlen haben
den gleichen Wortstamm. Vibration ist für GLENNIE gefühlter Klang (vgl. GLENNIE
2005).
Aber nicht nur der Tieftonbereich ist von Interesse. Das obere Ende des Hörfeldes
blieb lange Zeit wenig beachtet. Erfahrungen aus der musikpädagogischen Praxis in
der Arbeit mit gehörlosen und schwerhörigen Kindern geben jedoch interessante
Hinweise darauf. In der vorliegenden Arbeit konnten die Beobachtungen der Musikpädagogen (vgl. Kapitel 1.3.) nun erstmals in einen physiologischen und physikalischen Zusammenhang gebracht werden.
4.2.1. Reflexion der Ergebnisse im besonderen musikpädagogischen Kontext
Noch nicht im Ultraschallbereich aber doch im Hochtonbereich entwickelte die Firma
Audiva in Zusammenarbeit mit der Universität Magdeburg einen Hochtontrainer. Der
Hochtontrainer verstärkt die hochfrequenten Schallanteile und überträgt die so veränderte Musik via Knochenleitungskopfhörer an die Schüler. Das System wurde im
Rahmen eines Unterrichtsprogramms zur musikalisch-motorischen Ausbildung von
gehörlosen und schwerhörigen Schülerinnen und Schülern erfolgreich erprobt: Bei
den teilnehmenden Probanden konnte gegenüber einer Kontrollgruppe eine deutliche
Leistungssteigerung in den Bereichen Bewegungskoordination und Rhythmisierungsfähigkeit gezeigt werden (vgl. HÖKLMANN 2005).
Diese Studie steht für ein seltenes Beispiel, bei dem der Hochtonbereich Gegenstand der Forschung im Zusammenhang mit Gehörlosigkeit und Schwerhörigkeit ist.
Ergänzend dazu werden nun Beobachtungen aus der musikpädagogischen Praxis
vorgestellt, die zur Entwicklung der vorliegenden Arbeit geführt haben. Diese Beo-
93
U. Stelzhammer-Reichhardt
Diskussion
bachtungen werden anschließend unter Berücksichtigung der vorliegenden Untersuchungsergebnisse reflektiert:
Claus BANG, dänischer Musiktherapeut stellt fest,
„Hörgeschädigte Kinder lieben Dissonanzen; ihre Vibration können sie am
besten fühlen“ (BANG 1975, ohne Seitenangabe).
Dieselbe Beobachtung findet sich auch bei KATZ, der die Aussagen eines gehörlosen Probanden analysiert:
“Ganz besondere Beachtung dürfte aber in den angeführten Sätzen die Feststellung verdienen, daß auch vom vibratorischen Musikgenuß her Chromatismen zur Auslösung kommen können“ (KATZ 1925, 292).
Während einer Fortbildungsveranstaltung erzählt BANG vom Lieblingsinstrument
eines taubblinden Mädchens. Es ist das Becken. Auch in meiner musikpädagogischen Arbeit wählen hochgradig hörbeeinträchtigte Kinder immer wieder gerne das
Becken als ihr Lieblingsinstrument.
Ein Kollege erzählt davon, dass seine Schüler akustische Instrumente, wie zum Beispiel das Klavier, den elektrischen Instrumenten, wie zum Beispiel dem Keyboard
immer wieder vorziehen. Der hochgradig schwerhörig geborene und im Alter von 11
Jahren ertaubte Musiker Paul WHITTAKER erklärt den schwierigen Umgang mit elektronischen Instrumenten:
„Gleichgültig, welchen Ton man auf dem elektronischen Keyboard anschlägt,
das `Gefühl´ bleibt stets im Wesentlichen gleich“ (WHITTAKER 2006, 40).
In einem Artikel in der Zeitschrift für Orgelbau ARS ORGANI wird vom Neubau einer
Kirchenorgel speziell für eine Gemeinde von gehörlosen Gläubigen in Zürich berichtet. Dabei werden auch die musikalischen Erfahrungen der gehörlosen Mitglieder des
Mimenchores, der `Mimenspieler´, beschrieben.
„Es sind nicht nur die tiefen `donnernden´ Töne der Orgelbässe, sogar hohe,
leise Gedacktpfeifen konnten noch wahrgenommen werden. Auch wussten oft
die Spieler spontan zu sagen, welche Art Harmonien gespielt wurden“ (HUNZIGER 1972, 1700).
Die Mitglieder des Mimenchores waren auch in die Entscheidungsfindung zur Neuanschaffung einer Orgel mit einbezogen. Versuche mit den Mimenspielern zeigten
bald die eindeutige Überlegenheit der Pfeifenorgel gegenüber einer elektronischen
Orgel.
94
U. Stelzhammer-Reichhardt
Diskussion
„Der Gesamtklang der Orgel wirkt sehr rund, machtvoll und edel. (…) Lautstärke ist weniger wichtig als Fülle“ (HUNZIGER 1972, 1701).
WHITTAKER entdeckte noch als Kind seine Liebe zur Orgel. Obwohl er einräumt,
dass die Orgel aufgrund der fehlenden Anschlagsvibration (wie beim Klavier der Fall)
schwerer wahrzunehmen ist als andere Instrumente. WHITTAKER analysiert verschiedene Instrumente auf ihre Praxistauglichkeit für gehörlose und schwerhörige
Schüler und kommt zu dem Schluss:
„ – in jungen Jahren war ich fest überzeugt, dass es einige Instrument gibt, die
ein Gehörloser schlicht nicht spielen könnte. Glücklicherweise bin ich in diesem Punkt eines Besseren belehrt worden“ (WHITTAKER 2006, 41; vgl. auch
ROBBINS & ROBBINS 1980, HASH 2003).
Dieser kleine Einblick in die musikalische Praxis zeigt, wie immer wieder ähnliche
Beobachtungen in unterschiedlichen Arbeitsfeldern von unterschiedlichen Menschen
gemacht wurden. Diese verschiedenen Beobachtungen fügen sich jedoch zu einem
einheitlichen Bild zusammen wenn Musik unter strukturellen und physikalischen Gesichtspunkten betrachtet wird. Die strukturellen Parameter von Musik wie die Melodiestruktur, die Zeitstruktur, die vertikale harmonische Struktur und die dynamische
Struktur, entstehen aus physikalischen Ereignissen.
Luftteilchen die sich wellenartig verdichten und verdünnen, werden als Druckschwankungen vom Hörorgan ebenso wahrgenommen wie über Vibrationsrezeptoren in der Haut und im Körperinnern. Die Körperflüssigkeiten und unser Knochengerüst können in Resonanz mit den Druckschwankungen geraten. Unser Gehirn verarbeitet alle diese eintreffenden Reize. Es filtert, fasst zusammen, vergleicht, speichert
und reagiert auf die Reize. Musik unter diesen Aspekten betrachtet, verliert die Enge
der Vorstellung, Musik bestehe lediglich aus tiefen bis hohen Tönen, die unser Ohr
aufnehmen und unser Hirn verarbeiten kann. Musik ist eine ganzkörperliche Erfahrung und unser Körper schöpft seine Informationen aus einem reichen Spektrum an
eintreffenden Schallwellen. Das können tieffrequente Schwingungen ebenso sein wie
hochfrequente. Während Erstere die Beurteilung der Zeitstruktur unterstützen, unterstützen Zweitere die Beurteilung von Klangfülle und Klangqualität.
Die Bedeutung von Vibration für die Musikwahrnehmung im besonderen musikpädagogischen Kontext gilt als gesichert. Die Bedeutung des Hochton- und Ultraschallbereiches war bislang noch wenig im Bewusstsein. Im Folgenden deshalb die Interpre-
95
U. Stelzhammer-Reichhardt
Diskussion
tation der Ergebnisse in Bezug auf die in Kapitel 1.3. vorgestellten praktischen Erfahrungen und Beobachtungen in der musikpädagogischen Arbeit mit gehörlosen und
schwerhörigen Kindern:
•
Die Bevorzugung von akustischen Instrumenten
gegenüber elektronischen wird zum einen in der geringeren Anschlagsvibration liegen, die elektronische Instrumente aufweisen (vgl. WHITTAKER, oben). Zum anderen im reicheren Klangspektrum durch die Fülle von Obertönen und vor allem durch
Differenz- und Kombinationstöne wie sie auf elektronischem Wege (noch) nicht herstellbar sind. Ultraschallreiche Klänge unterstützen die Klangfülle maßgeblich und
heben in besonderer Weise die Klangqualität an (vgl. OOHASI 2000).
•
Zur bevorzugten Auswahl von Instrumenten deren Klangspektrum subjektiv
außerhalb des gemessenen Hörfeldes liegt:
Die besondere Sensibilität von gehörlos geborenen bzw. früh ertaubten Menschen
für Ultraschall ist eine mögliche Erklärung für die oft beobachtete Auswahl von Becken, Gong und anderen hoch klingenden Instrumenten. Ultraschall verliert auf dem
Luftweg jedoch rasch an Schallenergie. Evelyn GLENNIE setzt ihre Schüler gerne
mitten zwischen die Musiker ins Orchester. Hier ist die Schallenergie sehr stark und
alle Frequenzanteile können auf die Schüler einwirken. Sie können in den Klänge
baden. Diese intensiven Erlebnisse sind wichtige musikalische Erfahrungsbereiche.
•
Vorliebe für dissonante Klänge und Reibeklänge:
Naturklänge die durch Reibung entstehen dürften ebenfalls sehr ultraschallreich sein.
Hinweise darauf finden sich in den Naturklängen des Regenwaldes. Das ultraschallreiche Klangspektrum des Regenwaldes beruht auf den Tönen, die Insekten (z. B.
verschiedene Heuschreckenarten) mit ihren Flügeln erzeugen (vgl. MONTEALEGRE
2006) Die in anderen Ultraschallforschungsprojekten verwendete Gamelanmusik gilt
ebenfalls als sehr ultraschallreich. Die wichtigsten Instrumente darin sind Trommeln
und Gongs. Bei Instrumenten, deren Töne durch Reibung erzeugt werden (Streichinstrumente), konnte ebenfalls ein Ultraschallspektrum gezeigt werden (vgl. BALZER
2004, OOHASHI 2000, WICKE 2006).
•
Zur Problematik von Tonträgern:
Ähnliche Einschränkungen, die elektronische oder elektrische Instrumente aufweisen, sind auch auf Tonträger zu übertragen. Hinzu kommt der der verminderte Dynamikbereich, der das musikalische Erleben einschränkt. Während ein Sinfonieorchester Schallpegelschwankungen 80 dB und mehr zwischen Pianissimo und Fortis-
96
U. Stelzhammer-Reichhardt
Diskussion
simo erreicht, beträgt der Dynamikbereich bei der Schallplatte rund 40 dB, beim Tonband immerhin schon 65 dB (vgl. DAVID 1988). Der Dynamikbereich von Hörgeräten
und Cochlearimplantaten ist ebenfalls eingeschränkt (vgl. Kapitel 2.2.2.1.). Für Träger von Hörhilfen kommt es folglich zweimal zu einer Einschränkung des Dynamikbereiches. In früheren Jahren, als mein Arbeitsraum mit einem tragbaren StereoRecorder ausgestattet war, konnte ich bemerken, dass sich die Schüler, egal ob
schwerhörig oder gehörlos, von Musik via Tonträger immer schnell wieder abwandten. Erst seit qualitativ hochwertigste Raumlautsprecher mit einem individuell regelbaren Mischpult unsere Musikanlage bilden, sind zumindest die schwerhörigen Schüler wieder gerne beim Tanzen nach Musik vom Tonträger dabei. Die gehörlosen
Schüler ziehen nach wie vor das Musizieren mit und das Bewegen zu live gespielter
Musik vor. Ein weiterer Aspekt ist der eingeschränkt abgespeicherte Frequenzbereich von unter 20 kHz bei digitalisierten Musikaufnahmen, also CD-Aufnahmen (vgl.
DAVID 1988). Die erhöhte Sensibilität für Ultraschall wird bislang bei CD-Aufnahmen
nicht berücksichtigt.
4.2.1.1. Exkurs: Musik und Sprache – Hörschall und Ultraschall.
Gemeinsamkeiten und trennende Aspekte:
Hier sei nochmals auf die Unterschiede von Sprache und Musik sowie auf die Unterschiede von Hörschall und Ultraschall verwiesen (vgl. Kapitel 2.2.2. und 3.1.). Es wäre ein falscher Schluss von einer erhöhten Sensibilität für Ultraschall auf eine mögliche Lautsprachförderung bei Gehörlosigkeit durch Musiktherapie mittels Ultraschall
rückzuschließen. Es ist weder geklärt welche Mechanismen bei der Ultraschallwahrnehmung zum Tragen kommen, noch welche Verarbeitungspfade beschritten werden.
In der vorliegenden Ultraschallstudie konnte eine Synchronisierung zwischen EEG
und dem Rhythmus des Ultraschallsignals in wenigen hörenden und einigen gehörlosen Probanden gefunden werden. Dieser Befund unterstreicht die wesentliche Bedeutung der Zeitstruktur in der Musik als tragendes Element in allen Schallbereichen.
Die sensible Auswahl von Musikinstrumenten unter Berücksichtigung der möglichen
Frequenzspektren auch im Hochton- und Ultraschallbereich kann gehörlose und
schwerhörige Schüler zu einem tieferen und intensiveren Klangerlebnis führen, das
in weiterer Folge die musikalische und persönliche Entwicklung positiv anregt. Die
97
U. Stelzhammer-Reichhardt
Diskussion
weit verbreitete Meinung, je massiver die Hörbeeinträchtigung desto tief klingender
müssten die verwendeten Instrumente sein, konnte durch die Studie nicht bestätigt
werden. Vielmehr sind die Qualität und Intensität eines Klanges und der Reichtum
seines Frequenzspektrums ausschlaggebend für die Wahrnehmung. Die Befunde
lassen keine Rückschlüsse auf die Sprachwahrnehmung zu.
4.2.2. Reflexion der Ergebnisse im allgemeinen musikpädagogischen Kontext
Was können nun die Beobachtungen im besonderen musikpädagogischen Kontext
für die allgemeine Musikpädagogik bedeuten? Maria SPYCHIGER weist immer wieder auf die Wichtigkeit des kritischen Umgangs mit Studienergebnissen hin. Sie
nennt 12 Punkte, die methodische Schwachstellen von musikbezogenen Studien
aufzeigen. Einer davon ist das Problem der „Post-hoc Erklärung zur Bedeutung von
Ergebnissen“ (SPYCHIGER 2002, 18), also die Problematik der falschen Schlüsse in
Bezug auf Ursache und Wirkung. Auch KAISER betont die Grenzen der Transformation neurobiologischer Forschungs- und Sachstände in musikpädagogisches Denken. Er räumt jedoch ein, dass musikpädagogisches Denken „nicht gegen neurowissenschaftliche Befunde oder an ihnen vorbei erfolgen“ kann (KAISER 2004, 38).
Die Erforschung musikbezogener Lernprozesse ist Teil des empirisch-analytischen
Forschungsansatzes der Musikpädagogik und zählt zu den interdisziplinären Forschungsbereichen der Hirnforschung, Psychologie und Pädagogik (vgl. KRAEMER
2004). Musikbezogene Lernprozesse sind nur dann möglich, wenn musikalische Erfahrungen gemacht werden können. Musik zu erfahren schließt die Musizierpraxis
ebenso mit ein, wie das Hören und Fühlen von sowie das Nachdenken über Musik
(vgl. HELMS et. al. 2005).
SPYCHIGER und KAISER ermahnen zur Vorsicht im Umgang mit musikbezogenen
Forschungsergebnissen. Welchen Erkenntnisgewinn kann die Musikpädagogik trotzdem aus den vorliegenden Befunden ziehen? Die Studie zur Ultraschallwahrnehmung konnte bestätigen, dass der Mensch eine Sensibilität für Schallereignisse, die
außerhalb des Hörfeldes liegen, aufweist. Dieser Befund fordert die Musikpädagogik
heraus, ihre Aufmerksamkeit auf einen besonderen Aspekt der Musikwahrnehmung
zu lenken. Nämlich die Bewusstmachung von multisensorischen Wahrnehmungsvor-
98
U. Stelzhammer-Reichhardt
Diskussion
gängen als Basis für musikalisches Erleben und Lernen. Einen kleinen Ausschnitt der
multisensorischen Wahrnehmung bildet die Perzeption von Ultraschall.
Obwohl die Sensibilität für Ultraschall bei gehörlosen Probanden deutlicher nachzuweisen war als bei hörenden Probanden, sprechen die Befunde dafür, dass auch für
den Hörenden die Anteile von Ultraschall im musikalischen Frequenzspektrum für die
Beurteilung der Klangqualität von Bedeutung sind.
Es ist wieder Evelyn GLENNIE, die darauf aufmerksam macht, dass das normal funktionierende Hörorgan eine sehr dominante Rolle in der Wahrnehmung spielt. Dieser
Umstand täuscht oft darüber hinweg, dass Hören dennoch ein sehr komplexer vielsinniger Vorgang ist.
“The various processes involved in hearing a sound are very complex but we
all do it subconciversly so we group all these processes together and call it
simply listening” (GLENNIE 2005, ohne Seitenangabe).
Wenn auch in vielen Untersuchungen zur Entwicklung der Hörverarbeitung und Hörwahrnehmung besondere Frequenzspektren im Tiefton- oder Hochtonbereich nicht
berücksichtigt wurden, so gilt doch als gesichert, dass der Hörsinn nicht von Geburt
an vollständig ausgebildet ist, sondern, „dass es zur Entwicklung eines voll funktionsfähigen Hörsinns akustischer Stimulation bedarf“ (SPITZER 2004, 156).
Dabei werden die akustischen Reize aber nicht einfach aufgenommen und als Einzelinformationen gespeichert, sondern nach Regeln untersucht und geordnet in Kategorien abgespeichert. Je vielsinniger eine Erfahrung ist, umso umfangreicher und
genauer werden die angelegten Kategorien und Regelsysteme erstellt und umso
ausgefeilter die sinnliche `Feinabstimmung´ unserer Hörwahrnehmung.
Wie auch SPITZER betont, kann kein noch so guter elektrisch erzeugter Ton diese
sinnlichen Erfahrungen natürlich erzeugter Töne ersetzen.
„Beginnen Kinder zu musizieren, so sollten sie Töne so leibhaft wie möglich
erleben. Die Luft aus den eigenen Lungen, das Vibrieren der Saiten an den
Fingern oder einfach das Hören der eigenen Stimme sind wichtige Erlebnisse,
die nur sehr abgeschwächt oder gar nicht durch elektronische Klangerzeugung nachgeahmt werden können“ (SPITZER 2004, 333).
Während in der frühen Kindheit diesem Bedürfnis nach vielsinnigen Erfahrungsfeldern in der musikpädagogischen Interaktion in Kindergärten, Eltern-Kind-Gruppen
oder in der musikalischen Früherziehung noch Raum gegeben wird, verändern sich
99
U. Stelzhammer-Reichhardt
Diskussion
die musikpädagogischen Angebote mit Schuleintritt stark in Richtung kognitive Leistungen (vgl. SPYCHIGER im Druck)
Ortwin NIMCIK weist in einem Artikel zum Musik lernen in der Schule auf die Problematik der mangelnden Kontinuität, der mangelnden Musizierpraxis und Überfrachtung des Musikunterrichts mit Musiktheorie hin. Er fordert eine Neukonzeption des
Musikunterrichts und eine Auseinandersetzung mit der Frage, wie musikalisches
Lernen auf Seiten der Schülerinnen und Schüler stimmig fortschreitend aufzubauen
ist:
„Für eine notwendige Neukonzeption bedarf es an dieser Stelle unabdingbar
der verstärkten Berücksichtigung von Erkenntnissen der Musikpsychologie
und der neurobiologischen Forschung. Wesentlich dabei ist der Blick auf die
altersspezifischen Entwicklungsfähigkeiten musikalischer Erfahrung und auf
das musikalische Lernen sowie die daraus resultierenden Orientierung des
Unterrichts an den wissenschaftlichen Erkenntnissen über Erwerb und kontinuierlichen Aufbau musikalischer Vorstellungen“ (NIMCZIK 2001, 3).
Ein Teil der musikalischen Erfahrung ist ein bewusster Umgang mit dem Hören und
eine Hörerziehung. WICKEL und HARTOGH berichten von einem didaktischen Konzept aus den 1970er Jahren, dass sich verstärkt diesem Thema widmete.
„Auditive Wahrnehmungserziehung will im Kindergarten und in der Schule der
akustischen Reizüberflutung entgegentreten und Kinder und Jugendliche zu
einem bewussten Hören erziehen. In den 1970er Jahren wurden diese didaktische Konzeption in der Musikpädagogik entwickelt und sogleich kontrovers
diskutiert, da der Gegenstand des Musikunterrichts in der Schule nicht auf
Musik beschränkt, sondern auf alle auditiv wahrnehmbaren Phänomene erweitert werden sollte“ (WICKEL und HARTOGH 2006, 120).
In diesem Zusammenhang findet sich in der Literatur der Begriff Soundscape. Er wird
in unterschiedlichen Zusammenhängen verwendet. In der Bedeutung von Geräuschkulisse, als auch im Sinne einer Klanglandschaft verstanden, taucht er in der NewAge-Musikszene als Kompositionselement ebenso auf, wie im Rundfunk als Gestaltungsansatz unkonventioneller Radiomacher. Soundscape findet sich als Gestaltungsmittel im Hörspiel ebenso wieder wie in der Verbindung mit auditiver Wahrnehmungserziehung oder im Projektkreis Schule des Hörens, als wichtiger didaktischer
Bereich der Musikerziehung. Allen diesen Bewegungen und Initiativen ist gemein, die
100
U. Stelzhammer-Reichhardt
Diskussion
Bedeutung des (Zu)Hörens aber auch die Notwendigkeit des Hören-Lernens in das
öffentliche Bewusstsein zu heben (vgl. FRISIUS 1973, STROH o. Jahresangabe,
WERNER; 2006).
Nach einer ersten Welle in den 1970er und 1980er Jahren konnte sich die Ideen der
Soundscape-Bewegung nicht im allgemeinen Bewusstsein verfestigen. In gegenwärtigen Unterrichtskonzepten finden sich Aspekte der Soundscape-Bewegungen in didaktischen Nischen wie Klangexperimente im Zusammenhang mit Instrumentenkunde und Auseinandersetzung mit Alltags-Schall beziehungsweise musikbezogene Alltagstätigkeiten, Hinführung zu neuerer Musik (Avantgarde) und im Themenbereich
musikalischer Parameteranalyse oder in der Projektarbeit (vgl. DIETZE 2000, 92 und
http://www.uni-oldenburg.de/musik-for/didaktik/blatt6.rtf (Stand 05/2006)).
Eine vermutlich unbewusste Anknüpfung an dieses Thema fand 2004 Thomas Riedelsheimers Film Touch the Sound. A sound journey with Evelyn Glennie. Und obwohl sich hier der Themenkreis zwischen Hören und Nicht-Hören-Können schließt,
steht im Film nicht Glennies hochgradige Hörbeeinträchtigung im Mittelpunkt.
„Ich wollte herausarbeiten, dass Töne und Klänge mehr sind als nur ‚hörbare’
Erfahrungen. Sie sind spürbar, sie schwingen in uns, sie beeinflussen und
verändern uns. Natürlich ist ein Mensch, der Töne mehr fühlt als hört, in diesem Zusammenhang besonders interessant“ (RIEDELSHEIMER 2004, ohne
Seitenangabe).
`Besonders interessant´ ist in diesem Zusammenhang auch die Beschreibung einer
gehörlosen jungen Schülerin aus Venezuela. In der Fernsehreportage Singende
Hände im März diesen Jahres (vgl. BOHUN 2007) besucht Stefan BOHUN eine
Schule der im Nordwesten Venezuelas liegenden Stadt Barquisimeto, in der gehörlose Schülerinnen und Schüler Instrumente erlernen und in einem Gehörlosen-Chor in
Gebärdensprache singen. BOHUN begleitet einige Chormitglieder im Alltag. Eine
etwa 17-jährige junge Frau dirigiert leidenschaftlich gerne, sie wird bei Probearbeiten
vom Fernsehteam begleitet und interviewt:
„Die Musik ist sehr eindrucksvoll für mich. Ich bekomme dabei Herzrasen. Ich
spüre die Musik am ganzen Körper. Das Orchester ist so groß, so viele Leute.
Der Professor hilft mir, wenn sich das Tempo ändert. Das Dirigieren ist körperlich anstrengend. B-e-e-t-h-o-v-e-n (Eigennamen werde in der Gebärdensprache meist buchstabiert, Anmerkung der Verfasserin), ich bewundere seine
101
U. Stelzhammer-Reichhardt
Diskussion
Musik, sie ist so stark. Diese Streicher, diese Bläser, wenn ich das höre, berührt es mich ganz tief drinnen“ (zitiert nach BOHUN 2007).
Diese junge Schülerin lässt den Zuseher teilhaben an ihrer Art des Musik Hörens. Es
ist ein sehr sinnlicher, ein vielsinniger Zugang. Die vorliegende Studie und die vorangestellten Überlegungen konnten bestätigen, dass Musikwahrnehmung nicht nur die
Wahrnehmung aus dem Hörfeld betrifft, sondern einen multisensorischen Vorgang
darstellt. Um musikpädagogisch tätig zu werden, um Musik zu vermitteln, müssen
deshalb multisensorische Angebote im Zentrum des Handeln stehen. Musik in seinem vollen Frequenzspektrum erfahrbar zu machen bedeutet, auch für den hörenden
Schüler Möglichkeiten für einen vielsinnigen Zugang zu Musik zu schaffen. Eine intensive Auseinandersetzung mit selbst gespielter oder live gehörter Musik ist dabei
unumgänglich. Hörbeispiele von digitalisierten Tonträgern wie Compactdisc und Audioformate stellen immer nur eine flache Abbildung der musikalischen Wirklichkeit
dar, niemals die musikalische Wirklichkeit selbst. Nach GRUHN erfolgt musikalisches
Lernen jedoch in hohem Maße durch möglichst vielfältige neuronale Repräsentationen: „Hören und Verstehen werden umso intensiver und lebendiger sein, je mehr
unterschiedliche Repräsentationen aktiviert werden können. (…) Das Ziel musikalischen Lernens müsste also darauf gerichtet sein, multiple Repräsentationen zu ermöglichen und verschiedenartige Spuren und Pläne anzulegen (…),
damit Musik als Musik auf vielfältige Weise erfahren und verstanden werden
kann“ (GRUHN 1998, 174).
Musik mit allen Sinnen erleben ist die Basis für ein umfassendes Musikverständnis.
Oder wie Joseph BEUYS (1921 – 1986) es ausdrückte: „Kunst ist Denken mit dem
ganzen Körper“. In Anlehnung an diesen Gedanken, muss es auch für Musik als
künstlerische Ausdrucksmittel heißen: Musik ist Denken mit dem ganzen Körper. Die
Aufgabe der Musikpädagogik ist es, dies zu vermitteln.
102
U. Stelzhammer-Reichhardt
Zusammenfassung
103
5. Zusammenfassung
Einen naturwissenschaftlichen Zugang zum Phänomen der Musikwahrnehmung innerhalb eines musikpädagogischen Kontexts aufzuzeigen, ist Inhalt der vorliegenden
Untersuchungen.
Bisherige Forschungen zur Wahrnehmung und Verarbeitung von Schall- bzw. Klangereignissen beziehen sich oftmals auf ein voll funktionsfähiges Hörorgan. Was aber
bleibt von Musik übrig, wenn das Ohr als Sinnesorgan teilweise oder vollständig ausfällt? In früheren Untersuchungen wurde auf die Wahrnehmungsmöglichkeit von Ultraschall in hörenden und unter bestimmten Voraussetzungen in gehörlosen Probanden hingewiesen. Aufbauend auf diese Studien wurde in der vorliegenden Arbeit die
kortikale Reaktion auf modulierte Ultraschallsignale in einer Versuchgruppe mit gehörlosen und hochgradig schwerhörigen Probanden und einer Kontrollgruppe mit
hörenden Probanden untersucht. Hirnstrommessungen mittels Elektroenzephalogramm und Messungen psycho-physiologischer Parameter wurden mit Hilfe eines
Computerprogramms ausgewertet und anschließend interpretiert. Insgesamt nahmen
23 Probanden an der Untersuchung teil. In beiden Gruppen konnten Korrelationen
zwischen den Ultraschallsignalen und den Messungen des Elektroenzephalogramms
gefunden werden. Dabei zeigte die Versuchgruppe (gehörlos und hochgradig
schwerhörig) im Vergleich zur Kontrollgruppe (hörend) eine erhöhte Sensibilität gegenüber den Ultraschallsignalen. Die psycho-physiologischen Messungen brachten
keine ausreichenden Ergebnisse. Insgesamt konnten frühere Untersuchung bestätigt
werden, die zeigen, dass Ultraschall für die Musikwahrnehmung von Bedeutung ist.
Detailergebnisse unterstützen die Theorie, dass Ultraschall nicht über den herkömmlichen Weg der Hörbahn aufgenommen wird, sondern noch nicht geklärten Wahrnehmungsmechanismen unterliegt.
Da nicht bei allen Probanden Reaktionen auf Ultraschallsignale gefunden werden
konnten, sind weiterführende Studien zu Resonanzfrequenzen und Schalldruck von
Interesse.
Die Ergebnisse zeigen, dass gehörlose und hochgradig schwerhörige Menschen alternative Zugangsweisen zur Musik finden können. Sie unterstützen weiters jene musikpädagogischen Ansätze, die einen multisensorischen Zugang zur Musik in den
Mittelpunkt des pädagogischen Handelns stellen.
U. Stelzhammer-Reichhardt
Zusammenfassung
104
Summary
Objects: Science on music perception deals very often with audible sounds and a
fully functional acoustic organ. What about profoundly deaf and music? Described
skills of ultrasound perception in hearing human should be tested in profoundly deaf.
Methods: In a pilot study we investigated the reaction on modulated sound pressure
ultrasound signals. The electroencephalography records and the measurements of
psycho-physiological parameters were assessed with software.
Results: 23 subjects in two groups have been evaluated. Both the normal hearing
and the profoundly deaf have shown correlations between the ultrasound signals and
the measurements of the electroencephalograph. A higher sensibility to the ultrasounds signal was shown in the profoundly deaf. The measurements of psychophysiological parameters didn’t show any results.
Conclusion: The results corroborate the theory that ultrasound perception doesn’t
use the usual pathway of hearing. No all of the subjects showed a reaction to the
used resonance frequency of 28 kHz. For these reason it is necessary to discover
optimal frequency of resonance and sound pressure level in further studies. Nevertheless these investigations support the theory of a music pedagogic approach which
shows a multi sensory access in the center of music pedagogic acting.
U. Stelzhammer-Reichhardt
Literaturverzeichnis
105
6. Literaturverzeichnis
ALTENMÜLLER, Eckart (1995): Gehör. Zentrale Verarbeitung. In: FINSCHER, Ludwig (Hrsg.): Musik in Geschichte und Gegenwart. Sachteil 3, 2. neubearbeitete
Ausgabe, Kassel: Bärenreiter, 1093-1104
ALTENMÜLLER, Eckart (2000): Apollo in uns: Wie das Gehirn Musik verarbeitet. In:
ELSNER, Norbert und LÜER, Gerd (Hrsg.): Das Gehirn und sein Geist.
Göttingen: Wallstein, 87-104
ALTENMÜLLER, Eckart (2002): Musik im Kopf. In: Gehirn und Geist. Zeitschrift
Spektrum der Wissenschaft, 1/2002, 18-25
BALZER, Hans-Ullrich, Pietzko, A., Bigalke, K. D. (2002): Untersuchung zur Charakterisierung der vegetativ-nervalen Reaktion von Hunden und der vegetativnervalen Wechselwirkung zwischen Hund und Hundeführer mittels noninvasiver Messung von Hautpotentialen. In: Berl. Münch. Tierärztl. Wochenschr.
(BMTW) Heft 7/8, 115/2002, 241-246
BALZER, Hans-Ullrich (2004): Versuchsreihe Ultraschallfrequenzanteile von Violintönen, Forschungsnetzwerk Mensch und Musik, unveröffentlicht
BALZER, Hans-Ullrich (2007): Untersuchungsmethode der dynamischen Kreuzkorrelation (KKF). Manuskript, unveröffentlicht
BANG, Claus (1975): Musik durchdringt die lautlose Welt. In: Musik + Medizin. No
9/1975, Neu Isenburg: Verlag Musik & Medizin
BANG, Claus (1978): Ein Weg zum vollen Erlebnis und zur Selbstverwirklichung für
gehörlose Kinder. In: WOLFGART, Hans (Hrsg.): Das Orff-Schulwerk im
Dienste der Erziehung und Therapie behinderter Kinder. 1978/2.Aufl., Berlin:
Marhold, 147-163
BANG, Claus (1984): Eine Welt von Klang und Musik. In: Hörgeschädigtenpädagogik. 38.Jg. (2)1984, 77-88
BERGLUND, B., Hassmen, P., Soames-Job, R. F. (1996): Sources and effects of
low-frequency noise. In: J. Acoust. Soc. Am. (JASA) 99 (5), 2985-3002
BERNSTEIN, Leonhard (1979): Musik die offene Frage. Dt. Ausgabe, WienMünchen-Zürich-Innsbruck: Verlag Fritz Moden
BIRBAUMER, Nils & SCHMIDT, Robert (1999): Biologische Psychologie. 4. Aufl.
Berlin: Springer
BOENNINGHAUS, Hans-Georg und LENARZ Thomas (2004): Hals-Nasen-OhrenHeilkunde. 12. Aufl. Heidelberg: Springer
BOHUN, Stefan (2007): Singende Hände. Reportage aus der ORF-Reihe „Am
Schauplatz“. Erstsendung am 20.03.2007 http://orf.at (Stand 03/2007)
U. Stelzhammer-Reichhardt
Literaturverzeichnis
106
BOUCSEIN, W. (1988): Elektrodermale Aktivität. Heidelberg: Springer
BREUER, Hans (1992): dtv-Atlas zur Physik. Bd. 1, 3. Aufl. München: Deutscher
Taschenbuchverlag
BROCKMEIER, J. (2002): Musikhören mit CI – eine Studie. In: Schnecke. Nr. 38;
14. Jg. 37-38
BROCKMEIER, S. J., Grasmeder, M. L., Vischer, M., Mawaman, D. Baumgartner,
W.D., Stark, T. Müller, J. Braunschweigt, T., Arnold, W. (2004): Comparison of
musical activities by cochlear implant users. International Congress Series.
Volume 1273, 11/2004, 205-207; http://www.ics-elsevier.com (Stand
02/2005)
BROSCHART, Jürgen, Tentrup, Isabelle, Ellingmann, Stephan (2003): Der
Klang der Sinne. In: Geo 11/2003, 55-88
BRUHN, H., OERTER, R., RÖSING H. (1993): Musik und Psychologie – Musikpsychologie. In: BRUHN, OERTER und RÖSING (Hrsg.): Musikpsychologie – Ein
Handbuch. Reinbek bei Hamburg: Rowohlt
BRUHN, H. (1993): Tonpsychologie – Gehörpsychologie – Musikpsychologie. In:
BRUHN, OERTER und RÖSING (Hrsg.): Musikpsychologie – Ein Handbuch:
Reinbek bei Hamburg: Rowohlt
BRUHN, H. (2000): Zur Definition von Rhythmus. In: MÜLLER, K., ASCHERSLEBEN
G. (Hrsg.): Rhythmus. Ein interdisziplinäres Handbuch. Bern: Huber, 41-56
BURMESTER (2007): Produktbeschreibung - JET4. In:
http://www.burmester.de/produktlinien/lautsprecher-961-infos.html
(Stand 01/2007)
BÜCHLER, Michael, Lai, W., Diller, N. (2005): Musik hören mit dem Cochlea - Imp
lantat – Lust oder Frust. In:
http://www.sprachheilschule.ch/referate/Musikhören (Stand 09/2005)
CARTER, Rita (1999): Atlas Gehirn: Entdeckungsreisen durch unser Unterbewusstsein (Mapping the mind). Aus dem Engl. übers. von SCHICKERT, H., München: Schneekluth
CORSO, J.F. (1963): Bone-conduction thresholds for sonic and ultrasonic frequentcies. In: J. Acoust. Soc. Am. 35/1963, 1738-1743
DAVID, Edward E. jr. (1988): Aufzeichnung und Wiedergabe von Klängen. In: Die
Physik der Musikinstrumente. Heidelberg: Spektrum der Wissenschaft Verlagsgesellschaft mbH & Co, 150-160
DIEROFF, H. G., und ERTL H. (1975): Some Thoughts on the Perception of Ultra
sound by Man. In: Arch. OtoRhinoLaryng. 209/1975, 277-290
U. Stelzhammer-Reichhardt
Literaturverzeichnis
107
DIETZE, Lena (2000): Soundscapes – Klanglandschaften. Soundwalks –
Klangspaziergänge. In: HUBER, L. und ODERSKY, E. (Hrsg.): Zuhören –
Lernen – Verstehen. Braunschweig: Westermann, 92-103
FERNER, Katharina und STELZHAMMER-REICHHARDT, Ulrike (2004): „Es hat so
gut getan …“– Musik und Sprache für Familien mit hörbehinderten Klein—Kindern – Bericht einer Projektwoche. In: Orff-Schulwerk-Information. Nr. 73, Winter 04, 26-32
FLACH, M., Hofmann, G., Ertl, H., Knothe, J. (1978): Objektivierung der Hörempfindungen im Ultraschallgebiet mittels evozierter Potentiale (ERA) – Measurements of Hearing Sensation in Ultrasound Range by Electrical Response Audiometry (ERA): In: Laryng. Rhinol. 57/1978, Stuttgart: Thieme-Verlag, 680-686
FLACH, M. und HOFMAN, G. (1980): Ultaschallhören des Menschen: Objektivierung
mittels Hirnstammpotential. In: Laryng. Rhinol. 59/1980, Stuttgart - New York:
Georg Thieme Verlag; 840-843
FORUM BESSER
01/2007).
HÖREN
(2007):
http://www.forumbesserhoeren.de
(Stand:
FÖDERMAYR, Franz (1996): Klangfarbe. In: FINSCHER, Ludwig (Hrsg.): Musik in
Geschichte und Gegenwart. 2. neu bearbeitete Ausg. Sachteil 5, Kassel:
Bärenreiter, 138-170
FUJIMOTO, K., Nakagawa, S., Tonoike, M. (2005): Nonlinear explanation for bone
conducted ultrasonic hearing. In: Hearing Research 204/2005, 210-215
FUJIOKA, T., Kakigi, R., Gunji, A., Takeshima, Y. (2002): The auditory evoked
magnetic fields to very high frequency tones. In: Neuroscience. Vol. 112, Issue
2, 18., 6/2002, 367-381
FRICKE, Jobst (1960): Über subjektive Differenztöne höchster hörbarer Töne und
des angrenzenden Ultraschalls im musikalischen Hören. Kölner Beitrag zur
Musikforschung, Bd. XVI, Regensburg: Bosse
FRIEDRICH, Wolfgang (2001): Momel singt Lieder in einfacher Sprache. Donau
wörth: Auer-Verlag
FRISIUS, Rudolf (1973): Musikunterricht als auditive Wahrnehmungserziehung. In:
Musik und Bildung 1/1973
http://www.musikpädagogikonline.de/unterricht/netzspezial/reflexion/frisius/index.html
(Stand 05/07)
GAZZANIGA, M. S., Ivry, R. und Magnun, G. R. (2002): Cognitive Neuroscience:
The Biology of the Mind. 2. Auflage, Norton
GAAB, N., Gaser, C., Zaehle, T., Jankcke, L., Schlaug, G. (2003): Functional
anatomy of pitch memory – an fMRI study with sparse temporal sampling. In:
NeuroImage 19/2003, 1417-1426
U. Stelzhammer-Reichhardt
Literaturverzeichnis
108
GAVREAU, V. (1948): Audubillite de sons de frequence elevee. In: Compt Rendu
226, 2053-2054
GEMBRIS, Heiner (1996): Rezeptionsforschung. In: DECKER-VOIGT, Hans-Helmut
(Hrsg.) Lexikon Musiktherapie. Göttingen: Hogrefe 321-326
GFELLER, K., Olszewski, C., Rychener, M., Sena, K., Knutson, J.F., Witt, S.,
Mecpherson, B. (2005): Recognition of “Real-World” Musical Excerpts by Co
chlear Implant Recipients and Normal-Hearing Adults. In: Ear and Hearing,
Vol. 26 (3), June 2005, 237–250
GLENNIE, Evelyn (2005): Evelyn´s Hearing. In: http://www.evelyn.co.uk/hearing.htm
(Stand 03/2005)
GROSSBACH, Michael und ALTENMÜLLER, Eckart (2002): Neurophysiologische
Forschungsansätze zur Zeitverarbeitung in der Musik. In: GRUHN, Wilfried
(Hrsg.): Aspekte musikpädagogischer Forschung. Kassel: Gustav Bosse Ver
lag, 109-125
GRUHN, Wilfried (2005): Der Musikverstand. Neurobiologische Grundlagen des
musikalischen Denkens, Hören und Lernens. 2. neu überarbeitete Auflage,
Hildesheim: Georg Olms Verlag
HASH, Phillip M. (2003): Teaching instrumental music to deaf and hard of hearing
students. In: RIME – Research and Issues in Music Education. Vol. 1/No. 1,
9/2003
HAUS, Reiner (2002): “Spiel doch mal…“ Musiktherapie als Hilfe, das Hören zu lernen bei Kindern mit Cochlea-Implantat. In: Musiktherapeutische Umschau
23, 1/2002; 37-45
HELLBRÜCK, Jügen und ELLERMEIER, Wolfgang (2004): Hören. Physiologie, Psychologie und Pathologie. 2. Aufl., Göttingen: Hogrefe
HELMHOLTZ, H. (1870): Die Lehre von den Tonempfindungen als physiologische
Grundlage für die Theorie der Musik. 3. Ausgabe, Braunschweig: Verlag von
Friedrich Vieweg und Sohn
HELMS, Siegmund, Schneider, R. und Weber, R. (Hrsg.) (2005): Lexikon der Musik
pädagogik. Sachteil, Mainz: Bosse
HINDEMITH Paul (2000): Unterweisung im Tonsatz Bd. 1 Theoretischer Teil. Neue
erw. Aufl. Bd.1, Mainz: Schott
HOFMANN, G., Diroff, H. G., Flach, M. (1980): Beitrag zur Frage der Ultraschallperzeption bei Gehörlosen. Ultrasound perception in deaf patients. In: Laryng.
Rhinol. 59/1980, Stuttgart: Thieme-Verlag, 163-165
U. Stelzhammer-Reichhardt
Literaturverzeichnis
109
HÖKELMANN, Anita (2005): Musikorientiertes motorisches Lernen bei gehörgeschädigten und gehörlosen Kindern. In:
http://www.ttz.unimagdeburg.de/scripts/fokat/visitenkarte.idc?Nr=737
(Stand: 08/2005)
HOTH, S. und LENARZ, T. (1994): Elektrische Reaktions-Audiometrie. Berlin: Springer-Verlag
HOSOI, H., Imaizumi, S., Sakaguchi T., Tonoike, M., Murata, K.(1998): Activation of
the auditory cortex by ultrasound. In: The Lancet, Vol. 351, Issue 9101, 14.
February 1998, 496-497
HUMER, Petra (2004): Musik & Gehörlosigkeit. Protokoll der 1. Tagung der Arbeitsgemeinschaft Musik und Hörbeeinträchtigung in Linz, Februar 2004, unveröffentlicht
HUNZIGER, Paul (1972): Die neue Orgel in der Gehörlosenkirche zu Zürich. In: Ars
Organi. Zeitschrift für das Orgelwesen. Heft 40, Juni 1972, Berlin: Verlag
Merseburger
IMAIZUMI, S., Hosoi, H., Sakaguchi, T., Watanabe, Y., Sadato, N., Nakamura, S.,
Waki, A., Yonekura, Y. (2001): Ultrasound activates the auditory cortex of
profoundly deaf subjects. In: Neuroreport Vol. 12 (3), 3/2001, 583-586
KAISER, Hermann J. (2002): Wieviel Neurobiologie braucht die Musikpädagoik?
Fragen-Entwürfe-Verständigungsversuche. In: PFEFFER, M., VOGT, J.
(Hrsg.): Lernen und Lehren als Themen der Musikpädagogik. Sitzungsbericht
2002 der wiss. Sozietät Musikpädagogik, Münster: LIT, 16-41
KANDEL, Eric R. (Hrsg.), (1995): Essentials of Neural Science and Behaviour,
New York: McGraw
KATZ, D. und RÉVÉSZ, G. (1926): Musikgenuss bei Gehörlosen (Ein Beitrag zur
Theorie des musikalischen Genusses). In: Zeitschrift für Psychologie 99, 289–
323
KAYSER, C., Petov, C., Augath, M., Logothetis, N. (2005): Integration of touch and
sound in auditory cortex. Pressemitteilung Max Planck Gesellschaft/18. Oktober 2005. In: http://www.kyb.mpg.de/publication.html?publ=3549 (Stand: 10/
2005)
KAISER, Hermann J. (2004): Wieviel Neurobiologie braucht die Musikpädagogik?
Fragen – Entwürfe - Verständigungsversuche. In: PFEFFER, Martin und
VOGT, Jürgen (Hrsg.): Lernen und Lehren als Themen der Musikpädagogik.
Sitzungsbericht 2002 der wissenschaftlichen Sozietät Musikpädagogik
Münster (LIT), 2004, 16-41
U. Stelzhammer-Reichhardt
Literaturverzeichnis
110
KIEFER, J., Tillein, J., Ilberg, C. von, Pfenningsdorff, T., Stürzbecher, E., Klinke, R.,
Gstöttner, W. (2002): Fundamental aspects and first clinical results of the clinical application of combined electric and acoustic stimulation of the auditory
system. In: KUBO. T., TAKAHASHI, Y. and IWAKI, T. (eds.): Cochlear Implants - an Update. The Netherlands: Kugler Publications, The Hague
KOELSCH, S., Gunter, T. C., Yves von Cramon, D., Zysset, S., Lohmann, G.,
Fiderici, A. D. (2002): Bach Speaks: A Cortical „Language-Network”
Serves the Processing of Music. In: NeuroImage 17. doi:10.1006/nimg 2002,
956-966
KOELSCH, S., Kasper, E., Smmler, E., Schulze, K., Gutner, T., Friderici, A. D.
(2004a): Music, language and meaning: brain signatures of semantic processing. In: Nature Neuroscience. 3/2004 Volume 7 Nr. 3, 302-307
KOELSCH, S., Wottfoth, M., Wolf, A., Müller, J., Hahne, A. (2004b): Music perception
in cochlear implant users: an event-related potential study. In: Clinical Neurophysiology 115/2004, 966-972
KOELSCH, S., Fritz, T., Schulze, K., Alsop, D., Schlaug, G. (2005a): Adults and children processing music: An fMRI study. In: NeuroImage. 25/2005, 1068–1076
KOELSCH, S. und SIEBEL, W. A. (2005b): Towards a neural basis of music perception. In: Trends in Cognitive Sciences. Vol. 9 No 12, 12/2005
KOLLMANN,
Christian
(2006):
Der
Ultraschall
in
der
Natur.
http://www.meduniwien.ac.at/zbmtp/people/kollch1/download/usnatur.pdf
(Stand: 09/06)
In:
KONG, Y.-Y., Cruz, R., Jones, J. A., Zeng, F.-G. (2004): Music Perception with
Temporal Cues in Acoustic and Electric Hearing. In: Ear and Hearing. Vol. 25
(2), April 2004, 173-185
KRAEMER, Rudolf-Dieter (2004): Musikpädagogik – eine Einführung in das Studium.
Forum Musikpädagogik. Band 55, Augsburg: Wißner-Verlag
KRATOCHVIL, Helmut (2006): Die Sprache der Elefanten. Forschungsprojekte des
Tiergartens Schönbrunn. In: http://www.zoovienna.at/elep_aku.html
(Stand 10/06)
KRUMHANSL, Carol L. (2000): Rhythm and Pitch in Music Cognition. In:Psychologi
cal Bulletin Vol. 126, Issue 1, 1/2000, 159-179
LANGBAUER, William R. Jr., Payne, K.-B., Charif, R.-A., Rapaport, L. (1991): African
Elephants Respond to Distant Playbacks of Low-Frequency Conspecific Calls.
In: Journal of Experimental Biology, 157/1991, 35-46
LEHFELDT, Dr. Wilhelm (1973): Ultraschall kurz und bündig - Physikalische
Grundlagen und Anwendungen. Würzburg: Vogelverlag
U. Stelzhammer-Reichhardt
Literaturverzeichnis
111
LEHNHARDT, Marty (1991): Human ultrasonic speech perception. In: Science, July
1991/5 Vol. 253, 82-85
LEHNHARDT, Marty (2003): Ultrasonic Hearing in Humans: Applications for Tinnitus
Treatment. In: International Tinnitus Journal, Vol. 9, No. 2, 2003
LEHNHARDT, Marty (2005): Where´d You Get those Ultrasonic Peepers? Vortrag
ASA/NOISE-CON 2005 Meeting. 19. Oct., Minneapolis
LEONHARDT, Annette (2002): Einführung in die Hörgeschädigtenpädagogik. 2. Aufl.,
München-Basel: Reinhardt-Verlag
LEONHARDT, H. (1990): Histologie, Zytologie und Mikroanatomie des Menschen.
Thieme: Stuttgart, 343-350.
LEVANEN, S., Jousmaki, V., Hari, R. (1998): Vibration-induced auditory-cortex activation in a congenital deaf adult. In: Curr. Biol., July 1998, 16;8 (15), 869-872
LINDSAY, P. H. & NORMAN, D. A. (1981): Einführung in die Psychologie. Informationsaufnahme und -verarbeitung beim Menschen. Berlin: Springer
MEYERS Lexikon (2007): Stichwort Leitstudie. In:
http://lexikon.meyers.de/meyers/Leitstudie (Stand 10/2006)
MONTEALEGRE, F., Morris, G. K., Mason, A. C. (2006): Generation of extreme
ultrasonics in rainforest katydids. In: Journal of Experimental Biology
209/2006, 4923 – 4937
http://jeb.biologists.org/cgi/content/abstract/209/24/4923 (Stand: 01/2007)
NAKAGAWA, S., Yamaguchi, M., Tonoike, M., Hosoi, H., Watanabe, Y., Imaizumi, S.
(2000): Characteristics of bone-conducted ultrasound perception revealed by
neuromagnetic measurements. In:
http://www.biomag2000.hut.fi/papers/0129.pdf (Stand: 03/05)
NISHIMURA T., Sakaguchi, T., Nakagawa, S., Hosoi, H., Watanabe, Y., onoike, M.,
Imaizumi, S. (2000): Dynamic range for bone conduction ultrasound. In:
http://www.biomag2000.hut.fi/papers/0125.pdf (Stand: 03/05)
NIMCZIK, Ortwin (2001): Musik lernen in der Schule? In: Musik und Bildung. 3/2001
OOHASHI, T., Nishina, E., Honda, M., Yonekura, Y., Fuwamoto, Y., Kawai, N.,
Maekawa, T., Nakamura, S., Fukuyama, H., Shibasaki, H. (2000): Inaudible
high-frequency sounds affect brain activity: hypersonic effect. In: Journal of
Neurophysiology American Physiological Society. Vol 83, 3548-3558
ORFF, Gertrud (1974): Die Orff-Musiktherapie. München: Kindler
ORFF, Gertrud (1990): Schlüsselbegriffe der Orff-Musiktherapie. München: Psychologie Verlags-Union
U. Stelzhammer-Reichhardt
Literaturverzeichnis
112
PALMER, Russ (1997): Feeling The Music Philosophy - A New Approach in Under
standing How People with Sensory Impairment Perceive and Interpret Music.
Based on the paper presented at the third Nordic Conference of Music Therapy in Jyväskylä. Finland 12-15 June, 1997, unveröffentlicht
PECH, Karel (1969): Hören im „optischen Zeitalter“, Karlsruhe: Verlag G. Braun
PEIRCE, John R. 1985. Klang: Musik mit den Ohren der Physik. Heidelberg:
Spektrum der Wissenschaft
PETSCHE Hellmuth (1989): Die Bedeutung des EEG für die Musikpsychologie. In:
PETSCHE Hellmuth (Hrsg.): Musik–Gehirn–Spiel. Beiträge zum vierten Her
bert von Karajan-Symposium in Wien. Basel: Birkhäuser Verlag
PETSCHE Hellmuth (1999): Was heißt „musikalische Begabung“? Vortragsreihe im
Herbert von Karajan Centrum vom 02.12.1999
http://ww.karajan.org/de/centrum/events/index.asp (Stand: 10/2004)
PLATH, Peter (1991): Allgemeine Grundlagen des Hörens und seiner Störungen. In:
JUSSEN und H./CLAUSSEN, W.H. (Hrsg.): Chancen für Hörgeschädigte: Hilfen aus internationaler Perspektive. München: Ernst Reinhardt, 31–44
PLATH, Peter (Hrsg.), (1993): Lexikon der Hörschäden. Heidelberg: Edition Harmsen
PLATTIG, Karl Heinz (1993): Aufbau von Außen-, Mittel- und Innenohr. In: BRUHN,
OERTER & RÖSING (Hrsg.): Musikpsychologie. Ein Handbuch. Reinbeck:
Rohwolt, 613-621
PLATTIG, Karl Heinz (1995): Das Gehör. Periphere Verarbeitung. In: FINSCHER,
Ludwig (Hrsg.): Musik in Geschichte und Gegenwart. Sachteil 3, 2. neu bearbeitete Ausgabe, Kassel: Bärenreiter, 1077-1093
PRAUSE, Manuela-Carmen (2001): Musik und Gehörlosigkeit. Kölner Studien zur
Musik in Erziehung und Therapie. PRIEL, Walter (Hrsg.) Köln-Reinkassel:
Verlag Dohr
PROFIT, Karl-Ludwig (2000): Evelyn Glennie - im Gespräch mit der Weltklasse- Per
cussionistin. In: Hörpäd 1/2000, 40-45
PUTZER, Monika (2005): Mit den Ohren sehen. Mitschnitt eines Interviews in der
Sendereihe „Vom Leben der Natur“ Ö1, 25.04.2005 – 29.04.2005, 8:55 Uhr
bis 9:00 Uhr
RICKEY (2006): In: http://www.deafreave.com/index.php (Stand 10/2006)
RIEDELSHEIMER, Thomas (2004): Touch the Sound. A sound journey with Evelyn
Glennie. Begleitheft zur DVD www.touch-the-sound.de (Stand 10/2006)
ROBBINS, Carol, ROBBIINS, Clive (1980): Music for the hearing impaired & other
special groups. Baton: Magnamusic
U. Stelzhammer-Reichhardt
Literaturverzeichnis
113
ROEDERER, Juan G. (2000): Physikalische und psychoakustische Grundlagen der
Musik. 3. Aufl., Berlin: Springer-Verlag
SACKS, Oliver (1992): Stumme Stimmen. Reise in die Welt der Gehörlosen.
Reinbek bei Hamburg: Rowohlt
SALMON, Shirley (2001): Wege zum Dialog – Erfahrungen mit hörgeschädigten
Kindern in integrativen Gruppen. In: SALMON, Shirley und SCHUMACHER
Karin (Hrsg.): Symposion Musikalische Lebenshilfe. Hamburg: Books on Demand
SALMON, Shirley (2003): Spiellieder in der multi-sensorischen Förderung von Kin
dern mit Hörbeeinträchtigungen. Diplomarbeit an der Leopold-FranzensUniversität, Innsbruck
http://bidok.uibk.ac.at/library/salmon-dipl-hoerbeeintraechtigung.html
(Stand: Okt. 2003)
SCHMIDT, Robert F. (Hrsg.) (1985): Grundriß der Sinnesphysiologie. Heidelberger
Taschenbücher, 5. Aufl., Berlin: Springer
SCHMITHORST, Vincent J. und HOLLAND, Scott K. (2003): The effect of musical
training on music processing: a functional magnetic resonance imaging study
in humans. In: Neuroscience Letters 348 (2003), 65–68;
http://www.elsevier.com/locate/neulet (Stand 06/2006)
SCHRÜFER, E. (1990): Signalverarbeitung – Numeriesche Verarbeitung digitaler
Signale. München: Hanser Verlag
SHIBATA, Dean (2001): Brains of deaf people rewire do “hear” music. In:
http://www.uwnews.org/article.asp?articleID=2730&Search=shibata
(Stand: 11/2001)
SILBERNAGEL, Stefan und DESPOPOULOS Aqamemnon (2003): Taschenatlas der
Physiologie. 6. Aufl., Stuttgart: Georg Thieme
SMARD-Watch-Handbuch (2000): I.S.F. Institut für Stressforschung GmbH (Hrsg.),
Berlin-Charlottenburg
SPITZER, Manfred (2004): Musik im Kopf: Hören, Musizieren, Verstehen und Erleben im neuronalen Netz. 4. korr. Nachdruck, Stuttgart: Schattauer
SPYCHIGER, Maria (2002): Musikwirkungen von der Antike bis heute. In: GRUHN,
Wilfried: Aspekte musikpädagogischer Forschung. Vortragsreihe im Wintersemester 2001/2002 und Sommersemester 2002. Basel: Gustav Bosse Verlag, 11-35
SPYCHIGER, Maria (im Druck): „Man kann nur aus dem Ärmel schütteln, was vorher
hineingesteckt wurde“. Strukturen und Entwicklungen im Forschungsfeld des
musikalischen Lernens. Erscheint als Eröffnungsbeitrag im Jahrbuch der
Deutschen Gesellschaft für Musikpsychologie 2007
U. Stelzhammer-Reichhardt
Literaturverzeichnis
114
STELZHAMMER, Ulrike (2006a): Zur Musikwahrnehmung bei hochgradiger
Schwerhörigkeit und Gehörlosigkeit am Beispiel Ultraschall. In: Wiener Medizinsche Wochenschrift 156. Jahrgang/Supplementum 120/2006, 14
STELZHAMMER, Ulrike (2006b): Zwischen Musikpädagogik und Naturwissenschaft Einblicke in die Erforschung der Musikwahrnehmung des (hörbeeinträchtigten)
Menschen. In: SALMON, S. (Hrsg.) 2006: Hören – Spüren - Spielen. Musik
und Bewegung mit schwerhörigen und gehörlosen Kindern. Wiesbaden, Reichert Verlag
STROH, Wolfgang Martin (o. Jahresangabe): Wiederbelebung der Auditiven
Wahrnehmungserziehung durch die akustikökologische SoundscapeBewegung? Zum 75. Geburtstag von Ulrich Günther. In:
http://www.uni-oldenburg.de/musik/texte/soundscape/soundscape.html (Stand:
04/2007)
TREHUB, Sandra (2003): The developmental origins of musicality. In: Nat. Neuroscience 6, 669–673
THOMPSON, William F., Russo, F A., Quinto, L. (2006): Preattentive Integration
of visual and auditory dimensions of music. In: Proceedings of the Second
International Conference on Music and Gesture, RNCM, Manchester, UK (2023 July 2006)
UDEN, A. VAN (1982): Rhythmisch-musikalische Erziehung. In: JUSSEN, H. und
KRÖHNERT, O. (Hrsg.): Handbuch der Sonderpädagogik. Bd.3. Pädagogik
der Schwerhörigen und Gehörlosen. Berlin: Marhold, 320-330
VINES, Bradley W., Krumhansl, C., Wanderley M. M., Levitin, D.J. (2006):
Cross-modal interactions in the perception of musical performance. In: Cognition 101/2006, S. 80-113 http://www.elsevier.com/locate/COGNIT (Stand:
01/2007)
VOGEL, Günter und ANGERMANN, Hartmut (1990): dtv-Atlas zur Biologie. 5. Aufl.,
München: Deutscher Taschenbuchverlag
VONGPAISAL, Tara, Trehub, Sandra E., SCHellenberg E. G., Papsin, B (2004): Music recognition by children with cochlear implants. In: International Congress
Series, Vol. 1273, 11/ 2004, 193–196
WAITE, Helen E (1991): Helen Keller, Anne Sullivan: Öffne mir das Tor zur Welt! Das
Leben der taubblinden Helen Keller und ihrer Lehrerin Anne Sullivan. 3. Aufl.
München: DTV
WAYNER, Donna S. (ohne Jahresangabe): Mein Kind hat einen Hörverlust. Ein
Ratgeber für Eltern. Informationsbroschüre der Fa. Phonak hearing systems,
www.phonak.com
WERNER, Hans U. (2006): Soundscape-Dialog. Landschaften und Methoden des
Hörens. STIFTUNG ZUHÖREN (Hrsg.) Edition Zuhören. Bd. 5, Göttingen:
Vandenhoeck & Ruprecht
U. Stelzhammer-Reichhardt
Literaturverzeichnis
115
WHITTAKER, Paul (2006): MATD – Music and the Deaf. In: SALMON, Shirley
(Hrsg.): Hören-Spüren-Spielen Musik und Bewegung mit gehörlosen und
schwerhörigen Kindern. Wiesbaden: Reichert Verlag, 31-44
WICKE, Peter (Hrsg.) (2006): Musik Lehrbuch S II, Gymnasiale Oberstufe. Berlin,
Duden Paetec,
WICKEL, Hans Hermann, HARTOGH, Theo (2006): Musik und Hörschäden.
Grundlagen für Prävention und Intervention in sozialen Berufsfeldern.
Weinheim und München: Juventa Verlag
WINKLER, Klaus (1988): Einführung. In: SPEKTRUM DER WISSENSCHAFT:
(Hrsg.): Die Physik der Musikinstrumente. Heidelberg: Spektrum der Wissen
schaft
WISOTZKI, Karl Heinz (1994): Grundriß der Hörgeschädigtenpädagogik. Reihe:
Grundrisse der Sonderpädagogik. Bd. 4, Berlin: Edition Marhold
YAGI, R., Nishina, E., Honda, M., Ooohashi, T. (2003): Modulatory effect of inaudible
high-frequency sounds on human acoustic perception. In: Neurosci. Lett.
11/2003, 351(3), 191-195
YANG, D. (2005): The Study of Digital Ultrasonic Bone Conduction Hearing Aid. In:
Engineering in Medicine and Biology Society - International Conference of
the; 01.-04.09.2005, 1893-1896
ZACK, Omer (2006): Music and the Deaf. In:
http://www.zak.co.il/deaf-info/old/music.html
(Stand: 12/2006)
ZENNER, Hans-Peter (2002): Beethovens Taubheit: "Wie ein Verbannter muß ich
leben". In: Deutsches Ärzteblatt 99. Ausgabe 42, 10/2002, A 2762-2766
Herunterladen