Wahrnehmung: Die neurokognitive Grundlage der

Werbung
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 1
1 Einleitung
Wahrnehmung ermöglicht es, sich eine mentale Wirklichkeit als Abbild der Realität zu
erschaffen. Dafür werden über die Sinnesorgane Informationen über die Umwelt
aufgenommen, und anschließend in Signale umgewandelt, die der Wahrnehmung
verschiedener Hirnregionen zugänglich sind. Als Sinneswahrnehmung bezeichnet man
demnach den Prozess, wie die Sinnesorgane auf externale Stimuli reagieren und diese an das
Gehirn weiterleiten. Die bewusste Wahrnehmung hingegen findet erst im Gehirn statt, wo die
sensorischen Informationen verarbeitet, geordnet und interpretiert werden und in einer
internalen Repräsentation des Reizes resultieren. Doch auch nach über einem Jahrhundert
langer Forschung ist es noch nicht möglich die genauen Prozesse zu erklären, über die die
Wahrnehmung funktioniert.
In dieser Arbeit werden neueste Forschungsergebnisse auf dem Gebiet der akustischen
Wahrnehmung von sprachlichen und tonalen Reizen dargestellt, sowie Ergebnisse von
Studien zur Gesichterwahrnehmung.
2 Akustische Wahrnehmung – Sprache versus Musik
Musik und Sprache sind die komplexesten und kognitiv anspruchsvollsten
Möglichkeiten der Lautäußerung des Menschen. Und doch erlaubt der Aufbau des
menschlichen Zentralnervensystems das Verständnis von Sprache und Musik derjenigen
Kultur, in welcher ein Mensch aufgewachsen ist, ohne ein explizites Training. Diese
Fähigkeiten sind auf den funktionalen Aufbau des menschlichen auditiven Nervensystems
zurückzuführen, jedoch gibt es bestimmte Unterschiede in der Wahrnehmung sprachlicher
und tonaler Informationen.
Mittels Untersuchungen an Patienten mit Hirnverletzungen und Untersuchungen mit
bildgebenden Verfahren an gesunden Probanden, konnte mehrheitlich eine kortikale
Asymmetrie festgestellt werden, wobei die linke Hemisphäre bei der Sprachverarbeitung und
die rechte Hemisphäre bei der Verarbeitung von Musik eine dominierende Rolle spielt.
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 2
Die für die auditive Verarbeitung verantwortlichen kortikalen Areale befinden sich im
rechten und linken Temporallappen, dem Gyrus temporalis superior und dem Gyrus
temporalis medius und den assoziativen Arealen, die sich bis zur posterioren Seite der
Temporallappen erstrecken. Der primäre auditive Kortex befindet sich in der Region des
Heschl’s Gyrus auf der superioren Oberfläche des Temporallappens. Dieser wurde in
Untersuchungen oftmals länger und größer in der linken, als in der rechten Hemisphäre
gefunden.
In dem von Zatorre et al. publizierten Artikel „Structure and function of auditory
cortex: music and speech“ stellt die Forschergruppe die Hypothese auf, dass eine Asymmetrie
der Hemisphären das Resultat einer Spezialisierung der Hemisphären für bestimmte
akustische Parameter der zeitlichen Auflösung und der Frequenzauflösung sein könnte.
Hierbei konzentriert sie sich auf die neuronalen Mechanismen, die bei der Verarbeitung von
Sprache und Musik eine Rolle spielen. Eine Besonderheit der Sprachvermittlung sehen die
Autoren in der zeitlichen Auflösung von Sprachlauten, wobei insbesondere die Wahrnehmung
von gestoppten Konsonanten (wie z.B. „d“) im Zusammenhang mit der Fähigkeit zu stehen
scheint, sprachliche Unterschiede in Bruchteilen von Millisekunden verarbeiten zu können.
Im Gegensatz dazu stellt die Forschergruppe bei der Verarbeitung von Musik die
Wahrnehmung von Tonhöhenunterschieden in den Vordergrund, welche eine größere
zeitliche Ausdehnung besitzen, als gesprochene Konsonanten.
Daten aus verschiedenen Studien belegen, dass bestimmte Aspekte der Decodierung
von Sprache in den Regionen der linken Hemisphäre stattfinden. Des Weiteren deuten
aktuelle
Befunde
auf
eine
funktionale
Hierarchie
hin,
in
welcher
erste
Sprachverarbeitungsprozesse in den Kerngebieten beider Hemisphären stattfinden, und erst
eine höhere Sprachverarbeitung in den anterioren und ventralen auditiven Regionen der linken
Hemisphäre geschieht.
Beispielsweise konnten Peretz et al. in einer Untersuchung an
Patienten mit beidseitiger Gehirnverletzung am temporalen Kortex zeigen, dass selbst bei
einer musikalischen Aphasie (Unfähigkeit eine tonale Abfolgen zu erkennen) keine
Veränderungen in der Sprachfähigkeit auftraten.
In Untersuchungen mithilfe bildgebender Verfahren konnte eine relative Spezifität der
rechten auditiven Regionen für tonale Veränderungen beispielsweise in Melodien,
gesprochenen Silben und Rhythmuspattern festgestellt werden.
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 3
Mithilfe eines MRI Scans des menschlichen auditiven Kortex stellten Penhune et al.
eine anatomische L>R Asymmetrie fest, die die Ergebnisse der bisherigen Studien unterstützt.
Zatorre et al. nehmen an, dass der größere Anteil an weißer Substanz unterhalb Heschl’s
Gyrus in der linken Hemisphäre aufgrund der myelinisierten Axone der Pyramidenzellen eine
schnellere Übertragung und somit eine höhere zeitliche Auflösung als in der rechten
Hemisphäre ermöglicht.
Der unterschiedliche Aufbau der rechten und der linken auditiven Region geht somit
konform mit der Annahme, dass die linken auditiven Kortexareale einen höheren Grad an
zeitlicher Empfindlichkeit besitzen, der der Sprachunterscheidung
zu Nutzen kommt,
während die entsprechenden Gehirnregionen auf der rechten Seite eine größere spektrale
Empfindlichkeit besitzen, welche sie für die Frequenzverarbeitung verschiedener Tonhöhen
optimiert.
Bezüglich der auditiven Wahrnehmung zeitlicher und spektraler Information führten
Robin, Tranel und Damasio eine Studie durch, deren Ergebnisse sie im Artikel „Auditory
Perception of Temporal and Spectral Events in Patients with Focal Left and Right Celebral
Lesions“ (1990) veröffentlichten. Um den Einfluss von Läsionen in der temporoparietalen
Region zwischen den Hemisphären zu vergleichen, nutzten die Autoren das Konzept der
„double dissociation“ doppelten Dissoziation
Hierbei wurden jeweils fünf Patienten mit einer Läsion in der linken Hemisphäre, aber
einer unverletzten rechten Hemisphäre mit dem Äquivalent auf der rechten Seite und einer
unverletzten Kontrollgruppe verglichen. Diese Methode dient als Beleg für funktionale
Modularität verschiedener Gehirnareale. Den Versuchspersonen wurden verschiedene
Aufgaben zur zeitlichen Auflösung (z.B. Länge eines Signals und Intervalle zwischen Lauten)
und zur spektralen Auflösung (z.B. Gleichheit von Tonhöhen und Frequenzunterscheidungen)
gestellt. Das Ergebnis bestätigt die Hypothesen, dass Personen mit einer Läsion der linken
temporoparietalen Region eine über beeinträchtigte Wahrnehmung von zeitlicher Information,
aber eine normale Wahrnehmung spektraler Informationen verfügen, während Personen mit
einer
Läsion
der
rechten
temporoparietalen
Region
eine
eingeschränkte
Wahrnehmungsfähigkeit spektraler, nicht aber zeitlicher Informationen aufwiesen. Diese
Befunde sind konsistent mit der Auffassung, dass zeitliche Informationsverarbeitung in der
linken, und spektrale Wahrnehmung in der rechten Hemisphäre erfolgt.
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 4
Eine häufige Folgeerkrankung von Läsionen der rechten Hemisphäre ist eine
beeinträchtigte prosodische Wahrnehmung, wie z.B. bei der Unterscheidung von Aussagen
und Fragen. Sowohl die Wahrnehmung prosodischer Sprachinformationen als auch die
Wahrnehmung musikalischer Informationen basieren auf den akustischen Signalen der
Basisfrequenz, Dauer und Intensität.
In einer Studie an einem Amateurmusiker, der nach einem Schlaganfall in der rechten
Hemisphäre an schwerer apperzeptiver Amusie litt, untersuchten Nicholson et al. den
Zusammenhang zwischen der Verarbeitung von Musik und prosodischer Sprachinformationen
(Impaired processing of prosodic and musical patterns after right hemisphere damage, 2003).
Während die segmentelle Sprachwahrnehmung des Patienten nicht beeinträchtigt war, konnte
K.B. nicht mehr zwischen Tonhöhen und Rhythmusabfolgen in sprachlicher oder
musikalischer Form unterscheiden. Des Weiteren litt der Patient an einer starken
Beeinträchtigung
prosodischer
Wahrnehmung
im
Vergleich
zu
einer
gematchen
Kontrollgruppe. Nicholson et al. fanden bei ihren Untersuchungen einen Zusammenhang
zwischen der Wahrnehmung prosodischer Informationen und bestimmten musikalischen
Aspekten, wie Melodieverlauf und Rhythmus und schlossen daraus „ …impairment in
perceiving prosodic categories may be related to a deficit in processing pitch or timing
information, rather than a memory deficit“ (Nicholson et al., Brain and Cognition 52, S.387).
Es ist somit anzunehmen, dass ein funktioneller Zusammenhang zwischen diesen
Bereichen besteht, und dass die Verarbeitung prosodischer und musikalischer Abfolgen teils
auf überlappenden oder angrenzenden anatomischen Strukturen beruht. Im Gegensatz zu
Zatorres Studienergebnissen, die eine musikalische Aphasie auf Verletzungen im primären
auditiven Kortex zurückführen konnten, ist diese Hirnstruktur bei K.B. bilateral intakt. Patel
et al. vermuteten, dass der rechte Frontalkortex in die kurzzeitige Aufrecherhaltung und den
Vergleich von Tonhöhen und von zeitlichen Abfolgen involviert sein könnte. Da K.B.
hingegen starke Verletzungen des rechten Parietalkortex aufwies, ist es möglich, dass seine
beeinträchtigte Wahrnehmung musikalischer und prosodischer Informationen eher auf einer
gestörten Tonhöhen- und Rhythmuswahrnehmung basiert, als auf Ebene der sensorischen
Analyse oder der kurzzeitigen Aufrechterhaltung der Reize.
Diese und frühere Untersuchungesergebnisse deuten darauf hin, dass der rechte
Parietalkortex in die Extraktion räumlicher, tonaler und zeitlicher Abfolgen aus dem
akustischen Signal involviert ist, während Regionen im rechten Frontallappen wichtig für die
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 5
kurzzeitige Aufrechterhaltung und den Vergleich akustischer Abfolgen sind. Diese Prozesse
könnten notwendig für die Verarbeitung prosodischer sowie musikalischer Reize sein, nicht
aber für die Verarbeitung akustischer Abfolgen mit höherer zeitlicher Frequenz.
3 Die neurokognitive Grundlage der Gesichtererkennung
Schon seit dem letzten Jahrhundert ist die Gesichtererkennung Forschungsgegenstand
verschiedenster naturwissenschaftlicher Disziplinen. Es besteht Grund zur Annahme, dass die
Gesichtererkennung in bestimmten Teilen des Gehirns stattfindet, die spezifisch dieser
Aufgabe gewidmet sind. Diese neuronalen Netzwerke befinden sich im Temporallappen, wo
besonders in der rechten Hemisphäre eine erhöhte Aktivität im Gyrus Fusiformis bei der
Wahrnehmung von Gesichtern nachgewiesen wurde. „Collectively, from the neuroimaging
studies, it appears that regions in and around the fusiform gyrus appear to play a role in face
recognition, whereas the amygdala plays a particularly important role in the recognition of
facial expressions” (Nelson, Infant and Child Development, 10, S.5). Mithilfe mehrerer fMRIStudien gelang es Kanwisher et al. eindeutige Belege für die Spezialisierung der „fusiform
face area“ (FFA) auf die Gesichterwahrnehmung zu erhalten. Diese Hirnregion konnte bei den
meisten rechtshändigen Versuchspersonen im Gyrus Fusiformis oder in unmittelbar
angrenzenden kortikalen Gebieten nachgewiesen werden.
Eine lang anhaltende Debatte zwischen verschiedenen Forschern widmet sich der
Frage, ob sich die Gesichtererkennung generell von der Wahrnehmung anderer Objekte
unterscheidet, indem Gesichter eher ganzheitlich wahrgenommen werden und in besonderem
Maße die „fusiform face area“ (FFA)
aktivieren. Diese Hypothese wird als „domain
specificity“ bezeichnet. Den Gegensatz dazu bildet die „expertise hypothesis“, welche die
Gesichtererkennung aus der Entwicklungsperspektive betrachtet und annimmt, dass die
visuelle Verarbeitung von Gesichtern nur speziell erscheint, weil Menschen eine größere
Expertise in der Individualisierung von Gesichtern als anderen Objekten entwickelt haben.
Demnach wäre es möglich auch in anderen Bereichen wie z.B. als Preisrichter von
Hundeschauen eine ebenso große Expertise in der Unterscheidung von Hunden zu entwickeln.
Nach eingehender Überprüfung dieser Annahme mithilfe verschiedener Tests sind McKone
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 6
et al. zu dem Ergebnis gekommen, dass bei keinen anderen Expertiseobjekten eine
vergleichbare ganzheitliche Wahrnehmung wie bei der Gesichterwahrnehmung auftritt. Auch
in Studien mit Affen konnte gezeigt werden, dass weder Menschen noch Affen Expertise
darin ausbilden ihre Artgenossen an Merkmalen wie Händen oder Körperform zu erkennen.
Als wichtigstes Unterscheidungsmerkmal dient nur das Gesicht. In neurophysiologischen
Läsions-Studien konnte nachgewiesen werden, dass Gesichtererkennung unabhängig von der
Wahrnehmung von Expertiseobjekten verletzt sein kann und umgekehrt. Beispielsweise
wiesen
Patienten
mit
Prosopagnosie
(Unfähigkeit
Gesichter
zu
erkennen)
keine
Beeinträchtigung in der Erkennung von Objekten, insbesondere auch Expertiseobjekten auf.
Umgekehrt war es Patienten mit einer Objektagnosie weiterhin möglich Gesichter zu
differenzieren. „Cases include MX, a farmer, who could recognize faces, but who could no
longer recognize his cows“ (McKone et al., Trends in Cognitive Science, 11, S. 11).
Die Befunde dieser Studien sprechen klar gegen die „expertise“ und für die „domain
specificity“ Hypothese. „…there is clear evidence of different neural substrates for faces and
objects of expertise based on neuropsychological cases, and consistent evidence from fMRI
and single-unit recording“. (McKone et al., Trend in Cognitive Science, 11, S.11)
Andere fMRI Studien belegen hingegen die schrittweise Entwicklung der
Spezialisierung bestimmter Hirnregionen für die Gesichtererkennung und sprechen somit eher
für die „expertise Hypothese“. Aus Sicht der Entwicklungsperspektive spezialisieren sich
bestimmte Hirnregionen erst im Lauf des ersten Jahrzehnts, teils als Resultat von
Erfahrungen, teils aufgrund einer angeborenen Tendenz.
Kadosh und Johnson führten
diesbezüglich eine Studie durch, in der sie die Fähigkeiten zur Gesichtererkennung
verschiedener Altersgruppen testeten und bemerkten, dass die Gruppe der 5- bis 8-Jährigen
andere kortikale Erregungsmuster aufwiesen, als die älteren Gruppen. “In other words,
although all three age groups exhibited stimulus category fine-tuning in the lateral occipital
object areas and the parahippocampal place area, only the older groups showed this specificity
in the FFA and other face regions.” (Kadosh & Johnson, Trends in Cognitive Sciende, 11, S.
367).
Als vermittelndes Konzept zwischen diesen beiden Positionen führt Nelson das
Konzept der „sensitiven Phase“ ein. Nelson nimmt an, dass die Gesichtererkennung ein
„experience-expectant process“ ist, also ein Prozess, der sich auf die Entwicklung von
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 7
Fähigkeiten einer Spezies bezieht, über die alle Mitglieder verfügen und welche von
bestimmten Erfahrungen abhängen, die im Laufe einer festen Zeitspanne gemacht werden.
„…faces begin to be seen as a separate class of objects within the first 6 months of life. Not
surprisingly, the neural systems that underlie face recognition also come on line during this
period of time” (Nelson, Infant and Child Development, 10, S. 1).
Er nimmt somit an, dass die Fähigkeit der Gesichtererkennung erlernt ist, und durch
die Aussetzung zu Reizen (Gesichtern) Gewebe im inferotemporalen Kortex gebildet wird,
welches auf diese Fähigkeit spezialisiert ist. Diese schnelle Spezialisierung findet in den
ersten Lebensmonaten statt und wird aufrechterhalten durch die andauernde Aussetzung zu
Gesichtern, sodass letztendlich ein gesamtes Hirnareal für die Gesichtererkennung
verantwortlich ist. Genaue Details dieser Theorie, wie z.B. wie lang die sensitive Phase im
Säuglingsalter andauert, und welche genaue Rolle die Erfahrung spielt, sind bisher noch
unklar und müssen weiter erforscht werden. Die „experience-expectant-theory“ geht jedoch
mit vielen bisherigen Studienergebnissen konform und betont mit ihrem Fokus auf
evolutionäre Prozesse die soziale Wichtigkeit von Gesichtern.
4 Diskussion
Aus verschiedenen Studien geht hervor, dass akustische Reize abhängig von ihrer
Beschaffenheit bevorzugt in einer bestimmten Hemisphäre verarbeitet werden. Sprachliche
Reize aktivieren demnach vor allem neuronale Netzwerke der linken, musikalische Reize
stärker die der rechten Hemisphäre.
Aufgrund der contralateralen Projektion akustischer Reize in die Temporallappen
ergaben Studien zu dichotischem Hören eine bessere Widergabe phonetischer Informationen,
wenn sie über das rechte Ohr übertragen wurden, und einen Linksohrvorteil bei musikalischen
Reizen. Es ist jedoch adäquater, die Kategorien „Sprache“ vs. „Musik“ hinsichtlich ihrer
akustischen Parameter zu klassifizieren, da vorangehende Beispiele belegen, dass z.B. auch
Aspekte der Sprachinformationen wie Prosodie überwiegend im Frontal- und Parietalkortex
der rechten Hemisphäre verarbeitet werden, während schnell wechselnde tonale Abfolgen vor
allem im auditiven Kortex der linken Hemisphäre verarbeitet werden. Allgemein gesagt findet
die zeitliche Verarbeitung rasch wechselnder Laute unter 50 ms vorwiegend in der linken
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 8
Hemispäre statt, während die Verarbeitung verschiedener Tonhöhen in der rechten
Hemisphäre erfolgt.
Bisher ungeklärt ist allerdings das Prinzip, über welches das ZNS eine solche
parameterspezifische Zuteilung akustischer Signale vornehmen kann. Der Annahme Zatorres,
dass eine unterschiedlich starke Myelinisierung der Axone in der rechten im Gegensatz zur
linken Hemisphäre die Geschwindigkeit der neuronalen Verarbeitung von akustischen Reizen
bestimmt, muss weiter untersucht werden. Des Weiteren muss die hohe Störanfälligkeit bei
der Betrachtung der Lateralisierung akustischer Verarbeitung berücksichtigt werden. In den
Studien spielten sowohl die willentliche Kontrolle des Hörens mit einem bestimmten Ohr, als
auch Hintergrundgeräusche und individuelle Unterschiede bezüglich des Grads der
Lateralisierung eine Rolle. „To summarize, the data… provide a strong evidence for the
existence of the brain lateralization in audition, but also for its vulnerability“ (Tervaniemi &
Hugdahl, Brain Research Reviews, 43, S. 242).
Als soziales Wesen ist der Mensch in besonderem Maße auf die Wahrnehmung und
Interpretation von Gesichtsausdrücken angewiesen. Aufgrund dieser besonderen Wichtigkeit
scheint es eine Hirnregion im Gyrus Fusiformis der rechten Hemisphäre zu geben, welche auf
die Gesichtererkennung spezialisiert ist, die „fusiform face area“ (FFA).
Die Annahme, dass eine spezielle Hirnregion für die Wahrnehmung von Gesichtern
verantwortlich ist, wird auch als „domain specificity theory“ (Theorie der Domänenspezifität)
bezeichnet. Vertreter dieser Theorie sind überzeugt, dass die spezielle, ganzheitliche
Wahrnehmung von Gesichtern sich von der Wahrnehmung anderer Objekte grundlegend
unterscheidet.
Dagegen gehen Vertreter der „expertise theory“ (Theorie der Expertise) von der
Annahme aus, dass sich aufgrund der häufigen Notwendigkeit zur Differenzierung von
Gesichtern eine Expertise auf diesem Gebiet gebildet hat, welche grundsätzlich für alle
Objekte möglich ist.
Beide Theorien ließen sich durch verschiedene Studien belegen und es ist derzeit nicht
möglich eine der Hypothesen auszuschließen. Eine Möglichkeit der Vermittlung zwischen
den Positionen bietet das Konzept der sensiblen Phase, nach welchem angeborene neuronale
Netzwerke die Fähigkeit zur Gesichtererkennung ausbilden, wenn in den ersten
Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der
Gesichtererkennung
Seite 9
Lebensmonaten ausreichend Reize für die Entwicklung einer Expertise auf diesem Gebiet
vorhanden sind.
Solange noch keine eindeutigen Forschungsergebnisse vorliegen, welche nur auf eine
der Theorien schließen lassen, ist es nicht möglich zu entscheiden, welche der Wirklichkeit
entspricht. Eine Einigung auf diesem Gebiet ist für die Wissenschaft insofern wichtig, als dass
Forscher die Sonderstellung der Gesichterwahrnehmung in Bezug auf soziale Interaktion
klären müssen.
5 Literatur
Zatorre, R. J., Belin, P., & Penhune, V. B. (2002). Structure and function of auditory
cortex: music and speech. Trends in Cognitive Sciences, 6, 37-46.
Robin, D.A., Tranel, D., & Damasio, H. (1990). Auditory perception of temporal and
spectral events in patients with focal left and right cerebral lesions. Brain and Language, 39,
539-55.
Nicholson, K. G., Baum, S., Kilgour, A., Koh, C. K., Munhall, K. G., & Cuddy, L. L.
(2003). Impaired processing of prosodic and musical patterns after right hemisphere damage.
Brain and Cognition, 52, 382-9.
Tervaniemi, M., & Hugdahl, K. (2003). Lateralization of auditory cortex functions.
Brain Research Reviews, 43, 231-46.
McKone, E., Kanwisher, N., & Duchaine, B. C. (2007). Can generic expertise explain
special processing for faces? Trends in Cognitive Sciences, 11, 8-15.
Cohen Kadosh, K., & Johnson, M. H. (2007). Developing a cortex specialized for face
perception. Trends in Cognitive Sciences, 11, 367-9.
Kanwisher, N., McDermott, J., 6 Chun, M. M. (1997) The fusiform face area: a
module in human extrastriate cortex specialized for face perception. The Journal of
Neuroscience, 17, 4302-4311.
Nelson, C.A. (2001) The development and neural bases of face recognition. Infant and
Child Development, 10, 3-18.
Herunterladen