Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 1 1 Einleitung Wahrnehmung ermöglicht es, sich eine mentale Wirklichkeit als Abbild der Realität zu erschaffen. Dafür werden über die Sinnesorgane Informationen über die Umwelt aufgenommen, und anschließend in Signale umgewandelt, die der Wahrnehmung verschiedener Hirnregionen zugänglich sind. Als Sinneswahrnehmung bezeichnet man demnach den Prozess, wie die Sinnesorgane auf externale Stimuli reagieren und diese an das Gehirn weiterleiten. Die bewusste Wahrnehmung hingegen findet erst im Gehirn statt, wo die sensorischen Informationen verarbeitet, geordnet und interpretiert werden und in einer internalen Repräsentation des Reizes resultieren. Doch auch nach über einem Jahrhundert langer Forschung ist es noch nicht möglich die genauen Prozesse zu erklären, über die die Wahrnehmung funktioniert. In dieser Arbeit werden neueste Forschungsergebnisse auf dem Gebiet der akustischen Wahrnehmung von sprachlichen und tonalen Reizen dargestellt, sowie Ergebnisse von Studien zur Gesichterwahrnehmung. 2 Akustische Wahrnehmung – Sprache versus Musik Musik und Sprache sind die komplexesten und kognitiv anspruchsvollsten Möglichkeiten der Lautäußerung des Menschen. Und doch erlaubt der Aufbau des menschlichen Zentralnervensystems das Verständnis von Sprache und Musik derjenigen Kultur, in welcher ein Mensch aufgewachsen ist, ohne ein explizites Training. Diese Fähigkeiten sind auf den funktionalen Aufbau des menschlichen auditiven Nervensystems zurückzuführen, jedoch gibt es bestimmte Unterschiede in der Wahrnehmung sprachlicher und tonaler Informationen. Mittels Untersuchungen an Patienten mit Hirnverletzungen und Untersuchungen mit bildgebenden Verfahren an gesunden Probanden, konnte mehrheitlich eine kortikale Asymmetrie festgestellt werden, wobei die linke Hemisphäre bei der Sprachverarbeitung und die rechte Hemisphäre bei der Verarbeitung von Musik eine dominierende Rolle spielt. Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 2 Die für die auditive Verarbeitung verantwortlichen kortikalen Areale befinden sich im rechten und linken Temporallappen, dem Gyrus temporalis superior und dem Gyrus temporalis medius und den assoziativen Arealen, die sich bis zur posterioren Seite der Temporallappen erstrecken. Der primäre auditive Kortex befindet sich in der Region des Heschl’s Gyrus auf der superioren Oberfläche des Temporallappens. Dieser wurde in Untersuchungen oftmals länger und größer in der linken, als in der rechten Hemisphäre gefunden. In dem von Zatorre et al. publizierten Artikel „Structure and function of auditory cortex: music and speech“ stellt die Forschergruppe die Hypothese auf, dass eine Asymmetrie der Hemisphären das Resultat einer Spezialisierung der Hemisphären für bestimmte akustische Parameter der zeitlichen Auflösung und der Frequenzauflösung sein könnte. Hierbei konzentriert sie sich auf die neuronalen Mechanismen, die bei der Verarbeitung von Sprache und Musik eine Rolle spielen. Eine Besonderheit der Sprachvermittlung sehen die Autoren in der zeitlichen Auflösung von Sprachlauten, wobei insbesondere die Wahrnehmung von gestoppten Konsonanten (wie z.B. „d“) im Zusammenhang mit der Fähigkeit zu stehen scheint, sprachliche Unterschiede in Bruchteilen von Millisekunden verarbeiten zu können. Im Gegensatz dazu stellt die Forschergruppe bei der Verarbeitung von Musik die Wahrnehmung von Tonhöhenunterschieden in den Vordergrund, welche eine größere zeitliche Ausdehnung besitzen, als gesprochene Konsonanten. Daten aus verschiedenen Studien belegen, dass bestimmte Aspekte der Decodierung von Sprache in den Regionen der linken Hemisphäre stattfinden. Des Weiteren deuten aktuelle Befunde auf eine funktionale Hierarchie hin, in welcher erste Sprachverarbeitungsprozesse in den Kerngebieten beider Hemisphären stattfinden, und erst eine höhere Sprachverarbeitung in den anterioren und ventralen auditiven Regionen der linken Hemisphäre geschieht. Beispielsweise konnten Peretz et al. in einer Untersuchung an Patienten mit beidseitiger Gehirnverletzung am temporalen Kortex zeigen, dass selbst bei einer musikalischen Aphasie (Unfähigkeit eine tonale Abfolgen zu erkennen) keine Veränderungen in der Sprachfähigkeit auftraten. In Untersuchungen mithilfe bildgebender Verfahren konnte eine relative Spezifität der rechten auditiven Regionen für tonale Veränderungen beispielsweise in Melodien, gesprochenen Silben und Rhythmuspattern festgestellt werden. Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 3 Mithilfe eines MRI Scans des menschlichen auditiven Kortex stellten Penhune et al. eine anatomische L>R Asymmetrie fest, die die Ergebnisse der bisherigen Studien unterstützt. Zatorre et al. nehmen an, dass der größere Anteil an weißer Substanz unterhalb Heschl’s Gyrus in der linken Hemisphäre aufgrund der myelinisierten Axone der Pyramidenzellen eine schnellere Übertragung und somit eine höhere zeitliche Auflösung als in der rechten Hemisphäre ermöglicht. Der unterschiedliche Aufbau der rechten und der linken auditiven Region geht somit konform mit der Annahme, dass die linken auditiven Kortexareale einen höheren Grad an zeitlicher Empfindlichkeit besitzen, der der Sprachunterscheidung zu Nutzen kommt, während die entsprechenden Gehirnregionen auf der rechten Seite eine größere spektrale Empfindlichkeit besitzen, welche sie für die Frequenzverarbeitung verschiedener Tonhöhen optimiert. Bezüglich der auditiven Wahrnehmung zeitlicher und spektraler Information führten Robin, Tranel und Damasio eine Studie durch, deren Ergebnisse sie im Artikel „Auditory Perception of Temporal and Spectral Events in Patients with Focal Left and Right Celebral Lesions“ (1990) veröffentlichten. Um den Einfluss von Läsionen in der temporoparietalen Region zwischen den Hemisphären zu vergleichen, nutzten die Autoren das Konzept der „double dissociation“ doppelten Dissoziation Hierbei wurden jeweils fünf Patienten mit einer Läsion in der linken Hemisphäre, aber einer unverletzten rechten Hemisphäre mit dem Äquivalent auf der rechten Seite und einer unverletzten Kontrollgruppe verglichen. Diese Methode dient als Beleg für funktionale Modularität verschiedener Gehirnareale. Den Versuchspersonen wurden verschiedene Aufgaben zur zeitlichen Auflösung (z.B. Länge eines Signals und Intervalle zwischen Lauten) und zur spektralen Auflösung (z.B. Gleichheit von Tonhöhen und Frequenzunterscheidungen) gestellt. Das Ergebnis bestätigt die Hypothesen, dass Personen mit einer Läsion der linken temporoparietalen Region eine über beeinträchtigte Wahrnehmung von zeitlicher Information, aber eine normale Wahrnehmung spektraler Informationen verfügen, während Personen mit einer Läsion der rechten temporoparietalen Region eine eingeschränkte Wahrnehmungsfähigkeit spektraler, nicht aber zeitlicher Informationen aufwiesen. Diese Befunde sind konsistent mit der Auffassung, dass zeitliche Informationsverarbeitung in der linken, und spektrale Wahrnehmung in der rechten Hemisphäre erfolgt. Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 4 Eine häufige Folgeerkrankung von Läsionen der rechten Hemisphäre ist eine beeinträchtigte prosodische Wahrnehmung, wie z.B. bei der Unterscheidung von Aussagen und Fragen. Sowohl die Wahrnehmung prosodischer Sprachinformationen als auch die Wahrnehmung musikalischer Informationen basieren auf den akustischen Signalen der Basisfrequenz, Dauer und Intensität. In einer Studie an einem Amateurmusiker, der nach einem Schlaganfall in der rechten Hemisphäre an schwerer apperzeptiver Amusie litt, untersuchten Nicholson et al. den Zusammenhang zwischen der Verarbeitung von Musik und prosodischer Sprachinformationen (Impaired processing of prosodic and musical patterns after right hemisphere damage, 2003). Während die segmentelle Sprachwahrnehmung des Patienten nicht beeinträchtigt war, konnte K.B. nicht mehr zwischen Tonhöhen und Rhythmusabfolgen in sprachlicher oder musikalischer Form unterscheiden. Des Weiteren litt der Patient an einer starken Beeinträchtigung prosodischer Wahrnehmung im Vergleich zu einer gematchen Kontrollgruppe. Nicholson et al. fanden bei ihren Untersuchungen einen Zusammenhang zwischen der Wahrnehmung prosodischer Informationen und bestimmten musikalischen Aspekten, wie Melodieverlauf und Rhythmus und schlossen daraus „ …impairment in perceiving prosodic categories may be related to a deficit in processing pitch or timing information, rather than a memory deficit“ (Nicholson et al., Brain and Cognition 52, S.387). Es ist somit anzunehmen, dass ein funktioneller Zusammenhang zwischen diesen Bereichen besteht, und dass die Verarbeitung prosodischer und musikalischer Abfolgen teils auf überlappenden oder angrenzenden anatomischen Strukturen beruht. Im Gegensatz zu Zatorres Studienergebnissen, die eine musikalische Aphasie auf Verletzungen im primären auditiven Kortex zurückführen konnten, ist diese Hirnstruktur bei K.B. bilateral intakt. Patel et al. vermuteten, dass der rechte Frontalkortex in die kurzzeitige Aufrecherhaltung und den Vergleich von Tonhöhen und von zeitlichen Abfolgen involviert sein könnte. Da K.B. hingegen starke Verletzungen des rechten Parietalkortex aufwies, ist es möglich, dass seine beeinträchtigte Wahrnehmung musikalischer und prosodischer Informationen eher auf einer gestörten Tonhöhen- und Rhythmuswahrnehmung basiert, als auf Ebene der sensorischen Analyse oder der kurzzeitigen Aufrechterhaltung der Reize. Diese und frühere Untersuchungesergebnisse deuten darauf hin, dass der rechte Parietalkortex in die Extraktion räumlicher, tonaler und zeitlicher Abfolgen aus dem akustischen Signal involviert ist, während Regionen im rechten Frontallappen wichtig für die Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 5 kurzzeitige Aufrechterhaltung und den Vergleich akustischer Abfolgen sind. Diese Prozesse könnten notwendig für die Verarbeitung prosodischer sowie musikalischer Reize sein, nicht aber für die Verarbeitung akustischer Abfolgen mit höherer zeitlicher Frequenz. 3 Die neurokognitive Grundlage der Gesichtererkennung Schon seit dem letzten Jahrhundert ist die Gesichtererkennung Forschungsgegenstand verschiedenster naturwissenschaftlicher Disziplinen. Es besteht Grund zur Annahme, dass die Gesichtererkennung in bestimmten Teilen des Gehirns stattfindet, die spezifisch dieser Aufgabe gewidmet sind. Diese neuronalen Netzwerke befinden sich im Temporallappen, wo besonders in der rechten Hemisphäre eine erhöhte Aktivität im Gyrus Fusiformis bei der Wahrnehmung von Gesichtern nachgewiesen wurde. „Collectively, from the neuroimaging studies, it appears that regions in and around the fusiform gyrus appear to play a role in face recognition, whereas the amygdala plays a particularly important role in the recognition of facial expressions” (Nelson, Infant and Child Development, 10, S.5). Mithilfe mehrerer fMRIStudien gelang es Kanwisher et al. eindeutige Belege für die Spezialisierung der „fusiform face area“ (FFA) auf die Gesichterwahrnehmung zu erhalten. Diese Hirnregion konnte bei den meisten rechtshändigen Versuchspersonen im Gyrus Fusiformis oder in unmittelbar angrenzenden kortikalen Gebieten nachgewiesen werden. Eine lang anhaltende Debatte zwischen verschiedenen Forschern widmet sich der Frage, ob sich die Gesichtererkennung generell von der Wahrnehmung anderer Objekte unterscheidet, indem Gesichter eher ganzheitlich wahrgenommen werden und in besonderem Maße die „fusiform face area“ (FFA) aktivieren. Diese Hypothese wird als „domain specificity“ bezeichnet. Den Gegensatz dazu bildet die „expertise hypothesis“, welche die Gesichtererkennung aus der Entwicklungsperspektive betrachtet und annimmt, dass die visuelle Verarbeitung von Gesichtern nur speziell erscheint, weil Menschen eine größere Expertise in der Individualisierung von Gesichtern als anderen Objekten entwickelt haben. Demnach wäre es möglich auch in anderen Bereichen wie z.B. als Preisrichter von Hundeschauen eine ebenso große Expertise in der Unterscheidung von Hunden zu entwickeln. Nach eingehender Überprüfung dieser Annahme mithilfe verschiedener Tests sind McKone Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 6 et al. zu dem Ergebnis gekommen, dass bei keinen anderen Expertiseobjekten eine vergleichbare ganzheitliche Wahrnehmung wie bei der Gesichterwahrnehmung auftritt. Auch in Studien mit Affen konnte gezeigt werden, dass weder Menschen noch Affen Expertise darin ausbilden ihre Artgenossen an Merkmalen wie Händen oder Körperform zu erkennen. Als wichtigstes Unterscheidungsmerkmal dient nur das Gesicht. In neurophysiologischen Läsions-Studien konnte nachgewiesen werden, dass Gesichtererkennung unabhängig von der Wahrnehmung von Expertiseobjekten verletzt sein kann und umgekehrt. Beispielsweise wiesen Patienten mit Prosopagnosie (Unfähigkeit Gesichter zu erkennen) keine Beeinträchtigung in der Erkennung von Objekten, insbesondere auch Expertiseobjekten auf. Umgekehrt war es Patienten mit einer Objektagnosie weiterhin möglich Gesichter zu differenzieren. „Cases include MX, a farmer, who could recognize faces, but who could no longer recognize his cows“ (McKone et al., Trends in Cognitive Science, 11, S. 11). Die Befunde dieser Studien sprechen klar gegen die „expertise“ und für die „domain specificity“ Hypothese. „…there is clear evidence of different neural substrates for faces and objects of expertise based on neuropsychological cases, and consistent evidence from fMRI and single-unit recording“. (McKone et al., Trend in Cognitive Science, 11, S.11) Andere fMRI Studien belegen hingegen die schrittweise Entwicklung der Spezialisierung bestimmter Hirnregionen für die Gesichtererkennung und sprechen somit eher für die „expertise Hypothese“. Aus Sicht der Entwicklungsperspektive spezialisieren sich bestimmte Hirnregionen erst im Lauf des ersten Jahrzehnts, teils als Resultat von Erfahrungen, teils aufgrund einer angeborenen Tendenz. Kadosh und Johnson führten diesbezüglich eine Studie durch, in der sie die Fähigkeiten zur Gesichtererkennung verschiedener Altersgruppen testeten und bemerkten, dass die Gruppe der 5- bis 8-Jährigen andere kortikale Erregungsmuster aufwiesen, als die älteren Gruppen. “In other words, although all three age groups exhibited stimulus category fine-tuning in the lateral occipital object areas and the parahippocampal place area, only the older groups showed this specificity in the FFA and other face regions.” (Kadosh & Johnson, Trends in Cognitive Sciende, 11, S. 367). Als vermittelndes Konzept zwischen diesen beiden Positionen führt Nelson das Konzept der „sensitiven Phase“ ein. Nelson nimmt an, dass die Gesichtererkennung ein „experience-expectant process“ ist, also ein Prozess, der sich auf die Entwicklung von Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 7 Fähigkeiten einer Spezies bezieht, über die alle Mitglieder verfügen und welche von bestimmten Erfahrungen abhängen, die im Laufe einer festen Zeitspanne gemacht werden. „…faces begin to be seen as a separate class of objects within the first 6 months of life. Not surprisingly, the neural systems that underlie face recognition also come on line during this period of time” (Nelson, Infant and Child Development, 10, S. 1). Er nimmt somit an, dass die Fähigkeit der Gesichtererkennung erlernt ist, und durch die Aussetzung zu Reizen (Gesichtern) Gewebe im inferotemporalen Kortex gebildet wird, welches auf diese Fähigkeit spezialisiert ist. Diese schnelle Spezialisierung findet in den ersten Lebensmonaten statt und wird aufrechterhalten durch die andauernde Aussetzung zu Gesichtern, sodass letztendlich ein gesamtes Hirnareal für die Gesichtererkennung verantwortlich ist. Genaue Details dieser Theorie, wie z.B. wie lang die sensitive Phase im Säuglingsalter andauert, und welche genaue Rolle die Erfahrung spielt, sind bisher noch unklar und müssen weiter erforscht werden. Die „experience-expectant-theory“ geht jedoch mit vielen bisherigen Studienergebnissen konform und betont mit ihrem Fokus auf evolutionäre Prozesse die soziale Wichtigkeit von Gesichtern. 4 Diskussion Aus verschiedenen Studien geht hervor, dass akustische Reize abhängig von ihrer Beschaffenheit bevorzugt in einer bestimmten Hemisphäre verarbeitet werden. Sprachliche Reize aktivieren demnach vor allem neuronale Netzwerke der linken, musikalische Reize stärker die der rechten Hemisphäre. Aufgrund der contralateralen Projektion akustischer Reize in die Temporallappen ergaben Studien zu dichotischem Hören eine bessere Widergabe phonetischer Informationen, wenn sie über das rechte Ohr übertragen wurden, und einen Linksohrvorteil bei musikalischen Reizen. Es ist jedoch adäquater, die Kategorien „Sprache“ vs. „Musik“ hinsichtlich ihrer akustischen Parameter zu klassifizieren, da vorangehende Beispiele belegen, dass z.B. auch Aspekte der Sprachinformationen wie Prosodie überwiegend im Frontal- und Parietalkortex der rechten Hemisphäre verarbeitet werden, während schnell wechselnde tonale Abfolgen vor allem im auditiven Kortex der linken Hemisphäre verarbeitet werden. Allgemein gesagt findet die zeitliche Verarbeitung rasch wechselnder Laute unter 50 ms vorwiegend in der linken Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 8 Hemispäre statt, während die Verarbeitung verschiedener Tonhöhen in der rechten Hemisphäre erfolgt. Bisher ungeklärt ist allerdings das Prinzip, über welches das ZNS eine solche parameterspezifische Zuteilung akustischer Signale vornehmen kann. Der Annahme Zatorres, dass eine unterschiedlich starke Myelinisierung der Axone in der rechten im Gegensatz zur linken Hemisphäre die Geschwindigkeit der neuronalen Verarbeitung von akustischen Reizen bestimmt, muss weiter untersucht werden. Des Weiteren muss die hohe Störanfälligkeit bei der Betrachtung der Lateralisierung akustischer Verarbeitung berücksichtigt werden. In den Studien spielten sowohl die willentliche Kontrolle des Hörens mit einem bestimmten Ohr, als auch Hintergrundgeräusche und individuelle Unterschiede bezüglich des Grads der Lateralisierung eine Rolle. „To summarize, the data… provide a strong evidence for the existence of the brain lateralization in audition, but also for its vulnerability“ (Tervaniemi & Hugdahl, Brain Research Reviews, 43, S. 242). Als soziales Wesen ist der Mensch in besonderem Maße auf die Wahrnehmung und Interpretation von Gesichtsausdrücken angewiesen. Aufgrund dieser besonderen Wichtigkeit scheint es eine Hirnregion im Gyrus Fusiformis der rechten Hemisphäre zu geben, welche auf die Gesichtererkennung spezialisiert ist, die „fusiform face area“ (FFA). Die Annahme, dass eine spezielle Hirnregion für die Wahrnehmung von Gesichtern verantwortlich ist, wird auch als „domain specificity theory“ (Theorie der Domänenspezifität) bezeichnet. Vertreter dieser Theorie sind überzeugt, dass die spezielle, ganzheitliche Wahrnehmung von Gesichtern sich von der Wahrnehmung anderer Objekte grundlegend unterscheidet. Dagegen gehen Vertreter der „expertise theory“ (Theorie der Expertise) von der Annahme aus, dass sich aufgrund der häufigen Notwendigkeit zur Differenzierung von Gesichtern eine Expertise auf diesem Gebiet gebildet hat, welche grundsätzlich für alle Objekte möglich ist. Beide Theorien ließen sich durch verschiedene Studien belegen und es ist derzeit nicht möglich eine der Hypothesen auszuschließen. Eine Möglichkeit der Vermittlung zwischen den Positionen bietet das Konzept der sensiblen Phase, nach welchem angeborene neuronale Netzwerke die Fähigkeit zur Gesichtererkennung ausbilden, wenn in den ersten Wahrnehmung am Beispiel der akustischen Wahrnehmung von Sprache vs. Musik und der Gesichtererkennung Seite 9 Lebensmonaten ausreichend Reize für die Entwicklung einer Expertise auf diesem Gebiet vorhanden sind. Solange noch keine eindeutigen Forschungsergebnisse vorliegen, welche nur auf eine der Theorien schließen lassen, ist es nicht möglich zu entscheiden, welche der Wirklichkeit entspricht. Eine Einigung auf diesem Gebiet ist für die Wissenschaft insofern wichtig, als dass Forscher die Sonderstellung der Gesichterwahrnehmung in Bezug auf soziale Interaktion klären müssen. 5 Literatur Zatorre, R. J., Belin, P., & Penhune, V. B. (2002). Structure and function of auditory cortex: music and speech. Trends in Cognitive Sciences, 6, 37-46. Robin, D.A., Tranel, D., & Damasio, H. (1990). Auditory perception of temporal and spectral events in patients with focal left and right cerebral lesions. Brain and Language, 39, 539-55. Nicholson, K. G., Baum, S., Kilgour, A., Koh, C. K., Munhall, K. G., & Cuddy, L. L. (2003). Impaired processing of prosodic and musical patterns after right hemisphere damage. Brain and Cognition, 52, 382-9. Tervaniemi, M., & Hugdahl, K. (2003). Lateralization of auditory cortex functions. Brain Research Reviews, 43, 231-46. McKone, E., Kanwisher, N., & Duchaine, B. C. (2007). Can generic expertise explain special processing for faces? Trends in Cognitive Sciences, 11, 8-15. Cohen Kadosh, K., & Johnson, M. H. (2007). Developing a cortex specialized for face perception. Trends in Cognitive Sciences, 11, 367-9. Kanwisher, N., McDermott, J., 6 Chun, M. M. (1997) The fusiform face area: a module in human extrastriate cortex specialized for face perception. The Journal of Neuroscience, 17, 4302-4311. Nelson, C.A. (2001) The development and neural bases of face recognition. Infant and Child Development, 10, 3-18.