"ENHANCING EARLY MULTILINGUALISM (ENEMU) (In-service) Teacher Training on ‘Language Acquisition’ " COMENIUS-Project No. 226496 (2005-2008) CH. 3 - NEUROLINGUISTIK Chris Schaner-Wolles (University of Vienna, AT) & Philip Rausch (University of Potsdam, DE) 3.1 Von der Psycho- zur Neurolinguistik Durch Sprache können wir anderen mitteilen, wie das Wetter gerade ist, was uns vor langer Zeit bewegt hat, oder was unsere Pläne für die Zukunft sind. Egal ob belanglos oder weltbewegend, durch Sprache können wir alles auf den Punkt bringen und das in unendlich vielen verschiedenen Formen. Diese einzigartige menschliche Fähigkeit – Sprache – ist in einem einzigartigen Organ, dem Gehirn des Menschen, verankert. Unser Gehirn speichert viele zehntausend verschiedene Wörter und ihre Bedeutungen, findet bei der Sprachverarbeitung in Sekundenbruchteilen ‚die richtigen Worte’, berechnet mit Hilfe der Grammatik ihre Lautstruktur, innere Form und ihre syntaktischen Beziehungen zu anderen Wörtern eines Satzes, liefert eine zusammenhängende Bedeutung des Gesagten oder Gehörten – und liest dabei sogar zwischen den Zeilen und lässt uns wissen, was es bedeutet, wenn etwas nicht gesagt wird. All das leistet das Gehirn unglaublich schnell, mühelos und effizient. Das zentrale Ziel der Neurolinguistik ist es, der Beziehung von Sprache und Gehirn auf die Spur zu kommen: wie repräsentiert und verarbeitet das Gehirn Sprache in ihrer vollen Komplexität? Psycholinguistische Modelle der Sprachverarbeitung legen fest, auf welche sprachlichen Einheiten wir bei der Sprachproduktion und beim Sprachverstehen zugreifen, welche Prozesse daran beteiligt sind und wie die einzelnen Teile des ‚Sprachpuzzles’ zusammengesetzt werden. Diese Modelle bilden die Basis für neurolinguistische Forschung über die genaue Beziehung von Sprache und Gehirn. Gleichzeitig können Ergebnisse aus der Neurolinguistik aber auch zusätzliche Beweise für oder gegen bestimmte Modelle der Sprachverarbeitung liefern. Wichtige Fragen sind beispielsweise welche Arten von sprachlicher Information auf welche Art und Weise verarbeitet werden, welche Hirnregionen daran beteiligt sind, und wie die verschiedenen Areale während der Verarbeitung zusammenarbeiten. Ergebnisse aus dieser Forschung ermöglichen es auch zu fragen, wie die Entwicklung des Gehirns beim Kind mit dem Erwerb der verschiedenen Aspekte der Sprache interagiert und wie das Gehirn mehrsprachiger SprecherInnen die unterschiedlichen Sprachen verarbeitet. Ein weiteres wichtiges Arbeitsgebiet der Neurolinguistik, auf das wir in diesem Kapitel allerdings nicht näher eingehen können, betrifft die Entwicklung von Tests zur Diagnostik von Sprachstörungen und von geeigneten Therapieprogrammen, für die die theoretische Forschung der Neurolinguistik die Grundlage bildet. Um Genaueres über das Zusammenspiel von Sprache und Gehirn zu lernen, führen NeurolinguistInnen – genauso wie PsycholinguistInnen – Experimente durch. Die Methoden, die NeurolinguistInnen dafür zur Verfügung stehen, umfassen linguistische Untersuchungen von Menschen mit neurologisch bedingten Sprachstörungen und den Einsatz modernster Technologie (die funktionelle Bildgebung, so genannte ‘Neuroimaging’-Verfahren). Diese neuen Technologien geben NeurolinguistInnen die zusätzliche Möglichkeit zur ‘Beobachtung’ des Gehirns gesunder Menschen ‚in Aktion’. Um ein Bild davon zu bekommen, wie Sprache in ihrem vollen Umfang vom Gehirn verarbeitet wird, muss man das Sprachsystem in seine einzelnen Ebenen und Bausteine zerlegen. Dabei orientieren sich NeurolinguistInnen an linguistischer Theorie und psycholinguistischen Modellen normaler 2 Sprachverarbeitung (siehe Kapitel 1 und Kapitel 2). Tut man dies, gibt es eine Menge über die Beziehung von Sprache und Gehirn zu lernen. 3.2 Von den Bausteinen des Gehirns zu den Bausteinen der Sprache 3.2.1 Wesentliches über den Aufbau des menschlichen Gehirns REFLEXIONSAUFGABE UND AUSTAUSCH 1: Bevor wir auf die Struktur des menschlichen Gehirns näher eingehen, werfen Sie zuerst einen kurzen Blick auf Abbildung 1, ein Bild vom Gehirn eines siebenjährigen Mädchens. Wie leicht zu erkennen ist, fehlt dem Kind eine komplette Gehirnhälfte. Die linke Gehirnhälfte wurde im Alter von 3 Jahren chirurgisch entfernt, um die schweren epileptischen Anfälle des Mädchens zu stoppen. Die Entfernung von Teilen des Gehirns ist eine drastische Maßnahme, die helfen kann, wenn nichts anderes mehr hilft. Bevor Sie weiter lesen, versuchen Sie das Ausmaß eines solchen Eingriffs auf die Sprachfähigkeit des Mädchens einzuschätzen. Wird das Mädchen Sprache zur Kommunikation benutzen können? Beachten Sie dabei, dass Sprache zum größten Teil in der linken Hirnhälfte verarbeitet wird. Gehen Sie bei Ihrer Einschätzung von Ihren persönlichen Erfahrungen aus, z.B. bezüglich Ihnen bekannter Menschen, die einen Schlaganfall hatten. Tauschen Sie Ihre Meinung mit ein oder zwei KollegInnen aus. Wir werden gegen Ende dieses Kapitels noch einmal zu diesem Bild zurückkehren. Abbildung 1 ca. hier einsetzen Was im oben angeführten Fall entfernt wurde, ist ein Teil des Großhirns (Cerebrums), der Teil des Gehirns, der − unter anderem − höhere Funktionen wie Denken, Erinnern und Kommunikation ermöglicht. Das Großhirn besteht aus zwei Hälften, Hemisphären genannt, eine rechte und eine linke – in unserem Beispiel ist die gesamte linke Großhirnhälfte entfernt worden. Das Großhirn steht über den Hirnstamm und das Rückenmark mit peripheren Nerven (wie in unseren Armen und Beinen) in Verbindung. Die Außenschicht des Großhirns ist der Kortex oder die Großhirnrinde, eine dünne Schicht Nervengewebe (ca. 2-4 mm). Der Kortex besteht aus 6 Schichten, in denen die Körper von Neuronen (Nervenzellen) und deren Axonen und Dendriten (Fortsätze, die Kontakte zwischen Neuronen herstellen – wir kommen darauf in Abschnitt 3.3.1 zurück) untergebracht sind – eine Art von Gewebe, das auch als ‘graue Substanz’ bekannt ist. Die unter dem Kortex liegenden subkortikalen Gebiete bestehen zu einem guten Teil aus ‘weißer Substanz’ - aus langen Axonen von Nervenzellen, die mehr oder weniger weit entfernte Regionen des Gehirns miteinander verbinden, sowohl Gebiete innerhalb einer Hemisphäre, als auch zwischen der linken und rechten Hirnhälfte. Die zwei Hemisphären unseres Gehirns sind zum Beispiel mittels eines Bündels von Nervenfasern, dem Corpus Callosum (Balken), verbunden, wodurch es zu einem Informationsaustausch zwischen den beiden Hirnhälften kommen kann. Abbildung 2 und 3 ca. hier einsetzen Die charakteristischen ‘Hügel’ des Gehirns werden Gyri (Einzahl: Gyrus) oder Windungen genannt, der Begriff für die ‘Täler’ ist Furchen oder Sulci (Einzahl: Sulcus). Eine der Hauptfurchen unseres Gehirns, die Rolandische Furche (auch Zentralfurche genannt) teilt den Kortex entlang einer vertikalen Linie in einen vorderen – oder frontalen – Teil und einen hinteren (posterioren) Teil. Andererseits trennt die Sylvische Furche den Kortex entlang einer horizontalen Linie. Zusammen teilen diese zwei Hauptfurchen den Kortex in vier Teile, die Lappen genannt werden (siehe Abbildung 2). Der von der Stirn zur Rolandischen Furche reichende Lappen heißt Frontallappen (oder Stirnlappen). Der Lappen hinter der Rolandischen Furche und oberhalb der Sylvischen Furche im ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 3 oberen Teil unseres Gehirns ist der Parietallappen (oder Scheitellappen). Der Temporallappen (Schläfenlappen) erstreckt sich unterhalb der Sylvischen Furche, d.h. unterhalb des Frontal- und des Parietallappens. Der Okzipitallappen (oder Hinterhauptslappen) bildet den hinteren Teil des Kortex. Die einzelnen Lappen wiederum bestehen aus verschiedenen Hirnarealen, die auch Brodmann-Areale genannt werden. Der deutsche Neurologe Korbinian Brodmann (1868-1928) unterteilte den Kortex in verschiedene Bereiche (siehe Abbildung 3), die sich in ihren Zellstrukturen und in ihren Funktionen voneinander unterscheiden. Beispielsweise übernimmt ein Areal des Kortex die Analyse von visueller Information, die von den Augen kommt, während andere sensorische Informationen unseres Körpers verarbeiten, motorische Bewegungen koordinieren oder höheren kognitiven Funktionen dienen, wie z.B. dem Gedächtnis, Denken, Planen oder – Sprache. 3.2.2 Wenn das Sprachsystem zusammenbricht: die Aphasien Zu Beginn des Kapitels haben wir erwähnt, dass eine der häufigsten Forschungsmethoden der Neurolinguistik die Untersuchung von Patienten mit neurologisch bedingten Sprachstörungen ist. Genauso wie die Humanmedizin viel über unsere Körperfunktionen durch die Beobachtung und die Untersuchung von Krankheiten erfährt, können NeurolinguistInnen durch das Studieren von durch Hirnschädigungen verursachte Sprachstörungen viel über die Beziehung von Sprache und Gehirn lernen. Bevor wir erklären, wie das funktioniert, werden wir klären, was eine Sprachstörung eigentlich ist. Im Mittelpunkt der neurolinguistischen Forschung mit sprachbeeinträchtigten Menschen stehen die so genannten Aphasien. Der Begriff ‘Aphasie’ leitet sich vom griechischen Wort ‘aphatos’ ab, was so viel wie ‘sprachlos’ heißt. Wörtlich genommen ist ‘Aphasie’ eigentlich eine Fehlbezeichnung Ganz wörtlich darf man diese Übersetzung jedoch nicht nehmen, weil PatientInnen mit Schädigungen in Sprachregionen die Sprache nicht immer völlig und in gleicher Art und Weise verlieren, wie Sie nachfolgend erfahren werden. Der Begriff ‘Aphasie’ wird für erworbene Störungen des zentralen Sprachsystems infolge von Hirnschädigungen gebraucht. Durch die Hirnschädigung werden Teilsysteme der Sprache betroffen, die nur gemeinsam eine systematische Organisation von Sprache garantieren (siehe dazu auch Kapitel 1). Diese Teilsysteme oder Ebenen der Sprache sind z.B. die Phonologie (die Ebene der Lautstruktur), die Morphologie (Ebene der Wortstruktur), die Syntax (Ebene der Satzstruktur), das mentale Lexikon und die Semantik (die Ebene der Bedeutung von Wörtern und von größeren Einheiten). Wir haben Aphasien als ‘erworbene’ Störungen bezeichnet. Das bedeutet, dass nicht Sprachentwicklungsauffälligkeiten infolge von Entwicklungsstörungen oder verzögerungen gemeint sind, sondern dass es sich dabei um den Verlust bereits erworbener Sprachfähigkeiten handelt – und zwar als eine Folge von Schädigungen des Gehirns, z.B. durch Schlaganfälle, Tumore oder Hirnverletzungen nach Unfällen. Aphasische Störungen können sich auf die Produktion und das Verständnis von Sprache auswirken und bei vielen Menschen mit Aphasie zeigen sich die sprachlichen Störungen auch beim Schreiben und Lesen. Aphasien entstehen zumeist nach Schädigungen der linken Hirnhälfte, während eine Verletzung der rechten Hemisphäre in der Regel zu keiner Aphasie führt. Die zentralen Aspekte des sprachlichen Systems werden bei ca. 97% aller Menschen von der linken Gehirnhälfte verarbeitet, während in den verbleibenden 3% (oft Linkshänder) das Sprachsystem entweder in beiden Hirnhälften oder in der rechten Hemisphäre repräsentiert ist (Obler & Gjerlow 1999). In selteneren Fällen kann eine Aphasie deshalb auch nach einer rechtsseitigen Hirnschädigung entstehen – dann spricht man von einer gekreuzten Aphasie. Aphasien sind also Beeinträchtigungen der Sprache und müssen von reinen Sprechstörungen unterschieden werden. Sprechstörungen beeinträchtigen nicht die zentralen Sprachebenen, sondern periphere Vorgänge wie beispielsweise die Ausführung von Artikulationsbewegungen (z.B. Bewegungen der Zunge), die für das Sprechen erforderlich sind. In einer gewissen Weise lässt sich dieser Unterschied mit dem Unterschied zwischen einem zentralen Softwareproblem bei Ihrem Computer und einem Problem mit der Hard- oder Software ihres Druckers (also mit einem peripheren ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 4 Gerät) vergleichen, welches die volle Funktionsfähigkeit Ihres Rechners auch nicht beeinträchtigt. Zentrale Sprachbeeinträchtigungen treten oft gemeinsam mit Sprechstörungen bei ein- und demselben Patienten auf, sie müssen aber aus theoretischen und auch praktischen Gründen (z.B. Diagnose und Therapie der verschiedenen Beeinträchtigungen) unterschieden werden. Darüber hinaus sind aphasische Beeinträchtigungen keine Störungen der allgemeinen Intelligenz: Menschen mit einer rein aphasischen Störung können denken und planen, sie können aber Probleme haben, ihre Gedanken sprachlich auszudrücken oder zu verstehen, was andere ihnen mittels Sprache mitteilen wollen. Aphasien treten in verschiedenen Formen auf, im Folgenden stellen wir kurz die vier Hauptformen vor: 1) die globale Aphasie, 2) die Broca-Aphasie, 3) die Wernicke-Aphasie und 4) die amnestische Aphasie (siehe auch Goodglass 1993). Dabei wird eine bestimmte Aphasieform (ein aphasisches Syndrom) durch das gleichzeitige Auftreten von einzelnen aphasischen Symptomen definiert. 1) Die schwerste Form ist durch einen fast vollständigen Sprachverlust charakterisiert und wird globale Aphasie oder Totalaphasie genannt. Wie der Name sagt, bricht bei diesem Aphasietyp der größte Teil des Sprachsystems zusammen. PatientInnen mit globaler Aphasie haben massive Probleme mit dem Verstehen und der Produktion von Sprache. Die Sprachproduktion ist meistens auf einzelne Silben (z.B. „tatata“) oder kurze stereotype Floskeln reduziert (das sind automatisierte Äußerungen wie z.B. „na so was“, „nicht wahr“ oder „guten Tag“). Solche kurzen Äußerungen können mit verschiedener Intonation produziert werden, um Absichten und Gefühle mitzuteilen (z.B. Zustimmung, Ablehnung, Überraschung oder Zweifel). Globale Aphasie ist oft die Folge einer größeren Schädigung der linken Hemisphäre, tritt aber manchmal auch aufgrund kleinerer Verletzungen auf (Willmes & Poeck 1993). 2) Andere Formen der Aphasie betreffen das Sprachsystem in einem weniger umfassenden Ausmaß. In den 1860ern fand der französische Neurologe Pierre Paul Broca (1824-1880) heraus, dass gewisse Sprachfunktionen von einem Areal im unteren Frontallappen der linken Hemisphäre abhängen. Er stellte fest, dass Patienten mit einer Schädigung dieser Hirnregion große Probleme mit der Produktion von Sprache hatten, während das Sprachverständnis relativ gut erhalten war. Broca schloss daraus, dass dieses spezifische Areal eine wichtige Rolle für die Sprachproduktion spielt. Seine Entdeckung hatte so große Auswirkungen, dass dieses Hirnareal später als Broca-Areal bekannt wurde (siehe Abbildung 3) und der Aphasietyp als Broca-Aphasie. Typischerweise sprechen Menschen mit BrocaAphasie sehr langsam und angestrengt und äußern sehr kurze und syntaktisch simple Sätze. Gleichzeitig verstehen sie die Bedeutung von Wörtern und Sätzen gut und können dem Inhalt von Konversationen gut folgen. 3) Eine andere Form der Aphasie – die Wernicke-Aphasie – ist oft die Folge von Schädigungen eines Gebiets im oberen Temporallappen der linken Hemisphäre, dem Wernicke-Areal (siehe Abbildung 3). Carl Wernicke (1848-1905) stellte fest, dass PatientInnen mit einer Schädigung dieses Areals sehr große Probleme mit dem Verstehen von Sprache hatten, sie konnten aber noch sehr flüssig sprechen (siehe De Bleser 2001 für einen historischen Überblick der Aphasieforschung). Obwohl die Sätze, die Wernicke-AphasikerInnen äußern, oft lang und grammatisch komplex sind, können sie inhaltlich sehr leer sein. Bedeutungszusammenhänge sind oft schwer zu erkennen. Viele der produzierten Wörter sind semantisch unangemessen (z.B. ‘Tisch’ statt ‘Stuhl’) oder durch phonologische Fehler verzerrt (z.B. ‘Kild’ statt ‘Kind’). In Abschnitt 3.2.5 werden die Wernicke- und Broca-Aphasie noch detaillierter betrachtet. 4) Die amnestische Aphasie ist vor allem durch mehr oder weniger schwere Wortfindungsstörungen gekennzeichnet. Die Sprachproduktion von PatientInnen mit einer rein amnestischen Aphasie ist grammatisch unauffällig, allerdings durch Pausen aufgrund der Wortfindungsprobleme geprägt. Amnestische PatientInnen gehen einem Wort, auf das sie nicht zugreifen können, oft aus dem Weg, indem sie es zu umschreiben versuchen. Ein Kugelschreiber kann zum Beispiel als „Ding mit dem man schreibt“ umschrieben werden. Wortfindungsprobleme treten fast bei jedem Aphasietyp auf und eine ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 5 amnestische Aphasie kann die Folge von Schädigungen unterschiedlicher Teile des Gehirns sein. Reinere Formen der amnestischen Aphasie können jedoch z.B. nach einer Schädigung von Teilen des Temporallappens der linken Hemisphäre entstehen (Raymer et al. 1997). Aus Platzgründen können wir an dieser Stelle nur kurz darauf verweisen, dass auch noch andere Aphasieformen als Folge von Hirnschädigungen entstehen können, wie die Leitungsaphasie und die transkortikalen Aphasien (einen kurzen und aktuellen Überblick bietet z.B. Hillis (2007). Zusammenfassung In diesem Abschnitt haben Sie gelesen, dass • Aphasien Störungen des zentralen Sprachsystems sind, • es verschiedene Aphasietypen gibt (z.B. die globale Aphasie, Broca-Aphasie, WernickeAphasie und amnestische Aphasie), die das sprachliche System auf unterschiedliche Weise und in unterschiedlichem Ausmaß betreffen. 3.2.3 Ein Schnellkurs über neurolinguistische Methoden: Modularität und Dissoziationen Bei einer Schädigung des Gehirns sind normalerweise verschiedene Hirnareale und Hirnfunktionen (sprachliche und nicht-sprachliche) gleichzeitig betroffen. Dass es trotzdem verschiedene Formen von Aphasie gibt, zeigt aber, dass Sprache ‘stückweise’ zusammenbrechen kann. In der Neurolinguistik – und der Neuropsychologie im Allgemeinen – werden solche Unterschiede zwischen erhaltenen und geschädigten Funktionen Dissoziationen genannt. Dissoziationen bilden die Basis für neurolinguistische Forschung mit aphasischen SprecherInnen, da sie Hinweise darauf liefern, in wie weit Sprache modular verarbeitet wird (siehe Kapitel 2, S. ... und die dort besprochene Modularitätshypothese; siehe Fodor (1983) für eine klassische Diskussion von Modularität). Ein Modul eines psycholinguistischen Sprachverarbeitungsmodells ist eine Komponente, die sich jeweils nur um eine sehr bestimmte sprachliche Information kümmert, während es die Verarbeitung von anderen Informationen anderen Teilen des Systems überlässt. Indem NeurolinguistInnen verschiedene Arten von Dissoziationen bei aphasischen Störungen untersuchen, versuchen sie, Module von Verarbeitungsmodellen bis zum Gehirn ‘zurückzuverfolgen’. Auf diese Weise können sie zusätzliche Beweise für oder gegen bestimmte Verarbeitungsmodelle liefern. Oft haben aphasische Sprecher mit einer bestimmten Aufgabe A (wie z.B. dem Produzieren von Substantiven) keine allzu großen Probleme, scheitern jedoch an einer anderen Aufgabe B (z.B. dem Produzieren von Verben) oder tun sich damit viel schwerer. In so einem Fall zeigt sich eine Dissoziation zwischen den beiden Aufgaben. Eine solche Dissoziation kann ein erster Hinweis darauf sein, dass die für Aufgabe A und B jeweils notwendigen Prozesse oder Informationen im Gehirn zu einem gewissen Maß unabhängig voneinander sind und zumindest teilweise von verschiedenen Hirnarealen getragen werden. Ein solches Muster unterstützt wiederum Verarbeitungsmodelle, in denen A und B teilweise von verschiedenen Komponenten abhängen. Modelle, bei denen A und B von den gleichen Komponenten abhängen, können nicht so leicht erklären, warum B zusammenbricht, während A in Ordnung ist. Indem NeurolinguistInnen also geschädigte Verarbeitungssysteme untersuchen, können sie viel darüber erfahren, wie das normale Sprachsystem funktioniert. 3.2.4 Von unterschiedlichen Bereichen des Sprachsystems: Bausteine des mentalen Lexikons Der Eintrag eines Wortes im mentalen Lexikon (s. Kapitel 2) zum Beispiel enthält verschiedene Arten von Information: • die Wortform, d.h. die Abfolge von Lauten, die das Wort bilden, • die Bedeutung des Wortes, und ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 6 • syntaktische sowie morphosyntaktische Information über das Wort (z.B. ist es ein Nomen oder ein Verb; ist es maskulin, feminin oder neutrum, etc.). Theoretisch könnte es sein, dass all diese Informationen über ein Wort gemeinsam gespeichert sind und darauf auch gemeinsam zugegriffen wird. Es könnte aber auch sein, dass sie in getrennten Speichern abgelegt sind und separat auf die verschiedenen Informationen zugegriffen wird. Schauen wir uns diese zwei Möglichkeiten für Wortform und Wortbedeutung näher an. Gehen wir von der Annahme aus, dass Wortform und Wortbedeutung unabhängig voneinander gespeichert sind und deshalb auf beide Informationen auch getrennt zugegriffen wird. Unter dieser Annahme bestehen die Produktion und das Verständnis eines Wortes aus mehreren Schritten. Wenn wir ein Bild einer Katze sehen und benennen sollen, ist einer der ersten Schritte der Zugriff auf die wichtigsten semantischen Merkmale, die zusammen die Bedeutung einer Katze ausmachen (z.B. ‘Säugetier, vierbeinig, miaut, hat Fell, fängt Mäuse’ etc.). Bevor wir das Wort aussprechen können, muss aber zumindest noch die lautliche oder phonologische Wortform [´katsə] auf Basis der semantischen Information aktiviert werden. Beim Wortverstehen wird dieser Weg im Prinzip umgedreht: Nachdem die lautliche Abfolge erkannt worden ist, wird die Wortform [´katsə] aktiviert und aufgrund dieser Information die Wortbedeutung. Abbildung 4 zeigt eine Skizze von Wortproduktion und Wortverständnis, wenn wir annehmen, dass Form und Bedeutung eines Wortes getrennt gespeichert sind: Kästchen (a) und (b) stehen für die getrennten Speicher und Schritte und die Pfeile zeigen die ‘Routen’ von einem Speicher zum anderen. Ein wichtiges Detail dieses Modells ist, dass es zwei Routen zwischen Wortform und Wortbedeutung gibt: eine von Form zu Bedeutung für das Verstehen eines Wortes (Pfeil x) und eine von Bedeutung zu Form für die Produktion eines Wortes (Pfeil y). Das Modell besagt also, dass Information über die Form (Kästchen a) und über die Bedeutung (Kästchen b) eines Wortes infolge einer Hirnschädigung unabhängig voneinander beeinträchtigt sein können. Ebenso könnten die Verbindungen zwischen den Speichern unabhängig voneinander unterbrochen werden, wodurch die Information über Wortform nicht bis zur Bedeutung gelangt (Pfeil x) oder umgekehrt (Pfeil y). Laut einem Modell mit nur einem Speicher für Form und Bedeutung sollten beide Informationen immer zusammen verloren gehen. Abbildung 4 ca. hier einfügen Neurolinguistische Hinweise dafür, dass Form und Bedeutung eines Wortes voneinander getrennt gespeichert sind, liefert die amnestische Aphasie, bei der es zu Wortfindungstörungen unterschiedlichen Ausmaßes kommt. Dies legt nahe, dass hier eine (oder mehrere) Stufen der Wortproduktion beeinträchtigt sind, wobei aber nicht alle Patienten die gleichen Defizite haben. Manche amnestischen AphasikerInnen können z.B. das Wort ‘Katze’ nicht produzieren, wenn sie ein Bild von einer Katze sehen, und haben außerdem auch Schwierigkeiten, das Wort ‘Katze’ zu verstehen. Wenn sie ‘Katze’ hören und drei Bilder zur Auswahl haben – beispielsweise ein Bild von einem Hund, eines von einer Katze und eines von einem Pferd – müssen sie raten. Das Defizit betrifft also sowohl die Wortproduktion als auch das Wortverständnis. Ein Modell mit getrennten Speichern kann dieses Störungsbild damit erklären, dass das semantische System selbst betroffen ist. So ist die Information über die Bedeutung eines Wortes sowohl in der Produktion als auch im Verständnis beeinträchtigt (siehe Abbildung 4). Aber auch ein Modell, in dem Form und Bedeutung zusammen gespeichert sind, bietet für dieses Störungsbild eine Erklärung. Schließlich gehen in diesem Fall Wortform und Wortbedeutung gemeinsam verloren, wenn Einträge im Lexikon geschädigt sind. Allerdings sollten nach diesem Modell Produktion und Verständnis immer gemeinsam betroffen sein. Ein Modell mit nur einem Speicher kann andere Störungsmuster allerdings nur schwer erklären: Manche Menschen mit amnestischer Aphasie können zwar z.B. ein Bild einer Katze nicht benennen, haben aber kein Problem, das Wort ‘Katze’ zu verstehen, wenn sie es hören. Da es bei einer rein amnestischen Aphasie absolut keine Schwierigkeiten mit der Artikulation – mit dem Sprechen – gibt, ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 7 muss das Problem im Lexikon liegen. Mit einem Modell, das Wortform und Wortbedeutung trennt, können solche Fälle z.B. wie folgt erklärt werden: Wenn ein Wort nicht produziert werden kann, aber gut verstanden wird, weist das auf eine Störung in der Verbindung vom semantischen Speicher zum Wortformenspeicher hin (Pfeil y). Der Prozess, der die passende Wortform aufgrund der jeweiligen Bedeutung aus den vielen verschiedenen Wortformen auswählt, ist unterbrochen – die Information kann von der Bedeutungsseite nicht zur Wortform gelangen. Die Route, über die beim Wortverstehen Information von der Wortform zur Bedeutung kommt (Pfeil x), ist jedoch intakt. Ein Wort, das nicht produziert werden kann, kann also trotzdem noch verstanden werden. Das Störungsbild mancher Menschen mit amnestischer Aphasie deutet also auf eine getrennte Speicherung von Wortform und Wortbedeutung hin. Gegen solche Schlussfolgerungen bei Dissoziationen gibt es allerdings noch einen möglichen Einwand: Es könnte ja trotzdem sein, dass A und B trotzdem vielleicht trotzdem von ein und derselben Komponente abhängen, aber A viel einfacher als B ist. Dann wäre es nach einer Hirnschädigung, bei der die gemeinsame Komponente betroffen ist und nicht mehr die volle ‘Leistung’ bringen kann, durchaus möglich, dass zwar B zusammenbricht aber A noch keine Probleme macht. Was man somit braucht, um einen handfesten Beweis für zwei unabhängige Module zu liefern sind zwei AphasikerInnen mit genau ‘spiegelbildlichen’ Störungsmustern. Wenn es gleichzeitig eine andere Person mit Aphasie gibt, bei der Prozess A gestört ist, aber B intakt, dann zeigt das, dass B nicht unbedingt schwieriger sein muss als A. Solche Fälle von ‘Spiegelbild’-Störungen nennt man doppelte Dissoziationen. Sie sind es, die Beweise dafür liefern, dass A und B tatsächlich von unterschiedlichen Komponenten abhängen (siehe Coltheart 2001 und Shallice 1988 für eine Diskussion dieser Annahmen). Solche doppelten Dissoziationen haben NeurolinguistInnen nicht nur Beweise für eine Trennung von Wortform und Wortbedeutung geliefert – aktuelle Modelle des mentalen Lexikons nehmen noch eine Reihe anderer unabhängiger Komponenten und Routen an. Neurolinguistische Studien haben gezeigt, dass Information über die orthographische Form eines Wortes (d.h. über seine geschriebene Form) unabhängig von der lautlichen Form ist. So können manche AphasikerInnen beispielsweise die Bedeutung eines Wortes verstehen, wenn sie es lesen, aber nicht, wenn sie es hören (und umgekehrt). Doppelte Dissoziationen dieser Art weisen darauf hin, dass die phonologische Form eines Wortes unabhängig ist von seiner orthographischen Form. Abbildung 5 zeigt eine schematische Darstellung eines solchen Modells mit separaten Speichern für phonologische (lautliche) und orthographische (geschriebene) Wortformen, die jeweils außerdem nach Verständnis und Produktion unterteilt sind und durch eigenen Routen verbunden werden (siehe Hillis 2001 und Miceli 2001 für Überblicke über das mentale Lexikon). Abbildung 5 ca. hier einsetzen Im Folgenden können Sie selbst neurolinguistisch arbeiten und dabei herausfinden, wie das mentale Lexikon außerdem noch organisiert ist. ÜBUNG 2: Betrachten Sie die folgenden Wortlisten. In einigen Studien wurde festgestellt, dass manche AphasikerInnen große Probleme haben, die Wörter in einer der a)-Listen zu produzieren, während sie weniger Probleme mit jenen der jeweiligen b)-Liste hatten. Bei anderen AphasikerInnen zeigte sich ein genau umgekehrtes Bild: Sie hatten größere Probleme mit der b)-Liste als mit der a)-Liste. Deshalb die Frage: Wodurch unterscheiden sich die Wörter in der a)-Liste von denen in der jeweiligen b)Liste? Ein Tipp: bei den Wörtern in (ii) treten die Probleme vor allem in der Vergangenheitsform (Präteritum) auf – bilden Sie z.B. das Präteritum der 3. Person singular der Verben in (ii). Was sagen diese Muster über die Organisation des Lexikons aus? ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 8 ia) schreiben, treffen, lachen, entscheiden, malen vs. ib) Klavier, Sturm, Apfel, Stift, Idee, Hund iia) gehen, trinken, schwimmen, beißen, sehen, laufen vs. iib) kochen, lernen, zählen, hören, schauen iiia) Löwe, Rose, Frosch, Giraffe, Tulpe, Buche vs. iiib) Stift, Tisch, Rad, Spiegel, Knopf, Tasse Sie haben sicher herausgefunden, dass die Wörter in (ia) ausnahmslos Verben sind, während die Wörter in (ib) alle zur Kategorie der Nomina gehören. Die Tatsache, dass NeurolinguistInnen doppelte Dissoziationen zwischen diesen beiden Arten von Wörtern gefunden haben (Damasio & Tranel 1993; Caramazza & Hillis 1991), legt nahe, dass die linguistische Unterscheidung zwischen Verben und Nomina auch vom Gehirn gemacht wird: Das mentale Lexikon ist nach der syntaktischen Kategorie von Wörtern organisiert. Die Unterschiede in (ii) und (iii) zeigen außerdem, dass wir noch feinere Unterscheidungen innerhalb einer Wortart finden können. Alle Wörter in (ii) sind Verben. In (iib) sind jedoch nur regelmäßige Verben aufgelistet. Das bedeutet, dass sie das Präteritum der 1. und 3. Person Einzahl durch Anhängen von -te an den Verbstamm bilden (z.B. ich/er koch-te, lern-te, usw.) und das Partizip Perfekt durch ge- und -t (z.B. ge-koch-t, ge-lern-t, usw.). Die Verben in (iia) sind hingegen unregelmäßig. Bei ihnen ändert sich der Verbstamm im Präteritum (z.B. ich/er ging, trank, schwamm, usw.) und auch im Partizip Perfekt, das überdies keine Endung -t sondern -en bekommt (z.B. ge-gangen, ge-trunk-en, ge-schwomm-en). Manche AphasikerInnen haben größere Probleme mit der Produktion von regelmäßigen Präteritum- und Partizipformen (wie in iib), während andere Patienten vor allem Schwierigkeiten mit den unregelmäßigen Formen (wie in iia) haben. Daraus können wir schließen, dass beide Prozesse – die Bildung von regelmäßigen vs. unregelmäßigen Vergangenheitsund Partizipformen – innerhalb des Gehirns auch zu einem gewissen Grad getrennt sind (Ullman et al. 1997). Die Unterschiede zwischen a) und b) in den Listen (i) und (ii) sind morphologischer/syntaktischer Natur. In der Liste (iii) liegt der Unterschied vor allem in der Semantik, d.h. in der Bedeutung. Alle Wörter sind zwar Nomina: Die in (iiia) sind jedoch natürlichen Ursprungs (Tiere und Pflanzen), während die Nomina in (iiib) Objekte bezeichnen, die von Menschen geschaffen sind. Viele neurolinguistische Studien haben gezeigt, dass Wortbedeutungen nach unterschiedlichen Merkmalen oder Kategorien organisiert sind. Durch eine Hirnschädigung kann eine bestimmte Kategorie beeinträchtigt werden, während andere Kategorien verschont bleiben. Die doppelte Dissoziation in dem Beispiel (iiia) vs. (iiib) legt nahe, dass die neuronale Organisation von Wortbedeutungen unter anderem dadurch bestimmt wird, was für Merkmale eines Wortes für uns im Vordergrund stehen. Bei Pflanzen und Tieren wie in (iiia) – also bei lebenden Organismen – sind vor allem unsere Sinneswahrnehmungen wichtig. Sie werden deshalb vor allem anhand ihrer sensorischen Merkmale unterschieden (z.B. durch ihr Aussehen: ein Leopard hat ein gepunktetes, ein Tiger ein gestreiftes Fell). Künstlich geschaffene Gegenstände dagegen – z.B. Werkzeuge – erfüllen für uns im Allgemeinen eine bestimmte Funktion. Dadurch sind solche Gegenstände stärker als lebende Organismen mit funktionalen Merkmalen verbunden. Und funktionale Merkmale werden in anderen Arealen des Gehirns verarbeitet als sensorische Merkmale (Warrington & Shallice 1984). Diese Beispiele machen deutlich, dass das mentale Lexikon entlang einer ganzen Reihe von unterschiedlichen sprachlichen Merkmalen organisiert ist. Die Dissoziationen, die wir diskutiert haben, zeigen, dass das Gehirn verschiedene Arten von sprachlichen Informationen modular verarbeitet. Wenn also ein scheinbar einfaches Wort wie ‘Katze’ produziert oder verstanden werden soll, wird ein ganzes Netzwerk von Hirnarealen aktiviert, wobei eine einzelne Region nur eine bestimmte Information über das Wort verarbeitet. Zusammenfassung In den letzten beiden Abschnitten haben Sie gelesen, dass • (doppelte) Dissoziationen bei aphasischen Störungen Hinweise über den Aufbau und die Struktur des Sprachverarbeitungsystems im Gehirn geben können. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 9 • das mentale Lexikon aus vielen spezifischen, separaten Komponenten besteht, die entlang unterschiedlicher sprachlicher Merkmale organisiert sind. 3.2.5 Die Linguistik trifft die Klassiker: Broca- und Wernicke-Aphasie unter der Lupe Bis jetzt haben wir sprachliche Module im Gehirn aufgespürt, ohne etwas darüber zu sagen, in welchen Hirnarealen sie zu finden sein könnten. Die anatomische Lokalisierung von Komponenten und Prozessen ist ein Extraschritt, der für NeurowissenschaftlerInnen selbstverständlich von großem Interesse ist. Zwei klassische Aphasieformen, die mit spezifischen Hirnregionen in Verbindung stehen, sind die Wernicke- und die Broca-Aphasie (siehe 3.2.2). Wir haben bereits festgestellt, dass bei der Broca-Aphasie – auf den ersten Blick – vor allem die schweren Probleme mit der Sprachproduktion im Vordergrund stehen. Die Broca-Aphasie wird deshalb manchmal auch als ‘motorische’ Aphasie bezeichnet. Dieser Begriff ist leider irreführend, denn das Problem liegt hier nicht nur in der Motorik. Bei der Wernicke-Aphasie zeigen sich hingegen große Schwierigkeiten mit dem Sprachverständnis, weshalb die Wernicke-Aphasie auch als ‘sensorische’ Aphasie bekannt ist. Kann man daraus schließen, dass die Aufgabe des Broca-Areals die Sprachproduktion ist, während das Wernicke-Areal für das Sprachverständnis verantwortlich ist? Wie wir in den nächsten Abschnitten sehen werden, sind die Dinge um einiges komplexer. 3.2.5.1 Merkmale der Wernicke- und Broca-Aphasie: Von der Produktion ... Ein kurzer Blick auf Sprachbeispiele von Menschen mit einer Wernicke-Aphasie zeigt, dass die Sprachproduktion ebenfalls schwer beeinträchtigt ist. Das Beispiel in (1) zeigt, wie ein deutschsprachiger Wernicke-Aphasiker einen Gegenstand auf einem Bild zu benennen versucht. In (2) finden Sie die Antwort eines englischsprachigen Wernicke-Aphasikers auf die Frage, warum er ins Krankenhaus gekommen ist. Die eckigen Klammern in den Beispielen enthalten Interpretationen einzelner Wörter, Punkte geben Pausen an. (1) “kann man halt zurechtlegen irgendwie wie man will .. irgendwie drehen ... Sie meinen doch .. wenn da ein Steck dran ist ... halt halt die Uhr kann man da vielleicht abmachen .. könnte man auch .. weiß nicht was da noch dabei dran ... muß abschalten .. nich ... kann es aber auch so machen und irgendwie als was anderes dazu .. vielleicht irgendwie was anbringen muß .. irgendwie vielleicht was Innenverbindung .. und dann wieder dick festmachen oder so was.“ (aus Huber et al. 1975: 83) (2) “Is this some of the work that we work as we did before? … All right … From when wine [why] I’m here. What’s wrong with me because I … was myself until the taenz took something about the time between me and my regular time in that time and they took the time in that time here and that’s when the the time took around here and saw me around in it it’s started with me no time and then I bekan [began] work of nothing else that’s the way the doctor find me that way.” (aus Obler & Gjerlow 1999: 43) REFLEXIONSAUFGABE UND AUSTAUSCH 3: Betrachten Sie die Äußerungen in (1) und (2): Was sind die auffälligsten Unterschiede verglichen mit unbeeinträchtigter Sprache? Können Sie herausfinden, welcher Gegenstand in (1) beschrieben wird, und warum der englischsprachige Patient ins Krankenhaus gekommen ist? Tauschen Sie sich mit zwei oder drei KollegInnen aus (10 Minuten). In beiden Fällen ist es schwer möglich, den Sinn der Texte zu verstehen. Die von WernickeAphasikerInnen produzierte Sprache ist oft relativ inhaltsleer. Der Text in (1) ist beispielsweise die Beschreibung einer Kneifzange. Wernicke-AphasikerInnen produzieren oft so genannte semantische ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 10 Paraphasien, d.h. inhaltlich falsche Wörter (z.B. ‘Katze’ statt ‘Hund’). In extremen Fällen wie in (1) nehmen solche semantischen Paraphasien überhand – dann spricht man von einem semantischen Jargon. Oft werden auch lautliche Fehler produziert (phonologische Paraphasien), z.B. wird ein Laut durch einen anderen ersetzt, wie in ‘bekan’ (statt ‘began’) in der letzten Zeile von dem englischen Beispiel (2). Manchmal kommen auch Neologismen vor (das sind nicht exististierende Wörter), wie bei ‘taenz’ in (2). Wernicke-AphasikerInnen produzieren oft sehr lange, komplexe Sätze, indem sie Teile von Sätzen mit Teilen anderer Sätze verschränken und kombinieren (‘that’s the way the doctor find me that way’) und oft verwenden sie falsche Wortformen (wie z.B. ‘du singt’ statt ‘du singst’). Dieses Phänomen ‘unkontrollierter’ Syntax heißt Paragrammatismus. Als nächstes betrachten wir zwei Sprachbeispiele von Broca-Aphasikern. (3) und (4) sind Ausschnitte aus Dialogen zwischen einem Untersucher (U) und einem deutschsprachigen bzw. englischsprachigen Broca-Aphasiker (P). (3) U: “Wie hat das mit Ihrer Krankheit angefangen? ” P: “Ein, zwei, drei, vier Tage ... eh ... Flugzeug ... Sonne scheint und so ... vier Tage und zwei Tage ... eh ... bewusstlos und umfallen und später eine Woche ... Hubschrauber ... zu Hause bleiben und Böblingen Krankenwagen ... Stuttgart Böblingen und später eins zwei Monate ... eh ... hier Böblingen ... eh ... ” (aus Huber, Poeck & Weniger 1989: 113) (4) U: “Can you tell me about why you came to the hospital?” P: “Yes … eh … Monday … eh … dad … Peter Hogan and dad … hospital. Er … two … er … doctors … and … er … thirty minutes … and … er … yes … hospital. And … er … Wednesday … Wednesday. Nine o’clock. And … er … Thursday, ten o’clock … doctors … two … two … doctors … and … er … teeth … fine.” (aus Goodglass 1993: 105) REFLEXIONSAUFGABE 4: Bevor Sie weiter lesen, vergleichen Sie diese Sprachbeispiele mit denen der Wernicke-Aphasiker in (1) und (2). Was sind die auffälligsten Unterschiede, speziell in Bezug auf die Satzstruktur und auf Fehlertypen? Beachten Sie besonders die in (3) und (4) fehlenden Wortarten. Können Sie Gemeinsamkeiten zwischen dem deutschen Beispiel in (3) und dem englischen in (4) finden? Wie Sie sehen, sind die kurzen Äußerungen der Broca-Aphasiker von vielen Pausen unterbrochen und gewiss haben sie eine relativ lange Zeit gebraucht, um sie zu produzieren. Die große Anstrengung bei der Sprachproduktion ist typisch für die Broca-Aphasie und für gewöhnlich die Folge einer Kombination mehrerer Faktoren. Die mündliche Sprachproduktion macht dabei oft besondere Probleme. Denn zusätzlich zu ihren sprachlichen Defiziten haben Menschen mit Broca-Aphasie häufig auch Probleme mit der Artikulation (also Sprechbeeinträchtigungen), da oft auch nahe gelegene Hirnregionen beeinträchtigt werden, die für die Programmierung oder Ausführung von Bewegungen von Artikulationsorganen (wie z.B. der Zunge) verantwortlich sind. Aus linguistischer Sicht fallen in den sprachlichen Daten der beiden Broca-Aphasiker noch weitere interessante Charakteristika auf. Die Beispiele (3) und (4) enthalten – im Gegensatz zu den Äußerungen der Wernicke-Aphasiker in (1) und (2) – weder Neologismen noch semantische Paraphasien. Der lexikalisch-semantische Bereich des Sprachsystems dürfte bei der Broca-Aphasie – anders als bei der Wernicke-Aphasie – also relativ unbeeinträchtigt sein. Broca-AphasikerInnen produzieren aber sehr häufig lautliche Fehler (phonologische Paraphasien), auch wenn in den Beispielen keine zu finden sind. Während bei der Wernicke-Aphasie typischerweise oft ein paragrammatischer ‘Überschuss’ an Syntax vorliegt paragrammatische syntaktische Strukturen produziert werden, sind die Äußerungen von ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 11 Broca-AphasikerInnen oft durch eine sehr eingeschränkte syntaktische Struktur gekennzeichnet. In den Beispielen (3) und (4) fehlen vor allem Wörter eines ganz bestimmten Typs: Ausgelassen wurden in erster Linie Artikel (z.B. ‘die’ vor ‘Sonne’; ‘a’ oder ‘the’ fehlt vor ‘hospital’, ‘teeth’, ‘cookies’, ‘dishes’), viele Präpositionen (z.B. ‘in’ oder ‘nach’ vor Böblingen, ‘mit’ vor Krankenwagen; ‘on’ vor ‘Monday’, ‘Wednesday’ und ‘Thursday’) und Hilfsverben (z.B. ‘the girl … slipping’ statt ‘the girl is slipping’). Das gilt sowohl für den deutschen als auch für den englischen Text. Menschen mit BrocaAphasie lassen außerdem oft grammatische Markierungen aus, die z.B. als Endungen an Wörter angehängt werden (z.B. ‘he sing’ statt ‘he sings’). Oft produzieren sie auch unmarkierte Grundformen von Wörtern: Im deutschen Text finden Sie beispielsweise einige Verben im Infinitiv (‘umfallen’, ‘zu Hause bleiben’). Was haben alle diese ausgelassenen Wörter gemeinsam? Obler und Gjerlow (1999: 1) zitieren einen Broca-Aphasiker, der seine Verzweiflung darüber, diese Wörter nicht produzieren zu können, folgendermaßen ausdrückte: „Little words, no“. Außer dass sie ‘klein’ sind, sind viele der oben angeführten Wörter – und Wortteile, wie etwa die Endung –s in ‘sings’ – in ihrer Bedeutung relativ leer. Solche Wortteile, die an andere Wörter hauptsächlich in der Absicht angehängt werden, eine grammatische Beziehung zu anderen Wörtern eines Satzes anzugeben, werden Flexionsmorpheme genannt (vgl. Kapitel 1, S. ...). Ähnliches gilt auch für viele der kleinen freistehenden Wörter (Artikel, Präpositionen, Hilfsverben), die in Äußerungen von Broca-AphasikerInnen fehlen. Da diese Wörter und Wortteile in erster Linie eine grammatische Funktion haben, werden sie auch funktionale Elemente genannt. Sie stehen im Gegensatz zu den so genannten Inhaltswörtern wie Adjektiven, Nomina oder Verben, die eine reiche Bedeutung haben und die Grundbedeutung eines Satzes tragen. Der für die Broca-Aphasie typische Sprachstil wird deshalb auch als Telegrammstil bezeichnet: Die Inhaltswörter sind recht gut erhalten, während Funktionswörter oft ausgelassen werden. Da BrocaAphasikerInnen beim Produzieren von Sätzen vor allem Schwierigkeiten mit den funktionalen, grammatischen Elementen haben, wird dieses aphasische Symptom Agrammatismus genannt. 3.2.5.2 ... zum Verständnis In einem gewissen Sinn sind funktionale Elemente der ‘syntaktische Mörtel’ zwischen einzelnen Wörtern. Beim Sprachverständnis geben sie oft den entscheidenden Hinweis auf die richtige Bedeutung eines Satzes. Neurolinguistische Studien mit agrammatischen SprecherInnen haben gezeigt, dass es im Agrammatismus oft interessante Parallele zwischen Sprachproduktion und Sprachverständnis gibt. Machen Sie die nächsten zwei Übungen um herauszufinden, um was es sich dabei handelt. ÜBUNG 5: Lesen Sie die folgenden Satzpaare und finden Sie heraus, ob die jeweiligen Sätze in a) und b) die gleiche Bedeutung haben oder nicht. Suchen und markieren Sie dann die Wörter und Morpheme, die die wichtigsten Hinweise darauf liefern, ob die Sätze das Gleiche bedeuten oder nicht. Zu welcher Klasse gehören sie? i) a. Da ist ein Glas auf dem Boden. b. Da ist Glas auf dem Boden. ii) a. The mother shows her baby the pictures. b. The mother shows her the baby pictures. iii) a. Der Junge verfolgt den Mann. b. Den Mann verfolgt der Junge. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 12 Die Sätze in (ia) und (ib) haben unterschiedliche Bedeutungen, genauso die in (iia) und (iib). In (ia) kommt der entscheidende Hinweis von dem unbestimmten Artikel ‘ein’ – er zeigt an, dass ‘Glas’ hier ein zählbares Nomen ist (wie z.B. in ‘ein Weinglas’ vs. ‘zwei Weingläser’ ). In (ib) wird ‘Glas’ hingegen als Massennomen verstanden (z.B. ‘ein Haufen Glas’). In (ii) liegt der Unterschied zwischen den zwei Sätzen in der Position des bestimmten Artikels ‘the’ vor ‘pictures’: In (iia) sieht das Baby irgendwelche Bilder, in (iib) aber sieht eine Frau Babybilder. In den Sätzen (iiia) und (iiib) haben ‘Junge’ und ‘Mann’ ihre Positionen getauscht, aber dennoch bedeuten beide Sätze das Gleiche. Hier hängt die entscheidende Information an den Fallmarkierungen der Artikel (Nominativ: ‘der’; Akkusativ: ‘den’). In allen Beispielen müssen wir also die funktionalen Elemente nutzen, um von der syntaktischen Struktur der Sätze zur korrekten Bedeutung zu kommen. ÜBUNG 6: In den 1970ern begannen ForscherInnen, systematisch zu testen, wie gut agrammatische SprecherInnen Sätze mit unterschiedlichen syntaktischen Strukturen verstehen (siehe z.B. Caramazza & Zurif 1976). Experimente haben beispielsweise gezeigt, dass viele agrammatische SprecherInnen Schwierigkeiten haben, den Unterschied zwischen Sätzen wie (ia) und (ib), sowie (iia) und (iib) aus der vorigen Übung zu verstehen (Heilman & Scholes 1976; Shapiro et al. 1989). Auf Sätze wie in (iiia) und (iiib) reagieren agrammatische AphasikerInnen oft wie folgt: Zeigt man ihnen zwei Bilder – auf dem einen verfolgt ein Junge einen Mann (die korrekte Interpretation), auf dem anderen ist die Handlung mit vertauschten Rollen dargestellt und der Mann verfolgt einen Jungen –, so haben sie normalerweise kaum Probleme zu einem Satz wie (iiia), in dem das Subjekt vor dem Objekt kommt, das passende Bild zu wählen. Wenn sie allerdings einen Satz wie (iiib) hören, in dem das Subjekt nach dem Objekt steht, wissen sie sehr oft nicht, welches Bild das richtige ist (Burchert et al. 2003) und müssen raten. Sätze wie in (iv) machen AgrammatikerInnen jedoch keine Schwierigkeiten. Hier wissen sie ohne Probleme, dass beide Sätze das Gleiche bedeuten. iv) a. Der Junge isst den Apfel. b. Den Apfel isst der Junge. Was sagen Ihnen diese Ergebnisse über Agrammatismus und die Broca-Aphasie? Beachten Sie, was Sie in der vorhergehenden Übung 5 herausgefunden haben und was Sie über agrammatische Sprachproduktion wissen. Denken Sie auch daran, was Sie in Kapitel 1 und Kapitel 2 über den Zusammenhang von Syntax und Semantik gelesen haben, vor allem über die Präferenzen bei der Verarbeitung von verschiedenen Wortstellungen und semantischen Rollen (Agens, Patiens – siehe Kapitel 2, S. ...). Betrachten und vergleichen Sie dazu auch folgende Sätze: v) a. Die Frau verfolgt das Mädchen. b. Das Mädchen verfolgt die Frau. vi) a. Hans verfolgt Eva. b. Eva verfolgt Hans. Die in Übung 6 beschriebenen Ergebnisse zeigen deutlich, dass agrammatische SprecherInnen nicht nur Probleme mit der Produktion von komplexeren grammatischen Strukturen haben, sondern oft auch mit dem Verstehen solcher Strukturen – und zwar genau dann, wenn grammatische Merkmale für eine korrekte Interpretation von entscheidender Bedeutung sind. Wir haben vorhin erwähnt, dass funktionale Elemente für Menschen mit Agrammatismus schwierig sind. Deshalb fällt es ihnen oft ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 13 schwer, Artikel wie ‘ein’ oder ‘the’ für die korrekte Interpretation von Sätzen wie (i) und (ii) in Übung 5 zu nutzen. Sätze wie in (iv) ‘der Junge isst den Apfel’ und ‘den Apfel isst der Junge’ machen ihnen jedoch keine Probleme, weil die Inhaltswörter – ‘Apfel’, ‘isst’, ‘Junge’ – ausreichen, um die Bedeutung zu entschlüsseln. Da hier nur der Junge handelnde Person sein kann, weil ein Apfel einfach keinen Jungen essen kann, sind die Artikelformen ‘der’ und ‘den’ nicht ausschlaggebend für die korrekte Interpretation der Sätze. Wenn in einem Satz allerdings zwei mögliche handelnde Personen genannt werden, kann man sich auf die Inhaltswörter alleine nicht verlassen. Um in solchen Fällen die korrekte Satzbedeutung zu erfassen, muss man unbedingt die Grammatik hinzuziehen. Sätze wie (iiia) ‘der Junge verfolgt den Mann’ und (iiib) ‘den Mann verfolgt der Junge’ können nur korrekt verstanden werden, wenn die Artikelformen ‘der’ und ‘den’ zum Entschlüsseln der syntaktischen Struktur genutzt werden können. Manchmal geht aber aus den Artikelformen nicht hervor, was Nominativ und was Akkusativ ist, wie in den Sätzen (v) ‘die Frau verfolgt das Mädchen’ und ‘das Mädchen verfolgt die Frau’. Weil sich bei feminen und neutralen Substantiven die Formen des Artikels im Nominativ und Akkusativ nicht unterscheiden, sind prinzipiell beide Interpretationen möglich: In beiden Sätzen kann entweder die Frau oder das Mädchen das Subjekt bzw. Objekt sein. Genauso verhält es sich in Sätzen ohne Artikel wie (vi): ‚Hans verfolgt Eva’. Wie Sie aus Kapitel 2 wissen, ist die Verarbeitung von syntaktisch komplexeren Objekt-Subjekt Sätzen schwieriger als die von Subjekt-Objekt Sätzen (siehe Kapitel 2, S ... für verschiedene Erklärungen hierfür), weshalb die Subjekt-Objekt Abfolge meist auch die bevorzugte Interpretation bei zweideutigen Sätzen ist Die Tatsache, dass Subjekt-Objekt Sätze einfacher zu verarbeiten sind als ihre Objekt-Subjekt Gegenstücke, trägt auch zu einer Erklärung der agrammatischen Verständnismuster bei. Dass agrammatische SprecherInnen mit dem Verständnis von Subjekt-Objekt Sätzen wie (iiia) normalerweise keine großen Probleme haben, zeigt, dass sie die Fallmarkierungen der Artikel in solchen syntaktisch einfachen Sätzen zur Interpretation nutzen können. Der syntaktische Parser wird hier nie ernsthaft ‘überfordert’ und kann die Struktur Schritt für Schritt analysieren – die Fallmarkierungen können genutzt werden, um an die syntaktische Struktur der Sätze zu gelangen, der Satz wird richtig verstanden. Bei Objekt-Subjekt Sätzen wie (iiib) hingegen steigt der Verarbeitungsaufwand – der Parser kann hier bei agrammatischen SprecherInnen oft nicht Schritt halten, verliert gewissermaßen im Lauf des Satzes den Überblick über die Satzstruktur und die Fallendungen können nicht mehr zum Verständnis beitragen – die einzelnen Satzteile können also nicht mehr zu einer kohärenten Struktur zusammengebracht werden. Als Folge sind solche eigentlich eindeutigen Objekt-Subjekt Sätze wie (iiib) für agrammatische SprecherInnen also zweideutig, ähnlich wie die Sätze in (v) und (vi). Bei solch syntaktisch komplexeren Sätzen wie (iiib) müssen agrammatische SprecherInnen oft einfach raten, wer die handelnde Person ist. Die ursprüngliche Beschreibung der Broca-Aphasie als eine reine Produktionsstörung muss also verworfen werden. Die grammatischen Probleme, die bei einer Broca-Aphasie auftreten, zeigen sich vielmehr meistens sowohl in der Sprachproduktion als auch beim Verstehen von Sprache. Agrammatismus wird deshalb heute oft als eine Störung der Grammatik gesehen, die Schwierigkeiten bei der Produktion syntaktischer Strukturen UND dem Verständnis von grammatisch komplexen Sätzen verursacht (cf. Grodzinsky 2000a,b). Als NeurolinguistInnen diese typischen syntaktischen Aspekte der Broca-Aphasie entdeckten (z.B. Caramazza & Zurif 1976), änderten sich auch ihre Ansichten über die Bedeutung des Broca- und des Wernicke-Areals. Manche ForscherInnen verstanden das Broca-Areal nun als den zentralen Syntaxprozessor (Berndt & Caramazza 1980), während das Wernicke-Areal für die Verarbeitung lexikalisch-semantischen Aspekten der Sprache verantwortlich gemacht wurde. In den letzten Jahren wurden jedoch viele neue Erkenntnisse über Aphasien gewonnen. Dabei hat sich auch gezeigt, dass zwischen einer bestimmten geschädigten Gehirnstruktur und einem sprachlichen ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 14 Defizit nicht immer eins zu eins Beziehung besteht. Manchmal liegt die Hirnschädigung bei AphasikerInnen mit Agrammatismus beispielsweise nicht im Broca-Areal, und umgekehrt haben manche Menschen mit geschädigtem Broca-Areal keinen Agrammatismus. Die Störungsbilder von manchen AphasikerInnen passen wiederum gar nicht zu einer der klassischen Aphasieformen. Deshalb verlassen sich ForscherInnen und auch TherapeutInnen zusehends mehr auf genaue Untersuchungen individueller Störungsmuster (siehe Caramazza 1984; De Bleser et al. 2004). Inzwischen stehen NeurolinguistInnen jedoch neue Methoden zur Verfügung, um Zusammenhänge zwischen Sprache und Gehirn genauer zu ergründen. Darauf werden wir im nächsten Abschnitt 3.2.5 näher eingehen. Diese haben bestätigt, dass die Aufgabe des Broca-Areals weit über die Syntax hinausgeht, dass das Wernicke-Areal nicht nur lexikalisch-semantische Aspekte verarbeitet, und dass Sprache weit über diese zwei Areale hinausreicht. Zusammenfassung In den letzten beiden Abschnitten haben Sie gelesen, dass • sowohl Broca-AphasikerInnen als auch Wernicke-AphasikerInnen komplexe Defizite bei der Sprachproduktion und beim Sprachverständnis haben. • neurolinguistische Experimente gezeigt haben, dass Menschen mit Broca-Aphasie unter einem grammatischen Defizit leiden, welches sich in der Sprachproduktion und im Sprachverständnis auf ähnliche Weise zeigt. Bei Menschen mit Wernicke-Aphasie ist die lexikalisch-semantische Ebene stärker betroffen ist. • eine direkte anatomische Lokalisierung von sprachlichen Fähigkeiten wie ‘Syntax’ oder ‘Lexikon-Semantik’ in einem bestimmten Hirnareal problematisch ist. 3.2.6 Funktionelle bildgebende Verfahren: Einblicke in das arbeitende Gehirn Mit der Einführung neuer Hightech-Methoden hat die Neurolinguistik in jüngster Vergangenheit eine wahre Revolution erlebt. Diese Methoden – funktionelle Bildgebung genannt (Englisch: ‘functional Neuroimaging’) – erlauben uns, Spuren von neuronaler Aktivierung nachzuvollziehen, die das Gehirn beim Ausführen von verschiedenen Aufgaben hinterlässt. In Experimenten können gesunde und auch aphasische Teilnehmer beispielsweise in Scannern (oder Tomographen) getestet werden, die Änderungen in der Aktivität in den verschiedenen Regionen des Gehirns mit großer Genauigkeit messen können. Dazu messen sie Veränderungen im Blutfluss innerhalb des Gehirns. Während die Technik recht kompliziert ist, ist die Idee dahinter relativ einfach: je mehr Arbeit eine Gehirnregion leistet, desto stärker wird sie aktiviert, und desto mehr Zucker und Sauerstoff braucht sie – ähnlich wie bei unseren Muskeln, wenn sie physische Arbeit leisten. Das bedeutet, dass in stärker aktivierte Regionen mehr Blut fließen muss, um die benötigte Versorgung zu gewährleisten. Der Scanner kann diese Veränderungen im Blutfluss dann indirekt messen. Nach einer genauen Analyse können diese Veränderungen schließlich sichtbar gemacht und berechnet werden. So bekommt man Informationen darüber, welche Hirnregionen jeweils während der Verarbeitung einer bestimmten sprachlichen Struktur am aktivsten waren. Manche Neuroimaging-Studien haben beispielsweise gezeigt, dass bei der Verarbeitung von Verben die vorderen Regionen des Gehirns stärker aktiviert werden, während Nomina mehr von weiter hinten liegenden Regionen abzuhängen scheinen (siehe Shapiro und Caramazza 2003 für einen Überblick). In einem Experiment, das Shapiro und Kollegen (2005) durchführten, mussten die TeilnehmerInnen bestimmte Arten von Nomina und Verben produzieren, während ihre Hirnaktivität in einem PETScanner (PET steht für Positronen-Emissions-Tomographie) festgehalten wurde. Eine ähnliche und inzwischen sehr bekannte Methode ist die fMRT oder funktionelle Magnet-Resonanz-Tomographie. Abbildung 6 zeigt, dass sich bei der Produktion von Verben andere Aktivierungsmuster im Gehirn ergaben als bei der Produktion von Nomina: Für Verben zeigte sich eine stärkere Aktivierung im Frontallappen, für Nomina hingegen im Temporallappen. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 15 Beachten Sie aber, dass diese Areale nicht die einzigen sind, die bei Verben oder Nomina aktiviert werden. Vielmehr aktivieren sowohl Nomina als auch Verben (und jede andere sprachliche Aufgabe oder Struktur) eine ganze Zahl von Hirnregionen. Um beispielsweise diejenigen Areale herauszufiltern, die zur Verarbeitung von Verben mehr beitragen, als zu Verarbeitung von Nomina, werden die Aktivierungsmuster der Nomina von denen der Verben abgezogen. Die verbleibende Aktivierung zeigt dann die Areale an, die für die Verarbeitung von Verben eine größere Rolle spielen als für die Nomenverarbeitung. Abbildung 6 ca. hier einsetzen Während die stärkste Aktivierung für Verben in Abbildung 6 etwas über dem Broca-Areal liegt, haben andere Neuroimaging-Studien starke Aktivierung im Broca-Areal selbst gefunden (Perani et al. 1999). Die Feststellung, dass die Verarbeitung von Verben frontale Gehirnregionen in und um die BrocaRegion stärker aktiviert als die Verarbeitung von Nomina, lässt die Vorhersage zu, dass BrocaAphasikerInnen auch Probleme mit Verben haben müssten. Wenn Sie noch einmal einen Blick auf die Sprachbeispiele in (3) und (4) werfen, können Sie sehen, dass nicht nur Funktionswörter fehlen, sondern auch recht wenige Verben produziert werden. NeurolinguistInnen haben den relativen Mangel an Verben in den Äußerungen von Broca-AphasikerInnen natürlich bereits früher untersucht – heutzutage geben die bildgebenden Verfahren allerdings wertvolle zusätzliche Einblicke in klassische Fragestellungen der Neurolinguistik und Informationen über die Beziehung zwischen Sprache und Gehirn (siehe Démonet et al. 2005 für einen Überblick). Eine ganze Reihe von Neuroimaging-Studien haben sich mit der Frage beschäftigt, in welchem Maße Sprache modular verarbeitet wird. In Abschnitt 3.2.4 zum mentalen Lexikon haben uns unterschiedliche aphasische Störungsbilder gezeigt, dass verschiedene Hirnareale auf die Verarbeitung unterschiedlicher Informationen von Wörtern spezialisiert sind. Neuere Neuroimaging-Studien bestätigen, dass das Lexikon über mehrere spezialisierte Hirnregionen verteilt ist. Vorhin haben wir schon auf die unterschiedlichen Aktivierungsmuster bei Verben einerseits und Nomina andererseits hingewiesen. Andere Studien haben z.B. ergeben, dass beim Benennen von Werkzeugen manche Hirnareale stärker beteiligt sind als beim Benennen von Tieren – und umgekehrt (siehe Martin et al. 1996). Oder dass andere Hirnareale bei der Bildung von Vergangenheitsformen von regelmäßigen Verben (vom Typ iib in Übung 2) als von unregelmäßigen Verben (vom Typ iia in Übung 2) beteiligt sind (Jaeger et al. 1996). Im Fall des Broca-Areals haben Studien mit bildgebenden Verfahren bei nicht-aphasischen Testpersonen gezeigt, dass dieses Areal an der Verarbeitung von Informationen aller sprachlichen Ebenen beteiligt ist: Phonologie, Morphologie, Syntax und Lexikon. In solchen Experimenten wurde nachgewiesen, dass das Broca-Areal bei der Verarbeitung von syntaktisch komplexen Sätzen stark aktiviert wird. Damit bestätigen sie die Ergebnisse aus Studien mit agrammatischen Sprechern (Caplan et al. 1998; Stromswold et al. 1996). Die vorhin erwähnte Aktivierung des Broca-Areals bei der Produktion von Verben legt nahe, dass dieses Areal auch lexikalische Arbeit leistet. Manche Forscher schließen daraus, dass das Broca-Areal selber aus mehreren Teilen besteht, die auf ganz bestimmte Aspekte der Sprachverarbeitung spezialisiert sind (siehe z.B. Deacon 1990; Dogil et al. 1995; Bookheimer 2002). Immerhin umfasst das Broca-Areal ein ziemlich großes Stück Kortex (siehe Abbildung 3) und es gibt keinen offensichtlichen Grund, warum es sich nur einer einzigen sprachlichen Ebene widmen sollte. Ähnliches scheint auch für das Wernicke-Areal zu gelten (Wise et al. 2001). Es ist inzwischen auch offensichtlich, dass keine sprachliche Ebene (Phonologie, Morphologie, Syntax, Semantik) von einem einzigen Areal verarbeitet wird – jede Ebene hängt vielmehr von mehreren Regionen ab. Die syntaktische Verarbeitung wird beispielsweise von Arealen im linken Frontal- und Temporallappen geleistet, wobei die Regionen unterschiedliche Aufgaben erfüllen. Ähnlich verhält es sich auch bei der semantischen Verarbeitung (Friederici 2002): Manche Areale ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 16 verarbeiten sprachliche Informationen von Einzelwörtern, wie z.B. ihre Wortkategorie (Nomen, Verb, etc.), Wortform (Mehrzahlform, Partizipform, etc.) oder verschiedene Aspekte ihrer Bedeutung. Andere Areale wiederum tragen dazu bei, solche Informationen von Einzelwörtern über längere Zeit aktiviert zu halten, damit sie zu größeren Strukturen zusammengefügt werden können. Das BrocaAreal scheint unter anderem als ein Arbeitsgedächtnis zu dienen, um verschiedene sprachliche Informationen aktiviert zu halten. Dies ist oft eine wichtige Voraussetzung, um aus einzelnen Teilen ein Ganzes zu formen (siehe Kapitel 2). Das Netzwerk von Gehirnarealen zur Sprachverarbeitung beschränkt sich nicht nur auf Gebiete des Kortex. Studien mit Patienten und Neuroimaging-Methoden haben gezeigt, dass z.B. auch Strukturen in den subkortikalen Bereichen – wie z.B. die Basalganglien – wichtige Aufgaben bei der Sprachverarbeitung übernehmen (Kotz et al. 2003). Das sprachliche Netzwerk reicht also bis tief in das Gehirn hinein. Die Ansichten darüber, welche Hirnregion dabei wofür genau zuständig ist und zu welchem Zeitpunkt während der Verarbeitung die einzelnen Teile des Verarbeitungsnetzwerks ihren Beitrag leisten, unterscheiden sich in der Literatur teilweise stark. Vieles hängt davon ab, ob man die Sprachverarbeitung eher als seriell sieht, oder als stark interaktiv, d.h. ob bestimmte Informationen strikt vor anderen verarbeitet werden, oder ob die verschiedenen Informationsquellen während aller Stufen der Verarbeitung zusammenspielen (siehe Kapitel 2; Friederici 2006; Hagoort 2005). Um solche zeitliche Abläufe erfassen zu können ist es vor allem wichtig, zu wissen, wann ein bestimmtes Areal aktiv wird. Die oben vorgestellten Methoden wie PET oder fMRT sagen über den zeitlichen Ablauf jedoch nicht viel aus. Hierzu kann man die Elektroenzephalographie (EEG) oder die Magnetenzephalographie (MEG) einsetzen. Diese Methoden liefern zwar nur eine sehr grobe Information über das ‘wo’ im Gehirn, geben dafür aber ein sehr genaues zeitliches Bild der Verarbeitung (im Bereich von Millisekunden). Dazu messen sie elektrische Ströme (EEG) bzw. magnetische Felder (MEG), die zur Oberfläche des Kopfes durchdringen, wenn größere Gruppen von Nervenzellen an verschiedenen Stellen im Gehirn aktiv werden. Psycholinguistische Studien zur Wortproduktion haben beispielsweise gezeigt, dass wir ca. 600 Millisekunden vom Sehen bis zum Benennen eines Bildes brauchen (Indefrey & Levelt 1998). Ein Experiment mit MEG konnte nachvollziehen, wie verschiedene Hirnregionen nacheinander aktiviert werden, um die jeweiligen Informationen über das Wort aus dem mentalen Lexikon abzurufen und die Artikulation vorzubereiten (Levelt et al. 1998). Beim Satzverständnis werden beim Hören eines Wortes innerhalb von wenigen hundert Millisekunden die unterschiedlichen Wortinformationen abgerufen (z.B. Wortkategorie, Bedeutung und andere lexikalische Informationen). In dem seriellen Satzverarbeitungsmodell von Friederici (2006) wird innerhalb der ersten 200 Millisekunden die Kategorie des gehörten Worts erkannt (Nomen, Verb, etc.) und aufgrund dieser Information eine erste syntaktische Struktur gebildet. In dem Zeitraum von ca. 300-500 Millisekunden werden gleichzeitig unterschiedliche weitere lexikalische Informationen über das Wort aktiviert (z.B. das Genus von Nomina, Numerus bei Verben und die Bedeutung eines Wortes) und diese Informationen genutzt, um semantische und grammatische Beziehungen zu anderen Wörtern im Satz zu berechnen. Nach nur ca. 600 Millisekunden führt das Gehirn all diese verschiedenen Informationen zusammen und integriert das Wort endgültig in den Satzkontext. Dabei müssen bei Produktion und Verständnis innerhalb von Sekundenbruchteilen verschiedene Hirnareale koordiniert zusammenarbeiten – eine Meisterleistung des Gehirns (siehe auch Kapitel 2). 3.2.7 Wie Sie sehen können, steht die Frage, in wie weit Sprache modular verarbeitet wird und ob die sprachlichen Informationen seriell oder interaktiv verarbeitet werden sowohl in der Psycho- als auch der Neurolinguistik im Zentrum des Interesses. Aus neurolinguistischer Sicht stellt sich die zusätzliche ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 17 Frage, wo Verarbeitungsmodule im Gehirn lokalisiert sind. Die Diskussion der Rolle des Broca- und Wernicke-Areals hat gezeigt, dass so eine Zuordnung von einzelnen Funktionen zu bestimmten Gehirnregionen keineswegs eine einfache Aufgabe ist. Die Suche nach einzelnen Komponenten des Sprachsystems im Gehirn wird dabei noch durch einige Erkenntnisse erschwert: ein Verarbeitungsmodul muss beispielsweise nicht unbedingt auf ein einzelnes Gebiet im Gehirn beschränkt sein – vielmehr kann es sich auch über mehrere Gebiete erstrecken und sich dabei auch mit anderen Verarbeitungsschaltkreisen teilweise überschneiden. Barrett und Kurzban (2006: 641) vergleichen eine solche Aufteilung eines Moduls mit „der Verkabelung in einer Stereoanlage, einem Computer oder in einem anderen elektronischen Gerät: Einzelne Kabel haben spezifische Funktionen, aber Kabel mit unterschiedlichen Funktionen können sich innerhalb des gesamten Gerätes kreuzen und überlagern“ (siehe auch Pinker 1997). Sich in ähnlicher Weise überschneidende Module im Gehirn können auch mit bildgebenden Verfahren oft nur schwer oder gar nicht herausgefiltert werden. Weitere Herausforderungen für die Suche nach der Beziehung von Gehirn und Sprache ergeben sich laufend: Während das Broca-Areal an der Verarbeitung unterschiedlicher sprachlicher Aspekte Anteil hat, haben Neuroimaging-Studien gezeigt, dass es außerdem auch an nicht-sprachlichen Aufgaben beteiligt ist, wie beispielsweise der Verarbeitung von musikalischer Struktur (Maess et al. 2001). Computersimulationen haben des Weiteren gezeigt, dass doppelte Dissoziationen prinzipiell auch entstehen können, ohne dass man Module annehmen muss (Plaut 1995). Manche Forscher meinen, dass solche Erkenntnisse es unwahrscheinlich machen, dass alle sprachliche Funktionen im Gehirn genau lokalisiert werden können (z.B. Dick et al. 2001). Die Interpretation von neurolinguistischen Ergebnissen hängt also von der Ansicht darüber ab, wie Sprache einerseits und das Gehirn andererseits genau funktionieren. Welche Position man dazu auch immer einnimmt – wir hoffen, dass unsere Beispiele gezeigt haben, dass es immer notwendig ist, linguistische Theorie, psycholinguistische Verarbeitungsmodelle und neurolinguistische Arbeit miteinander zu verbinden – auch wenn das alles andere als einfach ist (Poeppel & Embick 2005). Zusammenfassung Im letzten Abschnitt haben Sie Folgendes gelesen: • Neuroimaging-Methoden bringen NeurolinguistInnen eine Menge zusätzliche Informationen über Sprachverarbeitung. • Solche Studien haben die Ergebnisse aus der Aphasieforschung teilweise bestätigt. Darüber hinaus haben sie aber auch neue Erkenntnisse darüber gebracht, welches Hirnareal welche Information verarbeitet. • Experimente haben gezeigt, dass manche Hirnareale mehrere Arten von Information verarbeiten, und dass keine der sprachlichen Ebenen von nur einer einzigen Hirnregion abhängt. • Was diese Erkenntnisse für den Versuch bedeuten, Module im Gehirn genau zu lokalisieren, darüber gibt es verschiedene Ansichten. 3.2.8 Von links nach rechts . . . Wir haben festgestellt, dass die Verarbeitung von Kernaspekten der Phonologie, Semantik und Syntax zum größten Teil von Regionen in der linken Hemisphäre abhängt. Studien haben aber gezeigt, dass die rechte Hemisphäre die linke bei der Verarbeitung von gewissen sprachlichen Informationen ergänzt. Beispielsweise spielt die rechte Hemisphäre eine große Rolle für die Verarbeitung der prosodischen Struktur von Sätzen – also der ‘Satzmelodie’ und des Satzrhythmus (siehe Friederici & Alter 2004). ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 18 ÜBUNG 7: Widmen Sie sich dieser Aufgabe mit ein oder zwei KollegInnen, und lesen Sie sich die folgenden Sätze gegenseitig vor. Ein Schrägstrich steht für eine kurze Pause – achten Sie darauf, wenn Sie die Sätze vorlesen. Hören sich alle Sätze ‘gut’ an bzw. machen alle Sätze Sinn, wenn Sie wie angegeben gelesen werden? Falls nicht, versuchen Sie herauszufinden, warum. Diskutieren Sie dies mit Ihren KollegInnen. i) a. Maria verspricht Peter / bald zu arbeiten. b. Maria verspricht / Peter bald zu arbeiten. ii) a. Maria verspricht Peter / bald zu entlasten. b. Maria verspricht / Peter bald zu entlasten. iii) a. Der Junge sagt / der Bus wird wahrscheinlich zu spät kommen. b. Der Junge / sagt der Bus / wird wahrscheinlich zu spät kommen. iv) a. Der Junge sagt / der Mann wird wahrscheinlich zu spät kommen. b. Der Junge / sagt der Mann / wird wahrscheinlich zu spät kommen. Sie haben sicher bemerkt, dass die Sätze (ib) und (iia) ungrammatisch sind, weil die Pausen an einer unpassenden Stelle auftreten. Satz (iiib) ist zwar grammatisch, ergibt aber keinen Sinn (außer eventuell in einem Kontext, in dem ein Bus sprechen kann – z.B. in einem Zeichentrickfilm): Im Normalfall kann ein Junge zwar zu spät kommen, aber ein Bus kann nicht sprechen. Alle Sätze der Übung 7 bestehen syntaktisch aus zwei Teilsätzen (jeder der Übungssätze enthält zwei Verben und zwei Nominalphrasen). Wenn wir einen Satz verarbeiten, müssen wir zusammengehörende Wörter im Satz erkennen und daraus eine syntaktische Struktur aufbauen, um so festzustellen, in welcher Beziehung die einzelnen Teile des Satzes zueinander stehen. In gesprochener Sprache sind prosodische Merkmale – wie z.B. eine auf- oder absteigende Intonation oder kurze Pausen – sehr effektive und wichtige Hinweise auf die Struktur eines Satzes. Wie bedeutungsvoll die Prosodie für die Syntax ist, zeigen die Sätze in (iv). Die Sätze (a) und (b) bestehen aus einer Abfolge von völlig identischen Wörtern. Eine unterschiedliche Pausensetzung in den zwei Sätzen hat eine unterschiedliche Satzstruktur zur Folge und damit auch eine andere Bedeutung – in Satz (iv-a) ist es der Mann, der wahrscheinlich zu spät kommen wird; in Satz (iv-b) ist es allerdings der Junge. In den Sätzen ia, iib und iiib der Übung 7 werden wir von der Prosodie allerdings in die Irre geführt: Die absichtlich an einer unpassenden Stelle platzierten Pausen machen die Sätze ungrammatisch oder sinnlos. Doch woran liegt das genau? Sehen wir uns dazu die Sätze in (i) und (ii) etwas genauer an: Obwohl die Pausen in (ib) und (iib) genau an derselben Stelle auftreten, ist (ib) ungrammatisch, (iib) jedoch nicht. Der Unterschied muss also in den einzigen Wörtern liegen, die sich in den beiden Sätzen unterscheiden – den Verben am Satzende: ‘arbeiten’ in (ib), ‘entlasten’ in (iib). Entscheidend ist hier, dass ein Verb wie ‘arbeiten’ prinzipiell nur ein Subjekt haben kann (xa), jedoch kein Objekt (xb). Im Gegensatz zu solchen intransitiven Verben, müssen sogenannte transitive Verben wie ‘entlasten’ sowohl ein Subjekt, als auch ein Objekt haben – wenn das Objekt fehlt, entsteht ein unvollständiger Satz (xxb). (5) a. Maria arbeitet. b. * Maria arbeitet ihn. / * Maria arbeitet den Aufsatz. (6) a. Maria entlastet ihn. b. * Maria entlastet. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 19 (7) a. * Es ist kein Problem, Maria zu arbeiten. b. Es ist kein Problem, ihn zu entlasten. c. * Es ist kein Problem, Maria ihn zu entlasten. Sowohl intransitive Verben wie ‘arbeiten’ als auch transitive Verben wie ‘entlasten’ können ihr Subjekt jedoch nur dann offen realisieren, wenn sie in einer finiten Form stehen, wie z.B. in der 3. Person singular in (5) und (6). Wenn sie jedoch infinit sind (also in der Nennform erscheinen), können Verben aber kein offen genanntes Subjekt haben1, sondern nur ein offen genanntes Objekt. Als Folge hiervon kann an ein Verb wie ‘arbeiten’ im Infinitiv gar keine Nominalphrase mehr angehängt werden (siehe 7a), an ein Verb wie ‘entlasten’ nur noch das Objekt (siehe 7b), jedoch nicht mehr Objekt und Subjekt (7c).2 Während der Verarbeitung von Sätzen wie (i) und (ii) veranlasst die Prosodie den Parser dazu, Vorhersagen zu machen, was für eine Art von Verb am Satzende kommen muss. In (ib) und (iib) wird der Parser durch die kurze Pause vor ‘Peter’ dazu gebracht, ‘Peter’ als zum zweiten, noch nicht gehörten Verb gehörend einzuordnen. Der Parser merkt im Laufe des Satzes auch, dass das zweite Verb infinit ist. Er macht deshalb die Vorhersage, dass am Satzende nach ‘zu’ ein Verb wie ‘entlasten’ folgen muss, dass im Infinitiv ‘Peter’ als Objekt nehmen kann (siehe xb). Dies ist der Fall in dem grammatischen Satz (iib) – in (ib) folgt jedoch ‘arbeiten’ als Verb im Infinitiv. Da ein transitives Verb wie ‘arbeiten’ im Infinitiv aber gar keine offen genannte Nominalphrase nehmen kann (siehe xxxa), weiß der Parser plötzlich nicht, was er nun mit ‘Peter’ machen soll – die Prosodie sagt, dass die Nominalphrase ‘Peter’ zum zweiten Verb gehört, dieses kann im Infinitiv aber gar keine syntaktische Position dafür bereitstellen. Wenn die gleichen Sätze jedoch mit einer kurzen Pause nach ‘Peter’ gehört werden wie in (ia) und (iia), dreht sich das Muster um: Jetzt ordnet der Parser ‘Peter’ als Objekt des ersten Verb ‘verspricht’ ein. In (ia) gibt es deshalb mit dem zweiten Verb ‘arbeiten’ kein Problem mehr, während in (iia) durch die zu spät gesetzte prosodische Pause dem Verb ‘entlasten’ – das auch im Infinitiv noch ein Objekt 1 Anders als in einem Satz wie (A), wo das Verb ‘arbeitet’ in einer finiten Form (3. Person Einzahl) auftritt und deshalb – in Sprachen wie Deutsch und Englisch – auch ein übereinstimmendes Subjekt vorhanden sein muss. (A) Maria verspricht, dass Peter bald arbeitet. Nicht in allen Sprachen muss in einem Satz mit einer finiten Verbform auch obligatorisch ein Subjekt vorhanden sein. Dies ist in Sprachen wie Deutsch und Englisch zwar der Fall, nicht aber in Sprachen wie z.B. Italienisch oder Kroatisch. In diesen Sprachen kann das Subjekt auch fehlen, da es sich aus der Verbform eindeutig ableiten lässt. Auf Italienisch kann man z.B. sagen: ‘amo Roma’, was auf Deutsch übersetzt heißt: ‘ich liebe Rom’. Anders als im Deutschen braucht man im Italienischen kein ‘ich’, weil die Verbendung -o nur in der 1. Person Einzahl verwendet wird. Im Gegensatz dazu wird im Deutschen die Verbendung -e nicht nur für die 1. Person Einzahl, sondern im Konjunktiv auch für die 3. Person verwendet: ‘Er sagt, er liebe Rom nicht’. 2 Obwohl ein Verb im Infinitiv kein offen genanntes Subjekt haben kann, wissen wir dennoch, dass jemand die vom infiniten Verb bezeichnete Handlung ausführt. Wer aber ist die handelnde Person eines Verbs im Infinitiv, bei dem ein Subjekt nicht offen genannt wird? Wer arbeitet in einem Satz wie (ia)? Wenn eine solche Nennform von einem Verb wie ‘versprechen’ abhängt (wie in den Beispielen iab und iiab), dann wird das Subjekt von ‘versprechen’ auch als Subjekt von der Nennform interpretiert. In den Sätzen in (i) kann es demnach nicht ‘Peter’ sondern nur ‘Maria’ sein, die bald ‘arbeiten wird’. Daneben gibt es allerdings Verben, die sich anders verhalten. Dies ist z.B. für ein Verb wie ‘bitten’ der Fall. Vergleichen Sie den Beispielsatz (ia) ‘Maria verspricht Peter, bald zu arbeiten’ mit dem Satz ‘Maria bittet Peter, bald zu arbeiten’. Anders als bei ‘versprechen’ wird bei einem Verb wie ‘bitten’, das Objekt von ‘bitten’ – hier ‘Peter’ – als Subjekt von dem abhängigen Verb im Infinitiv verstanden: In diesem Fall wird nicht Maria, sondern Peter bald arbeiten. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 20 braucht – plötzlich sein Objekt fehlt. Mit dieser Intonation ist (ia) also grammatisch, während (iia) ungrammatisch wird. In (8) und (9) werden die Sätze (iab) und (iiab) noch einmal mit den verschiedenen Intonationsmustern veranschaulicht. Die grauen Markierungen zeigen, welchem Verb wir auf Grund der Intonation ‘Peter’ als Objekt zuordnen. In den ungrammatischen Sätzen zeigen die eckigen Klammern und die Pfeile an, wo die Probleme liegen: In (5b) kann das Verb ‘arbeiten’ keinen Platz für ‘Peter’ zur Verfügung stellen (was durch den gestrichelten Pfeil angezeigt wird), in (5b) hingegen fehlt ‘Peter’ vor dem Verb ‘entlasten’. (8) a. Maria verspricht Peter bald zu arbeiten ?? b. * Maria verspricht [Peter] bald zu arbeiten ?? (9) a. * Maria verspricht Peter b. Maria verspricht [___] bald zu entlasten Peter bald zu entlasten Aktuelle Studien zeigen, dass die rechte Hemisphäre eine wichtige Rolle bei der Verarbeitung solcher prosodischen Merkmale spielt (Friederici & Alter 2004), auch wenn noch nicht klar ist, in welchem Ausmaß. Experimente mit Sätzen wo Prosodie und Syntax in Konflikt stehen (wie in unseren absichtlich ‘schlechten’ Sätzen) legen nahe, dass die rechte Hirnhälfte einen Teil der prosodischen Information, die dort verarbeitet wird, an die linke schickt. Die Information wird dabei über das Corpus Callosum geleitet (Friederici et al. 2007). Das ist jenes mächtige Faserbündel, das die beiden Hirnhälften miteinander verbindet. Wie Sie schon aus Kapitel 1 und 2 wissen, hört Sprache natürlich nicht bei einzelnen Sätzen auf. Um unseren Mitmenschen Nachrichte, Geschichten, Wünsche, usw. mitzuteilen, produzieren wir normalerweise ganze Texte – mündliche oder schriftliche. Ein Text besteht aus mehreren Sätzen, die sowohl inhaltlich als auch mit Hilfe von textgrammatischen Mitteln3 miteinander verbunden sind. Um uns mit unseren ZuhörerInnen (oder LeserInnen) sprachlich erfolgreich auszutauschen, werden wir auch immer den gesamten Kontext einer Kommunikation beachten müssen. Je nachdem worüber wir uns mit wem zu welchem Anlass und wo unterhalten, werden wir uns dem konkreten Kontext auch sprachlich anpassen. Der gesamte Kontext wird einen starken Einfluss darauf haben, wie wir eine Nachricht, eine Frage, einen Wunsch, usw. formulieren oder sie verstehen werden. Diese Aspekte der Sprache, die gerade angesprochen wurden, gehören zu den Ebenen der Textlinguistik bzw. der Pragmatik (vgl. dazu auch Kap. 1, S....). Wenn man sich die Verarbeitung solcher textlinguistischen und pragmatischen Aspekte der Sprache aus neurolinguistischer Sicht anschaut, so zeigt sich, dass auch hier die rechte Hemisphäre beteiligt ist 3 Zu den textgrammatischen Mitteln, die wir einsetzen, um Sätze zu einem Text zu verbinden, gehören u.a. die Verwendung von Bindewörtern oder Konjunktionen (wie z.B. ‘und dann ’, ‘und vorher’), und von Prononima (z.B. ‘Es gab einmal einen König. Er hatte eine Tochter. Sie war ... Und eines Tages beschloss der König...’). Auch der Einsatz von bestimmten und unbestimmten Artikelformen muss in einem Text genau beachtet werden: In dem hier angeführten Beispiel verweisen ‘ein König’ und ‘der König’ auf ein und dieselbe Person. So ergibt sich der Anfang einer Geschichte – eines Märchens. Die Sätze machen als Text allerdings wohl wenig Sinn, wenn wir die Artikel ‘ein’ und ‘der’ in umgekehrter Reihenfolge einzuführen und beginnen mit: ‘Es gab einmal den König. ... Und eines Tages beschloss ein König ...’. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 21 (Beeman 2005; Joanette et al. 1990). Manche Menschen mit einer Schädigung der rechten Hirnhälfte haben ernsthafte Probleme damit, den Sinn eines Textes oder die pragmatische Aspekte einer Äußerung zu verstehen. Menschen mit Problemen auf der pragmatischen Ebene verstehen z.B. eventuell nicht, dass eine Äußerung wie „Hier drinnen ist es aber kalt!“, weniger über die Raumtemperatur informieren möchte als vielmehr den Wunsch ausdrückt, dass die Fenster geschlossen werden sollen. Bei Verletzungen der rechten Hirnhälfte kann es außerdem auch zu Schwierigkeiten mit dem Verstehen von sprachlichen Witzen, Sarkasmus und nicht-wörtlichen Bedeutungen kommen. So kann beispielsweise der übertragene Sinn von Metaphern und Idiomen, wie ‘mir fällt ein Stein vom Herzen’, nicht verstanden werden. Wenn Defizite dieser Art vorliegen, fällt es dem/der Betroffenen oft schwer, seine/ihre Sprache einer Situation angemessen zu verwenden. Obwohl diese Patienten manchmal große Probleme mit einer adäquaten Sprachverwendung haben, gelten sie nicht als aphasisch, weil zentrale Ebenen ihres Sprachsystems nicht betroffen sind. Zusammenfassung In diesem Abschnitt haben Sie gelesen, dass • die rechte Hemisphäre die linke bei der Verarbeitung von prosodischer Satzstruktur, Texten, nicht-wörtlichen und pragmatischen Aspekten der Sprache ergänzt. • Personen mit Schädigungen der rechten Hemisphäre manchmal große Schwierigkeiten mit eben diesen Aspekten der Sprache haben können. 3.3. Einige Prinzipien der Funktionsweise und Entwicklung des Gehirns 3.3.1 Aufbau und Funktionsweise von Gehirnzellen Das zentrale Nervensystem besteht aus zwei Arten von Zellen: Neuronen (Nervenzellen), die grundlegenden Einheiten der Informationsverarbeitung innerhalb des Nervensystems, und Gliazellen, die verschiedene Versorgungs- und ‘Haushaltsfunktionen’ für Neuronen ausüben. Neuronen gibt es in vielen verschiedenen Ausführungen, aber ein typisches Neuron besteht aus einigen wesentlichen Teilen, die Sie in Abbildung 7 sehen können (vgl. Kandel 2000). Der Zellkörper (Soma) hat zwei verschiedene Arten von Fortsätzen: ein langes Axon, das vom Zellkörper wegführt, und weitere Fortsätze namens Dendriten. Während die Dendriten hereinkommende Information von anderen Neuronen empfangen, schickt das Axon Information an andere Neuronen weiter. Wie Sie in Abbildung 7 sehen können, ist das Axon in eine weiße Schicht aus Myelin gehüllt. Die Myelinschicht um ein Axon dient als eine Art Isolierung und spielt eine wichtige Rolle für den Informationstransport zwischen Neuronen: Sie beschleunigt den Transport des elektrischen Signals am Axon entlang bis zur Synapse, der Schaltstelle für die Kommunikation zwischen zwei Neuronen. Abbildung 7 ca. hier einfügen Das elektrische Signal, das von einer Nervenzelle erzeugt wird (das so genannte Aktionspotential) schießt am Axon mit bis zu 100 Meter pro Sekunde entlang. Wenn es das Ende des Axons erreicht hat, muss es in ein chemisches Signal ‘übersetzt’ werden, da das Axon des sendenden Neurons und die Dendriten des empfangenden Neurons nicht in direktem Kontakt stehen. Sie sind durch eine winzige Lücke getrennt, den synaptischen Spalt. Um die Distanz zwischen dem präsynaptischen (dem sendenden) und dem postsynaptischen (dem empfangenden) Neuron zu überbrücken, werden bei der Ankunft des elektrischen Signals an der Synapse chemische Substanzen (Neurotransmitter) in den synaptischen Spalt hinein freigesetzt. Diese Transmitter docken an Rezeptoren auf den Dendriten des postsynaptischen Neurons an und führen letztendlich zu einem elektrischen postsynaptischen Potential auf der empfangenden Seite der Synapse. Abhängig vom Typ des Rezeptors sind diese postsynaptischen Potentiale entweder erregend (exzitatorisch) oder hemmend (inhibitorisch): Erregende Potentiale machen es wahrscheinlicher, dass das empfangende Neuron letztendlich selbst ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 22 ein Aktionspotential abfeuert (und die Information des sendenden Neurons so weiterleitet), während hemmende Potentiale in die Gegenrichtung wirken und ein Feuern unwahrscheinlicher machen. Ein Neuron feuert jedoch nicht, sobald es den erstbesten Input von anderen Neuronen bekommt. Vielmehr wiegt ein Neuron gewissermaßen die Vor- und Nachteile eines Feuerns ab und produziert nur dann selbst ein Signal, wenn es genug exzitatorischen Input von anderen Neuronen zur selben Zeit bekommt und so eine Schwelle erreicht wird. Wenn diese Schwelle überschritten ist, produziert das empfangende Neuron selbst ein elektrisches Aktionspotential. Des Weiteren feuert ein Neuron, oder es feuert nicht, es feuert jedoch nicht ‘etwas mehr oder etwas weniger’ – ein Aktionspotential ist ein kurzes Signal (mit einer Dauer von 1-10 Millisekunden), das ganz oder gar nicht produziert wird. Die von unterschiedlichen Nervenzellen produzierten Aktionspotentiale sind sich dabei sehr ähnlich. Wie kann unser Gehirn dann überhaupt verschiedene Empfindungen auseinander halten (z.B. ein leichter Druck auf der Hand oder ein starker Reiz am Fuß), wenn sich die Signale innerhalb des Gehirns so ähnlich sind? Ein wichtiger Faktor dabei ist, wo ein Reiz entsteht. Das wiederum bestimmt den genauen Weg, den das Signal über gewisse Schaltkreise und Pfade im Nervensystem durchlaufen wird und wo es am Ende im Gehirn ankommen wird. Solche Pfade werden von Gruppen von Neuronen gebildet. Ein Druck, den wir auf der Hand spüren, wird zu einem bestimmten Gebiet innerhalb des sensorischen Kortex geschickt (siehe Abbildung 3), während ein Reiz vom Fuß zu einem anderen Abschnitt geschickt wird. Die Intensität eines Reizes wird dagegen durch die Häufigkeit, mit der ein Neuron feuert, kodiert: Stärkere Reize veranlassen ein Neuron, schneller hintereinander zu feuern (siehe Kandel 2000). Wenn man nur einzelne Neuronen isoliert betrachtet, bekommt man den Eindruck, dass alles relativ einfach abläuft: Ein Neuron feuert oder es feuert nicht. Neurone können allerdings mehrere tausend synaptische Verbindungen mit anderen Nervenzellen haben und das gesamte Gehirn hat 11 schätzungsweise ca. 10 – also 100 Milliarden! – Nervenzellen, die innerhalb ihrer Schaltkreise massiv untereinander verbunden sind und in extrem komplexer Art und Weise aufeinander einwirken. Dieses komplizierte Zusammenspiel einer unfassbar hohen Zahl von Einheiten macht das Gehirn zu einem der komplexesten Systeme, die wir kennen (siehe dazu Kandel, Schwartz & Jessell 2000). Dennoch ist das Gehirn ein hoch strukturiertes Organ und jedes Verhalten hängt von einem eng abgestimmten Zusammenspiel einer großen Zahl miteinander verbundener Nervenzellen ab, die zusammen mit anderen Neuronengruppen wiederum die zahlreichen spezialisierten funktionalen neuronalen Schaltkreise bilden (siehe Kandel 2000). Gleichzeitig spielt aber jedes einzelne Neuron innerhalb eines solchen Kreislaufs eine Rolle, indem es zu jeder Zeit von anderen Neuronen empfangene Signale in seiner Umgebung weiterleitet oder dies nicht tut. Der Schlüssel liegt also in dem genauen ‘Schaltplan’ der synaptischen Verbindungen in 14 unserem Gehirn (wobei allein die Zahl der Synapsen im Neokortex des Großhirns auf über 10 geschätzt wird – siehe Pakkenberg et al. 2003) und in ihrer Effektivität: Manche Synapsen sind mehr, manche weniger effektiv und die Stärke einer Synapse kann sich im Laufe der Zeit verändern. Eine Synapse kann beispielsweise stärker und effektiver werden, wenn ein Signal, das von einem Neuron gesendet wird, das Empfängerneuron wiederholt dazu bringt zu feuern. Dieses Prinzip wird oft wie folgt charakterisiert: ‘cells that fire together, wire together’ – auf Deutsch in etwa: ‘Zellen, die zusammen feuern, schließen sich zusammen’. Dies ist einer der Mechanismen synaptischer Plastizität, die Grundlage für lebenslanges Lernen. 3.3.2 Einige Prinzipien der Gehirnentwicklung und -organisation Das zentrale Nervensystem (das Gehirn und das Rückenmark) entwickelt sich aus dem so genannten Neuralrohr. Das Neuralrohr ist eine embryonale Struktur, die sich während der dritten und vierten Schwangerschaftswoche bildet. Die Neuronen und Gliazellen, die das zentrale Nervensystem bilden, ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 23 werden in den folgenden Monaten der Entwicklung produziert – wobei die beeindruckende Zahl von 250.000 Neuronen pro Minute produziert wird (Sengelaub 2003). Neurone bleiben allerdings nicht dort, wo sie entstehen. Sie wandern zu der Position, die sie im ausgewachsenen Gehirn einnehmen werden, und bilden so das Gehirn und die Schichten des Kortex (siehe de Haan & Johnson 2003; Rakic 2000; Sengelaub 2003; auf Deutsch auch Eliot 2002, p. 27ff.). Anschließend wachsen die Dendriten der Nervenzellen und verästeln sich, die Axone wachsen und werden zu geeigneten Zielneuronen geleitet. Dabei folgen Sie einer Spur von unterschiedlichen molekularen Signalen. Letztendlich entstehen erste synaptische Verbindungen zwischen Neuronen. Ein großer Teil der vielen Milliarden Neuronen, die während der frühen Entwicklung gebildet werden, wird jedoch nicht einmal bis zur Geburt des Kindes überleben. Ein Teil der normalen Entwicklung des Nervensystems besteht darin, überschüssige Zellen abzubauen. Dieser Mechanismus ist auch als programmierter Zelltod bekannt. Das Prinzip der Überproduktion von neuronalen Strukturen und ihrem anschließenden kontrollierten Abbau betrifft allerdings nicht nur ganze Zellen. In Abschnitt 3.3.1 haben wir darauf hingewiesen, dass unser Gehirn ‘lernt’, indem es synaptische Verbindungen zwischen Neuronen bildet, die sich zu feinabgestimmten, effektiven Schaltkreisen zusammenschließen. Um die Geburt herum kommt es zu einer vermehrten Bildung solcher Synapsen (Synaptogenese genannt). Dies führt zu einem großen Überschuss an synaptischen Verbindungen. Diese Überproduktion wird vorerst nur durch unsere Gene gesteuert und läuft unabhängig von Einflüssen und Erfahrungen aus der Umgebung ab. Im Laufe der Entwicklung werden dann allerdings wenig genutzte, ineffektive Synapsen allmählich wieder abgebaut. Auf Englisch wird dieser Abbau von Synapsen ‘synaptic pruning’ (‘das Stutzen von Synapsen’) genannt. Gleichzeitig können sich durch den Abbau von überschüssigen Verbindungen gezielt effektive Schaltkreise herausbilden: Aktive Synapsen gedeihen, während seltener genutzte, ineffektive Verbindungen ‘gestutzt’ werden. Ein solcher Abbau von Synapsen trägt also entscheidend zur ermöglicht also erst die Bildung jener Schaltkreisen, die für den Erwerb von kognitiven Fähigkeiten bedeutend sind. Angebot und Einfluss aus der Umgebung sind es, die aus dem ursprünglich erfahrungsunabhängigen Überschluss an Synapsen die konkreten, spezialisierten Schaltkreise ‘gestalten’ und fixieren werden. Der Abbau von synaptischen Verbindungen wird von der fortschreitenden Myelinisierung der Axone ergänzt, wodurch der Informationsaustausch zwischen Neuronen und zwischen Hirnarealen – über subkortikale Verbindungen – beschleunigt wird. Diese Prozesse – die anfängliche Überproduktion von Synapsen, das anschließende Stutzen überflüssiger Verbindungen und die Myelinisierung von Axonen – bilden die Grundlagen für die enorme Flexibilität unseres Gehirns während der Kindheit. Sie sind es, die den scheinbar mühelosen Erwerb von extrem komplexen kognitiven Fähigkeiten, wie z.B. Sprache, während dieser frühen Lebensjahren ermöglichen. – finden allerdings nicht überall im ganzen Gehirn zur gleichen Zeit statt. Unterschiedliche Hirnregionen folgen dabei eigenen Zeitplänen. Areale, die für grundlegende Funktionen – z.B. für sensorische oder motorische Funktionen – zuständig sind, reifen früh in der Entwicklung. Andere Regionen, die zum Teil höheren kognitiven Funktionen wie z.B. Sprache dienen (z.B. Areale im Temporal- und Parietallappen sowie im präfrontalen Kortex), reifen dagegen erst später. Das heißt, dass der synaptische Überschuss in diesen Regionen erst später sein Maximum erreicht. Auch der Abbau von überschüssigen synaptischen Verbindungen und die Myelinisierung setzen hier dann zu einem späteren Zeitpunkt in der Entwicklung ein (siehe Casey et al. 2000 und 2005). Abbildung 8 zeigt die Unterschiede und Überschneidungen in der Reifung von einzelnen Hirnregionen. Wie Sie sehen können reift der präfrontale Kortex viel später in der Entwicklung (während der Pubertät) als z.B. der sensomotorische Kortex (in den ersten Lebensjahren). Die Abbildung zeigt auch, dass die Myelinisierung von Axonen, die die Kommunikation zwischen Hirnarealen effektiver macht, bis ins Erwachsenenalter andauert. Die Reifung von spezifischen Hirnregionen sowie der zunehmende Informationsaustausch zwischen den einzelnen Hirnregionen sind zwei wichtige Faktoren für den Erwerb von kognitiven Fähigkeiten während der Kindheit (siehe ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 24 Johnson 2001). Dieses Thema werden wir in Zusammenhang mit dem Erwerb von Sprache im nachfolgenden Abschnitt 3.3.4 wieder aufgreifen. Abbildung 8 ca. hier einfügen Bruer (1999: 137) weist darauf hin, dass eine solches Entwicklungsmuster auch folgenden überraschenden Schluss zulässt: Der fortschreitende Erwerb einer Fähigkeit während der Kindheit und Pubertät kann in manchen Fällen vielmehr von einer massiven Abnahme von Synapsen als von einer Zunahme von Synapsen abhängen. In solchen Fällen gilt also: „Weniger ist mehr“. Während ein Stutzen von Synapsen in einigen Hirnarealen noch während der Pubertät im großen Stil stattfindet (siehe Abbildung 8), scheint es im Erwachsenenalter nicht mehr stattzufinden. Dennoch haben viele Studien gezeigt, dass auch das erwachsene Gehirn noch viel formbarer ist als lange Zeit gedacht wurde (Elbert & Rockstroh 2004) und während des ganzen Lebens zu einem gewissen Grad flexibel auf Erfahrungen und Veränderungen reagieren kann. Zwei Mechanismen dürften uns während unseres gesamten Lebens zur Verfügung stehen und Lernen auch im Erwachsenalter ermöglichen: Die Anpassung und Festigung bereits bestehender Synapsen sowie die Bildung neuer synaptischer Verbindungen (siehe Bourgeois et al. 2000; Geinisman 2000; Greenough & Black 1992 für Diskussion und verschiedene Ansichten). Ein weiteres Prinzip der Gehirnentwicklung ist die Lateralisierung von Funktionen. Obwohl die zwei Großhirnhälften in ihrem Aufbau und Aussehen annähernd symmetrisch sind, spezialisieren sich die zwei Hälften im Laufe der Entwicklung eines Kindes auf unterschiedliche Aufgabenstellungen, was zu einer funktionalen Asymmetrie der beiden Hirnhälften im erwachsenen Hirn führt (siehe Hugdahl 2000 für eine Diskussion von Lateralisierung). Die genauen Gründe für und die Mechanismen der Lateralisierung von kognitiven Funktionen sind auch heute noch nicht geklärt (siehe Toga & Thompson 2003 für einen Überblick). Wie Sie bereits wissen, werden die Kernfunktionen der phonologischen, lexikalischen, morphologischen und syntaktischen Verarbeitung bei den meisten Menschen vor allem von der linken Hemisphäre übernommen.4 Die sprachliche Dominanz der linken Hemisphäre dürfte zum Teil bereits von den Genen vorbestimmt sein. Dies zeigt sich darin, dass das Planum temporale bereits beim Fötus im Mutterleib in der linken Hirnhälfte größer als in der rechten wird. Beim Planum temporale handelt es sich um eine Region im Temporallappen, die eine wichtige Rolle für die Analyse des sprachlichen Signals hat und bei Erwachsenen in der linken Hemisphäre oft größer ist als in der rechten (siehe Shapleske et al. 1999 für einen Überblick). Und wie aktuelle Neuroimaging-Studien zeigen, ist schon bei neugeborenen Babys die linke Hemisphäre stärker an der Erkennung von sprachlichen Signalen beteiligt als die rechte (siehe Dehaene-Lambertz et al. 2006 für einen Überblick; siehe auch Kapitel 4, S. ...). Es gibt verschiedenen Meinungen dazu, wie weit die Spezialisierung der linken Hemisphäre für Sprache geht und woher sie kommt: Aus Sichtweise der Invarianz (‘irreversible determinism’) ist die sprachliche Dominanz der linken Hirnhälfte angeboren und nicht umkehrbar. Dem gegenüber steht die Annahme der Äquipotenz (‘equipotentiality’), d.h. dass beide Hemisphären bei der Geburt ein gleich großes Potential zur Sprachverarbeitung haben und die linke Hälfte im Lauf des Spracherwerbs dann die wichtigsten Sprachfunktionen übernimmt (Lenneberg 1967). Diese Sicht wurde durch Beobachtungen gestärkt, dass die rechte Hemisphäre sehr wohl auch sprachliche Kernfunktionen übernehmen kann, wenn die linke Hemisphäre in frühen Jahren geschädigt wird. In den letzten Jahren hat sich eine Ansicht entwickelt, die einen Mittelweg zwischen diesen beiden extremen Positionen 4 Bei etwa 98% der RechtshänderInnen und ca. 70% der LinkshänderInnen ist die Sprache vorwiegend in der linken Hemisphäre lateralisiert. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 25 darstellt (Bates & Roe 2001). Demnach besitzt jede der Hemisphären angeborene aber ‘weiche’ Vorlieben (‘soft bias’) für die Verarbeitung von bestimmter sprachlicher Information. Da diese Anlagen allerdings nicht völlig fix sondern ‘weich’ sind, gibt es im Laufe des Spracherwerbs immer noch Spielraum zur Reorganisation (siehe Bates & Roe 2001 für eine Diskussion). Zusammenfassung In den letzten beiden Abschnitten haben Sie gelesen, dass • Neuronen Information innerhalb von funktionalen neuronalen Schaltkreisen verarbeiten und über Synapsen Signale an andere Neurone weiterleiten. • synaptische Plastizität lebenslanges Lernen ermöglicht. • die genauen Schaltpläne unseres Gehirns das Resultat von erfahrungsunabhängigen, angeborenen Prozessen und von Einflüssen durch Input aus der Umwelt sind. Anfänglich gibt es einen Überschuss an Synapsen. Einflüsse und Erfahrungen aus der Umwelt sind dafür verantwortlich, dass sich daraus später gezielt konkrete Schaltkreise bilden. Ein Mechanismus, der dabei eine bedeutende Rolle spielt, ist das massive Stutzen von überflüssigen, nicht genutzten synaptischen Verbindungen. • unterschiedliche Hirnareale über verschiedene Entwicklungszeiträume reifen. • es verschiedene Ansichten darüber gibt, warum Sprachfunktionen in der linken Hemisphäre verankert sind. 3.3.3 Das plastische Gehirn: Wie das Gehirn auf Herausforderungen reagieren kann Kommen wir jetzt zu Abbildung 1 zurück, die das Gehirn eines siebenjährigen Mädchens zeigt. Ihr musste mit drei Jahren die linke Hirnhälfte chirurgisch entfernt werden, um weitere epileptische Anfälle zu vermeiden (ein drastischer Eingriff, der Hemisphärektomie genannt wird). Die Antwort auf die Frage nach den sprachlichen Fähigkeiten dieses Mädchen überrascht. Aus der kurzen, anekdotischen Beschreibung, die Borgstein und Grootendorsts (2002) über das Mädchen geben, geht hervor, dass das Mädchen trotz des Eingriffs nicht nur eine Sprache erworben hat, sondern dass es zwei Erstsprachen – Türkisch und Niederländisch – spricht! Ein solcher Eingriff würde bei Erwachsenen jedoch wohl zu einem fast vollständigen Verlust von Sprache führen. Studien mit jüngeren Kindern, die sich einer Hemisphärektomie unterziehen mussten, haben gezeigt, dass eine weitgehende Wiederherstellung oder ein weitgehender Erhalt oder Erwerb von Sprache beim Verlust einer ganzen Hemisphäre bei Kindern kein Einzelfall ist (siehe Bates & Roe 2001; Curtiss et al. 2001). Der vorliegende Fall bestätigt außerdem, dass es nichts Außergewöhnliches ist, wenn Kinder in diesem Alter zwei oder mehrere Sprachen erwerben – wenn ein halbes Gehirn zwei Sprachen verarbeiten kann, schafft das ein gesundes ganzes allemal. Wenn das kindliche Gehirn in frühem Alter eine Schädigung erleidet und dabei typische Sprachregionen verletzt werden, so sind die Folgen für den Spracherwerb oft relativ gering – verglichen mit den Verlusten, die ein ähnlicher Schaden bei einem Erwachsenen verursachen würde. Auch wenn eine plötzliche Hirnschädigung auftritt (z.B. nach Schlaganfällen oder nach Unfällen mit einem Schädel-Hirn-Trauma), kann das Gehirn in frühen Jahren noch sehr flexibel reagieren. Das Kind wird anfangs zwar meistens Probleme mit Sprache oder eine Verzögerung beim Spracherwerb aufweisen, im weiteren Verlauf entwickelt sich die Sprache dann jedoch oft gut und im Alter von fünf bis sieben Jahren ist der sprachliche Entwicklungsstand oft im Normbereich (vgl. Bates 1999; Bates & Roe 2001). Das kindliche Gehirn ist im frühen Alter noch imstande, alternative Wege für die Organisation von Sprache einzuschlagen – auch wenn jene Regionen, die bei Erwachsenen Sprache verarbeiten, verletzt wurden. Hierbei zeigt die rechte Hemisphäre oft ein erstaunliches Potential dafür Sprachfunktionen zu übernehmen, die normalerweise in der linken Hirnhälfte repräsentiert sind. Einen eindrucksvollen Beweis dafür liefern Kinder, bei denen die gesamte linke Hemisphäre entfernt werden musste – wie ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 26 das vorhin erwähnte Mädchen. Eine ganze Hirnhälfte wird allerdings nur ganz selten entfernt. Bei den meisten Hirnschädigungen bleiben beide Hirnhälften vorhanden, bestimmte Regionen sind jedoch geschädigt. Studien mit bildgebenden Verfahren konnten zeigen, dass das Gehirn bei frühen Schädigungen der linken Hemisphäre und Erhalt der rechten Hemisphäre auf verschiedene alternative Wege zurückgreifen kann: Oft übernimmt die rechte Gehirnhälfte die Verarbeitung der betroffenen Funktionen, manchmal springen allerdings auch erhaltene Teile des Sprachnetzwerks in der linken Hemisphäre ein (Liégeois et al. 2004; Staudt et al. 2002). Interessanterweise konnten auch bei frühen Schädigungen der rechten Hemisphäre unterschiedliche Probleme beim Spracherwerb festgestellt werden. Dies weist darauf hin, dass die rechte Hemisphäre speziell in frühen Phasen des Spracherwerbs die linke unterstützt (siehe Bates 1999; Curtiss & de Bode 1999). Als grobe Faustregel für die sprachliche Wiederherstellung von Kindern nach einer Hirnschädigung hört man oft: ‘je früher desto besser’. Allerdings dürften darüber hinaus auch noch andere Faktoren eine wichtige Rolle spielen. Während sich bei manchen Kindern z.B. trotz massiver Schädigungen und Entfernung der linken Hemisphäre das Sprachsystem gut entwickelt oder erholt, ist das bei anderen nicht der Fall. Nicht nur der Zeitpunkt/Beginn aber auch die Art, das Ausmaß der Schädigung dürften dabei einen Einfluss darauf zu haben, wie gut sich das sprachliche System entwickeln kann (siehe Curtiss & de Bode 1999). Curtiss und de Bode (1999) erwähnen in diesem Zusammenhang überdies, dass es während früher Entwicklungsphasen des Gehirns (sowohl vor und als auch nach der Geburt) so genannten ‘critical impact points’ geben kann – gemeint sind Zeitpunkte, die von entscheidendem Einfluss sind. Wenn nun eine Hirnschädigung gerade an einem solch kritischen Punkt für die Entwicklung des Gehirns auftritt, können die Auswirkungen auf den Spracherwerb deutlich schwerwiegender sein, als zu anderen Zeitpunkten. Wie schon erwähnt hat sich in den letzten Jahren herausgestellt, dass das Gehirn auch im Erwachsenenalter noch erstaunlich anpassungsfähig ist und sich in einem gewissen Maß reorganisieren kann (siehe Elbert & Rockstroh 2004). Die Leichtigkeit und das Ausmaß der Wiederherstellung von Sprache, die man nach einer Hirnschädigung bei Kindern oft beobachten kann, findet man bei Erwachsenen so eher nicht. Viele Erwachsene mit Aphasie leiden unter schwerwiegenden, bleibenden Sprachstörungen. Dennoch erholen sich bei einigen AphasikerInnen betroffene sprachliche Fähigkeiten im Laufe der Zeit. Wie groß die Verbesserungen hierbei sein können, hängt von vielen Faktoren ab, unter anderem von der Art und dem Ausmaß der Schädigung und vom Typus der aphasischen Störung. Eine wichtige Rolle spielt dabei natürlich auch die Aphasietherapie. Genau wie bei Kindern stellt sich die Frage, was bei der Rückbildung von sprachlichen Fähigkeiten im erwachsenen Gehirn passiert. Auch hier lässt sich oft eine Kompensation durch die rechte Hemisphäre beobachten. In solchen Fällen übernehmen oft die rechtsseitigen ‘Spiegelbilder’ von Spracharealen der linken Hemisphäre die Informationsverarbeitung – also z.B. jene Region im rechten Frontallappen, die dem Broca-Areal links entspricht (siehe Thompson 2000). Ebenso können unbeschädigte Teile des linksseitigen Sprachnetzwerks zur Verarbeitung von beeinträchtigten sprachlichen Aspekten einspringen. Wenn beispielsweise das Broca-Areal nicht komplett zerstört wurde, können noch intakte Teile um das verletzte Gebiet herum die Arbeit der zerstörten Gebiete teilweise übernehmen (Vitali et al. 2007). Die Arbeit, welche bei der Wiederherstellung von sprachlichen Funktionen von der linken Hemisphäre geleistet werden kann, dürfte dabei häufig besser sein als das, was die rechte Hirnhälfte beizutragen imstande ist (Karbe et al. 1998). Die ‘Bereitschaft’ der rechten Hemisphäre, sich nach einer Schädigung der linken Hemisphäre verstärkt an der Sprachverabeitung zu beteiligen oder diese ganz zu übernehmen, ist in den ersten Lebensjahren allerdings am größten und nimmt im Erwachsenenalter ab (Müller et al. 1999). Wie groß das Potential der rechten Gehirnhälfte zur Übernahme von unterschiedlichen sprachlichen Funktionen im Erwachsenenalter tatsächlich ist und ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 27 welchen Beitrag sie nach einer Hirnschädigung leisten kann ist im Moment noch eine offene Frage (siehe Hillis 2006). Unser Gehirn kann also prinzipiell auf drastische Ereignisse reagieren und versuchen, die Organisation des Sprachsystems zu einem gewissen Grad anzupassen, sowohl im Kindes- als auch im Erwachsenenalter – wie wir gesehen haben, gibt es dennoch wichtige Unterschiede. Die erhöhte Plastizität unseres Gehirns während der Kindheit ist wohl das Ergebnis eines komplexen Zusammenspiels einiger der besprochenen Entwicklungs- und Organisationsmechanismen des Gehirns (wie dem ‘Sprießen und Stutzen’ der Synapsen und der Lateralisierung von verschiedenen Teilen des Sprachsystems – siehe Bates 1999; Huttenlocher 1994). Diese Mechanismen werden jedoch immer noch wenig verstanden, und generell gilt, dass „die Entwicklung des Nervensystems nicht nur komplizierter ist, als wir uns vorgestellt haben, sondern dass sie sogar komplizierter sein könnte, als wir uns vorstellen können“ (Rakic 1999: 106; aus dem Englischen übersetzt). 3.3.4 Kritische / sensible Perioden Wenn es um die Entwicklung des Gehirns und kognitiver Fähigkeiten geht, ist ein weiteres zentrales und heiß diskutiertes Thema das der kritischen Perioden. Eine kritische Periode wird als ein biologisch vorgegebenes Zeitfenster gesehen, währenddessen das Gehirn für ganz bestimmte Reize aus der Umgebung besonders ‘offen’ ist. Diese spezifischen Reize ermöglichen während so einer Phase den schnellen und effizienten Erwerb von ganz bestimmten Fähigkeiten, wie z.B. Sehen oder Sprache. Nach einer strikten Auslegung haben solche Fenster einen zeitlich festgelegten Beginn und ein festgelegtes Ende. Sobald sich ein solches ‘Zeitfenster der Gelegenheiten’ jedoch aufgrund unserer inneren biologischen Uhr plötzlich wieder schließt, kann die betreffende Kompetenz nicht mehr erworben werden. Die kritische Periode für Sprache wurde oft mit der Zeit zwischen Geburt und Pubertät angegeben (Lenneberg 1967). Als Beweise für eine solche kritische Periode für den Spracherwerb wurden die Ergebnisse von Studien so genannter ‘Wolfskinder’ oder ‘wilder Kinder’ gesehen. Damit sind Kinder gemeint, die isoliert von der Gesellschaft und ohne sprachlichen Input aufwachsen. Wenn solche Kinder erst während oder nach der Pubertät entdeckt werden – wie beispielsweise Genie, die im Alter von 13 Jahren gefunden wurde – erwerben sie Sprache nicht mehr in vollem Umfang. Während Genie einen gewissen Wortschatz erwarb, blieben ihre syntaktischen Fähigkeiten recht beschränkt (Curtiss 1977; siehe z.B. auch Grimshaw et al. 1998). Heutzutage wissen wir allerdings, dass sich ein solches ‘Zeitfenster der Gelegenheiten’ sehr oft nicht von einem Augenblick auf den anderen öffnet und sich auch nicht plötzlich wieder schließt. Vielmehr beginnen und enden viele solcher Perioden eher allmählich und nicht abrupt, und auch nach ihrem Höhepunkt bieten sie über lange Zeit ein gewisses Maß an ‘Offenheit’. Man kann beispielsweise natürlich auch nach der Pubertät eine Zweitsprache durchaus noch sehr gut erlernen, vorausgesetzt es wurde bis dahin ganz normal eine Erstsprache erworben (im Gegensatz zu den so genannten ‘Wolfskindern’, bei denen eine solche erstsprachliche Grundlage fehlt). Deshalb werden solche weniger abrupt beginnende und endende Perioden erhöhter Aufnahmebereitschaft auch als sensible Perioden bezeichnet (siehe Werker & Tees 2005). Vor allem bei der kognitiven Entwicklung von Menschen ist es meist angebrachter von sensiblen als von kritischen Perioden zu sprechen (OECD 2007). Studien haben gezeigt, dass es nicht nur eine einzige sensible Periode für Sprache gibt, sondern mehrere Teilperioden, während derer unterschiedliche Teilbereiche der Sprache – wie oben besprochen – vom Hirn buchstäblich ‘aufgesogen’ werden. Beispielsweise wird die sensible Teilperiode für den Erwerb von phonologischen Fähigkeiten allgemein sehr früh angesetzt. Erste phonologische Grundfähigkeiten werden ja bereits im Mutterleib erworben und sehr junge Babys weisen erstaunliche Fähigkeiten bei der Analyse von Lautketten auf (siehe Kapitel 4). Werker und ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 28 Tees (2005) schätzen, dass die sensible Periode für phonetische Perzeption bereits zwischen vier und acht Jahren ihr Minimum an Offenheit erreicht. Dabei legen Fähigkeiten, die in frühen sensiblen Perioden erworben werden, das Fundament für den Erwerb von anderen Fähigkeiten während späterer Zeiträume. Das gilt für sensible Perioden einer einzigen sprachlichen Ebene (lautliche, syntaktische, etc.) und auch über die verschiedenen sprachlichen Ebenen hinweg. Die Fähigkeiten, die es ermöglichen, gesprochene Sprache in einzelne Einheiten zu zerlegen (siehe Kapitel 2 und 4), bilden beispielsweise eine Basis für die Worterkennung und das Lernen von Wörtern. Noch sind nicht alle Einflüsse bekannt, die kritische/sensible Perioden regulieren. Dahinter dürfte ein komplexes Zusammenspiel von genetisch vorbestimmten Programmen einerseits und von Anregungen aus der Umgebung andererseits stehen (Hensch 2004). Ausschlaggebend dabei ist, dass zu richtiger Zeit – wenn ein bestimmtes Programm aktiv ist – die passenden Reize von Außen kommen. Als ein möglicher wichtiger Mechanismus hinter sensiblen Perioden werden das synaptische ‘Sprießen’ und späteres kontrolliertes ‘Stutzen’ angesehen (siehe Bruer 1999; Greenough & Black 1992), welche in den einzelnen Regionen des Kortex in unterschiedlichen Zeiträumen stattfinden (vgl. Abschnitt 3.3.2). Eine interessante Sichtweise auf die engen Zusammenhängen zwischen der Entwicklung des Gehirn und kritischen/sensiblen Perioden bieten Greenough und Black (1992): Unter normalen Umständen werden diejenigen Fähigkeiten und Funktionen, die während kritischen oder sensiblen Perioden erworben werden (z.B. das Sehen- und Gehenlernen und der Spracherwerb), von allen Menschen erworben – sie sind allgemeine Fähigkeiten der menschlichen Spezies. Als Folge der Evolution ‘erwartet’ das Gehirn dementsprechend sozusagen, zu einer bestimmten Zeit auch z.B. relevante visuelle oder sprachliche Information in der Umgebung zu finden und stellt dafür einen Überschuss an Synapsen bereit, der durch die entsprechenden Reize ‘zurechtgestutzt’ wird. Auf Englisch bezeichnet man diese Art von Lernen als ‘experience-expectant learning’, weil man erwarten kann, dass die entsprechenden Fähigkeiten bei Vorhandensein der nötigen Erfahrung erworben werden. Weil unser Gehirn sozusagen schon darauf vorbereitet ist, den entsprechenden notwendigen Input zu einem bestimmten Zeitpunkt zu bekommen und für den Erwerb der Fähigkeit zu nutzen. Das massive synaptische ‘Sprießen und Stutzen’ liegt nach dieser Sichtweise also an der Basis von jenem Lernen, das während einer sensiblen Periode ohne Anstrengung abläuft – vorausgesetzt das Kind bekommt dazu aus seiner Umwelt die nötigen Reize und Erfahrungen. Diese Form des ‘erwarteten’ Lernens während der Kindheit und Jugend steht im Gegensatz zum erfahrungsabhängigen Lernen (‘experience-dependent learning’). Diese Art von Lernen ermöglicht uns, Wissen, Fähigkeiten und Erinnerungen aufgrund unserer persönlichen, einzigartigen Erfahrungen, die wir während des ganzen Lebens machen, zu erwerben – sowohl im Kindes- als auch im Erwachsenenalter. Dieses erfahrungsabhängige Lernen wird vor allem durch die Bildung neuer Synapsen und/oder die Anpassung (Stärkung/Schwächung) schon vorhandener Verbindungen ermöglicht (siehe Greenough & Black 1992; Bruer 1999). Zusammenfassung In den letzten Abschnitten haben Sie gelesen, dass • das Gehirn auf Schädigungen reagieren kann, und sich das System – im Fall von Sprache – in einem erstaunlichen Maß reorganisieren kann, wenn die Hirnschädigung früh im Leben auftritt. Bei Kindern kann sich nach einer frühen Hirnschädigung Sprache prinzipiell noch bis zu einem normalen Grad entwickeln. • kritische und sensible Perioden Zeitfenster sind, während derer ganz spezifische Reize für den Erwerb von bestimmten Fähigkeiten relevant sind. Es gibt verschiedene sprachbezogene sensible Perioden. 3.4 Ein Gehirn, mehrere Sprachen ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 29 Ein heiß debattiertes Thema in der Psycho- und Neurolinguistik ist die Frage, wie unser Gehirn zwei (oder mehr) Sprachen verarbeitet.5 Wenn man Zwei- und Mehrsprachigkeit aus neurolinguistischer Sicht betrachtet, kommen viele der soeben diskutierten Themen – z.B. sensible Perioden und die Entwicklung des Gehirns – ins Spiel und werfen andere Fragen auf. Welcher Einfluss hat das Alter, mit dem man eine Zweitsprache zu lernen beginnt? Welche Rolle spielen sensible Perioden? Werden spät gelernte Zweitsprachen in ganz anderen Hirnregionen verarbeitet als früh gelernte oder als die Erstsprache/n? Welche Rolle spielt der Gebrauch einer Sprache? Oder Erfahrung und Umgang mit einer Sprache? Siehe auch Kapitel ???? für mehr Hintergründe. 3.4.1 Zweitsprachen sind überall – oder? In manchen psycholinguistischen Studien wird dafür argumentiert, dass eine spät gelernte Zweitsprache zu einem größeren Anteil von der rechten Hemisphäre verarbeitet wird als die Erstsprache/n. Andere wiederum haben Hinweise darauf gefunden, dass beide Sprachen von zweisprachigen Sprechern, die beide ihrer Sprachen früh gelernt haben, in beiden Hemisphären verarbeitet werden – und nicht nur in der linken (siehe Hull & Vaid 2007). Generell gesagt spielt nach diesen (und verwandten) Theorien also bei zweisprachigen Menschen die rechte Hirnhälfte eine größere Rolle bei der Sprachverarbeitung als bei einsprachigen. Von neurolinguistischer Warte lässt sich die Rolle der rechten Hemisphäre bei Zweisprachigkeit unter anderem bei zweisprachigen SprecherInnen mit einer Schädigung der rechten (aber nicht der linken) Hirnhälfte überprüfen. Man würde erwarten, dass in solchen Fällen relativ viele Anzeichen von aphasischen Störungen auftreten müssten – entweder in der Zweitsprache, oder in der Zweit- und Erstsprache solcher SprecherInnen. Das scheint allerdings nicht der Fall zu sein. Wie Paradis (2004) betont, kommen aphasische Störungen bei zweisprachigen SprecherInnen nach Beeinträchtigungen der rechten Hemisphäre nicht häufiger vor als bei einsprachigen – unabhängig davon, ab welchem Alter sie begonnen hatten, die unterschiedlichen Sprachen zu lernen. Deshalb gibt es laut Paradis (2004:104) „nicht den geringsten klinischen Beweis, der die Annahme unterstützt, dass die Sprachrepräsentation bei zweisprachigen Sprechern weniger asymmetrisch ist, weder für eine noch für beide ihrer Sprachen.“ (unsere Übersetzung aus dem Englischen). Der Autor fügt allerdings hinzu, dass die rechte Hemisphäre bei der Verarbeitung einer Zweitsprache tatsächlich stärker beteiligt sein kann als bei der Erstsprache – seiner Ansicht nach aber nicht, weil die rechte Hemisphäre die Verarbeitung der Grammatik übernimmt. SprecherInnen einer Zweitsprache müssen sich einfach öfter auf pragmatische Hinweise verlassen, da die Pragmatik gute Arbeit leisten kann, wenn die Grammatik einer Zweitsprache (noch) nicht gut genug entwickelt ist. Und – wie wir wissen – ist die Verarbeitung der Pragmatik die Aufgabe der rechten Hemisphäre. Die Debatte über das Ausmaß der Beteiligung von linker und rechter Hemisphäre bei mehrsprachigen Menschen ist hiermit allerdings noch lange nicht abgeschlossen (Hull & Vaid 2007). Auch wenn eine Zweitsprache tatsächlich nicht mehr von der rechten Hemisphäre abhängen sollte als die Erstsprache, bleibt eine ganze Reihe von Fragen offen. Es wäre möglich, dass die zwei Sprachen von unterschiedlichen Arealen innerhalb der linken Hemisphäre verarbeitet werden: Dass für die Verarbeitung einer spät gelernten Zweitsprache beispielsweise nicht mehr alle ‘klassischen’ Sprachareale zur Verfügung stehen. In den letzten Jahren ist man solchen Fragen mit Hilfe von bildgebenden Verfahren nachgegangen. Dabei ergaben sich folgende interessante Ergebnisse: Auch wenn eine Zweitsprache erst später erworben wird, können noch immer die gleichen Hirnareale wie bei der Erstsprache die Verarbeitung der Zweitsprache übernehmen. Es zeigte sich jedoch, dass sowohl das Erwerbsalter als auch der Grad der Beherrschung der Zweitsprache einen Einfluss darauf haben, wie die Zweitsprache vom Gehirn verarbeitet wird (Perani & Abutalebi 2005). 5 Siehe Schaner-Wolles (2007) zu den Themen Zwei- und Mehrsprachigkeit im Kindesalter im Allgemeinen und Sprachförderung für Kinder mit Migrationshintergrund im Besonderen. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 30 Das Erwerbsalter hat einen stärkeren Einfluss auf die syntaktische als auf die semantische Verarbeitung. Wartenburger und Kollegen (2003) führten eine Studie zur syntaktischen und semantischen Verarbeitung mit verschiedenen Gruppen zweisprachiger SprecherInnen durch (Erstsprache: Italienisch; Zweitsprache: Deutsch). Dabei wurde die Aktivität im Gehirn der TeilnehmerInnen in einem Scanner beobachtet, während sie verschiedene italienische und deutsche Sätze lesen und ihre grammatische Korrektheit bzw. ihre Sinnhaftigkeit beurteilen mussten. Manche der Sätze waren syntaktisch korrekt (8a), in anderen gab es grammatische Fehler (8b). Bei solchen inkorrekten Sätzen wie in (8b) wird das syntaktische Verarbeitungssystem besonders gefordert. Bei anderen Sätzen wiederum war es das semantische System, das verstärkt Arbeit leisten musste: Verglichen mit (8c) macht (8d) inhaltlich wenig Sinn. Ähnliche Sätze wurden auch in italienischer Sprache präsentiert. (8) a. Der Hundsingular läuftsingular über die Wiese. b. * Der Hundsingular laufenplural über die Wiese. c. Der Jäger erschießt das Reh. d. # Das Reh erschießt den Jäger. In dem Experiment wurden drei Gruppen zweisprachiger SprecherInnen getestet: (a) ‘frühe’ Zweisprachige, die Deutsch seit ihrer Geburt gelernt hatten und (b) ‘späte’ Zweisprachige, die durchschnittlich erst mit ca. 19 Jahren Deutsch zu lernen begonnen hatten. Die späten Zweisprachigen wurden wieder in zwei Gruppen unterteilt: (b-1) eine Gruppe mit hoher Kompetenz in der deutschen Sprache und (b-2) eine Gruppe, die Deutsch weniger gut beherrschte. Für die frühen Zweisprachigen zeigte sich bei der syntaktischen Verarbeitung kein Unterschied zwischen Italienisch und Deutsch. Bei beiden Gruppen später Lerner hingegen wurden sprachrelevante Regionen im Gehirn (z.B. das Broca-Areal) bei der syntaktischen Verarbeitung von deutschen Sätzen stärker aktiviert als bei italienischen Sätzen. Solche Ergebnisse zeigen, dass das Erwerbsalter tatsächlich einen Einfluss auf die syntaktische Verarbeitung einer Zweitsprache hat – sie kann aber prinzipiell trotzdem immer noch von den ‘klassischen’ Arealen übernommen werden, die auch die Erstsprache verarbeiten. Die Syntax von spät gelernten Sprachen wird jedoch weniger effizient verarbeitet – der ‘Aufwand’ bei der Verarbeitung ist also höher und deshalb leisten die Regionen dabei mehr Arbeit, was zu einer stärkeren Aktivierung führt (siehe Perani & Abutalebi 2005, und auch Stowe & Sabourin 2005). Bei der Verarbeitung von semantischen Beziehungen zwischen Wörtern (vgl. 8c und 8d) hingegen zeigen sich nur zwischen den weniger guten späten Zweisprachigen und den frühen Zweisprachigen unterschiedliche Aktivierungsmuster. Bei den späten aber besseren Zweisprachigen und den frühen Bilingualen waren die Muster gleich. Die Art und Weise wie das Gehirn semantische Beziehungen zwischen Wörtern verarbeitet, wird also mehr davon bestimmt, wie gut die Zweitsprache Deutsch beherrscht wird. Im Gegensatz zur syntaktischen Verarbeitung hängt die semantische Verarbeitung weniger vom Erwerbsalter und damit von Einflüssen der sensiblen Perioden ab (siehe auch WeberFox & Neville 1999) – aber warum? Auf diese Fragen bieten Modelle zum Gedächtnis eine eigene Antwort, wie wir im nächsten Abschnitt sehen werden. 3.4.2 Gedächtnissyteme in Erst- und Zweitsprache Das gesamte Wissen, das wir im Lauf unseres Lebens erwerben, ist im Gedächtnissystem unseres Gehirns gespeichert – aber nicht alles Wissen ist gleichartig gespeichert. Wenn Sie gefragt werden, was Sie letzten Abend gemacht haben, oder ob Brasilien größer ist als Luxemburg, werden Sie ohne Probleme eine Antwort geben können. Das macht deutlich, was eigentlich eine triviale Tatsache zu sein scheint: wir können Wissen über Ereignisse (Dinge, die zu einem bestimmten Zeitpunkt passiert sind) und Fakten (Wissen über die Welt und unsere Umgebung) auf Verlangen abrufen und in ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 31 Worte fassen. Da wir über Ereignisse und Fakten reden können, wird diese Art von Wissen auch deklaratives oder explizites Wissen genannt. Nehmen wir aber an, dass Ihre Antwort auf die erste Frage ist, dass Sie mit dem Fahrrad unterwegs waren. Dann werden Sie gefragt, wie Sie es geschafft haben, Ihr Rad zu fahren und zu lenken – was genau haben Ihre wann Muskeln gemacht, um Sie vorwärts zu bringen und auf Kurs zu halten, wie haben Sie Ihr Rad bei unterschiedlichen Geschwindigkeiten durch verschiedene Kurven gelenkt? Wahrscheinlich würden Sie sich ziemlich über die Frage wundern und zugeben müssen, dass Sie keine Ahnung haben – Sie haben es einfach gemacht, so wie immer. Ein Fahrrad zu fahren ist eine sehr komplexe Fähigkeit, die man – einmal gelernt – absolut automatisch ausführt, ohne darüber bewusst nachzudenken. Tatsächlich können wir auf unser ‘Wissen’ über solch stark automatisierten Fähigkeiten und Gewohnheiten gar nicht zugreifen: Normalerweise wissen wir nicht, welcher Muskel wann welchen Beitrag leistet, wenn wir Fahrrad fahren, genauso wenig wie sich ein professioneller Schlagzeuger über die einzelnen Muskelbewegungen beim Spielen bewusst ist. Im Gegensatz zu deklarativem Wissen über Fakten und Ereignisse, können wir auf dieses Wissen nicht bewusst zugreifen und darüber Auskunft geben. Das Wissen über automatische Handlungsabläufe (Prozeduren), Fähigkeiten und Gewohnheiten ist deshalb als prozedurales oder implizites Wissen bekannt. Neuropsychologische Studien mit Personen, die unter Amnesie (Gedächtnisverlust) leiden, haben gezeigt, dass deklaratives Wissen (‘wissen, dass...’) und prozedurales Wissen (‘wissen, wie...’) im Gehirn in unterschiedlichen Netzwerken gespeichert werden. Ein berühmter Fall ist jener von H.M. (die Initialen des Patienten), dessen Hippocampi in beiden Hemisphären in den 1950ern chirurgisch entfernt wurden, um epileptische Anfälle unter Kontrolle zu bringen. Der Hippocampus ist ein Teil des deklarativen Gedächtnissystems für Fakten und Ereignisse. Er spielt eine wichtige Rolle dabei, neue, bewusste Erfahrungen in bleibende Erinnerungen umzuwandeln. Seit seiner Operation leidet H.M. unter einer anterograden Amnesie: Er erinnert sich immer noch an Ereignisse und Fakten aus der Zeit vor dem Eingriff. Was er aber nicht mehr abspeichern kann, sind Informationen über Ereignisse, die sich nach der Operation ereigneten, und Informationen über neue Fakten oder Personen, die er seit dem kennen gelernt hat. Er kann allerdings immer noch neue Fähigkeiten lernen, wie z.B. das Lesen von spiegelverkehrter Schrift, und wird durch Übung darin besser. Paradoxerweise wird er besser darin, obwohl er sich nicht einmal daran erinnern kann, die Aufgabe vorher überhaupt schon einmal gemacht zu haben, da er keine Erinnerungen an neue Ereignisse abspeichern kann (siehe Corkin 2002 für einen Überblick). Das zeigt, dass das prozedurale Gedächtnis von H.M. intakt ist, während Teile seines deklarativen Gedächtnisses geschädigt sind – die beiden Gedächtnissysteme können also dissoziieren. Der Unterschied zwischen bewusst verfügbarem deklarativem Wissen einerseits und nicht bewusst zugänglichem Wissen über automatische Abläufe andererseits findet sich auch im Sprachsystem wieder. Grammatisches Wissen über Laut-, Wort- und Satzstruktur, das als Kind erworben wird, ist immer unbewusst, implizit. Wir erwerben und benutzen diese Regeln, die den Kern unseres sprachlichen Wissens ausmachen, automatisch, ohne auf sie zu achten, und auch später im Leben können wir auf diese Regeln nicht direkt zugreifen (siehe Kapitel 1). Ullman (2001) folgert daraus, dass dieses Wissen als prozedurales Wissen einer Sprache in einem prozeduralen Gedächtnissystem gespeichert ist. Andererseits gibt es im sprachlichen Bereich auch deklaratives Wissen. Ein typischer Bereich dafür ist beispielsweise im mentalen Lexikon die Verknüpfung von Wortform und Wortbedeutung. Es fällt uns leicht, eine Frage zu beantworten wie etwa „Was bedeutet das Wort Hund?“ oder „Wie sagt man dazu, wenn jemand laute Geräusche beim Kauen mit offenem Mund macht?“ Die Tatsache, dass wir die Form und die Bedeutung eines Wortes spontan erläutern können, entspricht der Tatsache, dass dieses Wissen deklarativ gespeichert ist. Das ist nicht verwunderlich, denn der Wortschatz wird zu einem guten Teil deklarativ erworben, und zwar immer dann, wenn einem Kind gezielt oder beiläufig die Bedeutung von Ausdrücken paraphrasiert werden, oder es korrigiert wird, mit den entsprechenden ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 32 Hinweisen, wie z.B. „Das ist kein Pferd im Streifenpyjama, sondern ein Zebra. Das sind Tiere, die leben in Afrika.“ Ullman (2001) argumentiert dementsprechend für zwei getrennte sprachliche Gedächtnissysteme: Das deklarative System für unser mentales Lexikon einerseits ist vorwiegend im Temporallappen zu finden. Das prozedurale System für grammatische Regeln andererseits hängt vor allem von Teilen des Frontallappens (z.B. vom Broca-Areal) und von subkortikalen Strukturen – den Basalganglien (siehe auch 3.2.6) – ab. Anhand dieser Unterscheidung von Ullman (2001) und der Überlegungen über Mehrsprachigkeit von Paradis (2004) lassen sich viele der neurolinguistischen Muster, denen wir im Lauf des Kapitels begegnet sind, erklären – sowohl bei einsprachigen als auch bei mehrsprachigen SprecherInnen. REFLEXION UND AUSTAUSCH 8: Wie Sie aus Übung 2 bereits wissen, wurden bei Menschen mit Aphasie doppelte Dissoziationen zwischen der Produktion von regelmäßigen Vergangenheitsformen eines Verbs (z.B. ‘such-te’) und unregelmäßigen Formen (z.B. ‘ging’) gefunden. Wie lässt sich dieser Unterschied erklären, wenn man getrennte sprachliche Gedächtnissysteme annimmt – eines für prozedurales Wissen (Regeln) und eines für deklaratives Wissen? Beachten Sie dabei auch, was sie über Morphologie und das mentale Lexikon in Kapitel 1 und 2 gelesen haben. Tauschen Sie sich mit KollegInnen aus. Dissoziationen zwischen regelmäßigen und unregelmäßigen Vergangenheitsformen bei AphasikerInnen lassen sich in diesem Zusammenhang beispielsweise wie folgt erklären: Da die Form ‘suchte’ aus dem Stamm ‘such-’ und die Endung ‘-te’ für die regelmäßigen Vergangenheit problemlos gebildet werden kann, muss wohl ‘suchte’ nicht unbedingt als Gesamtform im mentalen Lexikon gespeichert sein. Sie könnte ‘online’ aus den beiden Morphemen ‘such-’ und ‘-te’ von der Grammatik zusammengesetzt werden. Die Regel dazu wiederum wäre im prozeduralen Gedächtnis gespeichert. Unregelmäßige Vergangenheitsformen wie ‘ging’ oder ‘war’ können nicht in zwei einzelne Morpheme zerlegt werden, die durch eine Regel zusammengesetzt werden. ‘Ging’ ist also im Lexikon gespeichert und kann ohne die Regel, die ‘suchte’ zusammensetzt, produziert werden – das prozedurale Gedächtnis wird also umgangen. Eine Schädigung des sprachlichen prozeduralen Gedächtnisses für grammatische Regeln kann deshalb zu Schwierigkeiten mit der Produktion von regelmäßigen Vergangenheitsformen führen. Andererseits kann eine Beeinträchtigung im deklarativen Gedächtnis des mentalen Lexikons zu größeren Problemen mit unregelmäßigen Formen führen (Ullman et al. 1997). So ein Modell der Sprachverarbeitung könnte auch erklären, wieso die neuronale Verarbeitung von grammatischen Aspekten stärker von sensiblen Perioden beeinflusst wird, als die Verarbeitung von Wortbedeutungen. Ullman argumentiert, dass das prozedurale Gedächtnissystem für Regeln stärker vom Erwerbsalter beeinflusst wird, als das deklarative System für das mentale Lexikon. Ein späteres Lernen einer Zweitsprache beeinflusst die Verarbeitung von syntaktischen Aspekten deshalb stärker als die Verarbeitung von Wörtern und ihrer Bedeutung, was auch in mehreren psycho- und neurolinguistischen Studien bestätigt wurde (Weber-Fox & Neville 1999). Überdies ist der Erwerb von neuen Wörtern ja nicht an eine sensible Periode gebunden – schließlich lernen wir auch in unserer Muttersprache ein ganzes Leben lang ständig neue Wörter und deren Bedeutung (z.B. neue Fachwörter im Studium, in einem neuen Job, einem Hobby oder bei einem neuen Sport). Das bedeutet jedoch nicht, dass das prozedurale Gedächtnis beim späten Erlernen einer Zweitsprache gar nicht mehr zum Einsatz kommen kann. Dafür sind dann allerdings Übung und Praxis notwendig. Wenn wir als Erwachsene eine Sprache zu lernen beginnen, fangen wir typischerweise damit an, explizite, didaktische Regeln auswendig zu lernen (z.B. ‘bei einem Verb der Klasse A bildet man die Vergangenheitsform mit der Endung X; bei einem Verb der Klasse B mit der Endung Y’, etc.) – also Regeln, die wir auf Verlangen abrufen können, über die wir nachdenken können und die wir in Worte ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 33 fassen können. Im Gegensatz zu den Regeln, die wir als Kinder unbewusst erwerben, werden solche didaktischen Regeln im deklarativen Gedächtnis gespeichert, jedoch nicht im prozeduralen Grammatiksystem. Sobald man dann aber durch Übung, Praxis und Eintauchen in die Sprache seine Kompetenz verbessert, muss man immer weniger auf solche bewussten Regeln zurückgreifen und die Verarbeitung wird immer automatischer. Allmählich werden implizite Regeln im prozeduralen Gedächtnis aufgebaut. Dies sind Regeln, die mit den anfangs gelernten didaktischen Regeln nichts gemeinsam haben (siehe Paradis 2004 für Diskussion). So können auch spätere ZweitsprachlernerInnen prinzipiell an einen Punkt gelangen, an dem sie sich zum größten Teil auf implizites grammatisches Wissen verlassen und einem Muttersprachler ähneln. Zusammenfassung In den letzten zwei Abschnitten haben Sie Folgendes gelesen: • Aktuelle Neuroimaging-Studien legen nahe, dass auch beim späteren Erlernen einer Zweitsprache die ‘klassischen’ Sprachareale immer noch an der Verarbeitung beteiligt sein können, aber dass • der Einfluss von sensiblen Perioden für die syntaktische Verarbeitung stärker sind als für die Verarbeitung von semantischen Aspekten. • Deklaratives (explizites) und prozedurales (implizites) Wissen sind verschiedene Wissenssysteme, die durch separate neuronale Netzwerke repräsentiert sind. • Diese Unterscheidung kann auch Vorgänge beim Erlernen einer Zweitsprache neurolinguistisch erklären: Explizite, didaktische Regeln werden im deklarativen Gedächtnis gespeichert. Übung, Praxis und ein Eintauschen in die Zweitsprache können allerdings auch hier das Enstehen von impliziten Regeln im prozeduralen Gedächtnis noch möglich machen. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 34 3.5 Rückblick und Ausblick Auch wenn die Neurolinguistik eine noch relativ junge Forschungsrichtung ist hat sie sich in den letzten Jahrzehnten sehr stark entwickelt. Wir konnten hier nur auf einige wenigen Schwerpunkte eingehen. Viele Themen mussten wir ganz auslassen, wie z.B. Störungen des Lesens (Dyslexie) und des Schreibens (Dysgraphie) (siehe Ellis 1993 für einen Überblick). Ein anderes wichtiges Gebiet der Neurolinguistik, dass wir nur kurz erwähnt haben ist die Entwicklung von geeigneten Diagnostiktests und Therapien für Sprachstörungen (siehe Whitworth et al. 2005 und Stadie & Schröder 2008). Dennoch hoffen wir, Ihnen einige der grundlegenden neurolinguistischen Ziele, Methoden und Ergebnisse näher gebracht zu haben. Unter anderem ist es notwendig, die Erkenntnisse der theoretischen Linguistik und Psycholinguistik zu nutzen, um herauszufinden, wie unser Gehirn die Steuerung und Koordination aller Teilbereiche des Sprachsystems meistert. Des Weiteren haben wir versucht, das Zusammenspiel von Mechanismen in der Entwicklung des Gehirns und der Organisation von Sprache und ihre mögliche Rollen beim Spracherwerb von Kindern und Erwachsenen kurz zu erläutern. Bei allen besprochenen Themen konnten wir nur auf eine oder wenige Sichtweisen eingehen – da ForscherInnen teilweise sehr verschiedene Ansichten über die genaue Funktionsweise des Gehirns und auch der Sprache haben, gibt es prinzipiell auch immer verschiedene Interpretationen von Ergebnissen aus der Neurolinguistik. So wie sich die Linguistik und auch die Neurowissenschaften rasant weiter entwickeln, verändert sich also auch der Blick auf die Beziehung von Sprache und Gehirn. Wo genau die Entwicklung letztendlich hinführen wird, hängt von beiden Seiten ab – spannend bleibt es allemal. WEBLINKS: Informationen über Aphasie und Aphasietherapie finden Sie auf www.aphasiker.de und den dort aufgelisteten Links. Auf www.aphasia-international.com finden Sie grundlegende Informationen über Aphasie in vielen verschiedenen Sprachen. www.sfn.org stellt unter www.sfn.org/skins/main/pdf/brainfacts/brainfacts.pdf eine englischsprachige Broschüre über das Nervensystem und Gehirnfunktionen zur Verfügung. www.brainconnection.com bietet Informationen über das Gehirn und seine Entwicklung und den Erwerb verschiedener Funktionen (engl.). Infos über das Gehirn und verwandte Themen für Kinder finden Sie unter http://faculty.washington.edu/chudler/neurok.html (engl.). Alle Seiten bieten weitere Links zu anderen interessanten Quellen. Bibliographie Bates, E. 1999. Plasticity, localization and language development. In S. Broman & J. M. Fletcher (eds.), The changing nervous system: Neurobehavioral consequences of early brain disorders. New York: Oxford University Press, pp. 214-253. Bates, E., & Roe, K. 2001. Language development in children with unilateral brain injury. In C. A. Nelson & M. Luciana (eds.), Handbook of Developmental Cognitive Neuroscience. Cambridge, MA: MIT Press, pp. 281-307. Beeman, M. J. 2005. Bilateral brain processes for comprehending natural language. Trends in cognitive sciences, 9, 512-518. Berndt, R. S., & Caramazza, A. 1980. A redefinition of the syndrome of Broca’s aphasia: Implications for a neurological model of language. Applied Psycholinguistics, 1, 225-78. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 35 Bookheimer, S. 2002. Functional MRI of language: New approaches to understanding the cortical organization of semantic processing. Annual Reviews in Neuroscience, 25, 151-88. Borgstein, J., & Grootendorst, C. 2002. Clinical picture – half a brain. The Lancet, 359, 473. Bourgeois, J.-P., Goldman-Rakic, P. S., & Rakic, P. 2000. Formation, elimination, and stabilization of synapses in the primate cerebral cortex. In M. S. Gazzaniga (ed.). The New Cognitive Neurosciences (2nd ed.). Cambridge, MA: MIT Press. Bruer, J. T. 1999. The myth of the first three years: A new understanding of early brain development and lifelong learning. New York: The Free Press. Burchert, F., De Bleser, R., & Sonntag, K. 2003. Does morphology make the difference? Agrammatic sentence comprehension in German. Brain and Language, 87, 323-342. Caplan, D., Alpert, N., & Water, G. 1998. Effects of syntactic structure and propositional number on patterns of regional cerebral blood flow. Journal of Cognitive Neuroscience, 10, 541-552. Caramazza, A. 1984. The logic of neuropsychological research and the problem of patient classification in aphasia. Brain and Language, 21, 9-20. Caramazza, A., & Hillis, A. E. (1991). Lexical organization of nouns and verbs in the brain. Nature, 349, 788-790. Caramazza, A., & Zurif, E. 1976. Dissociation of algorithmic and heuristic processes in sentence comprehension: Evidence from aphasia. Brain and Language, 3, 572-582. Casey, B. J., Giedd, J. N., & Thomas, K. M. 2000. Structural and functional brain development and its relation to cognitive development. Biological Psychology, 54, 241-257. Casey, B. J., Tottenham, N., Liston, C., & Durston, S. 2005. Imaging the developing brain: what have we learned about cognitive development? Trends in Cognitive Sciences, 9, 104-110. Coltheart, M. 2001. Assumptions and Methods in Cognitive Neuropsychology. In B. Rapp (ed.), The Handbook of Cognitive Neuropsychology: What Deficits Reveal About the Human Mind. Philadelphia: Psychology Press, pp. 185-210. Corkin, S. 2002. What’s new with the amnesic patient H.M.? Nature Reviews Neuroscience, 3, 153160. Curtiss, S. 1977. Genie: A Psycholinguistic Study of a Modern-day 'Wild Child'. New York: Academic Press. Curtiss, S., & de Bode, S. 1999. Age and etiology as predictors of language outcome following hemispherectomy. Developmental Neuroscience, 21, 174-181. Curtiss, S., de Bode, S. & Mathern, G.W. 2001. Spoken language outcomes after hemispherectomy: Factoring in etiology. Brain and Language, 79, 379-396. Damasio, A. R., & Tranel, D. 1993. Nouns and verbs are retrieved with differently distributed neural systems. Proceedings of the National Academy of Sciences ot the United States of America, 90, 4957-4960. Deacon, T. 1990. Brain-language co-evolution. In J.A. Hawkins & M. Gell-Mann (eds.), The evolution of human languages: Proceedings of the Workshop on the Evolution of Human Languages, SFI studies in the sciences of complexity, Vol. 11. Redwood City: Addison-Wesley. De Bleser, R. 2001. History of research on adult language and ist disorders. In R. S. Berndt (ed.), Handbook of Neuropsychology: Language and Aphasia, Vol. 3. Amsterdam: Elsevier, pp 3-18. De Bleser, R., Cholewa, J., Stadie, N., & Tabatabaie, S. 2004. LEMO – Lexikon modellorientiert: Einzelfalldiagnostik bei Aphasie, Dyslexie und Dysgraphie. München: Elsevier. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 36 de Haan, M., & Johnson, M. H. 2003. Neuropsychological development. In Encyclopedia of Cognitive Science. London: Macmillan, pp. 347-353. Dehaene-Lambertz, G., Hertz-Pannier, L., & Dubois, J. 2006. Nature and nurture in language acquisition: anatomical and functional brain-imaging studies in infants. Trends in Neurosciences, 29, 367-373. Démonet, J.-F., Guillaume, T., & Cardebat, D. 2005. Renewal of the neurophysiology of language : Functional Neuroimaging. Physiological Reviews, 85, 49-95. Dick, F., Bates, E., Wulfeck., B., Utman, J., Dronkers., N., & Gernsbacher, M. A. 2001. Language deficits, localization, and grammar: Evidence for a distributive model of language breakdown in aphasic patients and neurologically intact individuals. Psychological Review, 108, 759-788. Dogil, G., Haider, H., Schaner-Wolles, C., & Husmann, R. 1995. Radical autonomy of syntax: Evidence from transcortical sensory aphasia. Aphasiology, 9, 577-602. Elbert, T., & Rockstroh, B. 2004. Reorganization of human cerebral cortex: The range of changes following use and injury. The Neuroscientist, 10, 129-141. Eliot, L. 2002. Was geht da drinnen vor? Die Gehirnentwicklung in den ersten fünf Lebensjahren. Berlin: Berlin Verlag. Ellis, A. W. 1993. Reading, writing and dyslexia: A cognitive analysis. Hove: Lawrence Erlbaum. Fodor, J. A. 1983. The Modularity of Mind. Cambridge, MA: MIT Press. Friederici, A. D. 2002. Towards a neural basis of auditory sentence processing. Trends in Cognitive Sciences, 6, 78-84. Friederici, A. D. 2006. The neural basis of sentence processing: Inferior frontal and temporal contributions. In Y. Grodzinsky & K. Amunts, Broca’s Region. Oxford: Oxford University Press. Friederici, A. D., & Alter, K. 2004. Lateralization of auditory language functions: A dynamical dual pathway model. Brain and Language, 89, 267-276. Friederici, A. D., von Cramon, Y., & Kotz, S. A. 2007. Role of the corpus callosum in speech comprehension: Interfacing syntax and prosody. Neuron, 53, 135-145. Geinisman, Y. 2000. Structural synaptic modifications associated with hippocampal LTP and behavioral learning. Cerebral Cortex, 10, 952-962. Goodglass, H. 1993. Understanding Aphasia. San Diego: Academic Press. Greenough, W. T., & Black, J. E. 1992. Induction of brain structure by experience: Substrates for cognitive development. In M. R. Gunnar & C. A. Nelson (eds.), The Minnesota Symposia on Child Psychology, Vol. 24. Hillsdale: Lawrence Erlbaum Associates, pp. 155-200. Grimshaw, G. M., Adelstein, A., Bryden, M. P., & MacKinnon, G. E. 1998. First-language acquisition in adolescence: Evidence for a critical period for verbal language development. Brain and Language, 63, 237-255. Grodzinsky, Y. 2000a. The neurology of syntax: Language use without Broca's area. Behavioral and Brain Sciences, 23, 1-71. Grodzinsky, Y. 2000b. Overarching agrammatism. In Y. Grodzinsky, L. Shapiro & D. Swinney (eds.). Language and the brain: Representation and processing. San Diego: Academic Press, pp. 73-86. Hagoort, P. 2005. On Broca, brain and binding: A new framework. Trends in Cognitive Science, 9, 416-423. Heilman, K., & Scholes, R. 1976. The nature of comprehension of Broca’s, conduction and Wernicke’s aphasics. Cortex, 12, 258-265. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 37 Hensch, T. K. 2004. Critical period regulation. Annual Review of Neuroscience, 27, 549-79. Hillis, A. E. 2001. The organization of the lexical system. In B. Rapp (ed.), The Handbook of Cognitive Neuropsychology: What Deficits Reveal About the Human Mind. Philadelphia: Psychology Press, pp. 185-210. Hillis, A. E. 2007. Aphasia. Progress in the last quarter of a century. Neurology, 69, 200-213. Huber, W., Stachowia., F.-J., Poeck, K., & Kerschensteiner, M. 1975. Die Wernicke Aphasie: Klinisches Bild und Überlegungen zur neurolinguistischen Struktur. Journal of Neurology, 210, 77-97. Huber, W., Poeck, K., Weniger, D. 1989. Aphasie. In K. Poeck (ed.), Klinische Neuropsychologie. Stuttgart: Thieme, pp. 89-137. Hugdahl, K. 2000. Lateralization of cognitive processes in the brain. Acta Psychologica, 205, 211-235. Hull, R., & Vaid, J. 2007. Bilingual language lateralization: A meta-analytic tale of two hemispheres. Neuropsychologia, 45, 1987-2008. Huttenlocher, P. R. 1994. Synaptogenesis, synapse elimination, and neural plasticity in human cerebral cortex. In C. A. Nelson (ed.), Threats to Optimal Development: The Minnesota Symposia in Child Psychology, Vol. 27. Hillsdale: Erlbaum, pp. 35-54. Indefrey, P., & Levelt, W. J. M. 2004. The spatial and temporal signatures of word production components. Cognition, 92, 101-144. Jaeger, J. J., Lockwood, A. H., Kemmerer, D. L., van Valin, R. D., Murphy, B. W., & Khalak, H. G. 1996. A positron emission tomographic study of regular and irregular verb morphology in English. Language, 72, 451-497. Joanette, Y., Goulet, P., Hannequin, D., & Boeglin, J. 1990. Right Hemisphere and Verbal Communication. New York: Springer. Johnson, M. H. 2001. Functional brain development in humans. Nature Reviews Neuroscience, 2, 475483. Kandel, E. R. 2000. Nerve cells and behavior. In E. R. Kandel et al. (eds.), pp. 19-35. Kandel, E. R., Schwartz, J. H., & Jessell, T. M. 2000. Principles of Neural Science (4th ed.). New York: McGraw-Hill. Karbe, H., Thiel, A., Luxenburger, G. W., Herholz, K., Kessler, J., Heiss, W. D. 1998. Brain plasticity in poststroke aphasia: What is the contribution of the right hemisphere? Brain and Language, 64, 215-230. Kotz, S. A., Frisch, S., von Cramon, D. Y., & Friederici, A. D. 2003. Syntactic language processing: ERP lesion data on the role of the basal ganglia. Journal of the International Neuropsychological Society, 9, 1053-1060. Lenneberg, E. H. 1967. The Biological Foundations of Language. New York: Wiley. Levelt, W. J. M., Praamstra, P., Meyer, A. S., Helenius, P., & Salmelin, R. 1998. An MEG study of picture naming. Journal of Cognitive Neuroscience, 105, 553-567. Lewis, M. D. 2005. Self-organizing individual differences in brain development. Developmental Review, 25, 252-277. Maess, B., Koelsch, S., Gunter, T. C., & Friederici, A. D. 2001. Musical syntax is processed in Broca’s area: An MEG study. Nature Neuroscience, 4, 540-545. Martin, A., Wiggs, C. L., Ungerleider, L. G., & Haxby, J. V. 1996. Neural correlates of categoryspecific knowledge. Nature, 379, 649-652. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 38 Miceli, G. 2001. Disorders of single word processing. Journal of Neurology, 248, 658-664. Müller, R.A., Rothermal, R. D., Behen, M. E., Muzik, O., Chakraborty, P. K., & Chugani, H. T. 1999. Language organization in patients with early and late left-hemisphere lesion: A PET study. Neuropsychologia, 37, 545-557. Organisation for Economic Co-operation and Development 2007. Understanding the brain: The birth of a learning science. Paris: OECD Publishing. Obler, L. K., & Gjerlow, K. 1999. Language and the Brain. Cambridge, MA: Cambridge University Press. Pakkenberg, B., Pelvig, D., Marner, L., Bundgaard, M. J., Gundersen, H. J. G., Nyengaard, J. R. & Regeur, L. 2003. Aging and the human neocortex. Experimental Gerontology, 38, 95-99. Paradis, M. 2004. A neurolinguistic theory of bilingualism. Amsterdam: John Benjamins. Plaut, D. C. 1995. Double dissociation without modularity: Evidence from connectionist neuropsychology. Journal of Clinical and Experimental Neuropsychology, 17, 291-321. Perani, D., & Abutalebi, J. 2005. The neural basis of first and second language processing. Current Opinion in Neurobiology, 15, 202-206. Perani, D., Cappa, S. F., Schnur, T., Tettamanti, M., Collina, S., Rosa, M. M., & Fazio, F. 1999. The neural correlates of verb and noun processing: A PET study. Brain, 122, 2337-2344. Poeppel, D., & Embick, D. 2005. Defining the relation between linguistics and neuroscience. In A. Cutler (ed.), Twenty-First Century Psycholinguistics: Four Cornerstones. Mahwah, MA: Lawrence Erlbaum, pp. 103-118. Rakic, P. 1999. The importance of being well placed and having the right connections. Annals of the New York Academy of Sciences, 882, 90-106. Rakic, P. 2000. Setting the stage for cognition: Genesis of the primate cerebral cortex. In M. S. Gazzaniga (ed.), The New Cognitive Neurosciences (2nd ed.). Cambridge, MA: MIT Press. Raymer, A. M., Foundas, A. L., Maher, L. M., Greenwald, M. L., Morris, M., Rothi, L. J. G., & Heilman, K. M. 1997. Cognitive neuropsychological analysis and neuroanatomic correlates in a case of acute anomia. Brain and Language, 58, 137-156. Schaner-Wolles, C. 2007. Sprachentwicklungsförderung – Möglichkeiten und Grenzen aus sprachwissenschaftlicher Sicht. In A. A. Bucher, A. M. Kalcher & K. Lauer (eds.), Sprache leben. Kommunizieren & Verstehen. Tagungsband der 56. Internationalen Pädagogischen Werktagung. Wien: G&G Verlag, pp. 111-128. Sengelaub, D. R. 2003. Neural Development. In Encyclopedia of Cognitive Science. London: Macmillan, Volume 3, pp. 253-261. Shallice, T. 1988. From Neuropsychology to Mental Structure. Cambridge: Cambridge University Press. Shapiro, K. A., & Caramazza, A. 2003. The representation of grammatical categories in the brain. Trends in Cognitive Sciences, 7, 201-206. Shapiro, K. A., Mottaghy, F. M., Schiller, N. O., Poeppel, T. D., Flüss, M. O., Müller, H.-W., Caramazza, A., & Krause, B. J. 2005. Dissociating neural correlates for nouns and verbs. NeuroImage, 24, 1058-1067. Shapiro, L. P., Zurif, E., Carey, S., & Grossman, M. 1989. Comprehension of lexical subcategory distinctions by aphasic patients. Journal of Speech and Hearing Research, 32, 481-488. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 39 Shapleske, J., Rossell, S. L., Woodruff, P. W. R., & David, A. S. 1999. The planum temporale: A systematic, quantitative review of its structural, functional and clinical significance. Brain Research Reviews, 29, 26-49. Stadie, N., & Schröder, A. 2008. Kognitiv orientierte Sprachtherapie. Methoden, Material und Evaluation für Aphasie, Dyslexie und Dysgraphie. München: Elsevier Urban & Fischer. Staudt, M., Lidzba, K., Grodd, W., Wildgruber, D., Erb, M., & Krägeloh-Mann, I. 2002. Righthemispheric organization of language following early left-sided brain lesions: Funcional MRI Topography. NeuroImage, 16, 954-967. Stowe, L., & Sabourin, L. 2005. Imaging the processing of a second language: Effects of maturation and proficiency on the neural processes involved. International Review of Applied Linguistics in Language Teaching, 43, 329-353. Stromswold, K., Caplan, D., Alpert, N., & Rauch, S. 1996. Localization of syntactic comprehension by positron emission tomography. Brain and Language, 52, 452-473. Thompson, C. K. 2000. Neuroplasticity: Evidence from aphasia. Journal of Communication Disorders, 33, 357-366. Ullman, M. T. 2001. The neural basis of lexicon and grammar in first and second language: The declarative/procedural model. Bilingualism: Language and Cognition, 4, 105-122. Ullman, M. T., Corkin, S., Coppola, M., Hickock, G., Growdon, J. H., Koroshetz, W. J., & Pinker, S. 1997. A neural dissociation within language: Evidence that the mental dictionary is part of declarative memory, and that grammatical rules are processed by the procedural system. Journal of Cognitive Neuroscience, 9, 266-276. Vicari, S, Albertoni, A., Chilosi, A. M., Cipriani, P., Cioni, G., & Bates, E. 2000. Plasticity and reorganization during language development in children with early brain injury. Cortex, 36, 31-46. Vitali, P., Abutalebi, J., Tettamanti, M., Danna, M., Ansaldo, A. I., Perani, D., Joanette, Y., & Cappa, S. F. 2007. Training-induced brain remapping in chronic aphasia: A pilot study. Neurorehabilitation and Neural Repair, 21, 152-160. Warrington, E. K., & Shallice, T. 1984. Category specific semantic impairments. Brain, 107, 829-853. Wartenburger, I., Heekeren, H. R., Abutalebi, J., Cappa, S. F., Villringer, A., & Perani, D. (2003). Early setting of grammatical processing in the bilingual brain. Neuron, 37, 159-170. Werker, J. F., & Tees, R. C. 2005. Speech perception as a window for understanding plasticity and commitment in language systems of the brain. Developmental Psychobiology, 46, 233-251. Whitworth, A., Webster, J., & Howard, D. 2005. A cognitive neuropsychological approach to assessment and intervention in aphasia: A clinician’s guide. Hove: Psychology Press. Willmes, K., & Poeck, K. 1993. To what extent can aphasic syndromes be localized? Brain, 116, 1527-1540. Wise, R., Scott, S., Blamk, S., Mummery, C., Murphy, K., & Warburton, E. 2001. Separate neural subsystems within ‘Wernicke’s area’. Brain, 124, 83-95. Weber-Fox, C. M., & Neville, H. J. 1999. Functional neural subsystems are differentially affected by delays in second language immersion: ERP and behavioral evidence in bilinguals. In D. Birdsong (ed.), Second Language Acquisition and the Critical Period Hypothesis. Mahwah, MA: Lawrence Erlbaum, pp. 23-38. ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008 40 Bildunterschriften (Bilder s. extra Datei): Abbildung 1: Die gesamte linke Großhirnhälfte wurde entfernt (aus Borgstein, J. & Grootendorst, C. 2002. „Clinical picture – half a brain”. The Lancet, 359, 473). Abbildung 2: Die kortikale Oberfläche der linken Großhirnhälfte in der Seitenansicht. Sie sehen die vier Lappen (engl. lobes - Frontallappen, Temporallappen, Parietallappen und Okzipitallappen), die Rolandische und Sylvische Furche (engl. fissure) (übernommen und adaptiert aus Kandel, E. R. et al. (eds.), 2000. p.8). Abbildung 3: Die kortikale Oberfläche der linken Hemisphäre in der Seitenansicht. Das Bild zeigt einige der Brodmann-Areale mit einem groben Überblick ihrer Hauptfunktionen (Quelle: http://spot.colorado.edu/~dubin/talks/brodmann/outline.gif). Abbildung 4: Eine schematische Darstellung eines Modells des mentalen Lexikons mit getrennten Speichern für Wortform (Kästchen a) und Wortbedeutung (Kästchen b). Das Modell hat auch zwei getrennte Verbindungen (Routen) – eine von der Wortform zur Wortbedeutung für das Wortverständnis (Pfeil x) und umgekehrt von der Wortbedeutung zur Wortform für die Wortproduktion (Pfeil y). Abbildung 5: Eine schematische Darstellung aktueller Modelle des mentalen Lexikons. Das Modell beinhaltet einen zentralen Speicher für Wortbedeutungen und getrennte Wortformspeicher für gesprochene und geschriebene Wortformen. Diese sind wiederum nach Input und Output getrennt und werden von spezifischen Arbeitsgedächtnissen unterstützt. Die Pfeile stehen für verschiedene Verbindungen (Routen) zwischen den Bereichen. Abbildung 6: Beide Bilder zeigen die linke Hälfte des Großhirns. Auf dem linken Bild können Sie die stärkere Aktivierung im frontalen Bereich des Gehirns bei Verben sehen; das rechte Bild zeigt die Aktivierung bei Nomina, die in hinteren Bereichen des Gehirns am stärksten ist (im Temporallappen; die weißen Pfeile zeigen die jeweils wichtigsten Gebiete an). (Aus: Shapiro, K.A. et al. 2005, pp. 1063-64). Abbildung 7: Eine ‘typische’ Nervenzelle (Neuron) und ihre Hauptbestandteile. Unten auf dem Bild sehen Sie drei weitere Nervenzellen (die postsynaptischen Neurone) zu denen das Neuron über ihre Synapsen Information weiterleiten kann. Der Zellkörper (engl. cell body) enthält den Zellkern (engl. nucleus) (übernommen und adaptiert aus Kandel, E.R. et al. (eds.), p. 22). Abbildung 8: Die Reifung von verschiedenen Regionen des Gehirns im Laufe der Entwicklung – beginnend bei der Befruchtung (engl. conception) bis zum Alter von 20 Jahren. Die Zeit vor und das erste Jahr nach der Geburt ist in der Grafik in Monaten angegeben (von minus 8 bis 12 Monaten), dann werden Jahresintervalle angegeben (2-20 Jahre). Die Grafik zeigt einen glockenförmige Entwicklungsverlauf in der Anzahl von Synapsen in verschiedenen Bereichen des Großhirns: Nach einem starken Zuwachs (engl. synaptogenesis) folgt ein Abbau (engl. synaptic pruning). Der rote Balken zeigt die fortschreitende Myelinisierung von Axonen an. (Aus: Casey, B. J. et al. 2005, p. 105). ENEMU-Projekt (COMENIUS 226496) Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008 Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen bei Schaner-Wolles & Rausch 2008