"ENHANCING EARLY MULTILINGUALISM (ENEMU) - (In

Werbung
"ENHANCING EARLY MULTILINGUALISM (ENEMU) (In-service) Teacher Training on ‘Language Acquisition’ "
COMENIUS-Project No. 226496 (2005-2008)
CH. 3 - NEUROLINGUISTIK
Chris Schaner-Wolles (University of Vienna, AT) &
Philip Rausch (University of Potsdam, DE)
3.1 Von der Psycho- zur Neurolinguistik
Durch Sprache können wir anderen mitteilen, wie das Wetter gerade ist, was uns vor langer Zeit
bewegt hat, oder was unsere Pläne für die Zukunft sind. Egal ob belanglos oder weltbewegend, durch
Sprache können wir alles auf den Punkt bringen und das in unendlich vielen verschiedenen Formen.
Diese einzigartige menschliche Fähigkeit – Sprache – ist in einem einzigartigen Organ, dem Gehirn
des Menschen, verankert. Unser Gehirn speichert viele zehntausend verschiedene Wörter und ihre
Bedeutungen, findet bei der Sprachverarbeitung in Sekundenbruchteilen ‚die richtigen Worte’,
berechnet mit Hilfe der Grammatik ihre Lautstruktur, innere Form und ihre syntaktischen
Beziehungen zu anderen Wörtern eines Satzes, liefert eine zusammenhängende Bedeutung des
Gesagten oder Gehörten – und liest dabei sogar zwischen den Zeilen und lässt uns wissen, was es
bedeutet, wenn etwas nicht gesagt wird. All das leistet das Gehirn unglaublich schnell, mühelos und
effizient. Das zentrale Ziel der Neurolinguistik ist es, der Beziehung von Sprache und Gehirn auf
die Spur zu kommen: wie repräsentiert und verarbeitet das Gehirn Sprache in ihrer vollen
Komplexität?
Psycholinguistische Modelle der Sprachverarbeitung legen fest, auf welche sprachlichen Einheiten wir
bei der Sprachproduktion und beim Sprachverstehen zugreifen, welche Prozesse daran beteiligt sind
und wie die einzelnen Teile des ‚Sprachpuzzles’ zusammengesetzt werden. Diese Modelle bilden die
Basis für neurolinguistische Forschung über die genaue Beziehung von Sprache und Gehirn.
Gleichzeitig können Ergebnisse aus der Neurolinguistik aber auch zusätzliche Beweise für oder gegen
bestimmte Modelle der Sprachverarbeitung liefern. Wichtige Fragen sind beispielsweise welche
Arten von sprachlicher Information auf welche Art und Weise verarbeitet werden, welche
Hirnregionen daran beteiligt sind, und wie die verschiedenen Areale während der Verarbeitung
zusammenarbeiten. Ergebnisse aus dieser Forschung ermöglichen es auch zu fragen, wie die
Entwicklung des Gehirns beim Kind mit dem Erwerb der verschiedenen Aspekte der Sprache
interagiert und wie das Gehirn mehrsprachiger SprecherInnen die unterschiedlichen Sprachen
verarbeitet. Ein weiteres wichtiges Arbeitsgebiet der Neurolinguistik, auf das wir in diesem Kapitel
allerdings nicht näher eingehen können, betrifft die Entwicklung von Tests zur Diagnostik von
Sprachstörungen und von geeigneten Therapieprogrammen, für die die theoretische Forschung der
Neurolinguistik die Grundlage bildet.
Um Genaueres über das Zusammenspiel von Sprache und Gehirn zu lernen, führen
NeurolinguistInnen – genauso wie PsycholinguistInnen – Experimente durch. Die Methoden, die
NeurolinguistInnen dafür zur Verfügung stehen, umfassen linguistische Untersuchungen von
Menschen mit neurologisch bedingten Sprachstörungen und den Einsatz modernster Technologie
(die funktionelle Bildgebung, so genannte ‘Neuroimaging’-Verfahren). Diese neuen Technologien
geben NeurolinguistInnen die zusätzliche Möglichkeit zur ‘Beobachtung’ des Gehirns gesunder
Menschen ‚in Aktion’.
Um ein Bild davon zu bekommen, wie Sprache in ihrem vollen Umfang vom Gehirn verarbeitet wird,
muss man das Sprachsystem in seine einzelnen Ebenen und Bausteine zerlegen. Dabei orientieren sich
NeurolinguistInnen an linguistischer Theorie und psycholinguistischen Modellen normaler
2
Sprachverarbeitung (siehe Kapitel 1 und Kapitel 2). Tut man dies, gibt es eine Menge über die
Beziehung von Sprache und Gehirn zu lernen.
3.2 Von den Bausteinen des Gehirns zu den Bausteinen der Sprache
3.2.1 Wesentliches über den Aufbau des menschlichen Gehirns
REFLEXIONSAUFGABE UND AUSTAUSCH 1:
Bevor wir auf die Struktur des menschlichen Gehirns näher eingehen, werfen Sie zuerst einen kurzen
Blick auf Abbildung 1, ein Bild vom Gehirn eines siebenjährigen Mädchens. Wie leicht zu erkennen
ist, fehlt dem Kind eine komplette Gehirnhälfte. Die linke Gehirnhälfte wurde im Alter von 3 Jahren
chirurgisch entfernt, um die schweren epileptischen Anfälle des Mädchens zu stoppen. Die Entfernung
von Teilen des Gehirns ist eine drastische Maßnahme, die helfen kann, wenn nichts anderes mehr hilft.
Bevor Sie weiter lesen, versuchen Sie das Ausmaß eines solchen Eingriffs auf die Sprachfähigkeit des
Mädchens einzuschätzen. Wird das Mädchen Sprache zur Kommunikation benutzen können?
Beachten Sie dabei, dass Sprache zum größten Teil in der linken Hirnhälfte verarbeitet wird. Gehen
Sie bei Ihrer Einschätzung von Ihren persönlichen Erfahrungen aus, z.B. bezüglich Ihnen bekannter
Menschen, die einen Schlaganfall hatten. Tauschen Sie Ihre Meinung mit ein oder zwei KollegInnen
aus. Wir werden gegen Ende dieses Kapitels noch einmal zu diesem Bild zurückkehren.
Abbildung 1 ca. hier einsetzen
Was im oben angeführten Fall entfernt wurde, ist ein Teil des Großhirns (Cerebrums), der Teil des
Gehirns, der − unter anderem − höhere Funktionen wie Denken, Erinnern und Kommunikation
ermöglicht. Das Großhirn besteht aus zwei Hälften, Hemisphären genannt, eine rechte und eine linke –
in unserem Beispiel ist die gesamte linke Großhirnhälfte entfernt worden. Das Großhirn steht über den
Hirnstamm und das Rückenmark mit peripheren Nerven (wie in unseren Armen und Beinen) in
Verbindung. Die Außenschicht des Großhirns ist der Kortex oder die Großhirnrinde, eine dünne
Schicht Nervengewebe (ca. 2-4 mm). Der Kortex besteht aus 6 Schichten, in denen die Körper von
Neuronen (Nervenzellen) und deren Axonen und Dendriten (Fortsätze, die Kontakte zwischen
Neuronen herstellen – wir kommen darauf in Abschnitt 3.3.1 zurück) untergebracht sind – eine Art
von Gewebe, das auch als ‘graue Substanz’ bekannt ist. Die unter dem Kortex liegenden subkortikalen
Gebiete bestehen zu einem guten Teil aus ‘weißer Substanz’ - aus langen Axonen von Nervenzellen,
die mehr oder weniger weit entfernte Regionen des Gehirns miteinander verbinden, sowohl Gebiete
innerhalb einer Hemisphäre, als auch zwischen der linken und rechten Hirnhälfte. Die zwei
Hemisphären unseres Gehirns sind zum Beispiel mittels eines Bündels von Nervenfasern, dem Corpus
Callosum (Balken), verbunden, wodurch es zu einem Informationsaustausch zwischen den beiden
Hirnhälften kommen kann.
Abbildung 2 und 3 ca. hier einsetzen
Die charakteristischen ‘Hügel’ des Gehirns werden Gyri (Einzahl: Gyrus) oder Windungen genannt,
der Begriff für die ‘Täler’ ist Furchen oder Sulci (Einzahl: Sulcus). Eine der Hauptfurchen unseres
Gehirns, die Rolandische Furche (auch Zentralfurche genannt) teilt den Kortex entlang einer
vertikalen Linie in einen vorderen – oder frontalen – Teil und einen hinteren (posterioren) Teil.
Andererseits trennt die Sylvische Furche den Kortex entlang einer horizontalen Linie. Zusammen
teilen diese zwei Hauptfurchen den Kortex in vier Teile, die Lappen genannt werden (siehe Abbildung
2). Der von der Stirn zur Rolandischen Furche reichende Lappen heißt Frontallappen (oder
Stirnlappen). Der Lappen hinter der Rolandischen Furche und oberhalb der Sylvischen Furche im
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
3
oberen Teil unseres Gehirns ist der Parietallappen (oder Scheitellappen). Der Temporallappen
(Schläfenlappen) erstreckt sich unterhalb der Sylvischen Furche, d.h. unterhalb des Frontal- und des
Parietallappens. Der Okzipitallappen (oder Hinterhauptslappen) bildet den hinteren Teil des Kortex.
Die einzelnen Lappen wiederum bestehen aus verschiedenen Hirnarealen, die auch Brodmann-Areale
genannt werden. Der deutsche Neurologe Korbinian Brodmann (1868-1928) unterteilte den Kortex in
verschiedene Bereiche (siehe Abbildung 3), die sich in ihren Zellstrukturen und in ihren Funktionen
voneinander unterscheiden. Beispielsweise übernimmt ein Areal des Kortex die Analyse von visueller
Information, die von den Augen kommt, während andere sensorische Informationen unseres Körpers
verarbeiten, motorische Bewegungen koordinieren oder höheren kognitiven Funktionen dienen, wie
z.B. dem Gedächtnis, Denken, Planen oder – Sprache.
3.2.2 Wenn das Sprachsystem zusammenbricht: die Aphasien
Zu Beginn des Kapitels haben wir erwähnt, dass eine der häufigsten Forschungsmethoden der
Neurolinguistik die Untersuchung von Patienten mit neurologisch bedingten Sprachstörungen ist.
Genauso wie die Humanmedizin viel über unsere Körperfunktionen durch die Beobachtung und die
Untersuchung von Krankheiten erfährt, können NeurolinguistInnen durch das Studieren von durch
Hirnschädigungen verursachte Sprachstörungen viel über die Beziehung von Sprache und Gehirn
lernen. Bevor wir erklären, wie das funktioniert, werden wir klären, was eine Sprachstörung eigentlich
ist.
Im Mittelpunkt der neurolinguistischen Forschung mit sprachbeeinträchtigten Menschen stehen die so
genannten Aphasien. Der Begriff ‘Aphasie’ leitet sich vom griechischen Wort ‘aphatos’ ab, was so
viel wie ‘sprachlos’ heißt. Wörtlich genommen ist ‘Aphasie’ eigentlich eine Fehlbezeichnung Ganz
wörtlich darf man diese Übersetzung jedoch nicht nehmen, weil PatientInnen mit Schädigungen in
Sprachregionen die Sprache nicht immer völlig und in gleicher Art und Weise verlieren, wie Sie
nachfolgend erfahren werden. Der Begriff ‘Aphasie’ wird für erworbene Störungen des zentralen
Sprachsystems infolge von Hirnschädigungen gebraucht. Durch die Hirnschädigung werden
Teilsysteme der Sprache betroffen, die nur gemeinsam eine systematische Organisation von Sprache
garantieren (siehe dazu auch Kapitel 1). Diese Teilsysteme oder Ebenen der Sprache sind z.B. die
Phonologie (die Ebene der Lautstruktur), die Morphologie (Ebene der Wortstruktur), die Syntax
(Ebene der Satzstruktur), das mentale Lexikon und die Semantik (die Ebene der Bedeutung von
Wörtern und von größeren Einheiten). Wir haben Aphasien als ‘erworbene’ Störungen bezeichnet. Das
bedeutet, dass nicht Sprachentwicklungsauffälligkeiten infolge von Entwicklungsstörungen oder verzögerungen gemeint sind, sondern dass es sich dabei um den Verlust bereits erworbener
Sprachfähigkeiten handelt – und zwar als eine Folge von Schädigungen des Gehirns, z.B. durch
Schlaganfälle, Tumore oder Hirnverletzungen nach Unfällen. Aphasische Störungen können sich auf
die Produktion und das Verständnis von Sprache auswirken und bei vielen Menschen mit Aphasie
zeigen sich die sprachlichen Störungen auch beim Schreiben und Lesen. Aphasien entstehen zumeist
nach Schädigungen der linken Hirnhälfte, während eine Verletzung der rechten Hemisphäre in der
Regel zu keiner Aphasie führt. Die zentralen Aspekte des sprachlichen Systems werden bei ca. 97%
aller Menschen von der linken Gehirnhälfte verarbeitet, während in den verbleibenden 3% (oft
Linkshänder) das Sprachsystem entweder in beiden Hirnhälften oder in der rechten Hemisphäre
repräsentiert ist (Obler & Gjerlow 1999). In selteneren Fällen kann eine Aphasie deshalb auch nach
einer rechtsseitigen Hirnschädigung entstehen – dann spricht man von einer gekreuzten Aphasie.
Aphasien sind also Beeinträchtigungen der Sprache und müssen von reinen Sprechstörungen
unterschieden werden. Sprechstörungen beeinträchtigen nicht die zentralen Sprachebenen, sondern
periphere Vorgänge wie beispielsweise die Ausführung von Artikulationsbewegungen (z.B.
Bewegungen der Zunge), die für das Sprechen erforderlich sind. In einer gewissen Weise lässt sich
dieser Unterschied mit dem Unterschied zwischen einem zentralen Softwareproblem bei Ihrem
Computer und einem Problem mit der Hard- oder Software ihres Druckers (also mit einem peripheren
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
4
Gerät) vergleichen, welches die volle Funktionsfähigkeit Ihres Rechners auch nicht beeinträchtigt.
Zentrale Sprachbeeinträchtigungen treten oft gemeinsam mit Sprechstörungen bei ein- und demselben
Patienten auf, sie müssen aber aus theoretischen und auch praktischen Gründen (z.B. Diagnose und
Therapie der verschiedenen Beeinträchtigungen) unterschieden werden. Darüber hinaus sind
aphasische Beeinträchtigungen keine Störungen der allgemeinen Intelligenz: Menschen mit einer
rein aphasischen Störung können denken und planen, sie können aber Probleme haben, ihre Gedanken
sprachlich auszudrücken oder zu verstehen, was andere ihnen mittels Sprache mitteilen wollen.
Aphasien treten in verschiedenen Formen auf, im Folgenden stellen wir kurz die vier Hauptformen
vor: 1) die globale Aphasie, 2) die Broca-Aphasie, 3) die Wernicke-Aphasie und 4) die amnestische
Aphasie (siehe auch Goodglass 1993). Dabei wird eine bestimmte Aphasieform (ein aphasisches
Syndrom) durch das gleichzeitige Auftreten von einzelnen aphasischen Symptomen definiert.
1) Die schwerste Form ist durch einen fast vollständigen Sprachverlust charakterisiert und wird
globale Aphasie oder Totalaphasie genannt. Wie der Name sagt, bricht bei diesem Aphasietyp der
größte Teil des Sprachsystems zusammen. PatientInnen mit globaler Aphasie haben massive Probleme
mit dem Verstehen und der Produktion von Sprache. Die Sprachproduktion ist meistens auf einzelne
Silben (z.B. „tatata“) oder kurze stereotype Floskeln reduziert (das sind automatisierte Äußerungen
wie z.B. „na so was“, „nicht wahr“ oder „guten Tag“). Solche kurzen Äußerungen können mit
verschiedener Intonation produziert werden, um Absichten und Gefühle mitzuteilen (z.B.
Zustimmung, Ablehnung, Überraschung oder Zweifel). Globale Aphasie ist oft die Folge einer
größeren Schädigung der linken Hemisphäre, tritt aber manchmal auch aufgrund kleinerer
Verletzungen auf (Willmes & Poeck 1993).
2) Andere Formen der Aphasie betreffen das Sprachsystem in einem weniger umfassenden Ausmaß.
In den 1860ern fand der französische Neurologe Pierre Paul Broca (1824-1880) heraus, dass gewisse
Sprachfunktionen von einem Areal im unteren Frontallappen der linken Hemisphäre abhängen. Er
stellte fest, dass Patienten mit einer Schädigung dieser Hirnregion große Probleme mit der Produktion
von Sprache hatten, während das Sprachverständnis relativ gut erhalten war. Broca schloss daraus,
dass dieses spezifische Areal eine wichtige Rolle für die Sprachproduktion spielt. Seine Entdeckung
hatte so große Auswirkungen, dass dieses Hirnareal später als Broca-Areal bekannt wurde (siehe
Abbildung 3) und der Aphasietyp als Broca-Aphasie. Typischerweise sprechen Menschen mit BrocaAphasie sehr langsam und angestrengt und äußern sehr kurze und syntaktisch simple Sätze.
Gleichzeitig verstehen sie die Bedeutung von Wörtern und Sätzen gut und können dem Inhalt von
Konversationen gut folgen.
3) Eine andere Form der Aphasie – die Wernicke-Aphasie – ist oft die Folge von Schädigungen eines
Gebiets im oberen Temporallappen der linken Hemisphäre, dem Wernicke-Areal (siehe Abbildung 3).
Carl Wernicke (1848-1905) stellte fest, dass PatientInnen mit einer Schädigung dieses Areals sehr
große Probleme mit dem Verstehen von Sprache hatten, sie konnten aber noch sehr flüssig sprechen
(siehe De Bleser 2001 für einen historischen Überblick der Aphasieforschung). Obwohl die Sätze, die
Wernicke-AphasikerInnen äußern, oft lang und grammatisch komplex sind, können sie inhaltlich sehr
leer sein. Bedeutungszusammenhänge sind oft schwer zu erkennen. Viele der produzierten Wörter sind
semantisch unangemessen (z.B. ‘Tisch’ statt ‘Stuhl’) oder durch phonologische Fehler verzerrt (z.B.
‘Kild’ statt ‘Kind’). In Abschnitt 3.2.5 werden die Wernicke- und Broca-Aphasie noch detaillierter
betrachtet.
4) Die amnestische Aphasie ist vor allem durch mehr oder weniger schwere Wortfindungsstörungen
gekennzeichnet. Die Sprachproduktion von PatientInnen mit einer rein amnestischen Aphasie ist
grammatisch unauffällig, allerdings durch Pausen aufgrund der Wortfindungsprobleme geprägt.
Amnestische PatientInnen gehen einem Wort, auf das sie nicht zugreifen können, oft aus dem Weg,
indem sie es zu umschreiben versuchen. Ein Kugelschreiber kann zum Beispiel als „Ding mit dem man
schreibt“ umschrieben werden. Wortfindungsprobleme treten fast bei jedem Aphasietyp auf und eine
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
5
amnestische Aphasie kann die Folge von Schädigungen unterschiedlicher Teile des Gehirns sein.
Reinere Formen der amnestischen Aphasie können jedoch z.B. nach einer Schädigung von Teilen des
Temporallappens der linken Hemisphäre entstehen (Raymer et al. 1997).
Aus Platzgründen können wir an dieser Stelle nur kurz darauf verweisen, dass auch noch andere
Aphasieformen als Folge von Hirnschädigungen entstehen können, wie die Leitungsaphasie und die
transkortikalen Aphasien (einen kurzen und aktuellen Überblick bietet z.B. Hillis (2007).
Zusammenfassung
In diesem Abschnitt haben Sie gelesen, dass
• Aphasien Störungen des zentralen Sprachsystems sind,
• es verschiedene Aphasietypen gibt (z.B. die globale Aphasie, Broca-Aphasie, WernickeAphasie und amnestische Aphasie), die das sprachliche System auf unterschiedliche Weise
und in unterschiedlichem Ausmaß betreffen.
3.2.3 Ein Schnellkurs über neurolinguistische Methoden: Modularität und Dissoziationen
Bei einer Schädigung des Gehirns sind normalerweise verschiedene Hirnareale und Hirnfunktionen
(sprachliche und nicht-sprachliche) gleichzeitig betroffen. Dass es trotzdem verschiedene Formen von
Aphasie gibt, zeigt aber, dass Sprache ‘stückweise’ zusammenbrechen kann. In der Neurolinguistik –
und der Neuropsychologie im Allgemeinen – werden solche Unterschiede zwischen erhaltenen und
geschädigten Funktionen Dissoziationen genannt. Dissoziationen bilden die Basis für
neurolinguistische Forschung mit aphasischen SprecherInnen, da sie Hinweise darauf liefern, in wie
weit Sprache modular verarbeitet wird (siehe Kapitel 2, S. ... und die dort besprochene
Modularitätshypothese; siehe Fodor (1983) für eine klassische Diskussion von Modularität).
Ein Modul eines psycholinguistischen Sprachverarbeitungsmodells ist eine Komponente, die sich
jeweils nur um eine sehr bestimmte sprachliche Information kümmert, während es die Verarbeitung
von anderen Informationen anderen Teilen des Systems überlässt. Indem NeurolinguistInnen
verschiedene Arten von Dissoziationen bei aphasischen Störungen untersuchen, versuchen sie, Module
von Verarbeitungsmodellen bis zum Gehirn ‘zurückzuverfolgen’. Auf diese Weise können sie
zusätzliche Beweise für oder gegen bestimmte Verarbeitungsmodelle liefern.
Oft haben aphasische Sprecher mit einer bestimmten Aufgabe A (wie z.B. dem Produzieren von
Substantiven) keine allzu großen Probleme, scheitern jedoch an einer anderen Aufgabe B (z.B. dem
Produzieren von Verben) oder tun sich damit viel schwerer. In so einem Fall zeigt sich eine
Dissoziation zwischen den beiden Aufgaben. Eine solche Dissoziation kann ein erster Hinweis darauf
sein, dass die für Aufgabe A und B jeweils notwendigen Prozesse oder Informationen im Gehirn zu
einem gewissen Maß unabhängig voneinander sind und zumindest teilweise von verschiedenen
Hirnarealen getragen werden. Ein solches Muster unterstützt wiederum Verarbeitungsmodelle, in
denen A und B teilweise von verschiedenen Komponenten abhängen. Modelle, bei denen A und B von
den gleichen Komponenten abhängen, können nicht so leicht erklären, warum B zusammenbricht,
während A in Ordnung ist. Indem NeurolinguistInnen also geschädigte Verarbeitungssysteme
untersuchen, können sie viel darüber erfahren, wie das normale Sprachsystem funktioniert.
3.2.4 Von unterschiedlichen Bereichen des Sprachsystems: Bausteine des mentalen Lexikons
Der Eintrag eines Wortes im mentalen Lexikon (s. Kapitel 2) zum Beispiel enthält verschiedene Arten
von Information:
•
die Wortform, d.h. die Abfolge von Lauten, die das Wort bilden,
•
die Bedeutung des Wortes, und
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
6
•
syntaktische sowie morphosyntaktische Information über das Wort (z.B. ist es ein Nomen oder ein
Verb; ist es maskulin, feminin oder neutrum, etc.).
Theoretisch könnte es sein, dass all diese Informationen über ein Wort gemeinsam gespeichert sind
und darauf auch gemeinsam zugegriffen wird. Es könnte aber auch sein, dass sie in getrennten
Speichern abgelegt sind und separat auf die verschiedenen Informationen zugegriffen wird.
Schauen wir uns diese zwei Möglichkeiten für Wortform und Wortbedeutung näher an. Gehen wir von
der Annahme aus, dass Wortform und Wortbedeutung unabhängig voneinander gespeichert sind und
deshalb auf beide Informationen auch getrennt zugegriffen wird. Unter dieser Annahme bestehen die
Produktion und das Verständnis eines Wortes aus mehreren Schritten. Wenn wir ein Bild einer Katze
sehen und benennen sollen, ist einer der ersten Schritte der Zugriff auf die wichtigsten semantischen
Merkmale, die zusammen die Bedeutung einer Katze ausmachen (z.B. ‘Säugetier, vierbeinig, miaut,
hat Fell, fängt Mäuse’ etc.). Bevor wir das Wort aussprechen können, muss aber zumindest noch die
lautliche oder phonologische Wortform [´katsə] auf Basis der semantischen Information aktiviert
werden. Beim Wortverstehen wird dieser Weg im Prinzip umgedreht: Nachdem die lautliche Abfolge
erkannt worden ist, wird die Wortform [´katsə] aktiviert und aufgrund dieser Information die
Wortbedeutung.
Abbildung 4 zeigt eine Skizze von Wortproduktion und Wortverständnis, wenn wir annehmen, dass
Form und Bedeutung eines Wortes getrennt gespeichert sind: Kästchen (a) und (b) stehen für die
getrennten Speicher und Schritte und die Pfeile zeigen die ‘Routen’ von einem Speicher zum anderen.
Ein wichtiges Detail dieses Modells ist, dass es zwei Routen zwischen Wortform und Wortbedeutung
gibt: eine von Form zu Bedeutung für das Verstehen eines Wortes (Pfeil x) und eine von Bedeutung zu
Form für die Produktion eines Wortes (Pfeil y). Das Modell besagt also, dass Information über die
Form (Kästchen a) und über die Bedeutung (Kästchen b) eines Wortes infolge einer Hirnschädigung
unabhängig voneinander beeinträchtigt sein können. Ebenso könnten die Verbindungen zwischen den
Speichern unabhängig voneinander unterbrochen werden, wodurch die Information über Wortform
nicht bis zur Bedeutung gelangt (Pfeil x) oder umgekehrt (Pfeil y). Laut einem Modell mit nur einem
Speicher für Form und Bedeutung sollten beide Informationen immer zusammen verloren gehen.
Abbildung 4 ca. hier einfügen
Neurolinguistische Hinweise dafür, dass Form und Bedeutung eines Wortes voneinander getrennt
gespeichert sind, liefert die amnestische Aphasie, bei der es zu Wortfindungstörungen
unterschiedlichen Ausmaßes kommt. Dies legt nahe, dass hier eine (oder mehrere) Stufen der
Wortproduktion beeinträchtigt sind, wobei aber nicht alle Patienten die gleichen Defizite haben.
Manche amnestischen AphasikerInnen können z.B. das Wort ‘Katze’ nicht produzieren, wenn sie ein
Bild von einer Katze sehen, und haben außerdem auch Schwierigkeiten, das Wort ‘Katze’ zu
verstehen. Wenn sie ‘Katze’ hören und drei Bilder zur Auswahl haben – beispielsweise ein Bild von
einem Hund, eines von einer Katze und eines von einem Pferd – müssen sie raten. Das Defizit betrifft
also sowohl die Wortproduktion als auch das Wortverständnis. Ein Modell mit getrennten Speichern
kann dieses Störungsbild damit erklären, dass das semantische System selbst betroffen ist. So ist die
Information über die Bedeutung eines Wortes sowohl in der Produktion als auch im Verständnis
beeinträchtigt (siehe Abbildung 4). Aber auch ein Modell, in dem Form und Bedeutung zusammen
gespeichert sind, bietet für dieses Störungsbild eine Erklärung. Schließlich gehen in diesem Fall
Wortform und Wortbedeutung gemeinsam verloren, wenn Einträge im Lexikon geschädigt sind.
Allerdings sollten nach diesem Modell Produktion und Verständnis immer gemeinsam betroffen sein.
Ein Modell mit nur einem Speicher kann andere Störungsmuster allerdings nur schwer erklären:
Manche Menschen mit amnestischer Aphasie können zwar z.B. ein Bild einer Katze nicht benennen,
haben aber kein Problem, das Wort ‘Katze’ zu verstehen, wenn sie es hören. Da es bei einer rein
amnestischen Aphasie absolut keine Schwierigkeiten mit der Artikulation – mit dem Sprechen – gibt,
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
7
muss das Problem im Lexikon liegen. Mit einem Modell, das Wortform und Wortbedeutung trennt,
können solche Fälle z.B. wie folgt erklärt werden: Wenn ein Wort nicht produziert werden kann, aber
gut verstanden wird, weist das auf eine Störung in der Verbindung vom semantischen Speicher zum
Wortformenspeicher hin (Pfeil y). Der Prozess, der die passende Wortform aufgrund der jeweiligen
Bedeutung aus den vielen verschiedenen Wortformen auswählt, ist unterbrochen – die Information
kann von der Bedeutungsseite nicht zur Wortform gelangen. Die Route, über die beim Wortverstehen
Information von der Wortform zur Bedeutung kommt (Pfeil x), ist jedoch intakt. Ein Wort, das nicht
produziert werden kann, kann also trotzdem noch verstanden werden. Das Störungsbild mancher
Menschen mit amnestischer Aphasie deutet also auf eine getrennte Speicherung von Wortform und
Wortbedeutung hin.
Gegen solche Schlussfolgerungen bei Dissoziationen gibt es allerdings noch einen möglichen
Einwand: Es könnte ja trotzdem sein, dass A und B trotzdem vielleicht trotzdem von ein und derselben
Komponente abhängen, aber A viel einfacher als B ist. Dann wäre es nach einer Hirnschädigung, bei
der die gemeinsame Komponente betroffen ist und nicht mehr die volle ‘Leistung’ bringen kann,
durchaus möglich, dass zwar B zusammenbricht aber A noch keine Probleme macht. Was man somit
braucht, um einen handfesten Beweis für zwei unabhängige Module zu liefern sind zwei
AphasikerInnen mit genau ‘spiegelbildlichen’ Störungsmustern. Wenn es gleichzeitig eine andere
Person mit Aphasie gibt, bei der Prozess A gestört ist, aber B intakt, dann zeigt das, dass B nicht
unbedingt schwieriger sein muss als A. Solche Fälle von ‘Spiegelbild’-Störungen nennt man doppelte
Dissoziationen. Sie sind es, die Beweise dafür liefern, dass A und B tatsächlich von unterschiedlichen
Komponenten abhängen (siehe Coltheart 2001 und Shallice 1988 für eine Diskussion dieser
Annahmen).
Solche doppelten Dissoziationen haben NeurolinguistInnen nicht nur Beweise für eine Trennung von
Wortform und Wortbedeutung geliefert – aktuelle Modelle des mentalen Lexikons nehmen noch eine
Reihe anderer unabhängiger Komponenten und Routen an. Neurolinguistische Studien haben gezeigt,
dass Information über die orthographische Form eines Wortes (d.h. über seine geschriebene Form)
unabhängig von der lautlichen Form ist. So können manche AphasikerInnen beispielsweise die
Bedeutung eines Wortes verstehen, wenn sie es lesen, aber nicht, wenn sie es hören (und umgekehrt).
Doppelte Dissoziationen dieser Art weisen darauf hin, dass die phonologische Form eines Wortes
unabhängig ist von seiner orthographischen Form. Abbildung 5 zeigt eine schematische Darstellung
eines solchen Modells mit separaten Speichern für phonologische (lautliche) und orthographische
(geschriebene) Wortformen, die jeweils außerdem nach Verständnis und Produktion unterteilt sind und
durch eigenen Routen verbunden werden (siehe Hillis 2001 und Miceli 2001 für Überblicke über das
mentale Lexikon).
Abbildung 5 ca. hier einsetzen
Im Folgenden können Sie selbst neurolinguistisch arbeiten und dabei herausfinden, wie das mentale
Lexikon außerdem noch organisiert ist.
ÜBUNG 2:
Betrachten Sie die folgenden Wortlisten. In einigen Studien wurde festgestellt, dass manche
AphasikerInnen große Probleme haben, die Wörter in einer der a)-Listen zu produzieren, während sie
weniger Probleme mit jenen der jeweiligen b)-Liste hatten. Bei anderen AphasikerInnen zeigte sich
ein genau umgekehrtes Bild: Sie hatten größere Probleme mit der b)-Liste als mit der a)-Liste. Deshalb
die Frage: Wodurch unterscheiden sich die Wörter in der a)-Liste von denen in der jeweiligen b)Liste? Ein Tipp: bei den Wörtern in (ii) treten die Probleme vor allem in der Vergangenheitsform
(Präteritum) auf – bilden Sie z.B. das Präteritum der 3. Person singular der Verben in (ii). Was sagen
diese Muster über die Organisation des Lexikons aus?
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
8
ia) schreiben, treffen, lachen, entscheiden, malen
vs. ib) Klavier, Sturm, Apfel, Stift, Idee, Hund
iia) gehen, trinken, schwimmen, beißen, sehen, laufen vs. iib) kochen, lernen, zählen, hören, schauen
iiia) Löwe, Rose, Frosch, Giraffe, Tulpe, Buche
vs. iiib) Stift, Tisch, Rad, Spiegel, Knopf, Tasse
Sie haben sicher herausgefunden, dass die Wörter in (ia) ausnahmslos Verben sind, während die
Wörter in (ib) alle zur Kategorie der Nomina gehören. Die Tatsache, dass NeurolinguistInnen doppelte
Dissoziationen zwischen diesen beiden Arten von Wörtern gefunden haben (Damasio & Tranel 1993;
Caramazza & Hillis 1991), legt nahe, dass die linguistische Unterscheidung zwischen Verben und
Nomina auch vom Gehirn gemacht wird: Das mentale Lexikon ist nach der syntaktischen Kategorie
von Wörtern organisiert. Die Unterschiede in (ii) und (iii) zeigen außerdem, dass wir noch feinere
Unterscheidungen innerhalb einer Wortart finden können. Alle Wörter in (ii) sind Verben. In (iib) sind
jedoch nur regelmäßige Verben aufgelistet. Das bedeutet, dass sie das Präteritum der 1. und 3. Person
Einzahl durch Anhängen von -te an den Verbstamm bilden (z.B. ich/er koch-te, lern-te, usw.) und das
Partizip Perfekt durch ge- und -t (z.B. ge-koch-t, ge-lern-t, usw.). Die Verben in (iia) sind hingegen
unregelmäßig. Bei ihnen ändert sich der Verbstamm im Präteritum (z.B. ich/er ging, trank, schwamm,
usw.) und auch im Partizip Perfekt, das überdies keine Endung -t sondern -en bekommt (z.B. ge-gangen, ge-trunk-en, ge-schwomm-en). Manche AphasikerInnen haben größere Probleme mit der
Produktion von regelmäßigen Präteritum- und Partizipformen (wie in iib), während andere Patienten
vor allem Schwierigkeiten mit den unregelmäßigen Formen (wie in iia) haben. Daraus können wir
schließen, dass beide Prozesse – die Bildung von regelmäßigen vs. unregelmäßigen Vergangenheitsund Partizipformen – innerhalb des Gehirns auch zu einem gewissen Grad getrennt sind (Ullman et al.
1997).
Die Unterschiede zwischen a) und b) in den Listen (i) und (ii) sind morphologischer/syntaktischer
Natur. In der Liste (iii) liegt der Unterschied vor allem in der Semantik, d.h. in der Bedeutung. Alle
Wörter sind zwar Nomina: Die in (iiia) sind jedoch natürlichen Ursprungs (Tiere und Pflanzen),
während die Nomina in (iiib) Objekte bezeichnen, die von Menschen geschaffen sind. Viele
neurolinguistische Studien haben gezeigt, dass Wortbedeutungen nach unterschiedlichen Merkmalen
oder Kategorien organisiert sind. Durch eine Hirnschädigung kann eine bestimmte Kategorie
beeinträchtigt werden, während andere Kategorien verschont bleiben. Die doppelte Dissoziation in
dem Beispiel (iiia) vs. (iiib) legt nahe, dass die neuronale Organisation von Wortbedeutungen unter
anderem dadurch bestimmt wird, was für Merkmale eines Wortes für uns im Vordergrund stehen. Bei
Pflanzen und Tieren wie in (iiia) – also bei lebenden Organismen – sind vor allem unsere
Sinneswahrnehmungen wichtig. Sie werden deshalb vor allem anhand ihrer sensorischen Merkmale
unterschieden (z.B. durch ihr Aussehen: ein Leopard hat ein gepunktetes, ein Tiger ein gestreiftes
Fell). Künstlich geschaffene Gegenstände dagegen – z.B. Werkzeuge – erfüllen für uns im
Allgemeinen eine bestimmte Funktion. Dadurch sind solche Gegenstände stärker als lebende
Organismen mit funktionalen Merkmalen verbunden. Und funktionale Merkmale werden in anderen
Arealen des Gehirns verarbeitet als sensorische Merkmale (Warrington & Shallice 1984).
Diese Beispiele machen deutlich, dass das mentale Lexikon entlang einer ganzen Reihe von
unterschiedlichen sprachlichen Merkmalen organisiert ist. Die Dissoziationen, die wir diskutiert
haben, zeigen, dass das Gehirn verschiedene Arten von sprachlichen Informationen modular
verarbeitet. Wenn also ein scheinbar einfaches Wort wie ‘Katze’ produziert oder verstanden werden
soll, wird ein ganzes Netzwerk von Hirnarealen aktiviert, wobei eine einzelne Region nur eine
bestimmte Information über das Wort verarbeitet.
Zusammenfassung
In den letzten beiden Abschnitten haben Sie gelesen, dass
• (doppelte) Dissoziationen bei aphasischen Störungen Hinweise über den Aufbau und die
Struktur des Sprachverarbeitungsystems im Gehirn geben können.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
9
•
das mentale Lexikon aus vielen spezifischen, separaten Komponenten besteht, die entlang
unterschiedlicher sprachlicher Merkmale organisiert sind.
3.2.5 Die Linguistik trifft die Klassiker: Broca- und Wernicke-Aphasie unter der Lupe
Bis jetzt haben wir sprachliche Module im Gehirn aufgespürt, ohne etwas darüber zu sagen, in
welchen Hirnarealen sie zu finden sein könnten. Die anatomische Lokalisierung von Komponenten
und Prozessen ist ein Extraschritt, der für NeurowissenschaftlerInnen selbstverständlich von großem
Interesse ist. Zwei klassische Aphasieformen, die mit spezifischen Hirnregionen in Verbindung stehen,
sind die Wernicke- und die Broca-Aphasie (siehe 3.2.2). Wir haben bereits festgestellt, dass bei der
Broca-Aphasie – auf den ersten Blick – vor allem die schweren Probleme mit der Sprachproduktion
im Vordergrund stehen. Die Broca-Aphasie wird deshalb manchmal auch als ‘motorische’ Aphasie
bezeichnet. Dieser Begriff ist leider irreführend, denn das Problem liegt hier nicht nur in der Motorik.
Bei der Wernicke-Aphasie zeigen sich hingegen große Schwierigkeiten mit dem Sprachverständnis,
weshalb die Wernicke-Aphasie auch als ‘sensorische’ Aphasie bekannt ist. Kann man daraus
schließen, dass die Aufgabe des Broca-Areals die Sprachproduktion ist, während das Wernicke-Areal
für das Sprachverständnis verantwortlich ist? Wie wir in den nächsten Abschnitten sehen werden, sind
die Dinge um einiges komplexer.
3.2.5.1 Merkmale der Wernicke- und Broca-Aphasie: Von der Produktion ...
Ein kurzer Blick auf Sprachbeispiele von Menschen mit einer Wernicke-Aphasie zeigt, dass die
Sprachproduktion ebenfalls schwer beeinträchtigt ist. Das Beispiel in (1) zeigt, wie ein
deutschsprachiger Wernicke-Aphasiker einen Gegenstand auf einem Bild zu benennen versucht. In (2)
finden Sie die Antwort eines englischsprachigen Wernicke-Aphasikers auf die Frage, warum er ins
Krankenhaus gekommen ist. Die eckigen Klammern in den Beispielen enthalten Interpretationen
einzelner Wörter, Punkte geben Pausen an.
(1)
“kann man halt zurechtlegen irgendwie wie man will .. irgendwie drehen ... Sie meinen doch ..
wenn da ein Steck dran ist ... halt halt die Uhr kann man da vielleicht abmachen .. könnte man
auch .. weiß nicht was da noch dabei dran ... muß abschalten .. nich ... kann es aber auch so
machen und irgendwie als was anderes dazu .. vielleicht irgendwie was anbringen muß ..
irgendwie vielleicht was Innenverbindung .. und dann wieder dick festmachen oder so was.“
(aus Huber et al. 1975: 83)
(2)
“Is this some of the work that we work as we did before? … All right … From when wine [why]
I’m here. What’s wrong with me because I … was myself until the taenz took something about
the time between me and my regular time in that time and they took the time in that time here
and that’s when the the time took around here and saw me around in it it’s started with me no
time and then I bekan [began] work of nothing else that’s the way the doctor find me that way.”
(aus Obler & Gjerlow 1999: 43)
REFLEXIONSAUFGABE UND AUSTAUSCH 3:
Betrachten Sie die Äußerungen in (1) und (2): Was sind die auffälligsten Unterschiede verglichen mit
unbeeinträchtigter Sprache? Können Sie herausfinden, welcher Gegenstand in (1) beschrieben wird,
und warum der englischsprachige Patient ins Krankenhaus gekommen ist? Tauschen Sie sich mit zwei
oder drei KollegInnen aus (10 Minuten).
In beiden Fällen ist es schwer möglich, den Sinn der Texte zu verstehen. Die von WernickeAphasikerInnen produzierte Sprache ist oft relativ inhaltsleer. Der Text in (1) ist beispielsweise die
Beschreibung einer Kneifzange. Wernicke-AphasikerInnen produzieren oft so genannte semantische
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
10
Paraphasien, d.h. inhaltlich falsche Wörter (z.B. ‘Katze’ statt ‘Hund’). In extremen Fällen wie in (1)
nehmen solche semantischen Paraphasien überhand – dann spricht man von einem semantischen
Jargon. Oft werden auch lautliche Fehler produziert (phonologische Paraphasien), z.B. wird ein Laut
durch einen anderen ersetzt, wie in ‘bekan’ (statt ‘began’) in der letzten Zeile von dem englischen
Beispiel (2). Manchmal kommen auch Neologismen vor (das sind nicht exististierende Wörter), wie
bei ‘taenz’ in (2). Wernicke-AphasikerInnen produzieren oft sehr lange, komplexe Sätze, indem sie
Teile von Sätzen mit Teilen anderer Sätze verschränken und kombinieren (‘that’s the way the doctor
find me that way’) und oft verwenden sie falsche Wortformen (wie z.B. ‘du singt’ statt ‘du singst’).
Dieses Phänomen ‘unkontrollierter’ Syntax heißt Paragrammatismus.
Als nächstes betrachten wir zwei Sprachbeispiele von Broca-Aphasikern. (3) und (4) sind Ausschnitte
aus Dialogen zwischen einem Untersucher (U) und einem deutschsprachigen bzw. englischsprachigen
Broca-Aphasiker (P).
(3) U: “Wie hat das mit Ihrer Krankheit angefangen? ”
P: “Ein, zwei, drei, vier Tage ... eh ... Flugzeug ... Sonne scheint und so ... vier Tage und zwei
Tage ... eh ... bewusstlos und umfallen und später eine Woche ... Hubschrauber ... zu Hause
bleiben und Böblingen Krankenwagen ... Stuttgart Böblingen und später eins zwei Monate ...
eh ... hier Böblingen ... eh ... ” (aus Huber, Poeck & Weniger 1989: 113)
(4) U: “Can you tell me about why you came to the hospital?”
P: “Yes … eh … Monday … eh … dad … Peter Hogan and dad … hospital. Er … two … er …
doctors … and … er … thirty minutes … and … er … yes … hospital. And … er …
Wednesday … Wednesday. Nine o’clock. And … er … Thursday, ten o’clock … doctors …
two … two … doctors … and … er … teeth … fine.” (aus Goodglass 1993: 105)
REFLEXIONSAUFGABE 4:
Bevor Sie weiter lesen, vergleichen Sie diese Sprachbeispiele mit denen der Wernicke-Aphasiker in
(1) und (2). Was sind die auffälligsten Unterschiede, speziell in Bezug auf die Satzstruktur und auf
Fehlertypen? Beachten Sie besonders die in (3) und (4) fehlenden Wortarten. Können Sie
Gemeinsamkeiten zwischen dem deutschen Beispiel in (3) und dem englischen in (4) finden?
Wie Sie sehen, sind die kurzen Äußerungen der Broca-Aphasiker von vielen Pausen unterbrochen und
gewiss haben sie eine relativ lange Zeit gebraucht, um sie zu produzieren. Die große Anstrengung bei
der Sprachproduktion ist typisch für die Broca-Aphasie und für gewöhnlich die Folge einer
Kombination mehrerer Faktoren. Die mündliche Sprachproduktion macht dabei oft besondere
Probleme. Denn zusätzlich zu ihren sprachlichen Defiziten haben Menschen mit Broca-Aphasie häufig
auch Probleme mit der Artikulation (also Sprechbeeinträchtigungen), da oft auch nahe gelegene
Hirnregionen beeinträchtigt werden, die für die Programmierung oder Ausführung von Bewegungen
von Artikulationsorganen (wie z.B. der Zunge) verantwortlich sind. Aus linguistischer Sicht fallen in
den sprachlichen Daten der beiden Broca-Aphasiker noch weitere interessante Charakteristika auf. Die
Beispiele (3) und (4) enthalten – im Gegensatz zu den Äußerungen der Wernicke-Aphasiker in (1) und
(2) – weder Neologismen noch semantische Paraphasien. Der lexikalisch-semantische Bereich des
Sprachsystems dürfte bei der Broca-Aphasie – anders als bei der Wernicke-Aphasie – also relativ
unbeeinträchtigt sein. Broca-AphasikerInnen produzieren aber sehr häufig lautliche Fehler
(phonologische Paraphasien), auch wenn in den Beispielen keine zu finden sind.
Während bei der Wernicke-Aphasie typischerweise oft ein paragrammatischer ‘Überschuss’ an Syntax
vorliegt paragrammatische syntaktische Strukturen produziert werden, sind die Äußerungen von
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
11
Broca-AphasikerInnen oft durch eine sehr eingeschränkte syntaktische Struktur gekennzeichnet. In
den Beispielen (3) und (4) fehlen vor allem Wörter eines ganz bestimmten Typs: Ausgelassen wurden
in erster Linie Artikel (z.B. ‘die’ vor ‘Sonne’; ‘a’ oder ‘the’ fehlt vor ‘hospital’, ‘teeth’, ‘cookies’,
‘dishes’), viele Präpositionen (z.B. ‘in’ oder ‘nach’ vor Böblingen, ‘mit’ vor Krankenwagen; ‘on’ vor
‘Monday’, ‘Wednesday’ und ‘Thursday’) und Hilfsverben (z.B. ‘the girl … slipping’ statt ‘the girl is
slipping’). Das gilt sowohl für den deutschen als auch für den englischen Text. Menschen mit BrocaAphasie lassen außerdem oft grammatische Markierungen aus, die z.B. als Endungen an Wörter
angehängt werden (z.B. ‘he sing’ statt ‘he sings’). Oft produzieren sie auch unmarkierte Grundformen
von Wörtern: Im deutschen Text finden Sie beispielsweise einige Verben im Infinitiv (‘umfallen’, ‘zu
Hause bleiben’).
Was haben alle diese ausgelassenen Wörter gemeinsam? Obler und Gjerlow (1999: 1) zitieren einen
Broca-Aphasiker, der seine Verzweiflung darüber, diese Wörter nicht produzieren zu können,
folgendermaßen ausdrückte: „Little words, no“. Außer dass sie ‘klein’ sind, sind viele der oben
angeführten Wörter – und Wortteile, wie etwa die Endung –s in ‘sings’ – in ihrer Bedeutung relativ
leer. Solche Wortteile, die an andere Wörter hauptsächlich in der Absicht angehängt werden, eine
grammatische Beziehung zu anderen Wörtern eines Satzes anzugeben, werden Flexionsmorpheme
genannt (vgl. Kapitel 1, S. ...). Ähnliches gilt auch für viele der kleinen freistehenden Wörter (Artikel,
Präpositionen, Hilfsverben), die in Äußerungen von Broca-AphasikerInnen fehlen. Da diese Wörter
und Wortteile in erster Linie eine grammatische Funktion haben, werden sie auch funktionale
Elemente genannt. Sie stehen im Gegensatz zu den so genannten Inhaltswörtern wie Adjektiven,
Nomina oder Verben, die eine reiche Bedeutung haben und die Grundbedeutung eines Satzes tragen.
Der für die Broca-Aphasie typische Sprachstil wird deshalb auch als Telegrammstil bezeichnet: Die
Inhaltswörter sind recht gut erhalten, während Funktionswörter oft ausgelassen werden. Da BrocaAphasikerInnen beim Produzieren von Sätzen vor allem Schwierigkeiten mit den funktionalen,
grammatischen Elementen haben, wird dieses aphasische Symptom Agrammatismus genannt.
3.2.5.2 ... zum Verständnis
In einem gewissen Sinn sind funktionale Elemente der ‘syntaktische Mörtel’ zwischen einzelnen
Wörtern. Beim Sprachverständnis geben sie oft den entscheidenden Hinweis auf die richtige
Bedeutung eines Satzes. Neurolinguistische Studien mit agrammatischen SprecherInnen haben
gezeigt, dass es im Agrammatismus oft interessante Parallele zwischen Sprachproduktion und
Sprachverständnis gibt. Machen Sie die nächsten zwei Übungen um herauszufinden, um was es sich
dabei handelt.
ÜBUNG 5:
Lesen Sie die folgenden Satzpaare und finden Sie heraus, ob die jeweiligen Sätze in a) und b) die
gleiche Bedeutung haben oder nicht. Suchen und markieren Sie dann die Wörter und Morpheme, die
die wichtigsten Hinweise darauf liefern, ob die Sätze das Gleiche bedeuten oder nicht. Zu welcher
Klasse gehören sie?
i)
a. Da ist ein Glas auf dem Boden.
b. Da ist Glas auf dem Boden.
ii) a. The mother shows her baby the pictures.
b. The mother shows her the baby pictures.
iii) a. Der Junge verfolgt den Mann.
b. Den Mann verfolgt der Junge.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
12
Die Sätze in (ia) und (ib) haben unterschiedliche Bedeutungen, genauso die in (iia) und (iib). In (ia)
kommt der entscheidende Hinweis von dem unbestimmten Artikel ‘ein’ – er zeigt an, dass ‘Glas’ hier
ein zählbares Nomen ist (wie z.B. in ‘ein Weinglas’ vs. ‘zwei Weingläser’ ). In (ib) wird ‘Glas’
hingegen als Massennomen verstanden (z.B. ‘ein Haufen Glas’). In (ii) liegt der Unterschied zwischen
den zwei Sätzen in der Position des bestimmten Artikels ‘the’ vor ‘pictures’: In (iia) sieht das Baby
irgendwelche Bilder, in (iib) aber sieht eine Frau Babybilder. In den Sätzen (iiia) und (iiib) haben
‘Junge’ und ‘Mann’ ihre Positionen getauscht, aber dennoch bedeuten beide Sätze das Gleiche. Hier
hängt die entscheidende Information an den Fallmarkierungen der Artikel (Nominativ: ‘der’;
Akkusativ: ‘den’). In allen Beispielen müssen wir also die funktionalen Elemente nutzen, um von der
syntaktischen Struktur der Sätze zur korrekten Bedeutung zu kommen.
ÜBUNG 6:
In den 1970ern begannen ForscherInnen, systematisch zu testen, wie gut agrammatische
SprecherInnen Sätze mit unterschiedlichen syntaktischen Strukturen verstehen (siehe z.B. Caramazza
& Zurif 1976). Experimente haben beispielsweise gezeigt, dass viele agrammatische SprecherInnen
Schwierigkeiten haben, den Unterschied zwischen Sätzen wie (ia) und (ib), sowie (iia) und (iib) aus
der vorigen Übung zu verstehen (Heilman & Scholes 1976; Shapiro et al. 1989).
Auf Sätze wie in (iiia) und (iiib) reagieren agrammatische AphasikerInnen oft wie folgt: Zeigt man
ihnen zwei Bilder – auf dem einen verfolgt ein Junge einen Mann (die korrekte Interpretation), auf
dem anderen ist die Handlung mit vertauschten Rollen dargestellt und der Mann verfolgt einen Jungen
–, so haben sie normalerweise kaum Probleme zu einem Satz wie (iiia), in dem das Subjekt vor dem
Objekt kommt, das passende Bild zu wählen. Wenn sie allerdings einen Satz wie (iiib) hören, in dem
das Subjekt nach dem Objekt steht, wissen sie sehr oft nicht, welches Bild das richtige ist (Burchert et
al. 2003) und müssen raten. Sätze wie in (iv) machen AgrammatikerInnen jedoch keine
Schwierigkeiten. Hier wissen sie ohne Probleme, dass beide Sätze das Gleiche bedeuten.
iv) a. Der Junge isst den Apfel.
b. Den Apfel isst der Junge.
Was sagen Ihnen diese Ergebnisse über Agrammatismus und die Broca-Aphasie? Beachten Sie, was
Sie in der vorhergehenden Übung 5 herausgefunden haben und was Sie über agrammatische
Sprachproduktion wissen. Denken Sie auch daran, was Sie in Kapitel 1 und Kapitel 2 über den
Zusammenhang von Syntax und Semantik gelesen haben, vor allem über die Präferenzen bei der
Verarbeitung von verschiedenen Wortstellungen und semantischen Rollen (Agens, Patiens – siehe
Kapitel 2, S. ...).
Betrachten und vergleichen Sie dazu auch folgende Sätze:
v) a. Die Frau verfolgt das Mädchen.
b. Das Mädchen verfolgt die Frau.
vi) a. Hans verfolgt Eva.
b. Eva verfolgt Hans.
Die in Übung 6 beschriebenen Ergebnisse zeigen deutlich, dass agrammatische SprecherInnen nicht
nur Probleme mit der Produktion von komplexeren grammatischen Strukturen haben, sondern oft
auch mit dem Verstehen solcher Strukturen – und zwar genau dann, wenn grammatische Merkmale für
eine korrekte Interpretation von entscheidender Bedeutung sind. Wir haben vorhin erwähnt, dass
funktionale Elemente für Menschen mit Agrammatismus schwierig sind. Deshalb fällt es ihnen oft
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
13
schwer, Artikel wie ‘ein’ oder ‘the’ für die korrekte Interpretation von Sätzen wie (i) und (ii) in Übung
5 zu nutzen. Sätze wie in (iv) ‘der Junge isst den Apfel’ und ‘den Apfel isst der Junge’ machen ihnen
jedoch keine Probleme, weil die Inhaltswörter – ‘Apfel’, ‘isst’, ‘Junge’ – ausreichen, um die
Bedeutung zu entschlüsseln. Da hier nur der Junge handelnde Person sein kann, weil ein Apfel einfach
keinen Jungen essen kann, sind die Artikelformen ‘der’ und ‘den’ nicht ausschlaggebend für die
korrekte Interpretation der Sätze. Wenn in einem Satz allerdings zwei mögliche handelnde Personen
genannt werden, kann man sich auf die Inhaltswörter alleine nicht verlassen. Um in solchen Fällen die
korrekte Satzbedeutung zu erfassen, muss man unbedingt die Grammatik hinzuziehen. Sätze wie (iiia)
‘der Junge verfolgt den Mann’ und (iiib) ‘den Mann verfolgt der Junge’ können nur korrekt
verstanden werden, wenn die Artikelformen ‘der’ und ‘den’ zum Entschlüsseln der syntaktischen
Struktur genutzt werden können.
Manchmal geht aber aus den Artikelformen nicht hervor, was Nominativ und was Akkusativ ist, wie
in den Sätzen (v) ‘die Frau verfolgt das Mädchen’ und ‘das Mädchen verfolgt die Frau’. Weil sich bei
feminen und neutralen Substantiven die Formen des Artikels im Nominativ und Akkusativ nicht
unterscheiden, sind prinzipiell beide Interpretationen möglich: In beiden Sätzen kann entweder die
Frau oder das Mädchen das Subjekt bzw. Objekt sein. Genauso verhält es sich in Sätzen ohne Artikel
wie (vi): ‚Hans verfolgt Eva’. Wie Sie aus Kapitel 2 wissen, ist die Verarbeitung von syntaktisch
komplexeren Objekt-Subjekt Sätzen schwieriger als die von Subjekt-Objekt Sätzen (siehe Kapitel 2, S
... für verschiedene Erklärungen hierfür), weshalb die Subjekt-Objekt Abfolge meist auch die
bevorzugte Interpretation bei zweideutigen Sätzen ist
Die Tatsache, dass Subjekt-Objekt Sätze einfacher zu verarbeiten sind als ihre Objekt-Subjekt
Gegenstücke, trägt auch zu einer Erklärung der agrammatischen Verständnismuster bei. Dass
agrammatische SprecherInnen mit dem Verständnis von Subjekt-Objekt Sätzen wie (iiia)
normalerweise keine großen Probleme haben, zeigt, dass sie die Fallmarkierungen der Artikel in
solchen syntaktisch einfachen Sätzen zur Interpretation nutzen können. Der syntaktische Parser wird
hier nie ernsthaft ‘überfordert’ und kann die Struktur Schritt für Schritt analysieren – die
Fallmarkierungen können genutzt werden, um an die syntaktische Struktur der Sätze zu gelangen, der
Satz wird richtig verstanden. Bei Objekt-Subjekt Sätzen wie (iiib) hingegen steigt der
Verarbeitungsaufwand – der Parser kann hier bei agrammatischen SprecherInnen oft nicht Schritt
halten, verliert gewissermaßen im Lauf des Satzes den Überblick über die Satzstruktur und die
Fallendungen können nicht mehr zum Verständnis beitragen – die einzelnen Satzteile können also
nicht mehr zu einer kohärenten Struktur zusammengebracht werden. Als Folge sind solche eigentlich
eindeutigen Objekt-Subjekt Sätze wie (iiib) für agrammatische SprecherInnen also zweideutig, ähnlich
wie die Sätze in (v) und (vi). Bei solch syntaktisch komplexeren Sätzen wie (iiib) müssen
agrammatische SprecherInnen oft einfach raten, wer die handelnde Person ist.
Die ursprüngliche Beschreibung der Broca-Aphasie als eine reine Produktionsstörung muss also
verworfen werden. Die grammatischen Probleme, die bei einer Broca-Aphasie auftreten, zeigen sich
vielmehr meistens sowohl in der Sprachproduktion als auch beim Verstehen von Sprache.
Agrammatismus wird deshalb heute oft als eine Störung der Grammatik gesehen, die
Schwierigkeiten bei der Produktion syntaktischer Strukturen UND dem Verständnis von
grammatisch komplexen Sätzen verursacht (cf. Grodzinsky 2000a,b).
Als NeurolinguistInnen diese typischen syntaktischen Aspekte der Broca-Aphasie entdeckten (z.B.
Caramazza & Zurif 1976), änderten sich auch ihre Ansichten über die Bedeutung des Broca- und des
Wernicke-Areals. Manche ForscherInnen verstanden das Broca-Areal nun als den zentralen
Syntaxprozessor (Berndt & Caramazza 1980), während das Wernicke-Areal für die Verarbeitung
lexikalisch-semantischen Aspekten der Sprache verantwortlich gemacht wurde.
In den letzten Jahren wurden jedoch viele neue Erkenntnisse über Aphasien gewonnen. Dabei hat sich
auch gezeigt, dass zwischen einer bestimmten geschädigten Gehirnstruktur und einem sprachlichen
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
14
Defizit nicht immer eins zu eins Beziehung besteht. Manchmal liegt die Hirnschädigung bei
AphasikerInnen mit Agrammatismus beispielsweise nicht im Broca-Areal, und umgekehrt haben
manche Menschen mit geschädigtem Broca-Areal keinen Agrammatismus. Die Störungsbilder von
manchen AphasikerInnen passen wiederum gar nicht zu einer der klassischen Aphasieformen. Deshalb
verlassen sich ForscherInnen und auch TherapeutInnen zusehends mehr auf genaue Untersuchungen
individueller Störungsmuster (siehe Caramazza 1984; De Bleser et al. 2004). Inzwischen stehen
NeurolinguistInnen jedoch neue Methoden zur Verfügung, um Zusammenhänge zwischen Sprache
und Gehirn genauer zu ergründen. Darauf werden wir im nächsten Abschnitt 3.2.5 näher eingehen.
Diese haben bestätigt, dass die Aufgabe des Broca-Areals weit über die Syntax hinausgeht, dass das
Wernicke-Areal nicht nur lexikalisch-semantische Aspekte verarbeitet, und dass Sprache weit über
diese zwei Areale hinausreicht.
Zusammenfassung
In den letzten beiden Abschnitten haben Sie gelesen, dass
• sowohl Broca-AphasikerInnen als auch Wernicke-AphasikerInnen komplexe Defizite bei der
Sprachproduktion und beim Sprachverständnis haben.
• neurolinguistische Experimente gezeigt haben, dass Menschen mit Broca-Aphasie unter einem
grammatischen Defizit leiden, welches sich in der Sprachproduktion und im
Sprachverständnis auf ähnliche Weise zeigt. Bei Menschen mit Wernicke-Aphasie ist die
lexikalisch-semantische Ebene stärker betroffen ist.
• eine direkte anatomische Lokalisierung von sprachlichen Fähigkeiten wie ‘Syntax’ oder
‘Lexikon-Semantik’ in einem bestimmten Hirnareal problematisch ist.
3.2.6
Funktionelle bildgebende Verfahren: Einblicke in das arbeitende Gehirn
Mit der Einführung neuer Hightech-Methoden hat die Neurolinguistik in jüngster Vergangenheit eine
wahre Revolution erlebt. Diese Methoden – funktionelle Bildgebung genannt (Englisch: ‘functional
Neuroimaging’) – erlauben uns, Spuren von neuronaler Aktivierung nachzuvollziehen, die das
Gehirn beim Ausführen von verschiedenen Aufgaben hinterlässt. In Experimenten können gesunde
und auch aphasische Teilnehmer beispielsweise in Scannern (oder Tomographen) getestet werden, die
Änderungen in der Aktivität in den verschiedenen Regionen des Gehirns mit großer Genauigkeit
messen können. Dazu messen sie Veränderungen im Blutfluss innerhalb des Gehirns. Während die
Technik recht kompliziert ist, ist die Idee dahinter relativ einfach: je mehr Arbeit eine Gehirnregion
leistet, desto stärker wird sie aktiviert, und desto mehr Zucker und Sauerstoff braucht sie – ähnlich wie
bei unseren Muskeln, wenn sie physische Arbeit leisten. Das bedeutet, dass in stärker aktivierte
Regionen mehr Blut fließen muss, um die benötigte Versorgung zu gewährleisten. Der Scanner kann
diese Veränderungen im Blutfluss dann indirekt messen. Nach einer genauen Analyse können diese
Veränderungen schließlich sichtbar gemacht und berechnet werden. So bekommt man Informationen
darüber, welche Hirnregionen jeweils während der Verarbeitung einer bestimmten sprachlichen
Struktur am aktivsten waren.
Manche Neuroimaging-Studien haben beispielsweise gezeigt, dass bei der Verarbeitung von Verben
die vorderen Regionen des Gehirns stärker aktiviert werden, während Nomina mehr von weiter hinten
liegenden Regionen abzuhängen scheinen (siehe Shapiro und Caramazza 2003 für einen Überblick). In
einem Experiment, das Shapiro und Kollegen (2005) durchführten, mussten die TeilnehmerInnen
bestimmte Arten von Nomina und Verben produzieren, während ihre Hirnaktivität in einem PETScanner (PET steht für Positronen-Emissions-Tomographie) festgehalten wurde. Eine ähnliche und
inzwischen sehr bekannte Methode ist die fMRT oder funktionelle Magnet-Resonanz-Tomographie.
Abbildung 6 zeigt, dass sich bei der Produktion von Verben andere Aktivierungsmuster im Gehirn
ergaben als bei der Produktion von Nomina: Für Verben zeigte sich eine stärkere Aktivierung im
Frontallappen, für Nomina hingegen im Temporallappen.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
15
Beachten Sie aber, dass diese Areale nicht die einzigen sind, die bei Verben oder Nomina aktiviert
werden. Vielmehr aktivieren sowohl Nomina als auch Verben (und jede andere sprachliche Aufgabe
oder Struktur) eine ganze Zahl von Hirnregionen. Um beispielsweise diejenigen Areale
herauszufiltern, die zur Verarbeitung von Verben mehr beitragen, als zu Verarbeitung von Nomina,
werden die Aktivierungsmuster der Nomina von denen der Verben abgezogen. Die verbleibende
Aktivierung zeigt dann die Areale an, die für die Verarbeitung von Verben eine größere Rolle spielen
als für die Nomenverarbeitung.
Abbildung 6 ca. hier einsetzen
Während die stärkste Aktivierung für Verben in Abbildung 6 etwas über dem Broca-Areal liegt, haben
andere Neuroimaging-Studien starke Aktivierung im Broca-Areal selbst gefunden (Perani et al. 1999).
Die Feststellung, dass die Verarbeitung von Verben frontale Gehirnregionen in und um die BrocaRegion stärker aktiviert als die Verarbeitung von Nomina, lässt die Vorhersage zu, dass BrocaAphasikerInnen auch Probleme mit Verben haben müssten. Wenn Sie noch einmal einen Blick auf die
Sprachbeispiele in (3) und (4) werfen, können Sie sehen, dass nicht nur Funktionswörter fehlen,
sondern auch recht wenige Verben produziert werden. NeurolinguistInnen haben den relativen Mangel
an Verben in den Äußerungen von Broca-AphasikerInnen natürlich bereits früher untersucht –
heutzutage geben die bildgebenden Verfahren allerdings wertvolle zusätzliche Einblicke in
klassische Fragestellungen der Neurolinguistik und Informationen über die Beziehung zwischen
Sprache und Gehirn (siehe Démonet et al. 2005 für einen Überblick).
Eine ganze Reihe von Neuroimaging-Studien haben sich mit der Frage beschäftigt, in welchem Maße
Sprache modular verarbeitet wird. In Abschnitt 3.2.4 zum mentalen Lexikon haben uns
unterschiedliche aphasische Störungsbilder gezeigt, dass verschiedene Hirnareale auf die Verarbeitung
unterschiedlicher Informationen von Wörtern spezialisiert sind. Neuere Neuroimaging-Studien
bestätigen, dass das Lexikon über mehrere spezialisierte Hirnregionen verteilt ist. Vorhin haben wir
schon auf die unterschiedlichen Aktivierungsmuster bei Verben einerseits und Nomina andererseits
hingewiesen. Andere Studien haben z.B. ergeben, dass beim Benennen von Werkzeugen manche
Hirnareale stärker beteiligt sind als beim Benennen von Tieren – und umgekehrt (siehe Martin et al.
1996). Oder dass andere Hirnareale bei der Bildung von Vergangenheitsformen von regelmäßigen
Verben (vom Typ iib in Übung 2) als von unregelmäßigen Verben (vom Typ iia in Übung 2) beteiligt
sind (Jaeger et al. 1996).
Im Fall des Broca-Areals haben Studien mit bildgebenden Verfahren bei nicht-aphasischen
Testpersonen gezeigt, dass dieses Areal an der Verarbeitung von Informationen aller sprachlichen
Ebenen beteiligt ist: Phonologie, Morphologie, Syntax und Lexikon. In solchen Experimenten wurde
nachgewiesen, dass das Broca-Areal bei der Verarbeitung von syntaktisch komplexen Sätzen stark
aktiviert wird. Damit bestätigen sie die Ergebnisse aus Studien mit agrammatischen Sprechern (Caplan
et al. 1998; Stromswold et al. 1996). Die vorhin erwähnte Aktivierung des Broca-Areals bei der
Produktion von Verben legt nahe, dass dieses Areal auch lexikalische Arbeit leistet. Manche Forscher
schließen daraus, dass das Broca-Areal selber aus mehreren Teilen besteht, die auf ganz bestimmte
Aspekte der Sprachverarbeitung spezialisiert sind (siehe z.B. Deacon 1990; Dogil et al. 1995;
Bookheimer 2002). Immerhin umfasst das Broca-Areal ein ziemlich großes Stück Kortex (siehe
Abbildung 3) und es gibt keinen offensichtlichen Grund, warum es sich nur einer einzigen
sprachlichen Ebene widmen sollte. Ähnliches scheint auch für das Wernicke-Areal zu gelten (Wise et
al. 2001).
Es ist inzwischen auch offensichtlich, dass keine sprachliche Ebene (Phonologie, Morphologie,
Syntax, Semantik) von einem einzigen Areal verarbeitet wird – jede Ebene hängt vielmehr von
mehreren Regionen ab. Die syntaktische Verarbeitung wird beispielsweise von Arealen im linken
Frontal- und Temporallappen geleistet, wobei die Regionen unterschiedliche Aufgaben erfüllen.
Ähnlich verhält es sich auch bei der semantischen Verarbeitung (Friederici 2002): Manche Areale
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
16
verarbeiten sprachliche Informationen von Einzelwörtern, wie z.B. ihre Wortkategorie (Nomen, Verb,
etc.), Wortform (Mehrzahlform, Partizipform, etc.) oder verschiedene Aspekte ihrer Bedeutung.
Andere Areale wiederum tragen dazu bei, solche Informationen von Einzelwörtern über längere Zeit
aktiviert zu halten, damit sie zu größeren Strukturen zusammengefügt werden können. Das BrocaAreal scheint unter anderem als ein Arbeitsgedächtnis zu dienen, um verschiedene sprachliche
Informationen aktiviert zu halten. Dies ist oft eine wichtige Voraussetzung, um aus einzelnen Teilen
ein Ganzes zu formen (siehe Kapitel 2).
Das Netzwerk von Gehirnarealen zur Sprachverarbeitung beschränkt sich nicht nur auf Gebiete des
Kortex. Studien mit Patienten und Neuroimaging-Methoden haben gezeigt, dass z.B. auch Strukturen
in den subkortikalen Bereichen – wie z.B. die Basalganglien – wichtige Aufgaben bei der
Sprachverarbeitung übernehmen (Kotz et al. 2003). Das sprachliche Netzwerk reicht also bis tief in
das Gehirn hinein.
Die Ansichten darüber, welche Hirnregion dabei wofür genau zuständig ist und zu welchem Zeitpunkt
während der Verarbeitung die einzelnen Teile des Verarbeitungsnetzwerks ihren Beitrag leisten,
unterscheiden sich in der Literatur teilweise stark. Vieles hängt davon ab, ob man die
Sprachverarbeitung eher als seriell sieht, oder als stark interaktiv, d.h. ob bestimmte Informationen
strikt vor anderen verarbeitet werden, oder ob die verschiedenen Informationsquellen während aller
Stufen der Verarbeitung zusammenspielen (siehe Kapitel 2; Friederici 2006; Hagoort 2005).
Um solche zeitliche Abläufe erfassen zu können ist es vor allem wichtig, zu wissen, wann ein
bestimmtes Areal aktiv wird. Die oben vorgestellten Methoden wie PET oder fMRT sagen über den
zeitlichen Ablauf jedoch nicht viel aus. Hierzu kann man die Elektroenzephalographie (EEG) oder die
Magnetenzephalographie (MEG) einsetzen. Diese Methoden liefern zwar nur eine sehr grobe
Information über das ‘wo’ im Gehirn, geben dafür aber ein sehr genaues zeitliches Bild der
Verarbeitung (im Bereich von Millisekunden). Dazu messen sie elektrische Ströme (EEG) bzw.
magnetische Felder (MEG), die zur Oberfläche des Kopfes durchdringen, wenn größere Gruppen von
Nervenzellen an verschiedenen Stellen im Gehirn aktiv werden. Psycholinguistische Studien zur
Wortproduktion haben beispielsweise gezeigt, dass wir ca. 600 Millisekunden vom Sehen bis zum
Benennen eines Bildes brauchen (Indefrey & Levelt 1998). Ein Experiment mit MEG konnte
nachvollziehen, wie verschiedene Hirnregionen nacheinander aktiviert werden, um die jeweiligen
Informationen über das Wort aus dem mentalen Lexikon abzurufen und die Artikulation vorzubereiten
(Levelt et al. 1998). Beim Satzverständnis werden beim Hören eines Wortes innerhalb von wenigen
hundert Millisekunden die unterschiedlichen Wortinformationen abgerufen (z.B. Wortkategorie,
Bedeutung und andere lexikalische Informationen). In dem seriellen Satzverarbeitungsmodell von
Friederici (2006) wird innerhalb der ersten 200 Millisekunden die Kategorie des gehörten Worts
erkannt (Nomen, Verb, etc.) und aufgrund dieser Information eine erste syntaktische Struktur gebildet.
In dem Zeitraum von ca. 300-500 Millisekunden werden gleichzeitig unterschiedliche weitere
lexikalische Informationen über das Wort aktiviert (z.B. das Genus von Nomina, Numerus bei Verben
und die Bedeutung eines Wortes) und diese Informationen genutzt, um semantische und grammatische
Beziehungen zu anderen Wörtern im Satz zu berechnen. Nach nur ca. 600 Millisekunden führt das
Gehirn all diese verschiedenen Informationen zusammen und integriert das Wort endgültig in den
Satzkontext. Dabei müssen bei Produktion und Verständnis innerhalb von Sekundenbruchteilen
verschiedene Hirnareale koordiniert zusammenarbeiten – eine Meisterleistung des Gehirns (siehe auch
Kapitel 2).
3.2.7
Wie Sie sehen können, steht die Frage, in wie weit Sprache modular verarbeitet wird und ob die
sprachlichen Informationen seriell oder interaktiv verarbeitet werden sowohl in der Psycho- als auch
der Neurolinguistik im Zentrum des Interesses. Aus neurolinguistischer Sicht stellt sich die zusätzliche
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
17
Frage, wo Verarbeitungsmodule im Gehirn lokalisiert sind. Die Diskussion der Rolle des Broca- und
Wernicke-Areals hat gezeigt, dass so eine Zuordnung von einzelnen Funktionen zu bestimmten
Gehirnregionen keineswegs eine einfache Aufgabe ist. Die Suche nach einzelnen Komponenten des
Sprachsystems im Gehirn wird dabei noch durch einige Erkenntnisse erschwert: ein
Verarbeitungsmodul muss beispielsweise nicht unbedingt auf ein einzelnes Gebiet im Gehirn
beschränkt sein – vielmehr kann es sich auch über mehrere Gebiete erstrecken und sich dabei auch mit
anderen Verarbeitungsschaltkreisen teilweise überschneiden. Barrett und Kurzban (2006: 641)
vergleichen eine solche Aufteilung eines Moduls mit „der Verkabelung in einer Stereoanlage, einem
Computer oder in einem anderen elektronischen Gerät: Einzelne Kabel haben spezifische Funktionen,
aber Kabel mit unterschiedlichen Funktionen können sich innerhalb des gesamten Gerätes kreuzen und
überlagern“ (siehe auch Pinker 1997). Sich in ähnlicher Weise überschneidende Module im Gehirn
können auch mit bildgebenden Verfahren oft nur schwer oder gar nicht herausgefiltert werden.
Weitere Herausforderungen für die Suche nach der Beziehung von Gehirn und Sprache ergeben sich
laufend: Während das Broca-Areal an der Verarbeitung unterschiedlicher sprachlicher Aspekte Anteil
hat, haben Neuroimaging-Studien gezeigt, dass es außerdem auch an nicht-sprachlichen Aufgaben
beteiligt ist, wie beispielsweise der Verarbeitung von musikalischer Struktur (Maess et al. 2001).
Computersimulationen haben des Weiteren gezeigt, dass doppelte Dissoziationen prinzipiell auch
entstehen können, ohne dass man Module annehmen muss (Plaut 1995). Manche Forscher meinen,
dass solche Erkenntnisse es unwahrscheinlich machen, dass alle sprachliche Funktionen im Gehirn
genau lokalisiert werden können (z.B. Dick et al. 2001). Die Interpretation von neurolinguistischen
Ergebnissen hängt also von der Ansicht darüber ab, wie Sprache einerseits und das Gehirn andererseits
genau funktionieren. Welche Position man dazu auch immer einnimmt – wir hoffen, dass unsere
Beispiele gezeigt haben, dass es immer notwendig ist, linguistische Theorie, psycholinguistische
Verarbeitungsmodelle und neurolinguistische Arbeit miteinander zu verbinden – auch wenn das alles
andere als einfach ist (Poeppel & Embick 2005).
Zusammenfassung
Im letzten Abschnitt haben Sie Folgendes gelesen:
• Neuroimaging-Methoden bringen NeurolinguistInnen eine Menge zusätzliche Informationen
über Sprachverarbeitung.
• Solche Studien haben die Ergebnisse aus der Aphasieforschung teilweise bestätigt. Darüber
hinaus haben sie aber auch neue Erkenntnisse darüber gebracht, welches Hirnareal welche
Information verarbeitet.
• Experimente haben gezeigt, dass manche Hirnareale mehrere Arten von Information
verarbeiten, und dass keine der sprachlichen Ebenen von nur einer einzigen Hirnregion
abhängt.
• Was diese Erkenntnisse für den Versuch bedeuten, Module im Gehirn genau zu lokalisieren,
darüber gibt es verschiedene Ansichten.
3.2.8 Von links nach rechts . . .
Wir haben festgestellt, dass die Verarbeitung von Kernaspekten der Phonologie, Semantik und Syntax
zum größten Teil von Regionen in der linken Hemisphäre abhängt. Studien haben aber gezeigt, dass
die rechte Hemisphäre die linke bei der Verarbeitung von gewissen sprachlichen Informationen
ergänzt. Beispielsweise spielt die rechte Hemisphäre eine große Rolle für die Verarbeitung der
prosodischen Struktur von Sätzen – also der ‘Satzmelodie’ und des Satzrhythmus (siehe Friederici &
Alter 2004).
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
18
ÜBUNG 7:
Widmen Sie sich dieser Aufgabe mit ein oder zwei KollegInnen, und lesen Sie sich die folgenden
Sätze gegenseitig vor. Ein Schrägstrich steht für eine kurze Pause – achten Sie darauf, wenn Sie die
Sätze vorlesen. Hören sich alle Sätze ‘gut’ an bzw. machen alle Sätze Sinn, wenn Sie wie angegeben
gelesen werden? Falls nicht, versuchen Sie herauszufinden, warum. Diskutieren Sie dies mit Ihren
KollegInnen.
i)
a. Maria verspricht Peter / bald zu arbeiten.
b. Maria verspricht / Peter bald zu arbeiten.
ii) a. Maria verspricht Peter / bald zu entlasten.
b. Maria verspricht / Peter bald zu entlasten.
iii) a. Der Junge sagt / der Bus wird wahrscheinlich zu spät kommen.
b. Der Junge / sagt der Bus / wird wahrscheinlich zu spät kommen.
iv) a. Der Junge sagt / der Mann wird wahrscheinlich zu spät kommen.
b. Der Junge / sagt der Mann / wird wahrscheinlich zu spät kommen.
Sie haben sicher bemerkt, dass die Sätze (ib) und (iia) ungrammatisch sind, weil die Pausen an einer
unpassenden Stelle auftreten. Satz (iiib) ist zwar grammatisch, ergibt aber keinen Sinn (außer eventuell
in einem Kontext, in dem ein Bus sprechen kann – z.B. in einem Zeichentrickfilm): Im Normalfall
kann ein Junge zwar zu spät kommen, aber ein Bus kann nicht sprechen. Alle Sätze der Übung 7
bestehen syntaktisch aus zwei Teilsätzen (jeder der Übungssätze enthält zwei Verben und zwei
Nominalphrasen). Wenn wir einen Satz verarbeiten, müssen wir zusammengehörende Wörter im Satz
erkennen und daraus eine syntaktische Struktur aufbauen, um so festzustellen, in welcher Beziehung
die einzelnen Teile des Satzes zueinander stehen. In gesprochener Sprache sind prosodische Merkmale
– wie z.B. eine auf- oder absteigende Intonation oder kurze Pausen – sehr effektive und wichtige
Hinweise auf die Struktur eines Satzes. Wie bedeutungsvoll die Prosodie für die Syntax ist, zeigen die
Sätze in (iv). Die Sätze (a) und (b) bestehen aus einer Abfolge von völlig identischen Wörtern. Eine
unterschiedliche Pausensetzung in den zwei Sätzen hat eine unterschiedliche Satzstruktur zur Folge
und damit auch eine andere Bedeutung – in Satz (iv-a) ist es der Mann, der wahrscheinlich zu spät
kommen wird; in Satz (iv-b) ist es allerdings der Junge. In den Sätzen ia, iib und iiib der Übung 7
werden wir von der Prosodie allerdings in die Irre geführt: Die absichtlich an einer unpassenden Stelle
platzierten Pausen machen die Sätze ungrammatisch oder sinnlos.
Doch woran liegt das genau? Sehen wir uns dazu die Sätze in (i) und (ii) etwas genauer an: Obwohl
die Pausen in (ib) und (iib) genau an derselben Stelle auftreten, ist (ib) ungrammatisch, (iib) jedoch
nicht. Der Unterschied muss also in den einzigen Wörtern liegen, die sich in den beiden Sätzen
unterscheiden – den Verben am Satzende: ‘arbeiten’ in (ib), ‘entlasten’ in (iib). Entscheidend ist hier,
dass ein Verb wie ‘arbeiten’ prinzipiell nur ein Subjekt haben kann (xa), jedoch kein Objekt (xb). Im
Gegensatz zu solchen intransitiven Verben, müssen sogenannte transitive Verben wie ‘entlasten’
sowohl ein Subjekt, als auch ein Objekt haben – wenn das Objekt fehlt, entsteht ein unvollständiger
Satz (xxb).
(5) a.
Maria arbeitet.
b. * Maria arbeitet ihn. / * Maria arbeitet den Aufsatz.
(6) a.
Maria entlastet ihn.
b. * Maria entlastet.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
19
(7) a. * Es ist kein Problem, Maria zu arbeiten.
b.
Es ist kein Problem, ihn zu entlasten.
c. * Es ist kein Problem, Maria ihn zu entlasten.
Sowohl intransitive Verben wie ‘arbeiten’ als auch transitive Verben wie ‘entlasten’ können ihr
Subjekt jedoch nur dann offen realisieren, wenn sie in einer finiten Form stehen, wie z.B. in der 3.
Person singular in (5) und (6). Wenn sie jedoch infinit sind (also in der Nennform erscheinen), können
Verben aber kein offen genanntes Subjekt haben1, sondern nur ein offen genanntes Objekt. Als Folge
hiervon kann an ein Verb wie ‘arbeiten’ im Infinitiv gar keine Nominalphrase mehr angehängt werden
(siehe 7a), an ein Verb wie ‘entlasten’ nur noch das Objekt (siehe 7b), jedoch nicht mehr Objekt und
Subjekt (7c).2
Während der Verarbeitung von Sätzen wie (i) und (ii) veranlasst die Prosodie den Parser dazu,
Vorhersagen zu machen, was für eine Art von Verb am Satzende kommen muss. In (ib) und (iib) wird
der Parser durch die kurze Pause vor ‘Peter’ dazu gebracht, ‘Peter’ als zum zweiten, noch nicht
gehörten Verb gehörend einzuordnen. Der Parser merkt im Laufe des Satzes auch, dass das zweite
Verb infinit ist. Er macht deshalb die Vorhersage, dass am Satzende nach ‘zu’ ein Verb wie ‘entlasten’
folgen muss, dass im Infinitiv ‘Peter’ als Objekt nehmen kann (siehe xb). Dies ist der Fall in dem
grammatischen Satz (iib) – in (ib) folgt jedoch ‘arbeiten’ als Verb im Infinitiv. Da ein transitives Verb
wie ‘arbeiten’ im Infinitiv aber gar keine offen genannte Nominalphrase nehmen kann (siehe xxxa),
weiß der Parser plötzlich nicht, was er nun mit ‘Peter’ machen soll – die Prosodie sagt, dass die
Nominalphrase ‘Peter’ zum zweiten Verb gehört, dieses kann im Infinitiv aber gar keine syntaktische
Position dafür bereitstellen.
Wenn die gleichen Sätze jedoch mit einer kurzen Pause nach ‘Peter’ gehört werden wie in (ia) und
(iia), dreht sich das Muster um: Jetzt ordnet der Parser ‘Peter’ als Objekt des ersten Verb ‘verspricht’
ein. In (ia) gibt es deshalb mit dem zweiten Verb ‘arbeiten’ kein Problem mehr, während in (iia) durch
die zu spät gesetzte prosodische Pause dem Verb ‘entlasten’ – das auch im Infinitiv noch ein Objekt
1
Anders als in einem Satz wie (A), wo das Verb ‘arbeitet’ in einer finiten Form (3. Person Einzahl) auftritt und
deshalb – in Sprachen wie Deutsch und Englisch – auch ein übereinstimmendes Subjekt vorhanden sein muss.
(A) Maria verspricht, dass Peter bald arbeitet.
Nicht in allen Sprachen muss in einem Satz mit einer finiten Verbform auch obligatorisch ein Subjekt vorhanden
sein. Dies ist in Sprachen wie Deutsch und Englisch zwar der Fall, nicht aber in Sprachen wie z.B. Italienisch
oder Kroatisch. In diesen Sprachen kann das Subjekt auch fehlen, da es sich aus der Verbform eindeutig ableiten
lässt. Auf Italienisch kann man z.B. sagen: ‘amo Roma’, was auf Deutsch übersetzt heißt: ‘ich liebe Rom’.
Anders als im Deutschen braucht man im Italienischen kein ‘ich’, weil die Verbendung -o nur in der 1. Person
Einzahl verwendet wird. Im Gegensatz dazu wird im Deutschen die Verbendung -e nicht nur für die 1. Person
Einzahl, sondern im Konjunktiv auch für die 3. Person verwendet: ‘Er sagt, er liebe Rom nicht’.
2
Obwohl ein Verb im Infinitiv kein offen genanntes Subjekt haben kann, wissen wir dennoch, dass jemand die
vom infiniten Verb bezeichnete Handlung ausführt. Wer aber ist die handelnde Person eines Verbs im Infinitiv,
bei dem ein Subjekt nicht offen genannt wird? Wer arbeitet in einem Satz wie (ia)? Wenn eine solche Nennform
von einem Verb wie ‘versprechen’ abhängt (wie in den Beispielen iab und iiab), dann wird das Subjekt von
‘versprechen’ auch als Subjekt von der Nennform interpretiert. In den Sätzen in (i) kann es demnach nicht
‘Peter’ sondern nur ‘Maria’ sein, die bald ‘arbeiten wird’. Daneben gibt es allerdings Verben, die sich anders
verhalten. Dies ist z.B. für ein Verb wie ‘bitten’ der Fall. Vergleichen Sie den Beispielsatz (ia) ‘Maria verspricht
Peter, bald zu arbeiten’ mit dem Satz ‘Maria bittet Peter, bald zu arbeiten’. Anders als bei ‘versprechen’ wird
bei einem Verb wie ‘bitten’, das Objekt von ‘bitten’ – hier ‘Peter’ – als Subjekt von dem abhängigen Verb im
Infinitiv verstanden: In diesem Fall wird nicht Maria, sondern Peter bald arbeiten.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
20
braucht – plötzlich sein Objekt fehlt. Mit dieser Intonation ist (ia) also grammatisch, während (iia)
ungrammatisch wird.
In (8) und (9) werden die Sätze (iab) und (iiab) noch einmal mit den verschiedenen Intonationsmustern
veranschaulicht. Die grauen Markierungen zeigen, welchem Verb wir auf Grund der Intonation ‘Peter’
als Objekt zuordnen. In den ungrammatischen Sätzen zeigen die eckigen Klammern und die Pfeile an,
wo die Probleme liegen: In (5b) kann das Verb ‘arbeiten’ keinen Platz für ‘Peter’ zur Verfügung
stellen (was durch den gestrichelten Pfeil angezeigt wird), in (5b) hingegen fehlt ‘Peter’ vor dem Verb
‘entlasten’.
(8) a.
Maria verspricht Peter
bald zu arbeiten
??
b. * Maria verspricht
[Peter] bald zu arbeiten
??
(9)
a. * Maria verspricht Peter
b.
Maria verspricht
[___] bald zu entlasten
Peter bald zu entlasten
Aktuelle Studien zeigen, dass die rechte Hemisphäre eine wichtige Rolle bei der Verarbeitung solcher
prosodischen Merkmale spielt (Friederici & Alter 2004), auch wenn noch nicht klar ist, in welchem
Ausmaß. Experimente mit Sätzen wo Prosodie und Syntax in Konflikt stehen (wie in unseren
absichtlich ‘schlechten’ Sätzen) legen nahe, dass die rechte Hirnhälfte einen Teil der prosodischen
Information, die dort verarbeitet wird, an die linke schickt. Die Information wird dabei über das
Corpus Callosum geleitet (Friederici et al. 2007). Das ist jenes mächtige Faserbündel, das die beiden
Hirnhälften miteinander verbindet.
Wie Sie schon aus Kapitel 1 und 2 wissen, hört Sprache natürlich nicht bei einzelnen Sätzen auf. Um
unseren Mitmenschen Nachrichte, Geschichten, Wünsche, usw. mitzuteilen, produzieren wir
normalerweise ganze Texte – mündliche oder schriftliche. Ein Text besteht aus mehreren Sätzen, die
sowohl inhaltlich als auch mit Hilfe von textgrammatischen Mitteln3 miteinander verbunden sind. Um
uns mit unseren ZuhörerInnen (oder LeserInnen) sprachlich erfolgreich auszutauschen, werden wir
auch immer den gesamten Kontext einer Kommunikation beachten müssen. Je nachdem worüber wir
uns mit wem zu welchem Anlass und wo unterhalten, werden wir uns dem konkreten Kontext auch
sprachlich anpassen. Der gesamte Kontext wird einen starken Einfluss darauf haben, wie wir eine
Nachricht, eine Frage, einen Wunsch, usw. formulieren oder sie verstehen werden. Diese Aspekte der
Sprache, die gerade angesprochen wurden, gehören zu den Ebenen der Textlinguistik bzw. der
Pragmatik (vgl. dazu auch Kap. 1, S....).
Wenn man sich die Verarbeitung solcher textlinguistischen und pragmatischen Aspekte der Sprache
aus neurolinguistischer Sicht anschaut, so zeigt sich, dass auch hier die rechte Hemisphäre beteiligt ist
3
Zu den textgrammatischen Mitteln, die wir einsetzen, um Sätze zu einem Text zu verbinden, gehören u.a. die
Verwendung von Bindewörtern oder Konjunktionen (wie z.B. ‘und dann ’, ‘und vorher’), und von Prononima
(z.B. ‘Es gab einmal einen König. Er hatte eine Tochter. Sie war ... Und eines Tages beschloss der König...’).
Auch der Einsatz von bestimmten und unbestimmten Artikelformen muss in einem Text genau beachtet werden:
In dem hier angeführten Beispiel verweisen ‘ein König’ und ‘der König’ auf ein und dieselbe Person. So ergibt
sich der Anfang einer Geschichte – eines Märchens. Die Sätze machen als Text allerdings wohl wenig Sinn,
wenn wir die Artikel ‘ein’ und ‘der’ in umgekehrter Reihenfolge einzuführen und beginnen mit: ‘Es gab einmal
den König. ... Und eines Tages beschloss ein König ...’.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
21
(Beeman 2005; Joanette et al. 1990). Manche Menschen mit einer Schädigung der rechten
Hirnhälfte haben ernsthafte Probleme damit, den Sinn eines Textes oder die pragmatische Aspekte
einer Äußerung zu verstehen. Menschen mit Problemen auf der pragmatischen Ebene verstehen z.B.
eventuell nicht, dass eine Äußerung wie „Hier drinnen ist es aber kalt!“, weniger über die
Raumtemperatur informieren möchte als vielmehr den Wunsch ausdrückt, dass die Fenster
geschlossen werden sollen. Bei Verletzungen der rechten Hirnhälfte kann es außerdem auch zu
Schwierigkeiten mit dem Verstehen von sprachlichen Witzen, Sarkasmus und nicht-wörtlichen
Bedeutungen kommen. So kann beispielsweise der übertragene Sinn von Metaphern und Idiomen,
wie ‘mir fällt ein Stein vom Herzen’, nicht verstanden werden. Wenn Defizite dieser Art vorliegen,
fällt es dem/der Betroffenen oft schwer, seine/ihre Sprache einer Situation angemessen zu verwenden.
Obwohl diese Patienten manchmal große Probleme mit einer adäquaten Sprachverwendung haben,
gelten sie nicht als aphasisch, weil zentrale Ebenen ihres Sprachsystems nicht betroffen sind.
Zusammenfassung
In diesem Abschnitt haben Sie gelesen, dass
• die rechte Hemisphäre die linke bei der Verarbeitung von prosodischer Satzstruktur, Texten,
nicht-wörtlichen und pragmatischen Aspekten der Sprache ergänzt.
• Personen mit Schädigungen der rechten Hemisphäre manchmal große Schwierigkeiten mit
eben diesen Aspekten der Sprache haben können.
3.3. Einige Prinzipien der Funktionsweise und Entwicklung des Gehirns
3.3.1 Aufbau und Funktionsweise von Gehirnzellen
Das zentrale Nervensystem besteht aus zwei Arten von Zellen: Neuronen (Nervenzellen), die
grundlegenden Einheiten der Informationsverarbeitung innerhalb des Nervensystems, und Gliazellen,
die verschiedene Versorgungs- und ‘Haushaltsfunktionen’ für Neuronen ausüben. Neuronen gibt es in
vielen verschiedenen Ausführungen, aber ein typisches Neuron besteht aus einigen wesentlichen
Teilen, die Sie in Abbildung 7 sehen können (vgl. Kandel 2000). Der Zellkörper (Soma) hat zwei
verschiedene Arten von Fortsätzen: ein langes Axon, das vom Zellkörper wegführt, und weitere
Fortsätze namens Dendriten. Während die Dendriten hereinkommende Information von anderen
Neuronen empfangen, schickt das Axon Information an andere Neuronen weiter. Wie Sie in
Abbildung 7 sehen können, ist das Axon in eine weiße Schicht aus Myelin gehüllt. Die Myelinschicht
um ein Axon dient als eine Art Isolierung und spielt eine wichtige Rolle für den
Informationstransport zwischen Neuronen: Sie beschleunigt den Transport des elektrischen Signals
am Axon entlang bis zur Synapse, der Schaltstelle für die Kommunikation zwischen zwei Neuronen.
Abbildung 7 ca. hier einfügen
Das elektrische Signal, das von einer Nervenzelle erzeugt wird (das so genannte Aktionspotential)
schießt am Axon mit bis zu 100 Meter pro Sekunde entlang. Wenn es das Ende des Axons erreicht hat,
muss es in ein chemisches Signal ‘übersetzt’ werden, da das Axon des sendenden Neurons und die
Dendriten des empfangenden Neurons nicht in direktem Kontakt stehen. Sie sind durch eine winzige
Lücke getrennt, den synaptischen Spalt. Um die Distanz zwischen dem präsynaptischen (dem
sendenden) und dem postsynaptischen (dem empfangenden) Neuron zu überbrücken, werden bei der
Ankunft des elektrischen Signals an der Synapse chemische Substanzen (Neurotransmitter) in den
synaptischen Spalt hinein freigesetzt. Diese Transmitter docken an Rezeptoren auf den Dendriten des
postsynaptischen Neurons an und führen letztendlich zu einem elektrischen postsynaptischen Potential
auf der empfangenden Seite der Synapse. Abhängig vom Typ des Rezeptors sind diese
postsynaptischen Potentiale entweder erregend (exzitatorisch) oder hemmend (inhibitorisch):
Erregende Potentiale machen es wahrscheinlicher, dass das empfangende Neuron letztendlich selbst
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
22
ein Aktionspotential abfeuert (und die Information des sendenden Neurons so weiterleitet), während
hemmende Potentiale in die Gegenrichtung wirken und ein Feuern unwahrscheinlicher machen.
Ein Neuron feuert jedoch nicht, sobald es den erstbesten Input von anderen Neuronen bekommt.
Vielmehr wiegt ein Neuron gewissermaßen die Vor- und Nachteile eines Feuerns ab und produziert
nur dann selbst ein Signal, wenn es genug exzitatorischen Input von anderen Neuronen zur selben Zeit
bekommt und so eine Schwelle erreicht wird. Wenn diese Schwelle überschritten ist, produziert das
empfangende Neuron selbst ein elektrisches Aktionspotential. Des Weiteren feuert ein Neuron, oder
es feuert nicht, es feuert jedoch nicht ‘etwas mehr oder etwas weniger’ – ein Aktionspotential ist ein
kurzes Signal (mit einer Dauer von 1-10 Millisekunden), das ganz oder gar nicht produziert wird. Die
von unterschiedlichen Nervenzellen produzierten Aktionspotentiale sind sich dabei sehr ähnlich. Wie
kann unser Gehirn dann überhaupt verschiedene Empfindungen auseinander halten (z.B. ein leichter
Druck auf der Hand oder ein starker Reiz am Fuß), wenn sich die Signale innerhalb des Gehirns so
ähnlich sind?
Ein wichtiger Faktor dabei ist, wo ein Reiz entsteht. Das wiederum bestimmt den genauen Weg, den
das Signal über gewisse Schaltkreise und Pfade im Nervensystem durchlaufen wird und wo es am
Ende im Gehirn ankommen wird. Solche Pfade werden von Gruppen von Neuronen gebildet. Ein
Druck, den wir auf der Hand spüren, wird zu einem bestimmten Gebiet innerhalb des sensorischen
Kortex geschickt (siehe Abbildung 3), während ein Reiz vom Fuß zu einem anderen Abschnitt
geschickt wird. Die Intensität eines Reizes wird dagegen durch die Häufigkeit, mit der ein Neuron
feuert, kodiert: Stärkere Reize veranlassen ein Neuron, schneller hintereinander zu feuern (siehe
Kandel 2000).
Wenn man nur einzelne Neuronen isoliert betrachtet, bekommt man den Eindruck, dass alles relativ
einfach abläuft: Ein Neuron feuert oder es feuert nicht. Neurone können allerdings mehrere tausend
synaptische Verbindungen mit anderen Nervenzellen haben und das gesamte Gehirn hat
11
schätzungsweise ca. 10 – also 100 Milliarden! – Nervenzellen, die innerhalb ihrer Schaltkreise
massiv untereinander verbunden sind und in extrem komplexer Art und Weise aufeinander
einwirken. Dieses komplizierte Zusammenspiel einer unfassbar hohen Zahl von Einheiten macht das
Gehirn zu einem der komplexesten Systeme, die wir kennen (siehe dazu Kandel, Schwartz & Jessell
2000). Dennoch ist das Gehirn ein hoch strukturiertes Organ und jedes Verhalten hängt von einem eng
abgestimmten Zusammenspiel einer großen Zahl miteinander verbundener Nervenzellen ab, die
zusammen mit anderen Neuronengruppen wiederum die zahlreichen spezialisierten funktionalen
neuronalen Schaltkreise bilden (siehe Kandel 2000).
Gleichzeitig spielt aber jedes einzelne Neuron innerhalb eines solchen Kreislaufs eine Rolle, indem es
zu jeder Zeit von anderen Neuronen empfangene Signale in seiner Umgebung weiterleitet oder dies
nicht tut. Der Schlüssel liegt also in dem genauen ‘Schaltplan’ der synaptischen Verbindungen in
14
unserem Gehirn (wobei allein die Zahl der Synapsen im Neokortex des Großhirns auf über 10
geschätzt wird – siehe Pakkenberg et al. 2003) und in ihrer Effektivität: Manche Synapsen sind mehr,
manche weniger effektiv und die Stärke einer Synapse kann sich im Laufe der Zeit verändern. Eine
Synapse kann beispielsweise stärker und effektiver werden, wenn ein Signal, das von einem Neuron
gesendet wird, das Empfängerneuron wiederholt dazu bringt zu feuern. Dieses Prinzip wird oft wie
folgt charakterisiert: ‘cells that fire together, wire together’ – auf Deutsch in etwa: ‘Zellen, die
zusammen feuern, schließen sich zusammen’. Dies ist einer der Mechanismen synaptischer Plastizität,
die Grundlage für lebenslanges Lernen.
3.3.2 Einige Prinzipien der Gehirnentwicklung und -organisation
Das zentrale Nervensystem (das Gehirn und das Rückenmark) entwickelt sich aus dem so genannten
Neuralrohr. Das Neuralrohr ist eine embryonale Struktur, die sich während der dritten und vierten
Schwangerschaftswoche bildet. Die Neuronen und Gliazellen, die das zentrale Nervensystem bilden,
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
23
werden in den folgenden Monaten der Entwicklung produziert – wobei die beeindruckende Zahl von
250.000 Neuronen pro Minute produziert wird (Sengelaub 2003). Neurone bleiben allerdings nicht
dort, wo sie entstehen. Sie wandern zu der Position, die sie im ausgewachsenen Gehirn einnehmen
werden, und bilden so das Gehirn und die Schichten des Kortex (siehe de Haan & Johnson 2003;
Rakic 2000; Sengelaub 2003; auf Deutsch auch Eliot 2002, p. 27ff.). Anschließend wachsen die
Dendriten der Nervenzellen und verästeln sich, die Axone wachsen und werden zu geeigneten
Zielneuronen geleitet. Dabei folgen Sie einer Spur von unterschiedlichen molekularen Signalen.
Letztendlich entstehen erste synaptische Verbindungen zwischen Neuronen. Ein großer Teil der vielen
Milliarden Neuronen, die während der frühen Entwicklung gebildet werden, wird jedoch nicht einmal
bis zur Geburt des Kindes überleben. Ein Teil der normalen Entwicklung des Nervensystems besteht
darin, überschüssige Zellen abzubauen. Dieser Mechanismus ist auch als programmierter Zelltod
bekannt.
Das Prinzip der Überproduktion von neuronalen Strukturen und ihrem anschließenden kontrollierten
Abbau betrifft allerdings nicht nur ganze Zellen. In Abschnitt 3.3.1 haben wir darauf hingewiesen,
dass unser Gehirn ‘lernt’, indem es synaptische Verbindungen zwischen Neuronen bildet, die sich zu
feinabgestimmten, effektiven Schaltkreisen zusammenschließen. Um die Geburt herum kommt es zu
einer vermehrten Bildung solcher Synapsen (Synaptogenese genannt). Dies führt zu einem großen
Überschuss an synaptischen Verbindungen. Diese Überproduktion wird vorerst nur durch unsere Gene
gesteuert und läuft unabhängig von Einflüssen und Erfahrungen aus der Umgebung ab. Im Laufe der
Entwicklung werden dann allerdings wenig genutzte, ineffektive Synapsen allmählich wieder
abgebaut. Auf Englisch wird dieser Abbau von Synapsen ‘synaptic pruning’ (‘das Stutzen von
Synapsen’) genannt. Gleichzeitig können sich durch den Abbau von überschüssigen Verbindungen
gezielt effektive Schaltkreise herausbilden: Aktive Synapsen gedeihen, während seltener genutzte,
ineffektive Verbindungen ‘gestutzt’ werden. Ein solcher Abbau von Synapsen trägt also
entscheidend zur ermöglicht also erst die Bildung jener Schaltkreisen, die für den Erwerb von
kognitiven Fähigkeiten bedeutend sind. Angebot und Einfluss aus der Umgebung sind es, die aus
dem ursprünglich erfahrungsunabhängigen Überschluss an Synapsen die konkreten, spezialisierten
Schaltkreise ‘gestalten’ und fixieren werden. Der Abbau von synaptischen Verbindungen wird von der
fortschreitenden Myelinisierung der Axone ergänzt, wodurch der Informationsaustausch zwischen
Neuronen und zwischen Hirnarealen – über subkortikale Verbindungen – beschleunigt wird.
Diese Prozesse – die anfängliche Überproduktion von Synapsen, das anschließende Stutzen
überflüssiger Verbindungen und die Myelinisierung von Axonen – bilden die Grundlagen für die
enorme Flexibilität unseres Gehirns während der Kindheit. Sie sind es, die den scheinbar mühelosen
Erwerb von extrem komplexen kognitiven Fähigkeiten, wie z.B. Sprache, während dieser frühen
Lebensjahren ermöglichen. – finden allerdings nicht überall im ganzen Gehirn zur gleichen Zeit statt.
Unterschiedliche Hirnregionen folgen dabei eigenen Zeitplänen. Areale, die für grundlegende
Funktionen – z.B. für sensorische oder motorische Funktionen – zuständig sind, reifen früh in der
Entwicklung. Andere Regionen, die zum Teil höheren kognitiven Funktionen wie z.B. Sprache dienen
(z.B. Areale im Temporal- und Parietallappen sowie im präfrontalen Kortex), reifen dagegen erst
später. Das heißt, dass der synaptische Überschuss in diesen Regionen erst später sein Maximum
erreicht. Auch der Abbau von überschüssigen synaptischen Verbindungen und die Myelinisierung
setzen hier dann zu einem späteren Zeitpunkt in der Entwicklung ein (siehe Casey et al. 2000 und
2005).
Abbildung 8 zeigt die Unterschiede und Überschneidungen in der Reifung von einzelnen
Hirnregionen. Wie Sie sehen können reift der präfrontale Kortex viel später in der Entwicklung
(während der Pubertät) als z.B. der sensomotorische Kortex (in den ersten Lebensjahren). Die
Abbildung zeigt auch, dass die Myelinisierung von Axonen, die die Kommunikation zwischen
Hirnarealen effektiver macht, bis ins Erwachsenenalter andauert. Die Reifung von spezifischen
Hirnregionen sowie der zunehmende Informationsaustausch zwischen den einzelnen Hirnregionen
sind zwei wichtige Faktoren für den Erwerb von kognitiven Fähigkeiten während der Kindheit (siehe
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
24
Johnson 2001). Dieses Thema werden wir in Zusammenhang mit dem Erwerb von Sprache im
nachfolgenden Abschnitt 3.3.4 wieder aufgreifen.
Abbildung 8 ca. hier einfügen
Bruer (1999: 137) weist darauf hin, dass eine solches Entwicklungsmuster auch folgenden
überraschenden Schluss zulässt: Der fortschreitende Erwerb einer Fähigkeit während der Kindheit und
Pubertät kann in manchen Fällen vielmehr von einer massiven Abnahme von Synapsen als von einer
Zunahme von Synapsen abhängen. In solchen Fällen gilt also: „Weniger ist mehr“.
Während ein Stutzen von Synapsen in einigen Hirnarealen noch während der Pubertät im großen Stil
stattfindet (siehe Abbildung 8), scheint es im Erwachsenenalter nicht mehr stattzufinden. Dennoch
haben viele Studien gezeigt, dass auch das erwachsene Gehirn noch viel formbarer ist als lange Zeit
gedacht wurde (Elbert & Rockstroh 2004) und während des ganzen Lebens zu einem gewissen Grad
flexibel auf Erfahrungen und Veränderungen reagieren kann. Zwei Mechanismen dürften uns während
unseres gesamten Lebens zur Verfügung stehen und Lernen auch im Erwachsenalter ermöglichen: Die
Anpassung und Festigung bereits bestehender Synapsen sowie die Bildung neuer synaptischer
Verbindungen (siehe Bourgeois et al. 2000; Geinisman 2000; Greenough & Black 1992 für Diskussion
und verschiedene Ansichten).
Ein weiteres Prinzip der Gehirnentwicklung ist die Lateralisierung von Funktionen. Obwohl die zwei
Großhirnhälften in ihrem Aufbau und Aussehen annähernd symmetrisch sind, spezialisieren sich die
zwei Hälften im Laufe der Entwicklung eines Kindes auf unterschiedliche Aufgabenstellungen, was zu
einer funktionalen Asymmetrie der beiden Hirnhälften im erwachsenen Hirn führt (siehe Hugdahl
2000 für eine Diskussion von Lateralisierung).
Die genauen Gründe für und die Mechanismen der Lateralisierung von kognitiven Funktionen sind
auch heute noch nicht geklärt (siehe Toga & Thompson 2003 für einen Überblick).
Wie Sie bereits wissen, werden die Kernfunktionen der phonologischen, lexikalischen,
morphologischen und syntaktischen Verarbeitung bei den meisten Menschen vor allem von der linken
Hemisphäre übernommen.4 Die sprachliche Dominanz der linken Hemisphäre dürfte zum Teil bereits
von den Genen vorbestimmt sein. Dies zeigt sich darin, dass das Planum temporale bereits beim Fötus
im Mutterleib in der linken Hirnhälfte größer als in der rechten wird. Beim Planum temporale handelt
es sich um eine Region im Temporallappen, die eine wichtige Rolle für die Analyse des sprachlichen
Signals hat und bei Erwachsenen in der linken Hemisphäre oft größer ist als in der rechten (siehe
Shapleske et al. 1999 für einen Überblick). Und wie aktuelle Neuroimaging-Studien zeigen, ist schon
bei neugeborenen Babys die linke Hemisphäre stärker an der Erkennung von sprachlichen Signalen
beteiligt als die rechte (siehe Dehaene-Lambertz et al. 2006 für einen Überblick; siehe auch Kapitel 4,
S. ...).
Es gibt verschiedenen Meinungen dazu, wie weit die Spezialisierung der linken Hemisphäre für
Sprache geht und woher sie kommt: Aus Sichtweise der Invarianz (‘irreversible determinism’) ist die
sprachliche Dominanz der linken Hirnhälfte angeboren und nicht umkehrbar. Dem gegenüber steht die
Annahme der Äquipotenz (‘equipotentiality’), d.h. dass beide Hemisphären bei der Geburt ein gleich
großes Potential zur Sprachverarbeitung haben und die linke Hälfte im Lauf des Spracherwerbs dann
die wichtigsten Sprachfunktionen übernimmt (Lenneberg 1967). Diese Sicht wurde durch
Beobachtungen gestärkt, dass die rechte Hemisphäre sehr wohl auch sprachliche Kernfunktionen
übernehmen kann, wenn die linke Hemisphäre in frühen Jahren geschädigt wird. In den letzten Jahren
hat sich eine Ansicht entwickelt, die einen Mittelweg zwischen diesen beiden extremen Positionen
4
Bei etwa 98% der RechtshänderInnen und ca. 70% der LinkshänderInnen ist die Sprache vorwiegend in der
linken Hemisphäre lateralisiert.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
25
darstellt (Bates & Roe 2001). Demnach besitzt jede der Hemisphären angeborene aber ‘weiche’
Vorlieben (‘soft bias’) für die Verarbeitung von bestimmter sprachlicher Information. Da diese
Anlagen allerdings nicht völlig fix sondern ‘weich’ sind, gibt es im Laufe des Spracherwerbs immer
noch Spielraum zur Reorganisation (siehe Bates & Roe 2001 für eine Diskussion).
Zusammenfassung
In den letzten beiden Abschnitten haben Sie gelesen, dass
• Neuronen Information innerhalb von funktionalen neuronalen Schaltkreisen verarbeiten und
über Synapsen Signale an andere Neurone weiterleiten.
• synaptische Plastizität lebenslanges Lernen ermöglicht.
• die genauen Schaltpläne unseres Gehirns das Resultat von erfahrungsunabhängigen,
angeborenen Prozessen und von Einflüssen durch Input aus der Umwelt sind. Anfänglich gibt
es einen Überschuss an Synapsen. Einflüsse und Erfahrungen aus der Umwelt sind dafür
verantwortlich, dass sich daraus später gezielt konkrete Schaltkreise bilden. Ein Mechanismus,
der dabei eine bedeutende Rolle spielt, ist das massive Stutzen von überflüssigen, nicht
genutzten synaptischen Verbindungen.
• unterschiedliche Hirnareale über verschiedene Entwicklungszeiträume reifen.
• es verschiedene Ansichten darüber gibt, warum Sprachfunktionen in der linken Hemisphäre
verankert sind.
3.3.3 Das plastische Gehirn: Wie das Gehirn auf Herausforderungen reagieren kann
Kommen wir jetzt zu Abbildung 1 zurück, die das Gehirn eines siebenjährigen Mädchens zeigt. Ihr
musste mit drei Jahren die linke Hirnhälfte chirurgisch entfernt werden, um weitere epileptische
Anfälle zu vermeiden (ein drastischer Eingriff, der Hemisphärektomie genannt wird). Die Antwort auf
die Frage nach den sprachlichen Fähigkeiten dieses Mädchen überrascht. Aus der kurzen,
anekdotischen Beschreibung, die Borgstein und Grootendorsts (2002) über das Mädchen geben, geht
hervor, dass das Mädchen trotz des Eingriffs nicht nur eine Sprache erworben hat, sondern dass es
zwei Erstsprachen – Türkisch und Niederländisch – spricht! Ein solcher Eingriff würde bei
Erwachsenen jedoch wohl zu einem fast vollständigen Verlust von Sprache führen. Studien mit
jüngeren Kindern, die sich einer Hemisphärektomie unterziehen mussten, haben gezeigt, dass eine
weitgehende Wiederherstellung oder ein weitgehender Erhalt oder Erwerb von Sprache beim Verlust
einer ganzen Hemisphäre bei Kindern kein Einzelfall ist (siehe Bates & Roe 2001; Curtiss et al. 2001).
Der vorliegende Fall bestätigt außerdem, dass es nichts Außergewöhnliches ist, wenn Kinder in
diesem Alter zwei oder mehrere Sprachen erwerben – wenn ein halbes Gehirn zwei Sprachen
verarbeiten kann, schafft das ein gesundes ganzes allemal.
Wenn das kindliche Gehirn in frühem Alter eine Schädigung erleidet und dabei typische
Sprachregionen verletzt werden, so sind die Folgen für den Spracherwerb oft relativ gering –
verglichen mit den Verlusten, die ein ähnlicher Schaden bei einem Erwachsenen verursachen würde.
Auch wenn eine plötzliche Hirnschädigung auftritt (z.B. nach Schlaganfällen oder nach Unfällen mit
einem Schädel-Hirn-Trauma), kann das Gehirn in frühen Jahren noch sehr flexibel reagieren. Das
Kind wird anfangs zwar meistens Probleme mit Sprache oder eine Verzögerung beim Spracherwerb
aufweisen, im weiteren Verlauf entwickelt sich die Sprache dann jedoch oft gut und im Alter von fünf
bis sieben Jahren ist der sprachliche Entwicklungsstand oft im Normbereich (vgl. Bates 1999; Bates &
Roe 2001). Das kindliche Gehirn ist im frühen Alter noch imstande, alternative Wege für die
Organisation von Sprache einzuschlagen – auch wenn jene Regionen, die bei Erwachsenen Sprache
verarbeiten, verletzt wurden.
Hierbei zeigt die rechte Hemisphäre oft ein erstaunliches Potential dafür Sprachfunktionen zu
übernehmen, die normalerweise in der linken Hirnhälfte repräsentiert sind. Einen eindrucksvollen
Beweis dafür liefern Kinder, bei denen die gesamte linke Hemisphäre entfernt werden musste – wie
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
26
das vorhin erwähnte Mädchen. Eine ganze Hirnhälfte wird allerdings nur ganz selten entfernt. Bei den
meisten Hirnschädigungen bleiben beide Hirnhälften vorhanden, bestimmte Regionen sind jedoch
geschädigt. Studien mit bildgebenden Verfahren konnten zeigen, dass das Gehirn bei frühen
Schädigungen der linken Hemisphäre und Erhalt der rechten Hemisphäre auf verschiedene alternative
Wege zurückgreifen kann: Oft übernimmt die rechte Gehirnhälfte die Verarbeitung der betroffenen
Funktionen, manchmal springen allerdings auch erhaltene Teile des Sprachnetzwerks in der linken
Hemisphäre ein (Liégeois et al. 2004; Staudt et al. 2002).
Interessanterweise konnten auch bei frühen Schädigungen der rechten Hemisphäre unterschiedliche
Probleme beim Spracherwerb festgestellt werden. Dies weist darauf hin, dass die rechte Hemisphäre
speziell in frühen Phasen des Spracherwerbs die linke unterstützt (siehe Bates 1999; Curtiss & de
Bode 1999).
Als grobe Faustregel für die sprachliche Wiederherstellung von Kindern nach einer Hirnschädigung
hört man oft: ‘je früher desto besser’. Allerdings dürften darüber hinaus auch noch andere Faktoren
eine wichtige Rolle spielen. Während sich bei manchen Kindern z.B. trotz massiver Schädigungen und
Entfernung der linken Hemisphäre das Sprachsystem gut entwickelt oder erholt, ist das bei anderen
nicht der Fall. Nicht nur der Zeitpunkt/Beginn aber auch die Art, das Ausmaß der Schädigung dürften
dabei einen Einfluss darauf zu haben, wie gut sich das sprachliche System entwickeln kann (siehe
Curtiss & de Bode 1999). Curtiss und de Bode (1999) erwähnen in diesem Zusammenhang überdies,
dass es während früher Entwicklungsphasen des Gehirns (sowohl vor und als auch nach der Geburt) so
genannten ‘critical impact points’ geben kann – gemeint sind Zeitpunkte, die von entscheidendem
Einfluss sind. Wenn nun eine Hirnschädigung gerade an einem solch kritischen Punkt für die
Entwicklung des Gehirns auftritt, können die Auswirkungen auf den Spracherwerb deutlich
schwerwiegender sein, als zu anderen Zeitpunkten.
Wie schon erwähnt hat sich in den letzten Jahren herausgestellt, dass das Gehirn auch im
Erwachsenenalter noch erstaunlich anpassungsfähig ist und sich in einem gewissen Maß
reorganisieren kann (siehe Elbert & Rockstroh 2004). Die Leichtigkeit und das Ausmaß der
Wiederherstellung von Sprache, die man nach einer Hirnschädigung bei Kindern oft beobachten kann,
findet man bei Erwachsenen so eher nicht. Viele Erwachsene mit Aphasie leiden unter
schwerwiegenden, bleibenden Sprachstörungen. Dennoch erholen sich bei einigen AphasikerInnen
betroffene sprachliche Fähigkeiten im Laufe der Zeit. Wie groß die Verbesserungen hierbei sein
können, hängt von vielen Faktoren ab, unter anderem von der Art und dem Ausmaß der Schädigung
und vom Typus der aphasischen Störung. Eine wichtige Rolle spielt dabei natürlich auch die
Aphasietherapie.
Genau wie bei Kindern stellt sich die Frage, was bei der Rückbildung von sprachlichen Fähigkeiten im
erwachsenen Gehirn passiert. Auch hier lässt sich oft eine Kompensation durch die rechte Hemisphäre
beobachten. In solchen Fällen übernehmen oft die rechtsseitigen ‘Spiegelbilder’ von Spracharealen
der linken Hemisphäre die Informationsverarbeitung – also z.B. jene Region im rechten Frontallappen,
die dem Broca-Areal links entspricht (siehe Thompson 2000). Ebenso können unbeschädigte Teile des
linksseitigen Sprachnetzwerks zur Verarbeitung von beeinträchtigten sprachlichen Aspekten
einspringen. Wenn beispielsweise das Broca-Areal nicht komplett zerstört wurde, können noch intakte
Teile um das verletzte Gebiet herum die Arbeit der zerstörten Gebiete teilweise übernehmen (Vitali et
al. 2007). Die Arbeit, welche bei der Wiederherstellung von sprachlichen Funktionen von der linken
Hemisphäre geleistet werden kann, dürfte dabei häufig besser sein als das, was die rechte Hirnhälfte
beizutragen imstande ist (Karbe et al. 1998). Die ‘Bereitschaft’ der rechten Hemisphäre, sich nach
einer Schädigung der linken Hemisphäre verstärkt an der Sprachverabeitung zu beteiligen oder diese
ganz zu übernehmen, ist in den ersten Lebensjahren allerdings am größten und nimmt im
Erwachsenenalter ab (Müller et al. 1999). Wie groß das Potential der rechten Gehirnhälfte zur
Übernahme von unterschiedlichen sprachlichen Funktionen im Erwachsenenalter tatsächlich ist und
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
27
welchen Beitrag sie nach einer Hirnschädigung leisten kann ist im Moment noch eine offene Frage
(siehe Hillis 2006).
Unser Gehirn kann also prinzipiell auf drastische Ereignisse reagieren und versuchen, die Organisation
des Sprachsystems zu einem gewissen Grad anzupassen, sowohl im Kindes- als auch im
Erwachsenenalter – wie wir gesehen haben, gibt es dennoch wichtige Unterschiede. Die erhöhte
Plastizität unseres Gehirns während der Kindheit ist wohl das Ergebnis eines komplexen
Zusammenspiels einiger der besprochenen Entwicklungs- und Organisationsmechanismen des Gehirns
(wie dem ‘Sprießen und Stutzen’ der Synapsen und der Lateralisierung von verschiedenen Teilen des
Sprachsystems – siehe Bates 1999; Huttenlocher 1994). Diese Mechanismen werden jedoch immer
noch wenig verstanden, und generell gilt, dass „die Entwicklung des Nervensystems nicht nur
komplizierter ist, als wir uns vorgestellt haben, sondern dass sie sogar komplizierter sein könnte, als
wir uns vorstellen können“ (Rakic 1999: 106; aus dem Englischen übersetzt).
3.3.4 Kritische / sensible Perioden
Wenn es um die Entwicklung des Gehirns und kognitiver Fähigkeiten geht, ist ein weiteres zentrales
und heiß diskutiertes Thema das der kritischen Perioden. Eine kritische Periode wird als ein
biologisch vorgegebenes Zeitfenster gesehen, währenddessen das Gehirn für ganz bestimmte Reize
aus der Umgebung besonders ‘offen’ ist. Diese spezifischen Reize ermöglichen während so einer
Phase den schnellen und effizienten Erwerb von ganz bestimmten Fähigkeiten, wie z.B. Sehen oder
Sprache. Nach einer strikten Auslegung haben solche Fenster einen zeitlich festgelegten Beginn und
ein festgelegtes Ende. Sobald sich ein solches ‘Zeitfenster der Gelegenheiten’ jedoch aufgrund unserer
inneren biologischen Uhr plötzlich wieder schließt, kann die betreffende Kompetenz nicht mehr
erworben werden. Die kritische Periode für Sprache wurde oft mit der Zeit zwischen Geburt und
Pubertät angegeben (Lenneberg 1967).
Als Beweise für eine solche kritische Periode für den Spracherwerb wurden die Ergebnisse von
Studien so genannter ‘Wolfskinder’ oder ‘wilder Kinder’ gesehen. Damit sind Kinder gemeint, die
isoliert von der Gesellschaft und ohne sprachlichen Input aufwachsen. Wenn solche Kinder erst
während oder nach der Pubertät entdeckt werden – wie beispielsweise Genie, die im Alter von 13
Jahren gefunden wurde – erwerben sie Sprache nicht mehr in vollem Umfang. Während Genie einen
gewissen Wortschatz erwarb, blieben ihre syntaktischen Fähigkeiten recht beschränkt (Curtiss 1977;
siehe z.B. auch Grimshaw et al. 1998).
Heutzutage wissen wir allerdings, dass sich ein solches ‘Zeitfenster der Gelegenheiten’ sehr oft nicht
von einem Augenblick auf den anderen öffnet und sich auch nicht plötzlich wieder schließt. Vielmehr
beginnen und enden viele solcher Perioden eher allmählich und nicht abrupt, und auch nach ihrem
Höhepunkt bieten sie über lange Zeit ein gewisses Maß an ‘Offenheit’. Man kann beispielsweise
natürlich auch nach der Pubertät eine Zweitsprache durchaus noch sehr gut erlernen, vorausgesetzt es
wurde bis dahin ganz normal eine Erstsprache erworben (im Gegensatz zu den so genannten
‘Wolfskindern’, bei denen eine solche erstsprachliche Grundlage fehlt). Deshalb werden solche
weniger abrupt beginnende und endende Perioden erhöhter Aufnahmebereitschaft auch als sensible
Perioden bezeichnet (siehe Werker & Tees 2005). Vor allem bei der kognitiven Entwicklung von
Menschen ist es meist angebrachter von sensiblen als von kritischen Perioden zu sprechen (OECD
2007).
Studien haben gezeigt, dass es nicht nur eine einzige sensible Periode für Sprache gibt, sondern
mehrere Teilperioden, während derer unterschiedliche Teilbereiche der Sprache – wie oben
besprochen – vom Hirn buchstäblich ‘aufgesogen’ werden. Beispielsweise wird die sensible
Teilperiode für den Erwerb von phonologischen Fähigkeiten allgemein sehr früh angesetzt. Erste
phonologische Grundfähigkeiten werden ja bereits im Mutterleib erworben und sehr junge Babys
weisen erstaunliche Fähigkeiten bei der Analyse von Lautketten auf (siehe Kapitel 4). Werker und
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
28
Tees (2005) schätzen, dass die sensible Periode für phonetische Perzeption bereits zwischen vier und
acht Jahren ihr Minimum an Offenheit erreicht. Dabei legen Fähigkeiten, die in frühen sensiblen
Perioden erworben werden, das Fundament für den Erwerb von anderen Fähigkeiten während späterer
Zeiträume. Das gilt für sensible Perioden einer einzigen sprachlichen Ebene (lautliche, syntaktische,
etc.) und auch über die verschiedenen sprachlichen Ebenen hinweg. Die Fähigkeiten, die es
ermöglichen, gesprochene Sprache in einzelne Einheiten zu zerlegen (siehe Kapitel 2 und 4), bilden
beispielsweise eine Basis für die Worterkennung und das Lernen von Wörtern.
Noch sind nicht alle Einflüsse bekannt, die kritische/sensible Perioden regulieren. Dahinter dürfte ein
komplexes Zusammenspiel von genetisch vorbestimmten Programmen einerseits und von Anregungen
aus der Umgebung andererseits stehen (Hensch 2004). Ausschlaggebend dabei ist, dass zu richtiger
Zeit – wenn ein bestimmtes Programm aktiv ist – die passenden Reize von Außen kommen. Als ein
möglicher wichtiger Mechanismus hinter sensiblen Perioden werden das synaptische ‘Sprießen’ und
späteres kontrolliertes ‘Stutzen’ angesehen (siehe Bruer 1999; Greenough & Black 1992), welche in
den einzelnen Regionen des Kortex in unterschiedlichen Zeiträumen stattfinden (vgl. Abschnitt 3.3.2).
Eine interessante Sichtweise auf die engen Zusammenhängen zwischen der Entwicklung des Gehirn
und kritischen/sensiblen Perioden bieten Greenough und Black (1992): Unter normalen Umständen
werden diejenigen Fähigkeiten und Funktionen, die während kritischen oder sensiblen Perioden
erworben werden (z.B. das Sehen- und Gehenlernen und der Spracherwerb), von allen Menschen
erworben – sie sind allgemeine Fähigkeiten der menschlichen Spezies. Als Folge der Evolution
‘erwartet’ das Gehirn dementsprechend sozusagen, zu einer bestimmten Zeit auch z.B. relevante
visuelle oder sprachliche Information in der Umgebung zu finden und stellt dafür einen Überschuss an
Synapsen bereit, der durch die entsprechenden Reize ‘zurechtgestutzt’ wird. Auf Englisch bezeichnet
man diese Art von Lernen als ‘experience-expectant learning’, weil man erwarten kann, dass die
entsprechenden Fähigkeiten bei Vorhandensein der nötigen Erfahrung erworben werden. Weil unser
Gehirn sozusagen schon darauf vorbereitet ist, den entsprechenden notwendigen Input zu einem
bestimmten Zeitpunkt zu bekommen und für den Erwerb der Fähigkeit zu nutzen.
Das massive synaptische ‘Sprießen und Stutzen’ liegt nach dieser Sichtweise also an der Basis von
jenem Lernen, das während einer sensiblen Periode ohne Anstrengung abläuft – vorausgesetzt das
Kind bekommt dazu aus seiner Umwelt die nötigen Reize und Erfahrungen. Diese Form des
‘erwarteten’ Lernens während der Kindheit und Jugend steht im Gegensatz zum
erfahrungsabhängigen Lernen (‘experience-dependent learning’). Diese Art von Lernen ermöglicht
uns, Wissen, Fähigkeiten und Erinnerungen aufgrund unserer persönlichen, einzigartigen Erfahrungen,
die wir während des ganzen Lebens machen, zu erwerben – sowohl im Kindes- als auch im
Erwachsenenalter. Dieses erfahrungsabhängige Lernen wird vor allem durch die Bildung neuer
Synapsen und/oder die Anpassung (Stärkung/Schwächung) schon vorhandener Verbindungen
ermöglicht (siehe Greenough & Black 1992; Bruer 1999).
Zusammenfassung
In den letzten Abschnitten haben Sie gelesen, dass
• das Gehirn auf Schädigungen reagieren kann, und sich das System – im Fall von Sprache – in
einem erstaunlichen Maß reorganisieren kann, wenn die Hirnschädigung früh im Leben
auftritt. Bei Kindern kann sich nach einer frühen Hirnschädigung Sprache prinzipiell noch bis
zu einem normalen Grad entwickeln.
• kritische und sensible Perioden Zeitfenster sind, während derer ganz spezifische Reize für den
Erwerb von bestimmten Fähigkeiten relevant sind. Es gibt verschiedene sprachbezogene
sensible Perioden.
3.4 Ein Gehirn, mehrere Sprachen
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
29
Ein heiß debattiertes Thema in der Psycho- und Neurolinguistik ist die Frage, wie unser Gehirn zwei
(oder mehr) Sprachen verarbeitet.5 Wenn man Zwei- und Mehrsprachigkeit aus neurolinguistischer
Sicht betrachtet, kommen viele der soeben diskutierten Themen – z.B. sensible Perioden und die
Entwicklung des Gehirns – ins Spiel und werfen andere Fragen auf. Welcher Einfluss hat das Alter,
mit dem man eine Zweitsprache zu lernen beginnt? Welche Rolle spielen sensible Perioden? Werden
spät gelernte Zweitsprachen in ganz anderen Hirnregionen verarbeitet als früh gelernte oder als die
Erstsprache/n? Welche Rolle spielt der Gebrauch einer Sprache? Oder Erfahrung und Umgang mit
einer Sprache? Siehe auch Kapitel ???? für mehr Hintergründe.
3.4.1 Zweitsprachen sind überall – oder?
In manchen psycholinguistischen Studien wird dafür argumentiert, dass eine spät gelernte
Zweitsprache zu einem größeren Anteil von der rechten Hemisphäre verarbeitet wird als die
Erstsprache/n. Andere wiederum haben Hinweise darauf gefunden, dass beide Sprachen von
zweisprachigen Sprechern, die beide ihrer Sprachen früh gelernt haben, in beiden Hemisphären
verarbeitet werden – und nicht nur in der linken (siehe Hull & Vaid 2007). Generell gesagt spielt nach
diesen (und verwandten) Theorien also bei zweisprachigen Menschen die rechte Hirnhälfte eine
größere Rolle bei der Sprachverarbeitung als bei einsprachigen.
Von neurolinguistischer Warte lässt sich die Rolle der rechten Hemisphäre bei Zweisprachigkeit unter
anderem bei zweisprachigen SprecherInnen mit einer Schädigung der rechten (aber nicht der linken)
Hirnhälfte überprüfen. Man würde erwarten, dass in solchen Fällen relativ viele Anzeichen von
aphasischen Störungen auftreten müssten – entweder in der Zweitsprache, oder in der Zweit- und
Erstsprache solcher SprecherInnen. Das scheint allerdings nicht der Fall zu sein. Wie Paradis (2004)
betont, kommen aphasische Störungen bei zweisprachigen SprecherInnen nach Beeinträchtigungen der
rechten Hemisphäre nicht häufiger vor als bei einsprachigen – unabhängig davon, ab welchem Alter
sie begonnen hatten, die unterschiedlichen Sprachen zu lernen. Deshalb gibt es laut Paradis (2004:104)
„nicht den geringsten klinischen Beweis, der die Annahme unterstützt, dass die Sprachrepräsentation
bei zweisprachigen Sprechern weniger asymmetrisch ist, weder für eine noch für beide ihrer
Sprachen.“ (unsere Übersetzung aus dem Englischen).
Der Autor fügt allerdings hinzu, dass die rechte Hemisphäre bei der Verarbeitung einer Zweitsprache
tatsächlich stärker beteiligt sein kann als bei der Erstsprache – seiner Ansicht nach aber nicht, weil die
rechte Hemisphäre die Verarbeitung der Grammatik übernimmt. SprecherInnen einer Zweitsprache
müssen sich einfach öfter auf pragmatische Hinweise verlassen, da die Pragmatik gute Arbeit leisten
kann, wenn die Grammatik einer Zweitsprache (noch) nicht gut genug entwickelt ist. Und – wie wir
wissen – ist die Verarbeitung der Pragmatik die Aufgabe der rechten Hemisphäre. Die Debatte über
das Ausmaß der Beteiligung von linker und rechter Hemisphäre bei mehrsprachigen Menschen ist
hiermit allerdings noch lange nicht abgeschlossen (Hull & Vaid 2007).
Auch wenn eine Zweitsprache tatsächlich nicht mehr von der rechten Hemisphäre abhängen sollte als
die Erstsprache, bleibt eine ganze Reihe von Fragen offen. Es wäre möglich, dass die zwei Sprachen
von unterschiedlichen Arealen innerhalb der linken Hemisphäre verarbeitet werden: Dass für die
Verarbeitung einer spät gelernten Zweitsprache beispielsweise nicht mehr alle ‘klassischen’
Sprachareale zur Verfügung stehen. In den letzten Jahren ist man solchen Fragen mit Hilfe von
bildgebenden Verfahren nachgegangen. Dabei ergaben sich folgende interessante Ergebnisse: Auch
wenn eine Zweitsprache erst später erworben wird, können noch immer die gleichen Hirnareale wie
bei der Erstsprache die Verarbeitung der Zweitsprache übernehmen. Es zeigte sich jedoch, dass
sowohl das Erwerbsalter als auch der Grad der Beherrschung der Zweitsprache einen Einfluss darauf
haben, wie die Zweitsprache vom Gehirn verarbeitet wird (Perani & Abutalebi 2005).
5
Siehe Schaner-Wolles (2007) zu den Themen Zwei- und Mehrsprachigkeit im Kindesalter im Allgemeinen und
Sprachförderung für Kinder mit Migrationshintergrund im Besonderen.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
30
Das Erwerbsalter hat einen stärkeren Einfluss auf die syntaktische als auf die semantische
Verarbeitung. Wartenburger und Kollegen (2003) führten eine Studie zur syntaktischen und
semantischen Verarbeitung mit verschiedenen Gruppen zweisprachiger SprecherInnen durch
(Erstsprache: Italienisch; Zweitsprache: Deutsch). Dabei wurde die Aktivität im Gehirn der
TeilnehmerInnen in einem Scanner beobachtet, während sie verschiedene italienische und deutsche
Sätze lesen und ihre grammatische Korrektheit bzw. ihre Sinnhaftigkeit beurteilen mussten. Manche
der Sätze waren syntaktisch korrekt (8a), in anderen gab es grammatische Fehler (8b). Bei solchen
inkorrekten Sätzen wie in (8b) wird das syntaktische Verarbeitungssystem besonders gefordert. Bei
anderen Sätzen wiederum war es das semantische System, das verstärkt Arbeit leisten musste:
Verglichen mit (8c) macht (8d) inhaltlich wenig Sinn. Ähnliche Sätze wurden auch in italienischer
Sprache präsentiert.
(8) a.
Der Hundsingular läuftsingular über die Wiese.
b. * Der Hundsingular laufenplural über die Wiese.
c.
Der Jäger erschießt das Reh.
d. # Das Reh erschießt den Jäger.
In dem Experiment wurden drei Gruppen zweisprachiger SprecherInnen getestet:
(a) ‘frühe’ Zweisprachige, die Deutsch seit ihrer Geburt gelernt hatten und
(b) ‘späte’ Zweisprachige, die durchschnittlich erst mit ca. 19 Jahren Deutsch zu lernen begonnen
hatten. Die späten Zweisprachigen wurden wieder in zwei Gruppen unterteilt:
(b-1) eine Gruppe mit hoher Kompetenz in der deutschen Sprache und
(b-2) eine Gruppe, die Deutsch weniger gut beherrschte.
Für die frühen Zweisprachigen zeigte sich bei der syntaktischen Verarbeitung kein Unterschied
zwischen Italienisch und Deutsch. Bei beiden Gruppen später Lerner hingegen wurden sprachrelevante
Regionen im Gehirn (z.B. das Broca-Areal) bei der syntaktischen Verarbeitung von deutschen Sätzen
stärker aktiviert als bei italienischen Sätzen. Solche Ergebnisse zeigen, dass das Erwerbsalter
tatsächlich einen Einfluss auf die syntaktische Verarbeitung einer Zweitsprache hat – sie kann aber
prinzipiell trotzdem immer noch von den ‘klassischen’ Arealen übernommen werden, die auch die
Erstsprache verarbeiten. Die Syntax von spät gelernten Sprachen wird jedoch weniger effizient
verarbeitet – der ‘Aufwand’ bei der Verarbeitung ist also höher und deshalb leisten die Regionen dabei
mehr Arbeit, was zu einer stärkeren Aktivierung führt (siehe Perani & Abutalebi 2005, und auch
Stowe & Sabourin 2005).
Bei der Verarbeitung von semantischen Beziehungen zwischen Wörtern (vgl. 8c und 8d) hingegen
zeigen sich nur zwischen den weniger guten späten Zweisprachigen und den frühen Zweisprachigen
unterschiedliche Aktivierungsmuster. Bei den späten aber besseren Zweisprachigen und den frühen
Bilingualen waren die Muster gleich. Die Art und Weise wie das Gehirn semantische Beziehungen
zwischen Wörtern verarbeitet, wird also mehr davon bestimmt, wie gut die Zweitsprache Deutsch
beherrscht wird. Im Gegensatz zur syntaktischen Verarbeitung hängt die semantische Verarbeitung
weniger vom Erwerbsalter und damit von Einflüssen der sensiblen Perioden ab (siehe auch WeberFox & Neville 1999) – aber warum? Auf diese Fragen bieten Modelle zum Gedächtnis eine eigene
Antwort, wie wir im nächsten Abschnitt sehen werden.
3.4.2 Gedächtnissyteme in Erst- und Zweitsprache
Das gesamte Wissen, das wir im Lauf unseres Lebens erwerben, ist im Gedächtnissystem unseres
Gehirns gespeichert – aber nicht alles Wissen ist gleichartig gespeichert. Wenn Sie gefragt werden,
was Sie letzten Abend gemacht haben, oder ob Brasilien größer ist als Luxemburg, werden Sie ohne
Probleme eine Antwort geben können. Das macht deutlich, was eigentlich eine triviale Tatsache zu
sein scheint: wir können Wissen über Ereignisse (Dinge, die zu einem bestimmten Zeitpunkt passiert
sind) und Fakten (Wissen über die Welt und unsere Umgebung) auf Verlangen abrufen und in
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
31
Worte fassen. Da wir über Ereignisse und Fakten reden können, wird diese Art von Wissen auch
deklaratives oder explizites Wissen genannt.
Nehmen wir aber an, dass Ihre Antwort auf die erste Frage ist, dass Sie mit dem Fahrrad unterwegs
waren. Dann werden Sie gefragt, wie Sie es geschafft haben, Ihr Rad zu fahren und zu lenken – was
genau haben Ihre wann Muskeln gemacht, um Sie vorwärts zu bringen und auf Kurs zu halten, wie
haben Sie Ihr Rad bei unterschiedlichen Geschwindigkeiten durch verschiedene Kurven gelenkt?
Wahrscheinlich würden Sie sich ziemlich über die Frage wundern und zugeben müssen, dass Sie keine
Ahnung haben – Sie haben es einfach gemacht, so wie immer. Ein Fahrrad zu fahren ist eine sehr
komplexe Fähigkeit, die man – einmal gelernt – absolut automatisch ausführt, ohne darüber bewusst
nachzudenken. Tatsächlich können wir auf unser ‘Wissen’ über solch stark automatisierten
Fähigkeiten und Gewohnheiten gar nicht zugreifen: Normalerweise wissen wir nicht, welcher
Muskel wann welchen Beitrag leistet, wenn wir Fahrrad fahren, genauso wenig wie sich ein
professioneller Schlagzeuger über die einzelnen Muskelbewegungen beim Spielen bewusst ist. Im
Gegensatz zu deklarativem Wissen über Fakten und Ereignisse, können wir auf dieses Wissen nicht
bewusst zugreifen und darüber Auskunft geben. Das Wissen über automatische Handlungsabläufe
(Prozeduren), Fähigkeiten und Gewohnheiten ist deshalb als prozedurales oder implizites Wissen
bekannt.
Neuropsychologische Studien mit Personen, die unter Amnesie (Gedächtnisverlust) leiden, haben
gezeigt, dass deklaratives Wissen (‘wissen, dass...’) und prozedurales Wissen (‘wissen, wie...’) im
Gehirn in unterschiedlichen Netzwerken gespeichert werden. Ein berühmter Fall ist jener von H.M.
(die Initialen des Patienten), dessen Hippocampi in beiden Hemisphären in den 1950ern chirurgisch
entfernt wurden, um epileptische Anfälle unter Kontrolle zu bringen. Der Hippocampus ist ein Teil des
deklarativen Gedächtnissystems für Fakten und Ereignisse. Er spielt eine wichtige Rolle dabei, neue,
bewusste Erfahrungen in bleibende Erinnerungen umzuwandeln. Seit seiner Operation leidet H.M.
unter einer anterograden Amnesie: Er erinnert sich immer noch an Ereignisse und Fakten aus der Zeit
vor dem Eingriff. Was er aber nicht mehr abspeichern kann, sind Informationen über Ereignisse, die
sich nach der Operation ereigneten, und Informationen über neue Fakten oder Personen, die er seit
dem kennen gelernt hat. Er kann allerdings immer noch neue Fähigkeiten lernen, wie z.B. das Lesen
von spiegelverkehrter Schrift, und wird durch Übung darin besser. Paradoxerweise wird er besser
darin, obwohl er sich nicht einmal daran erinnern kann, die Aufgabe vorher überhaupt schon einmal
gemacht zu haben, da er keine Erinnerungen an neue Ereignisse abspeichern kann (siehe Corkin 2002
für einen Überblick). Das zeigt, dass das prozedurale Gedächtnis von H.M. intakt ist, während Teile
seines deklarativen Gedächtnisses geschädigt sind – die beiden Gedächtnissysteme können also
dissoziieren.
Der Unterschied zwischen bewusst verfügbarem deklarativem Wissen einerseits und nicht bewusst
zugänglichem Wissen über automatische Abläufe andererseits findet sich auch im Sprachsystem
wieder. Grammatisches Wissen über Laut-, Wort- und Satzstruktur, das als Kind erworben wird, ist
immer unbewusst, implizit. Wir erwerben und benutzen diese Regeln, die den Kern unseres
sprachlichen Wissens ausmachen, automatisch, ohne auf sie zu achten, und auch später im Leben
können wir auf diese Regeln nicht direkt zugreifen (siehe Kapitel 1). Ullman (2001) folgert daraus,
dass dieses Wissen als prozedurales Wissen einer Sprache in einem prozeduralen Gedächtnissystem
gespeichert ist.
Andererseits gibt es im sprachlichen Bereich auch deklaratives Wissen. Ein typischer Bereich dafür ist
beispielsweise im mentalen Lexikon die Verknüpfung von Wortform und Wortbedeutung. Es fällt uns
leicht, eine Frage zu beantworten wie etwa „Was bedeutet das Wort Hund?“ oder „Wie sagt man dazu,
wenn jemand laute Geräusche beim Kauen mit offenem Mund macht?“ Die Tatsache, dass wir die
Form und die Bedeutung eines Wortes spontan erläutern können, entspricht der Tatsache, dass dieses
Wissen deklarativ gespeichert ist. Das ist nicht verwunderlich, denn der Wortschatz wird zu einem
guten Teil deklarativ erworben, und zwar immer dann, wenn einem Kind gezielt oder beiläufig die
Bedeutung von Ausdrücken paraphrasiert werden, oder es korrigiert wird, mit den entsprechenden
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
32
Hinweisen, wie z.B. „Das ist kein Pferd im Streifenpyjama, sondern ein Zebra. Das sind Tiere, die
leben in Afrika.“
Ullman (2001) argumentiert dementsprechend für zwei getrennte sprachliche Gedächtnissysteme: Das
deklarative System für unser mentales Lexikon einerseits ist vorwiegend im Temporallappen zu finden.
Das prozedurale System für grammatische Regeln andererseits hängt vor allem von Teilen des
Frontallappens (z.B. vom Broca-Areal) und von subkortikalen Strukturen – den Basalganglien (siehe
auch 3.2.6) – ab. Anhand dieser Unterscheidung von Ullman (2001) und der Überlegungen über
Mehrsprachigkeit von Paradis (2004) lassen sich viele der neurolinguistischen Muster, denen wir im
Lauf des Kapitels begegnet sind, erklären – sowohl bei einsprachigen als auch bei mehrsprachigen
SprecherInnen.
REFLEXION UND AUSTAUSCH 8:
Wie Sie aus Übung 2 bereits wissen, wurden bei Menschen mit Aphasie doppelte Dissoziationen
zwischen der Produktion von regelmäßigen Vergangenheitsformen eines Verbs (z.B. ‘such-te’) und
unregelmäßigen Formen (z.B. ‘ging’) gefunden. Wie lässt sich dieser Unterschied erklären, wenn man
getrennte sprachliche Gedächtnissysteme annimmt – eines für prozedurales Wissen (Regeln) und eines
für deklaratives Wissen? Beachten Sie dabei auch, was sie über Morphologie und das mentale Lexikon
in Kapitel 1 und 2 gelesen haben. Tauschen Sie sich mit KollegInnen aus.
Dissoziationen zwischen regelmäßigen und unregelmäßigen Vergangenheitsformen bei
AphasikerInnen lassen sich in diesem Zusammenhang beispielsweise wie folgt erklären: Da die Form
‘suchte’ aus dem Stamm ‘such-’ und die Endung ‘-te’ für die regelmäßigen Vergangenheit problemlos
gebildet werden kann, muss wohl ‘suchte’ nicht unbedingt als Gesamtform im mentalen Lexikon
gespeichert sein. Sie könnte ‘online’ aus den beiden Morphemen ‘such-’ und ‘-te’ von der Grammatik
zusammengesetzt werden. Die Regel dazu wiederum wäre im prozeduralen Gedächtnis gespeichert.
Unregelmäßige Vergangenheitsformen wie ‘ging’ oder ‘war’ können nicht in zwei einzelne
Morpheme zerlegt werden, die durch eine Regel zusammengesetzt werden. ‘Ging’ ist also im Lexikon
gespeichert und kann ohne die Regel, die ‘suchte’ zusammensetzt, produziert werden – das
prozedurale Gedächtnis wird also umgangen. Eine Schädigung des sprachlichen prozeduralen
Gedächtnisses für grammatische Regeln kann deshalb zu Schwierigkeiten mit der Produktion von
regelmäßigen Vergangenheitsformen führen. Andererseits kann eine Beeinträchtigung im deklarativen
Gedächtnis des mentalen Lexikons zu größeren Problemen mit unregelmäßigen Formen führen
(Ullman et al. 1997).
So ein Modell der Sprachverarbeitung könnte auch erklären, wieso die neuronale Verarbeitung von
grammatischen Aspekten stärker von sensiblen Perioden beeinflusst wird, als die Verarbeitung von
Wortbedeutungen. Ullman argumentiert, dass das prozedurale Gedächtnissystem für Regeln stärker
vom Erwerbsalter beeinflusst wird, als das deklarative System für das mentale Lexikon. Ein späteres
Lernen einer Zweitsprache beeinflusst die Verarbeitung von syntaktischen Aspekten deshalb stärker
als die Verarbeitung von Wörtern und ihrer Bedeutung, was auch in mehreren psycho- und
neurolinguistischen Studien bestätigt wurde (Weber-Fox & Neville 1999). Überdies ist der Erwerb
von neuen Wörtern ja nicht an eine sensible Periode gebunden – schließlich lernen wir auch in unserer
Muttersprache ein ganzes Leben lang ständig neue Wörter und deren Bedeutung (z.B. neue Fachwörter
im Studium, in einem neuen Job, einem Hobby oder bei einem neuen Sport).
Das bedeutet jedoch nicht, dass das prozedurale Gedächtnis beim späten Erlernen einer Zweitsprache
gar nicht mehr zum Einsatz kommen kann. Dafür sind dann allerdings Übung und Praxis notwendig.
Wenn wir als Erwachsene eine Sprache zu lernen beginnen, fangen wir typischerweise damit an,
explizite, didaktische Regeln auswendig zu lernen (z.B. ‘bei einem Verb der Klasse A bildet man die
Vergangenheitsform mit der Endung X; bei einem Verb der Klasse B mit der Endung Y’, etc.) – also
Regeln, die wir auf Verlangen abrufen können, über die wir nachdenken können und die wir in Worte
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
33
fassen können. Im Gegensatz zu den Regeln, die wir als Kinder unbewusst erwerben, werden solche
didaktischen Regeln im deklarativen Gedächtnis gespeichert, jedoch nicht im prozeduralen
Grammatiksystem. Sobald man dann aber durch Übung, Praxis und Eintauchen in die Sprache seine
Kompetenz verbessert, muss man immer weniger auf solche bewussten Regeln zurückgreifen und die
Verarbeitung wird immer automatischer. Allmählich werden implizite Regeln im prozeduralen
Gedächtnis aufgebaut. Dies sind Regeln, die mit den anfangs gelernten didaktischen Regeln nichts
gemeinsam haben (siehe Paradis 2004 für Diskussion). So können auch spätere
ZweitsprachlernerInnen prinzipiell an einen Punkt gelangen, an dem sie sich zum größten Teil auf
implizites grammatisches Wissen verlassen und einem Muttersprachler ähneln.
Zusammenfassung
In den letzten zwei Abschnitten haben Sie Folgendes gelesen:
• Aktuelle Neuroimaging-Studien legen nahe, dass auch beim späteren Erlernen einer
Zweitsprache die ‘klassischen’ Sprachareale immer noch an der Verarbeitung beteiligt sein
können, aber dass
• der Einfluss von sensiblen Perioden für die syntaktische Verarbeitung stärker sind als für die
Verarbeitung von semantischen Aspekten.
• Deklaratives (explizites) und prozedurales (implizites) Wissen sind verschiedene
Wissenssysteme, die durch separate neuronale Netzwerke repräsentiert sind.
• Diese Unterscheidung kann auch Vorgänge beim Erlernen einer Zweitsprache
neurolinguistisch erklären: Explizite, didaktische Regeln werden im deklarativen Gedächtnis
gespeichert. Übung, Praxis und ein Eintauschen in die Zweitsprache können allerdings auch
hier das Enstehen von impliziten Regeln im prozeduralen Gedächtnis noch möglich machen.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
34
3.5 Rückblick und Ausblick
Auch wenn die Neurolinguistik eine noch relativ junge Forschungsrichtung ist hat sie sich in den
letzten Jahrzehnten sehr stark entwickelt. Wir konnten hier nur auf einige wenigen Schwerpunkte
eingehen. Viele Themen mussten wir ganz auslassen, wie z.B. Störungen des Lesens (Dyslexie) und
des Schreibens (Dysgraphie) (siehe Ellis 1993 für einen Überblick). Ein anderes wichtiges Gebiet der
Neurolinguistik, dass wir nur kurz erwähnt haben ist die Entwicklung von geeigneten Diagnostiktests
und Therapien für Sprachstörungen (siehe Whitworth et al. 2005 und Stadie & Schröder 2008).
Dennoch hoffen wir, Ihnen einige der grundlegenden neurolinguistischen Ziele, Methoden und
Ergebnisse näher gebracht zu haben. Unter anderem ist es notwendig, die Erkenntnisse der
theoretischen Linguistik und Psycholinguistik zu nutzen, um herauszufinden, wie unser Gehirn die
Steuerung und Koordination aller Teilbereiche des Sprachsystems meistert. Des Weiteren haben wir
versucht, das Zusammenspiel von Mechanismen in der Entwicklung des Gehirns und der Organisation
von Sprache und ihre mögliche Rollen beim Spracherwerb von Kindern und Erwachsenen kurz zu
erläutern. Bei allen besprochenen Themen konnten wir nur auf eine oder wenige Sichtweisen eingehen
– da ForscherInnen teilweise sehr verschiedene Ansichten über die genaue Funktionsweise des
Gehirns und auch der Sprache haben, gibt es prinzipiell auch immer verschiedene Interpretationen von
Ergebnissen aus der Neurolinguistik. So wie sich die Linguistik und auch die Neurowissenschaften
rasant weiter entwickeln, verändert sich also auch der Blick auf die Beziehung von Sprache und
Gehirn. Wo genau die Entwicklung letztendlich hinführen wird, hängt von beiden Seiten ab –
spannend bleibt es allemal.
WEBLINKS:
Informationen über Aphasie und Aphasietherapie finden Sie auf www.aphasiker.de und den dort
aufgelisteten Links. Auf www.aphasia-international.com finden Sie grundlegende Informationen über
Aphasie
in
vielen
verschiedenen
Sprachen.
www.sfn.org
stellt
unter
www.sfn.org/skins/main/pdf/brainfacts/brainfacts.pdf eine englischsprachige Broschüre über das
Nervensystem und Gehirnfunktionen zur Verfügung. www.brainconnection.com bietet Informationen
über das Gehirn und seine Entwicklung und den Erwerb verschiedener Funktionen (engl.). Infos über
das
Gehirn
und
verwandte
Themen
für
Kinder
finden
Sie
unter
http://faculty.washington.edu/chudler/neurok.html (engl.). Alle Seiten bieten weitere Links zu anderen
interessanten Quellen.
Bibliographie
Bates, E. 1999. Plasticity, localization and language development. In S. Broman & J. M. Fletcher
(eds.), The changing nervous system: Neurobehavioral consequences of early brain disorders.
New York: Oxford University Press, pp. 214-253.
Bates, E., & Roe, K. 2001. Language development in children with unilateral brain injury. In C. A.
Nelson & M. Luciana (eds.), Handbook of Developmental Cognitive Neuroscience. Cambridge,
MA: MIT Press, pp. 281-307.
Beeman, M. J. 2005. Bilateral brain processes for comprehending natural language. Trends in
cognitive sciences, 9, 512-518.
Berndt, R. S., & Caramazza, A. 1980. A redefinition of the syndrome of Broca’s aphasia: Implications
for a neurological model of language. Applied Psycholinguistics, 1, 225-78.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
35
Bookheimer, S. 2002. Functional MRI of language: New approaches to understanding the cortical
organization of semantic processing. Annual Reviews in Neuroscience, 25, 151-88.
Borgstein, J., & Grootendorst, C. 2002. Clinical picture – half a brain. The Lancet, 359, 473.
Bourgeois, J.-P., Goldman-Rakic, P. S., & Rakic, P. 2000. Formation, elimination, and stabilization of
synapses in the primate cerebral cortex. In M. S. Gazzaniga (ed.). The New Cognitive
Neurosciences (2nd ed.). Cambridge, MA: MIT Press.
Bruer, J. T. 1999. The myth of the first three years: A new understanding of early brain development
and lifelong learning. New York: The Free Press.
Burchert, F., De Bleser, R., & Sonntag, K. 2003. Does morphology make the difference? Agrammatic
sentence comprehension in German. Brain and Language, 87, 323-342.
Caplan, D., Alpert, N., & Water, G. 1998. Effects of syntactic structure and propositional number on
patterns of regional cerebral blood flow. Journal of Cognitive Neuroscience, 10, 541-552.
Caramazza, A. 1984. The logic of neuropsychological research and the problem of patient
classification in aphasia. Brain and Language, 21, 9-20.
Caramazza, A., & Hillis, A. E. (1991). Lexical organization of nouns and verbs in the brain. Nature,
349, 788-790.
Caramazza, A., & Zurif, E. 1976. Dissociation of algorithmic and heuristic processes in sentence
comprehension: Evidence from aphasia. Brain and Language, 3, 572-582.
Casey, B. J., Giedd, J. N., & Thomas, K. M. 2000. Structural and functional brain development and its
relation to cognitive development. Biological Psychology, 54, 241-257.
Casey, B. J., Tottenham, N., Liston, C., & Durston, S. 2005. Imaging the developing brain: what have
we learned about cognitive development? Trends in Cognitive Sciences, 9, 104-110.
Coltheart, M. 2001. Assumptions and Methods in Cognitive Neuropsychology. In B. Rapp (ed.), The
Handbook of Cognitive Neuropsychology: What Deficits Reveal About the Human Mind.
Philadelphia: Psychology Press, pp. 185-210.
Corkin, S. 2002. What’s new with the amnesic patient H.M.? Nature Reviews Neuroscience, 3, 153160.
Curtiss, S. 1977. Genie: A Psycholinguistic Study of a Modern-day 'Wild Child'. New York: Academic
Press.
Curtiss, S., & de Bode, S. 1999. Age and etiology as predictors of language outcome following
hemispherectomy. Developmental Neuroscience, 21, 174-181.
Curtiss, S., de Bode, S. & Mathern, G.W. 2001. Spoken language outcomes after hemispherectomy:
Factoring in etiology. Brain and Language, 79, 379-396.
Damasio, A. R., & Tranel, D. 1993. Nouns and verbs are retrieved with differently distributed neural
systems. Proceedings of the National Academy of Sciences ot the United States of America, 90,
4957-4960.
Deacon, T. 1990. Brain-language co-evolution. In J.A. Hawkins & M. Gell-Mann (eds.), The evolution
of human languages: Proceedings of the Workshop on the Evolution of Human Languages, SFI
studies in the sciences of complexity, Vol. 11. Redwood City: Addison-Wesley.
De Bleser, R. 2001. History of research on adult language and ist disorders. In R. S. Berndt (ed.),
Handbook of Neuropsychology: Language and Aphasia, Vol. 3. Amsterdam: Elsevier, pp 3-18.
De Bleser, R., Cholewa, J., Stadie, N., & Tabatabaie, S. 2004. LEMO – Lexikon modellorientiert:
Einzelfalldiagnostik bei Aphasie, Dyslexie und Dysgraphie. München: Elsevier.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
36
de Haan, M., & Johnson, M. H. 2003. Neuropsychological development. In Encyclopedia of Cognitive
Science. London: Macmillan, pp. 347-353.
Dehaene-Lambertz, G., Hertz-Pannier, L., & Dubois, J. 2006. Nature and nurture in language
acquisition: anatomical and functional brain-imaging studies in infants. Trends in Neurosciences,
29, 367-373.
Démonet, J.-F., Guillaume, T., & Cardebat, D. 2005. Renewal of the neurophysiology of language :
Functional Neuroimaging. Physiological Reviews, 85, 49-95.
Dick, F., Bates, E., Wulfeck., B., Utman, J., Dronkers., N., & Gernsbacher, M. A. 2001. Language
deficits, localization, and grammar: Evidence for a distributive model of language breakdown in
aphasic patients and neurologically intact individuals. Psychological Review, 108, 759-788.
Dogil, G., Haider, H., Schaner-Wolles, C., & Husmann, R. 1995. Radical autonomy of syntax:
Evidence from transcortical sensory aphasia. Aphasiology, 9, 577-602.
Elbert, T., & Rockstroh, B. 2004. Reorganization of human cerebral cortex: The range of changes
following use and injury. The Neuroscientist, 10, 129-141.
Eliot, L. 2002. Was geht da drinnen vor? Die Gehirnentwicklung in den ersten fünf Lebensjahren.
Berlin: Berlin Verlag.
Ellis, A. W. 1993. Reading, writing and dyslexia: A cognitive analysis. Hove: Lawrence Erlbaum.
Fodor, J. A. 1983. The Modularity of Mind. Cambridge, MA: MIT Press.
Friederici, A. D. 2002. Towards a neural basis of auditory sentence processing. Trends in Cognitive
Sciences, 6, 78-84.
Friederici, A. D. 2006. The neural basis of sentence processing: Inferior frontal and temporal
contributions. In Y. Grodzinsky & K. Amunts, Broca’s Region. Oxford: Oxford University Press.
Friederici, A. D., & Alter, K. 2004. Lateralization of auditory language functions: A dynamical dual
pathway model. Brain and Language, 89, 267-276.
Friederici, A. D., von Cramon, Y., & Kotz, S. A. 2007. Role of the corpus callosum in speech
comprehension: Interfacing syntax and prosody. Neuron, 53, 135-145.
Geinisman, Y. 2000. Structural synaptic modifications associated with hippocampal LTP and
behavioral learning. Cerebral Cortex, 10, 952-962.
Goodglass, H. 1993. Understanding Aphasia. San Diego: Academic Press.
Greenough, W. T., & Black, J. E. 1992. Induction of brain structure by experience: Substrates for
cognitive development. In M. R. Gunnar & C. A. Nelson (eds.), The Minnesota Symposia on
Child Psychology, Vol. 24. Hillsdale: Lawrence Erlbaum Associates, pp. 155-200.
Grimshaw, G. M., Adelstein, A., Bryden, M. P., & MacKinnon, G. E. 1998. First-language acquisition
in adolescence: Evidence for a critical period for verbal language development. Brain and
Language, 63, 237-255.
Grodzinsky, Y. 2000a. The neurology of syntax: Language use without Broca's area.
Behavioral and Brain Sciences, 23, 1-71.
Grodzinsky, Y. 2000b. Overarching agrammatism. In Y. Grodzinsky, L. Shapiro & D. Swinney (eds.).
Language and the brain: Representation and processing. San Diego: Academic Press, pp. 73-86.
Hagoort, P. 2005. On Broca, brain and binding: A new framework. Trends in Cognitive Science, 9,
416-423.
Heilman, K., & Scholes, R. 1976. The nature of comprehension of Broca’s, conduction and
Wernicke’s aphasics. Cortex, 12, 258-265.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
37
Hensch, T. K. 2004. Critical period regulation. Annual Review of Neuroscience, 27, 549-79.
Hillis, A. E. 2001. The organization of the lexical system. In B. Rapp (ed.), The Handbook of
Cognitive Neuropsychology: What Deficits Reveal About the Human Mind. Philadelphia:
Psychology Press, pp. 185-210.
Hillis, A. E. 2007. Aphasia. Progress in the last quarter of a century. Neurology, 69, 200-213.
Huber, W., Stachowia., F.-J., Poeck, K., & Kerschensteiner, M. 1975. Die Wernicke Aphasie:
Klinisches Bild und Überlegungen zur neurolinguistischen Struktur. Journal of Neurology, 210,
77-97.
Huber, W., Poeck, K., Weniger, D. 1989. Aphasie. In K. Poeck (ed.), Klinische Neuropsychologie.
Stuttgart: Thieme, pp. 89-137.
Hugdahl, K. 2000. Lateralization of cognitive processes in the brain. Acta Psychologica, 205, 211-235.
Hull, R., & Vaid, J. 2007. Bilingual language lateralization: A meta-analytic tale of two hemispheres.
Neuropsychologia, 45, 1987-2008.
Huttenlocher, P. R. 1994. Synaptogenesis, synapse elimination, and neural plasticity in human cerebral
cortex. In C. A. Nelson (ed.), Threats to Optimal Development: The Minnesota Symposia in Child
Psychology, Vol. 27. Hillsdale: Erlbaum, pp. 35-54.
Indefrey, P., & Levelt, W. J. M. 2004. The spatial and temporal signatures of word production
components. Cognition, 92, 101-144.
Jaeger, J. J., Lockwood, A. H., Kemmerer, D. L., van Valin, R. D., Murphy, B. W., & Khalak, H. G.
1996. A positron emission tomographic study of regular and irregular verb morphology in English.
Language, 72, 451-497.
Joanette, Y., Goulet, P., Hannequin, D., & Boeglin, J. 1990. Right Hemisphere and Verbal
Communication. New York: Springer.
Johnson, M. H. 2001. Functional brain development in humans. Nature Reviews Neuroscience, 2, 475483.
Kandel, E. R. 2000. Nerve cells and behavior. In E. R. Kandel et al. (eds.), pp. 19-35.
Kandel, E. R., Schwartz, J. H., & Jessell, T. M. 2000. Principles of Neural Science (4th ed.). New
York: McGraw-Hill.
Karbe, H., Thiel, A., Luxenburger, G. W., Herholz, K., Kessler, J., Heiss, W. D. 1998. Brain plasticity
in poststroke aphasia: What is the contribution of the right hemisphere? Brain and Language, 64,
215-230.
Kotz, S. A., Frisch, S., von Cramon, D. Y., & Friederici, A. D. 2003. Syntactic language processing:
ERP lesion data on the role of the basal ganglia. Journal of the International Neuropsychological
Society, 9, 1053-1060.
Lenneberg, E. H. 1967. The Biological Foundations of Language. New York: Wiley.
Levelt, W. J. M., Praamstra, P., Meyer, A. S., Helenius, P., & Salmelin, R. 1998. An MEG study of
picture naming. Journal of Cognitive Neuroscience, 105, 553-567.
Lewis, M. D. 2005. Self-organizing individual differences in brain development. Developmental
Review, 25, 252-277.
Maess, B., Koelsch, S., Gunter, T. C., & Friederici, A. D. 2001. Musical syntax is processed in
Broca’s area: An MEG study. Nature Neuroscience, 4, 540-545.
Martin, A., Wiggs, C. L., Ungerleider, L. G., & Haxby, J. V. 1996. Neural correlates of categoryspecific knowledge. Nature, 379, 649-652.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
38
Miceli, G. 2001. Disorders of single word processing. Journal of Neurology, 248, 658-664.
Müller, R.A., Rothermal, R. D., Behen, M. E., Muzik, O., Chakraborty, P. K., & Chugani, H. T. 1999.
Language organization in patients with early and late left-hemisphere lesion: A PET study.
Neuropsychologia, 37, 545-557.
Organisation for Economic Co-operation and Development 2007. Understanding the brain: The birth
of a learning science. Paris: OECD Publishing.
Obler, L. K., & Gjerlow, K. 1999. Language and the Brain. Cambridge, MA: Cambridge University
Press.
Pakkenberg, B., Pelvig, D., Marner, L., Bundgaard, M. J., Gundersen, H. J. G., Nyengaard, J. R. &
Regeur, L. 2003. Aging and the human neocortex. Experimental Gerontology, 38, 95-99.
Paradis, M. 2004. A neurolinguistic theory of bilingualism. Amsterdam: John Benjamins.
Plaut, D. C. 1995. Double dissociation without modularity: Evidence from connectionist
neuropsychology. Journal of Clinical and Experimental Neuropsychology, 17, 291-321.
Perani, D., & Abutalebi, J. 2005. The neural basis of first and second language processing. Current
Opinion in Neurobiology, 15, 202-206.
Perani, D., Cappa, S. F., Schnur, T., Tettamanti, M., Collina, S., Rosa, M. M., & Fazio, F. 1999. The
neural correlates of verb and noun processing: A PET study. Brain, 122, 2337-2344.
Poeppel, D., & Embick, D. 2005. Defining the relation between linguistics and neuroscience. In A.
Cutler (ed.), Twenty-First Century Psycholinguistics: Four Cornerstones. Mahwah, MA:
Lawrence Erlbaum, pp. 103-118.
Rakic, P. 1999. The importance of being well placed and having the right connections. Annals of the
New York Academy of Sciences, 882, 90-106.
Rakic, P. 2000. Setting the stage for cognition: Genesis of the primate cerebral cortex. In M. S.
Gazzaniga (ed.), The New Cognitive Neurosciences (2nd ed.). Cambridge, MA: MIT Press.
Raymer, A. M., Foundas, A. L., Maher, L. M., Greenwald, M. L., Morris, M., Rothi, L. J. G., &
Heilman, K. M. 1997. Cognitive neuropsychological analysis and neuroanatomic correlates in a
case of acute anomia. Brain and Language, 58, 137-156.
Schaner-Wolles, C. 2007. Sprachentwicklungsförderung – Möglichkeiten und Grenzen aus
sprachwissenschaftlicher Sicht. In A. A. Bucher, A. M. Kalcher & K. Lauer (eds.), Sprache leben.
Kommunizieren & Verstehen. Tagungsband der 56. Internationalen Pädagogischen Werktagung.
Wien: G&G Verlag, pp. 111-128.
Sengelaub, D. R. 2003. Neural Development. In Encyclopedia of Cognitive Science. London:
Macmillan, Volume 3, pp. 253-261.
Shallice, T. 1988. From Neuropsychology to Mental Structure. Cambridge: Cambridge University
Press.
Shapiro, K. A., & Caramazza, A. 2003. The representation of grammatical categories in the brain.
Trends in Cognitive Sciences, 7, 201-206.
Shapiro, K. A., Mottaghy, F. M., Schiller, N. O., Poeppel, T. D., Flüss, M. O., Müller, H.-W.,
Caramazza, A., & Krause, B. J. 2005. Dissociating neural correlates for nouns and verbs.
NeuroImage, 24, 1058-1067.
Shapiro, L. P., Zurif, E., Carey, S., & Grossman, M. 1989. Comprehension of lexical subcategory
distinctions by aphasic patients. Journal of Speech and Hearing Research, 32, 481-488.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
39
Shapleske, J., Rossell, S. L., Woodruff, P. W. R., & David, A. S. 1999. The planum temporale: A
systematic, quantitative review of its structural, functional and clinical significance. Brain
Research Reviews, 29, 26-49.
Stadie, N., & Schröder, A. 2008. Kognitiv orientierte Sprachtherapie. Methoden, Material und
Evaluation für Aphasie, Dyslexie und Dysgraphie. München: Elsevier Urban & Fischer.
Staudt, M., Lidzba, K., Grodd, W., Wildgruber, D., Erb, M., & Krägeloh-Mann, I. 2002. Righthemispheric organization of language following early left-sided brain lesions: Funcional MRI
Topography. NeuroImage, 16, 954-967.
Stowe, L., & Sabourin, L. 2005. Imaging the processing of a second language: Effects of maturation
and proficiency on the neural processes involved. International Review of Applied Linguistics in
Language Teaching, 43, 329-353.
Stromswold, K., Caplan, D., Alpert, N., & Rauch, S. 1996. Localization of syntactic comprehension
by positron emission tomography. Brain and Language, 52, 452-473.
Thompson, C. K. 2000. Neuroplasticity: Evidence from aphasia. Journal of Communication
Disorders, 33, 357-366.
Ullman, M. T. 2001. The neural basis of lexicon and grammar in first and second language: The
declarative/procedural model. Bilingualism: Language and Cognition, 4, 105-122.
Ullman, M. T., Corkin, S., Coppola, M., Hickock, G., Growdon, J. H., Koroshetz, W. J., & Pinker, S.
1997. A neural dissociation within language: Evidence that the mental dictionary is part of
declarative memory, and that grammatical rules are processed by the procedural system. Journal
of Cognitive Neuroscience, 9, 266-276.
Vicari, S, Albertoni, A., Chilosi, A. M., Cipriani, P., Cioni, G., & Bates, E. 2000. Plasticity and
reorganization during language development in children with early brain injury. Cortex, 36, 31-46.
Vitali, P., Abutalebi, J., Tettamanti, M., Danna, M., Ansaldo, A. I., Perani, D., Joanette, Y., & Cappa,
S. F. 2007. Training-induced brain remapping in chronic aphasia: A pilot study.
Neurorehabilitation and Neural Repair, 21, 152-160.
Warrington, E. K., & Shallice, T. 1984. Category specific semantic impairments. Brain, 107, 829-853.
Wartenburger, I., Heekeren, H. R., Abutalebi, J., Cappa, S. F., Villringer, A., & Perani, D. (2003).
Early setting of grammatical processing in the bilingual brain. Neuron, 37, 159-170.
Werker, J. F., & Tees, R. C. 2005. Speech perception as a window for understanding plasticity and
commitment in language systems of the brain. Developmental Psychobiology, 46, 233-251.
Whitworth, A., Webster, J., & Howard, D. 2005. A cognitive neuropsychological approach to
assessment and intervention in aphasia: A clinician’s guide. Hove: Psychology Press.
Willmes, K., & Poeck, K. 1993. To what extent can aphasic syndromes be localized? Brain, 116,
1527-1540.
Wise, R., Scott, S., Blamk, S., Mummery, C., Murphy, K., & Warburton, E. 2001. Separate neural
subsystems within ‘Wernicke’s area’. Brain, 124, 83-95.
Weber-Fox, C. M., & Neville, H. J. 1999. Functional neural subsystems are differentially affected by
delays in second language immersion: ERP and behavioral evidence in bilinguals. In D. Birdsong
(ed.), Second Language Acquisition and the Critical Period Hypothesis. Mahwah, MA: Lawrence
Erlbaum, pp. 23-38.
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
40
Bildunterschriften (Bilder s. extra Datei):
Abbildung 1: Die gesamte linke Großhirnhälfte wurde entfernt (aus Borgstein, J. & Grootendorst, C.
2002. „Clinical picture – half a brain”. The Lancet, 359, 473).
Abbildung 2: Die kortikale Oberfläche der linken Großhirnhälfte in der Seitenansicht. Sie sehen die
vier Lappen (engl. lobes - Frontallappen, Temporallappen, Parietallappen und Okzipitallappen), die
Rolandische und Sylvische Furche (engl. fissure) (übernommen und adaptiert aus Kandel, E. R. et al.
(eds.), 2000. p.8).
Abbildung 3: Die kortikale Oberfläche der linken Hemisphäre in der Seitenansicht. Das Bild zeigt
einige der Brodmann-Areale mit einem groben Überblick ihrer Hauptfunktionen (Quelle:
http://spot.colorado.edu/~dubin/talks/brodmann/outline.gif).
Abbildung 4: Eine schematische Darstellung eines Modells des mentalen Lexikons mit getrennten
Speichern für Wortform (Kästchen a) und Wortbedeutung (Kästchen b). Das Modell hat auch zwei
getrennte Verbindungen (Routen) – eine von der Wortform zur Wortbedeutung für das
Wortverständnis (Pfeil x) und umgekehrt von der Wortbedeutung zur Wortform für die
Wortproduktion (Pfeil y).
Abbildung 5: Eine schematische Darstellung aktueller Modelle des mentalen Lexikons. Das Modell
beinhaltet einen zentralen Speicher für Wortbedeutungen und getrennte Wortformspeicher für
gesprochene und geschriebene Wortformen. Diese sind wiederum nach Input und Output getrennt und
werden von spezifischen Arbeitsgedächtnissen unterstützt. Die Pfeile stehen für verschiedene
Verbindungen (Routen) zwischen den Bereichen.
Abbildung 6: Beide Bilder zeigen die linke Hälfte des Großhirns. Auf dem linken Bild können Sie die
stärkere Aktivierung im frontalen Bereich des Gehirns bei Verben sehen; das rechte Bild zeigt die
Aktivierung bei Nomina, die in hinteren Bereichen des Gehirns am stärksten ist (im Temporallappen;
die weißen Pfeile zeigen die jeweils wichtigsten Gebiete an). (Aus: Shapiro, K.A. et al. 2005, pp.
1063-64).
Abbildung 7: Eine ‘typische’ Nervenzelle (Neuron) und ihre Hauptbestandteile. Unten auf dem Bild
sehen Sie drei weitere Nervenzellen (die postsynaptischen Neurone) zu denen das Neuron über ihre
Synapsen Information weiterleiten kann. Der Zellkörper (engl. cell body) enthält den Zellkern (engl.
nucleus) (übernommen und adaptiert aus Kandel, E.R. et al. (eds.), p. 22).
Abbildung 8: Die Reifung von verschiedenen Regionen des Gehirns im Laufe der Entwicklung –
beginnend bei der Befruchtung (engl. conception) bis zum Alter von 20 Jahren. Die Zeit vor und das
erste Jahr nach der Geburt ist in der Grafik in Monaten angegeben (von minus 8 bis 12 Monaten),
dann werden Jahresintervalle angegeben (2-20 Jahre). Die Grafik zeigt einen glockenförmige
Entwicklungsverlauf in der Anzahl von Synapsen in verschiedenen Bereichen des Großhirns: Nach
einem starken Zuwachs (engl. synaptogenesis) folgt ein Abbau (engl. synaptic pruning). Der rote
Balken zeigt die fortschreitende Myelinisierung von Axonen an. (Aus: Casey, B. J. et al. 2005, p.
105).
ENEMU-Projekt (COMENIUS 226496)
Kap.3- Neurolinguistik – Chris Schaner-Wolles & Philip Rausch – Aug.2008
Erscheint in: Buttaroni, S. (Hrsg.) bei Narr, Tübingen
 bei Schaner-Wolles & Rausch 2008
Herunterladen